- scrapy爬虫
sheyou2019
安装pipinstallscrapy运行时可能会出现Nomodulenamedwin32api此时安装pipinstallpypiwin32手动创建爬虫小程序#coding:utf-8importscrapyclassMySpider(scrapy.Spider):name="myspider"start_urls=["http://www.baidu.com"]allowed_domaims="
- Python爬虫——Scrapy
hyk今天写算法了吗
#Python爬虫爬虫python
目录介绍基本概念所使用的组件Scrapy爬虫步骤一.新建项目(scrapystartproject)二、明确目标(mySpider/items.py)三、制作爬虫(spiders/itcastSpider.py)四、保存数据介绍基本概念 Scrapy是用Python实现的一个为了爬取网站数据、提取结构性数据而编写的应用框架。 Scrapy常应用在包括数据挖掘,信息处理或存储历史数据等一系列的程
- 从0到1爬虫学习笔记:04Scrapy框架
Lynn Wen
爬虫学习笔记python大数据scrapy爬虫实例
文章目录1Scrapy概述1.1Scrapy架构图1.2Scrapy开发步骤2入门案例2.1学习目标2.2新建项目(scrapystartproject)2.3明确目标(mySpider/items.py)2.4制作爬虫(spiders/itcastSpider.py)2.5保存数据3ScrapyShell3.1简述3.2启动ScrapyShell3.3Selectors选择器3.4尝试Selec
- 【爬虫】4.3 Scrapy 爬取与存储数据
即使再小的船也能远航
爬虫python爬虫scrapypython
目录1.建立Web网站2.编写数据项目类3.编写爬虫程序MySpider4.编写数据管道处理类5.设置Scrapy的配置文件从一个网站爬取到数据后,往往要存储数据到数据库中,scrapy框架有十分方便的存储方法,为了说明这个存储过程,首先建立一个简单的网站,然后写一个scrapy爬虫程序爬取数据,最后存储数据。1.建立Web网站这个网站有一个网页,返回基本计算机教材数据,Flask程序服务器ser
- Python爬虫Scrapy框架代码
小小卡拉眯
python学习笔记python开发语言
Scrapy是一个基于Python的开源网络爬虫框架,可以帮助开发者快速搭建高效、稳定、可扩展的网络爬虫。其具有高度定制化的特点,开发者可以自定义管道、中间件、爬取规则等内容,从而实现高效、自主的爬虫任务。下面是一个简单的Scrapy爬虫框架的Python代码:importscrapyclassMySpider(scrapy.Spider): name='myspider' start_url
- python爬虫搭建scrapy环境,创建scrapy项目
喝星茶发o_o ....
pythonpython爬虫scrapy
创建文件夹-->打开文件夹-->全选路径-->输入cmd-->按Enter下载scrapy镜像命令pipinstall-ihttps://pypi.douban.com/simplescrapy没有下载成功多下载几次即可!创建scrapy项目命令scrapystartprojectmyspider【myspider项目名字自定义】scrapy.cfg项目的配置文件spiders自己定义的spide
- python的scrapy爬取网站用法
EaSoNgo111
pythonscrapy爬虫
新建项目(scrapystartprojectxxx):新建一个新的爬虫项目明确目标(编写items.py):明确你想要抓取的目标制作爬虫(spiders/xxspider.py):制作爬虫开始爬取网页存储内容(pipelines.py):设计管道存储爬取内容1.进入自定义的项目目录中,运行下列命令:scrapystartprojectmySpider2.打开mySpider目录下的items.p
- Scrapy命令行功能--scrapy shell
小镇夜里海棠花未眠
本文首发于我的博客:gongyanli.com前言:本文主要讲解Scrapy的命令行功能,Scrapy提供了两种类型的命令。1.全局命令2.项目命令,必须在Scrapy项目中运行全局命令1.startproject>scrapystartproject[project_name]>创建名为mySpider的Scrapy项目$scrapystartprojectmySpider2.settings>
- 在Scrapy中启动shell来调试
唐大麦
●Python
在Scrapy中写爬虫时,有时想在spider运行到某个位置时暂停,查看被处理的response,以确认response是否是期望的。这可以通过scrapy.shell.inspect_response函数来实现。以下是如何在spider中调用该函数的例子:importscrapyclassMySpider(scrapy.Spider):name="myspider"start_urls=["ht
- Scrapy源码阅读——Spider参数传递
zzy979481894
Scrapy
官方文档Spider参数中提到,可以使用scrapycrawl命令的-a选项向Spider传递参数:scrapycrawlmyspider-aarg1=value1-aarg2=value2这些参数会被传递到自定义的MySpider类的构造函数,并且超类Spider的构造函数会将其拷贝到属性中:importscrapyclassMySpider(scrapy.Spider):name='myspi
- scrapy - 给scrapy 的spider 传值
anzhehan1535
pythonjson
scrapy-给scrapy的spider传值方法一:在命令行用crawl控制spider爬取的时候,加上-a选项,例如:scrapycrawlmyspider-acategory=electronics然后在spider里这样写:importscrapyclassMySpider(scrapy.Spider):name='myspider'def__init__(self,category=No
- 发现一款强大的自动采集软件myspider
soft_ice
编程随笔
这几天试用了一下哥们的一个自动采集软件myspider,发现很好用,功能非常强大,具体介绍如下:MySpider介绍信息采集是利用计算机软件技术,针对定制的目标数据源,实时进行信息采集、抽取、处理,从而为各种信息服务系统提供数据输入的整个过程。MySpider自动采集系统是一款功能强大,使用方便的信息采集与监控软件。可以实现对各种不同类型的网站进行信息的采集整理,用户可自定义各种采集规则配置以适应
- python:简单的使用scrapy框架进行爬取和下载
Jabin Zhang
Python小爬虫
我将使用scrapy框架进行爬取http://www.imooc.com/course/list这个网站的第一页的封面图片①首先使用命令行生成一个scrapy模板,要提前cd到需要存放的路径(我这里放的是E盘,scrapy_Test是生成的文件夹名称)在E盘里就生成了一个名字为scrapy_Test的文件夹②然后使用pycharm直接打开这个文件夹③右击spider,新建一个MySpider.py
- scrapy.cmdline.execute
aknn30708
scrapy的cmdline命令1.启动爬虫的命令为:scrapycrawl(爬虫名)2.还可以通过以下方式来启动爬虫方法一:创建一个.py文件(这里的爬虫文件名可以自己定义,例:myspider.py)#!/usr/bin/envpython#-*-coding:utf-8-*-fromscrapyimportcmdline#方式一:注意execute的参数类型为一个列表cmdline.exec
- 爬虫Scrapy框架项目运行时报错!求解决!
kyrie_love
python3
E:\JetBrains\PyCharm\mySpider>scrapycrawlitcast-oitcast.json2018-03-2614:50:23[scrapy.utils.log]INFO:Scrapy1.5.0started(bot:mySpider)2018-03-2614:50:23[scrapy.utils.log]INFO:Versions:lxml4.2.1.0,libxm
- 一周内从0到1掌握Node爬虫技巧(二)
特慈
上篇文章介绍了爬虫的基本概念和基本原理,这篇开始我们一起来看看具体如何从网页中爬取自己想要的数据。在下面爬虫的栗子中,我们使用nodejs来作为我们的运行环境(我是前端工程师哦)!一、准备环境1、nodejs环境安装可以点击这里nodejs中文网下载安装包哦!二、创建项目1、安装好nodejs后,运行cmd切换到你想要创建的目录;2、mkdirmyspider(创建myspider文件夹);3、c
- 爬虫学习(二)
looeyWei
爬虫
Scrapy使用和入门1.创建一个scrapy项目scrapystartprojectmyspider创建了一个名为myspider的项目,生成了这么些东西2.生成一个爬虫cdmyspider#进入项目文件夹里scrapygenspideritcastitcast.cn首先进入哪个爬虫项目(可能有多个),然后生成了一个爬虫,爬虫名为itcast,爬取的域名范围是itcast.cn,怕的就是这爬虫爬
- annaconda+scrapy构建爬虫环境
wwwchenyc
爬虫
1.环境构建1.下载Anacondawgethttps://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/Anaconda3-5.0.0-Linux-x86_64.sh2.安装Anacondabashsource./Anaconda3-5.0.0-Linux-x86_64.sh3.conda创建虚拟环境(myspider)condacreate-nmy
- scrapy使用selenium
weixin_34318956
myspider.pyimportscrapyfromscrapy1.itemsimportScrapy1Itemfromseleniumimportwebdriver'''在scrapy中使用selenium的编码流程:1.在spider的构造方法中创建一个浏览器对象(作为当前spider的一个属性)2.重写spider的一个方法closed(self,spider),在该方法中执行浏览器关闭的
- Python学习笔记——爬虫之Scrapy-Redis实战
唯恋殊雨
Python开发
目录从零搭建Redis-Scrapy分布式爬虫一、安装Redis二、修改配置文件redis.conf三、测试Slave端远程连接Master端四、Redis数据库桌面管理工具源码自带项目说明:使用scrapy-redis的example来修改一、dmoz(classDmozSpider(CrawlSpider))二、myspider_redis(classMySpider(RedisSpider)
- python爬虫从入门到放弃之十四:Scrapy入门使用
虫之吻
——scrapy是为持续运行设计的网络爬虫框架,提供操作的Scrapy命令行scrapy快速入门1.创建项目要使用scrapy框架创建项目,需要通过命令来创建。首先进入到你想把这个项目存放的目录。然后使用以下命令创建:scrapystartproject+下面我们创建一个名为myspider的项目,输入scrapystartprojectmyspider它提示我们创建的myspider项目使用了s
- 分布式爬虫
HukDog
Python
修改普通爬虫项目为分布式爬虫1.主爬虫文件myspider.py做如下修改,其他不做修改:importscrapyfrom..itemsimportMyItem#导入数据模型fromscrapy_redis.spidersimportRedisSpider#导入scrapy_redis模块#1.修改scrapy.spider为RedisSpiderclassMySpider(RedisSpider
- scapy框架学习
Circle_list
script
scrapystartprojectmySpider创建爬虫scrapycrawlmyspider运行代码scrapycrawlmyspider-omyspider.json将服务器的内容生成json文件爬虫的目录结构:└──mySpider├──mySpider│├──__init__.py│├──items.py│├──middlewares.py│├──pipelines.py管道文件│├─
- python爬虫系列2-------Scrapy目录结构介绍与配置详解
lijian12388806
Python爬虫系列
Scrapy目录结构介绍与配置文件详解先上架构图,网上找的,不管懂不懂,先有个印象,结合文件目录和解释去看,结合以后的实践,原理一目了然。创建出scrapy项目目录如下├──mySpider│├──__init__.py│├──items.py│├──middlewares.py│├──pipelines.py│├──__pycache__│├──settings.py│└──spiders│├─
- 爬取京东官网,自动搜索保存所有商品信息
hapyandluck
python
#@Author:Liu_li(
[email protected])#@Date:2020/3/49:01#@coding:UTF-8#@Project:Sutdy_2#@FileName:myspider.pyimportdatetimeimportosimportrandomimportsqlite3importthreadingimporttimeimporturllib.reques
- [Scrapy-5] 常用爬虫Spiders
禅与发现的乐趣
POST方式爬取数据一般情况下使用Scrapy默认的方式就可以处理各种GET方式的数据爬取需求,当然有些场景是需要用户登录或者提供某些数据后使用POST请求才能获取到需要的数据。classMySpider(scrapy.Spider):name='myspider'defstart_requests(self):return[scrapy.FormRequest("http://www.examp
- 大数据:从网页上爬取数据的方法及代码
xuehyunyu
大数据
myspider.py:#!/usr/bin/python#-*-coding:utf-8-*-fromscrapy.spidersimportSpiderfromlxmlimportetreefromjredu.itemsimportJreduItemclassJreduSpider(Spider):name='tt'#爬虫的名字,必须的,唯一的allowed_domains=['sohu.co
- Scrapyd使用详解
所谓向日葵族
Scrapy
目录前言使用详解安装启动项目发布相关API使用查看服务进程状态项目发布版本调度爬虫取消任务获取上传的项目获取项目的版本获取项目的爬虫列表获取任务列表(Scrapyd0.15版本以上)删除项目版本删除项目前言Scrapyd通常作为守护进程运行,它侦听运行爬虫的请求,并为每个请求生成一个进程,该进程基本上执行:scrapycrawl[myspider]。Scrapyd还并行运行多个进程,将它们分配到m
- scrapy spider及其子类
weixin_30247159
1.spider传参在运行crawl时添加-a可以传递Spider参数:scrapycrawlmyspider-acategory=electronicsSpider在构造器(constructor)中获取参数:importscrapyclassMySpider(Spider):name='myspider'def__init__(self,category=None,*args,**kwargs
- Scrapy 入门教程(RUNOOB.COM)
Wu_Jun_Peng
学习笔记
Scrapy入门教程Scrapy的运作流程制作Scrapy爬虫一共需要4步:入门案例学习目标一.新建项目(scrapystartproject)二、明确目标(mySpider/items.py)三、制作爬虫(spiders/itcastSpider.py)1.爬数据2.取数据ScrapyEngine(引擎):负责Spider、ItemPipeline、Downloader、Scheduler中间的
- jvm调优总结(从基本概念 到 深度优化)
oloz
javajvmjdk虚拟机应用服务器
JVM参数详解:http://www.cnblogs.com/redcreen/archive/2011/05/04/2037057.html
Java虚拟机中,数据类型可以分为两类:基本类型和引用类型。基本类型的变量保存原始值,即:他代表的值就是数值本身;而引用类型的变量保存引用值。“引用值”代表了某个对象的引用,而不是对象本身,对象本身存放在这个引用值所表示的地址的位置。
- 【Scala十六】Scala核心十:柯里化函数
bit1129
scala
本篇文章重点说明什么是函数柯里化,这个语法现象的背后动机是什么,有什么样的应用场景,以及与部分应用函数(Partial Applied Function)之间的联系 1. 什么是柯里化函数
A way to write functions with multiple parameter lists. For instance
def f(x: Int)(y: Int) is a
- HashMap
dalan_123
java
HashMap在java中对很多人来说都是熟的;基于hash表的map接口的非同步实现。允许使用null和null键;同时不能保证元素的顺序;也就是从来都不保证其中的元素的顺序恒久不变。
1、数据结构
在java中,最基本的数据结构无外乎:数组 和 引用(指针),所有的数据结构都可以用这两个来构造,HashMap也不例外,归根到底HashMap就是一个链表散列的数据
- Java Swing如何实时刷新JTextArea,以显示刚才加append的内容
周凡杨
java更新swingJTextArea
在代码中执行完textArea.append("message")后,如果你想让这个更新立刻显示在界面上而不是等swing的主线程返回后刷新,我们一般会在该语句后调用textArea.invalidate()和textArea.repaint()。
问题是这个方法并不能有任何效果,textArea的内容没有任何变化,这或许是swing的一个bug,有一个笨拙的办法可以实现
- servlet或struts的Action处理ajax请求
g21121
servlet
其实处理ajax的请求非常简单,直接看代码就行了:
//如果用的是struts
//HttpServletResponse response = ServletActionContext.getResponse();
// 设置输出为文字流
response.setContentType("text/plain");
// 设置字符集
res
- FineReport的公式编辑框的语法简介
老A不折腾
finereport公式总结
FINEREPORT用到公式的地方非常多,单元格(以=开头的便被解析为公式),条件显示,数据字典,报表填报属性值定义,图表标题,轴定义,页眉页脚,甚至单元格的其他属性中的鼠标悬浮提示内容都可以写公式。
简单的说下自己感觉的公式要注意的几个地方:
1.if语句语法刚接触感觉比较奇怪,if(条件式子,值1,值2),if可以嵌套,if(条件式子1,值1,if(条件式子2,值2,值3)
- linux mysql 数据库乱码的解决办法
墙头上一根草
linuxmysql数据库乱码
linux 上mysql数据库区分大小写的配置
lower_case_table_names=1 1-不区分大小写 0-区分大小写
修改/etc/my.cnf 具体的修改内容如下:
[client]
default-character-set=utf8
[mysqld]
datadir=/var/lib/mysql
socket=/va
- 我的spring学习笔记6-ApplicationContext实例化的参数兼容思想
aijuans
Spring 3
ApplicationContext能读取多个Bean定义文件,方法是:
ApplicationContext appContext = new ClassPathXmlApplicationContext(
new String[]{“bean-config1.xml”,“bean-config2.xml”,“bean-config3.xml”,“bean-config4.xml
- mysql 基准测试之sysbench
annan211
基准测试mysql基准测试MySQL测试sysbench
1 执行如下命令,安装sysbench-0.5:
tar xzvf sysbench-0.5.tar.gz
cd sysbench-0.5
chmod +x autogen.sh
./autogen.sh
./configure --with-mysql --with-mysql-includes=/usr/local/mysql
- sql的复杂查询使用案列与技巧
百合不是茶
oraclesql函数数据分页合并查询
本片博客使用的数据库表是oracle中的scott用户表;
------------------- 自然连接查询
查询 smith 的上司(两种方法)
&
- 深入学习Thread类
bijian1013
javathread多线程java多线程
一. 线程的名字
下面来看一下Thread类的name属性,它的类型是String。它其实就是线程的名字。在Thread类中,有String getName()和void setName(String)两个方法用来设置和获取这个属性的值。
同时,Thr
- JSON串转换成Map以及如何转换到对应的数据类型
bijian1013
javafastjsonnet.sf.json
在实际开发中,难免会碰到JSON串转换成Map的情况,下面来看看这方面的实例。另外,由于fastjson只支持JDK1.5及以上版本,因此在JDK1.4的项目中可以采用net.sf.json来处理。
一.fastjson实例
JsonUtil.java
package com.study;
impor
- 【RPC框架HttpInvoker一】HttpInvoker:Spring自带RPC框架
bit1129
spring
HttpInvoker是Spring原生的RPC调用框架,HttpInvoker同Burlap和Hessian一样,提供了一致的服务Exporter以及客户端的服务代理工厂Bean,这篇文章主要是复制粘贴了Hessian与Spring集成一文,【RPC框架Hessian四】Hessian与Spring集成
在
【RPC框架Hessian二】Hessian 对象序列化和反序列化一文中
- 【Mahout二】基于Mahout CBayes算法的20newsgroup的脚本分析
bit1129
Mahout
#!/bin/bash
#
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information re
- nginx三种获取用户真实ip的方法
ronin47
随着nginx的迅速崛起,越来越多公司将apache更换成nginx. 同时也越来越多人使用nginx作为负载均衡, 并且代理前面可能还加上了CDN加速,但是随之也遇到一个问题:nginx如何获取用户的真实IP地址,如果后端是apache,请跳转到<apache获取用户真实IP地址>,如果是后端真实服务器是nginx,那么继续往下看。
实例环境: 用户IP 120.22.11.11
- java-判断二叉树是不是平衡
bylijinnan
java
参考了
http://zhedahht.blog.163.com/blog/static/25411174201142733927831/
但是用java来实现有一个问题。
由于Java无法像C那样“传递参数的地址,函数返回时能得到参数的值”,唯有新建一个辅助类:AuxClass
import ljn.help.*;
public class BalancedBTree {
- BeanUtils.copyProperties VS PropertyUtils.copyProperties
诸葛不亮
PropertyUtilsBeanUtils
BeanUtils.copyProperties VS PropertyUtils.copyProperties
作为两个bean属性copy的工具类,他们被广泛使用,同时也很容易误用,给人造成困然;比如:昨天发现同事在使用BeanUtils.copyProperties copy有integer类型属性的bean时,没有考虑到会将null转换为0,而后面的业
- [金融与信息安全]最简单的数据结构最安全
comsci
数据结构
现在最流行的数据库的数据存储文件都具有复杂的文件头格式,用操作系统的记事本软件是无法正常浏览的,这样的情况会有什么问题呢?
从信息安全的角度来看,如果我们数据库系统仅仅把这种格式的数据文件做异地备份,如果相同版本的所有数据库管理系统都同时被攻击,那么
- vi区段删除
Cwind
linuxvi区段删除
区段删除是编辑和分析一些冗长的配置文件或日志文件时比较常用的操作。简记下vi区段删除要点备忘。
vi概述
引文中并未将末行模式单独列为一种模式。单不单列并不重要,能区分命令模式与末行模式即可。
vi区段删除步骤:
1. 在末行模式下使用:set nu显示行号
非必须,随光标移动vi右下角也会显示行号,能够正确找到并记录删除开始行
- 清除tomcat缓存的方法总结
dashuaifu
tomcat缓存
用tomcat容器,大家可能会发现这样的问题,修改jsp文件后,但用IE打开 依然是以前的Jsp的页面。
出现这种现象的原因主要是tomcat缓存的原因。
解决办法如下:
在jsp文件头加上
<meta http-equiv="Expires" content="0"> <meta http-equiv="kiben&qu
- 不要盲目的在项目中使用LESS CSS
dcj3sjt126com
Webless
如果你还不知道LESS CSS是什么东西,可以看一下这篇文章,是我一朋友写给新人看的《CSS——LESS》
不可否认,LESS CSS是个强大的工具,它弥补了css没有变量、无法运算等一些“先天缺陷”,但它似乎给我一种错觉,就是为了功能而实现功能。
比如它的引用功能
?
.rounded_corners{
- [入门]更上一层楼
dcj3sjt126com
PHPyii2
更上一层楼
通篇阅读完整个“入门”部分,你就完成了一个完整 Yii 应用的创建。在此过程中你学到了如何实现一些常用功能,例如通过 HTML 表单从用户那获取数据,从数据库中获取数据并以分页形式显示。你还学到了如何通过 Gii 去自动生成代码。使用 Gii 生成代码把 Web 开发中多数繁杂的过程转化为仅仅填写几个表单就行。
本章将介绍一些有助于更好使用 Yii 的资源:
- Apache HttpClient使用详解
eksliang
httpclienthttp协议
Http协议的重要性相信不用我多说了,HttpClient相比传统JDK自带的URLConnection,增加了易用性和灵活性(具体区别,日后我们再讨论),它不仅是客户端发送Http请求变得容易,而且也方便了开发人员测试接口(基于Http协议的),即提高了开发的效率,也方便提高代码的健壮性。因此熟练掌握HttpClient是很重要的必修内容,掌握HttpClient后,相信对于Http协议的了解会
- zxing二维码扫描功能
gundumw100
androidzxing
经常要用到二维码扫描功能
现给出示例代码
import com.google.zxing.WriterException;
import com.zxing.activity.CaptureActivity;
import com.zxing.encoding.EncodingHandler;
import android.app.Activity;
import an
- 纯HTML+CSS带说明的黄色导航菜单
ini
htmlWebhtml5csshovertree
HoverTree带说明的CSS菜单:纯HTML+CSS结构链接带说明的黄色导航
在线体验效果:http://hovertree.com/texiao/css/1.htm代码如下,保存到HTML文件可以看到效果:
<!DOCTYPE html >
<html >
<head>
<title>HoverTree
- fastjson初始化对性能的影响
kane_xie
fastjson序列化
之前在项目中序列化是用thrift,性能一般,而且需要用编译器生成新的类,在序列化和反序列化的时候感觉很繁琐,因此想转到json阵营。对比了jackson,gson等框架之后,决定用fastjson,为什么呢,因为看名字感觉很快。。。
网上的说法:
fastjson 是一个性能很好的 Java 语言实现的 JSON 解析器和生成器,来自阿里巴巴的工程师开发。
- 基于Mybatis封装的增删改查实现通用自动化sql
mengqingyu
DAO
1.基于map或javaBean的增删改查可实现不写dao接口和实现类以及xml,有效的提高开发速度。
2.支持自定义注解包括主键生成、列重复验证、列名、表名等
3.支持批量插入、批量更新、批量删除
<bean id="dynamicSqlSessionTemplate" class="com.mqy.mybatis.support.Dynamic
- js控制input输入框的方法封装(数字,中文,字母,浮点数等)
qifeifei
javascript js
在项目开发的时候,经常有一些输入框,控制输入的格式,而不是等输入好了再去检查格式,格式错了就报错,体验不好。 /** 数字,中文,字母,浮点数(+/-/.) 类型输入限制,只要在input标签上加上 jInput="number,chinese,alphabet,floating" 备注:floating属性只能单独用*/
funct
- java 计时器应用
tangqi609567707
javatimer
mport java.util.TimerTask; import java.util.Calendar; public class MyTask extends TimerTask { private static final int
- erlang输出调用栈信息
wudixiaotie
erlang
在erlang otp的开发中,如果调用第三方的应用,会有有些错误会不打印栈信息,因为有可能第三方应用会catch然后输出自己的错误信息,所以对排查bug有很大的阻碍,这样就要求我们自己打印调用的栈信息。用这个函数:erlang:process_display (self (), backtrace).需要注意这个函数只会输出到标准错误输出。
也可以用这个函数:erlang:get_s