- 【Python爬虫】百度百科词条内容
PokiFighting
数据处理python爬虫开发语言
词条内容我这里随便选取了一个链接,用的是FBI的词条importurllib.requestimporturllib.parsefromlxmlimportetreedefquery(url):headers={'user-agent':'Mozilla/5.0(WindowsNT6.1;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/80.
- 使用requests-html 遇见的问题
柒柒钏
爬虫
使用requests-html遇见的问题1、解决无头浏览器问题(可能有反爬,所以需要使用模拟浏览器)修改requests_html源码,如图所示,添加红框里的代码示例爬虫代码:fromrequests_htmlimportHTMLSessionsession=HTMLSession()headers={"User-Agent":"Mozilla/5.0(WindowsNT10.0;WOW64)Ap
- nginx过滤爬虫访问
梓沂
nginx爬虫运维
思路来自ai:Nginx可以通过多种方式来限制爬虫的行为:1.**User-Agent限制**:可以通过检查HTTP请求的User-Agent头部来识别并限制某些爬虫。例如,可以在Nginx配置文件中使用`if`语句来检查User-Agent,并使用`return`指令拒绝特定的User-Agent。```nginxif($http_user_agent~*(BadCrawler|AnotherB
- Day21—爬虫性能优化技巧
Ztop
爬虫(新手推荐)爬虫python性能优化
在网络爬虫的开发过程中,性能优化是一个关键环节。一个高效的爬虫不仅能够快速完成任务,还能减轻对目标网站的压力,降低被封禁的风险。本文将讨论如何优化爬虫性能,包括请求头优化、连接池、缓存策略等技巧。1.请求头优化请求头是HTTP请求的重要组成部分,它包含了客户端向服务器发送的元数据。通过优化请求头,可以模拟正常用户的行为,减少被网站识别为爬虫的可能性。User-Agent:设置合适的User-Age
- 如何用python写采集亚马逊商品的程序
myCOTB
Pythonpython开发语言
要编写一个采集亚马逊商品信息的程序,我们可以使用Python中的requests库来发送HTTP请求,并使用BeautifulSoup库来解析HTML页面。由于亚马逊有反爬虫机制,使用这种方式可能需要处理一些反爬虫策略,如使用随机的User-Agent、IP代理等。以下是一个简单的示例程序,用于从亚马逊采集特定商品的名称、价格和评分。步骤一:安装必要的库首先,安装所需的库:pipinstallre
- Python爬取QQ音乐的代码
三更寒天
python开发语言爬虫
以下是一个简单的Python爬取QQ音乐的代码示例:importrequestsfrombs4importBeautifulSoupdefget_music_info(music_id):headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/89.0.
- python---爬取QQ音乐
SRestia
python
如Cookie为非vip,仅能获取非vip歌曲1.下载包pipinstalljsonpath2.代码importosimporttimeimportrequestsfromjsonpathimportjsonpathdefsearch_and_download_qq_music(query_text):headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0
- 爬取知乎回答
sml_5421
爬虫数据库爬虫
登录网站参考这篇文章在Network中随意点击一个Fetch项(注意前面的小图标),在右边的Headers中找到Cookie,这段代码就是知乎Cookie。importrequests#引入ssl,取消全局ssl认证:#设置好urlurl='https://www.zhihu.com/'#设置好headersheaders={'User-Agent':'Mozilla/5.0(Macintosh;
- python网络爬虫(三)——爬虫攻防
光电的一只菜鸡
pythonpython爬虫开发语言
爬虫是模拟人的浏览访问行为,进行数据的批量抓取,当抓取的数据量逐渐增大时,会给被访问的服务器造成很大的压力,甚至有可能崩溃。换句话说就是,服务器是不喜欢有人抓取自己的数据的,那么,网站方面就会这队这些爬虫者采取一些反爬策略。 服务器识别爬虫的一种方式是通过检查连接的User-Agent来识别到底是浏览器访问还是代码访问的。如果是代码访问的,当访问量增大时,服务器其就会直接封掉来访IP。 在
- 爬取央视热榜并存储到MongoDB
稿子不爱
mongodb数据库python爬虫
1.环境准备在开始之前,确保你已经安装了以下Python库:pipinstallrequestspymongo2.爬取网页内容首先,我们需要爬取央视热榜的网页内容。通过requests.get()方法,我们可以获取网页的HTML内容,并通过re.findall()方法来提取我们感兴趣的部分。importrequestsimportreheaders={"User-Agent":"Mozilla/5
- Python爬虫 爬取一本小说
Giant-Fox
Python3python爬虫开发语言
需要用到requests和reetree这三个库requests需要安装好环境importrequestsimportrefromlxmlimportetree defGetsourcePage(): #定义需要爬取入口 url="自行填写"#这里填你需要下载的小说地址 headers={ 'user-Agent':'自行填写' } #header需要从网址信息中找到user-A
- Java-HttpHeaders请求头或响应头
ZHOU_VIP
MACjava开发语言
HttpHeaders是SpringFramework中的一个类,用于封装HTTP头部信息。它提供了一种方便的方式来设置HTTP请求头和处理HTTP响应头。下面分别介绍如何使用HttpHeaders来设置请求头和处理响应头。设置请求头在发送HTTP请求时,可以通过HttpHeaders设置各种请求头字段,例如Accept、User-Agent、Authorization等。这些请求头可以影响服务器
- 入门requents请求库使用
~X&K~
数据库pip
headers={}:user-agent:用户标识;referer:请求来源;content-type:请求参数类型。requests是Python中一个非常流行的HTTP库,用于发送各种HTTP请求。以下是使用requests库的一些基本步骤:1.安装requests:第三方需要安装的请求库,“pipinstallrequests”。首先,确保已经安装了requests库。如果还没有安装,可以
- python 保存数据单文件_python3.6 单文件爬虫 断点续存 普通版 文件续存方式
weixin_39561673
python保存数据单文件
#导入必备的包#本文爬取的是顶点小说中的完美世界为列。文中的aa.text,bb.text为自己创建的text文件importrequestsfrombs4importBeautifulSoup#爬取目标urlurl='https://www.x23us.com/html/42/42377/'headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;WOW6
- 认识网络爬虫(一看秒知)
码农不是吗喽(大学生版)
python网络爬虫基础网络爬虫大数据
目录前言:1.1什么是网络爬虫1.通用网络爬虫2.聚焦网络爬虫3.增量式网络爬虫4.深层网络爬虫1.2网络爬虫的应用场景1.搜索引擎2.舆情分析与监测3.聚合平台4.出行类软件1.3网络爬虫合法性探究1.3.1Robots协议1.3.2防爬虫应对策略1.添加User-Agent字段2.降低访问频率3.设置代理服务器4.识别验证码前言:随着网络的蓬勃发展,互联网成为大量信息的载体,如何有效提取并利用
- Salesforce Community 用户 OAuth 只能通过 web server 或 user-agent flows,而不能通过 username/password
Channing Lewis
Salesforcesalesforce
importrequestsinstance_url='https://yourCompanyName.my.site.com'url=f"{instance_url}/services/oauth2/token"payload={'grant_type':'password','client_id':'CLIENT_ID','client_secret':'CLIENT_SECRET','use
- Python爬虫打印状态码为521,返回数据为乱码?
马龙强_
python前端javascript
爬虫代码:importrequestsheaders={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/107.0.0.0Safari/537.36','Referer':'https://www1.rmfysszc.gov.cn/projects.shtml?d
- 墨者学院 - WEB站点访问者身份识别
这是什么娃哈哈
首先访问:http://ip地址/robots.txt找到bingboot这个User-Agent可以使用打开burp抓包修改user-agent为bingbot即可获取key
- Python爬虫
LzYuY
Pythonpython爬虫开发语言大数据
目录1.网络爬虫2.爬虫的分类①通用爬虫②聚焦爬虫③增量式爬虫3.反爬机制&反反爬策略4.HTML网页(详细复习前面web知识)5.网络请求6.请求头常见参数①User-Agent②Referer③Cookie7.常见响应状态码8.URL(host、port、path...)9.网页分类①表层网页②深层网页1.网络爬虫网络爬虫是一种按照一定的规则,自动抓取万维网信息的程序或者脚本。网页一般由htm
- navigator对象和history对象
王玉伟的伟
navigator对象navigator对象包含有关浏览器的信息,它有很多属性,我们最常用的是userAgent,该属性可以返回由客户机发送服务器的user-agent头部的值。下面前端代码可以判断用户那个终端打开页面,实现跳转if((navigator.userAgent.match(/(phone|pad|pod|iPhone|iPod|ios|iPad|Android|Mobile|Blac
- 带tkinter界面的m3u8单程下载
卡卡啦啦_
采用tkinter模块搭建GUI界面image代码如下:importrequestsfromtkinterimport*header={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/76.0.3809.132Safari/537.36'}defts_url():
- 十六、常见的反爬手段和解决思路
bug_fu
爬虫爬虫学习之路常见的反爬手段解决思路
1、明确反反爬的主要思路反反爬的主要思路就是:尽可能的去模拟浏览器,浏览器在如何操作,代码中就如何去实现。例如:浏览器先请求了地址url1,保留了cookie在本地,之后请求地址url2,带上了之前的cookie,代码中也可以这样去实现。2、通过headers字段来反爬headers中有很多字段,这些字段都有可能会被对方服务器拿过来进行判断是否为爬虫2.1通过headers中的User-Agent
- Python爬虫的初体验——简单的例子
魅美
笔记网络爬虫python
爬虫的简单例子网址:http://www.ci123.com/baike/nbnc/31输出结果:一个表(excel或数据库)三个字段分别是类型、标题、html富文本。爬虫代码如下:importrequestsfrombs4importBeautifulSoupimportxlwturl='http://www.ci123.com/baike/nbnc/'headers={'User-Agent'
- 基于pyautogui的爬虫
eric-sjq
爬虫pythonui
本文将介绍如何使用Python的pyautogui库编写一个简单的爬虫程序。我们将分步骤讲解代码,并解释每个步骤的作用。当网站的反爬很严,设置了User-Agent和cookie仍然不管用时,可以使用这种方法。1.导入所需库首先,我们需要导入所需的库:importwebbrowserimporttimeimportwin32guiimportwin32conimportpyautogui2.定义一
- HGAME 2024 WEEK 1 :web ezHTTP
bK_Rose
网络网络安全
题目:看到这个就知道是文件头伪造第一想法就是Referer伪造所以伪造Referer:vidar.club然后构造伪造的Referer然后提示通过那些东西访问页面,User-Agent:是构造你浏览器访问信息的,所以复制右边那一串替代就好了然后要求我们从本地访问,那就是伪造ip一般想到两个方法:X-Forwarded-For:127.0.0.1Client-ip:127.0.0.1但是本题这里构造
- hgame2024,week1
yzzob
前端javascripthtml
webezhttp1.请从vidar.club访问这个页面>>Referer:vidar.club2.请通过Mozilla/5.0(Vidar;VidarOSx86_64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/121.0.0.0Safari/537.36Edg/121.0.0.0访问此页面>>User-Agent:Mozilla/5.0(Vidar;V
- Python爬虫学习
曹博Blog
Pythonpython爬虫学习
1.1搭建爬虫程序开发环境爬取未来七天天气预报frombs4importBeautifulSoupfrombs4importUnicodeDammitimporturllib.requesturl="http://www.weather.com.cn/weather/101120901.shtml"try:headers={"User-Agent":"Mozilla/5.0(WindowsNT10
- python爬虫学习day1—Books to Scrape
2401_82964032
pythonbeautifulsoup
##第零步安装requests库与BeautifulSoup库,以及学习一点点html知识##第一步导入requests库与BeautifulSoup库importrequestsfrombs4importBeautifulSoup##第三步查看网站是否有反爬机制如果有可以选择伪装浏览器headers={"User-Agent":"自己浏览器的标识"}按F12找到网络(network)然后刷新网页
- 如何让百度收录爬虫
命令执行
百度爬虫
要让百度收录你的爬虫数据,你需要遵循以下步骤:1.创建一个网站:首先,你需要创建一个网站来展示你爬取的数据。确保网站已经上线并且可以被访问。2.配置网站的robots.txt文件:在你的网站根目录下创建一个名为robots.txt的文件,并添加以下内容:User-agent:BaiduspiderDisallow:这将允许百度的爬虫访问你的网站。3.提交网站地图:创建一个包含你网站所有页面的网站地
- 爬了个小虫
跃上青空
如今的江湖爬虫python
爬了个小虫requests零之简介一之GET请求请求头的User-Agent字段伪装成浏览器,并用urlencode将中文转码放入get请求但实际上可以用params参数一并完成转码(requests封装的urlencode)url编码解码用unquoteGET的header参数=>各种请求头GET的cookies参数二之POST请求对比GET、POST发送post请求,模拟浏览器的登录行为req
- mongodb3.03开启认证
21jhf
mongodb
下载了最新mongodb3.03版本,当使用--auth 参数命令行开启mongodb用户认证时遇到很多问题,现总结如下:
(百度上搜到的基本都是老版本的,看到db.addUser的就是,请忽略)
Windows下我做了一个bat文件,用来启动mongodb,命令行如下:
mongod --dbpath db\data --port 27017 --directoryperdb --logp
- 【Spark103】Task not serializable
bit1129
Serializable
Task not serializable是Spark开发过程最令人头疼的问题之一,这里记录下出现这个问题的两个实例,一个是自己遇到的,另一个是stackoverflow上看到。等有时间了再仔细探究出现Task not serialiazable的各种原因以及出现问题后如何快速定位问题的所在,至少目前阶段碰到此类问题,没有什么章法
1.
package spark.exampl
- 你所熟知的 LRU(最近最少使用)
dalan_123
java
关于LRU这个名词在很多地方或听说,或使用,接下来看下lru缓存回收的实现
1、大体的想法
a、查询出最近最晚使用的项
b、给最近的使用的项做标记
通过使用链表就可以完成这两个操作,关于最近最少使用的项只需要返回链表的尾部;标记最近使用的项,只需要将该项移除并放置到头部,那么难点就出现 你如何能够快速在链表定位对应的该项?
这时候多
- Javascript 跨域
周凡杨
JavaScriptjsonp跨域cross-domain
 
- linux下安装apache服务器
g21121
apache
安装apache
下载windows版本apache,下载地址:http://httpd.apache.org/download.cgi
1.windows下安装apache
Windows下安装apache比较简单,注意选择路径和端口即可,这里就不再赘述了。 2.linux下安装apache:
下载之后上传到linux的相关目录,这里指定为/home/apach
- FineReport的JS编辑框和URL地址栏语法简介
老A不折腾
finereportweb报表报表软件语法总结
JS编辑框:
1.FineReport的js。
作为一款BS产品,browser端的JavaScript是必不可少的。
FineReport中的js是已经调用了finereport.js的。
大家知道,预览报表时,报表servlet会将cpt模板转为html,在这个html的head头部中会引入FineReport的js,这个finereport.js中包含了许多内置的fun
- 根据STATUS信息对MySQL进行优化
墙头上一根草
status
mysql 查看当前正在执行的操作,即正在执行的sql语句的方法为:
show processlist 命令
mysql> show global status;可以列出MySQL服务器运行各种状态值,我个人较喜欢的用法是show status like '查询值%';一、慢查询mysql> show variab
- 我的spring学习笔记7-Spring的Bean配置文件给Bean定义别名
aijuans
Spring 3
本文介绍如何给Spring的Bean配置文件的Bean定义别名?
原始的
<bean id="business" class="onlyfun.caterpillar.device.Business">
<property name="writer">
<ref b
- 高性能mysql 之 性能剖析
annan211
性能mysqlmysql 性能剖析剖析
1 定义性能优化
mysql服务器性能,此处定义为 响应时间。
在解释性能优化之前,先来消除一个误解,很多人认为,性能优化就是降低cpu的利用率或者减少对资源的使用。
这是一个陷阱。
资源时用来消耗并用来工作的,所以有时候消耗更多的资源能够加快查询速度,保持cpu忙绿,这是必要的。很多时候发现
编译进了新版本的InnoDB之后,cpu利用率上升的很厉害,这并不
- 主外键和索引唯一性约束
百合不是茶
索引唯一性约束主外键约束联机删除
目标;第一步;创建两张表 用户表和文章表
第二步;发表文章
1,建表;
---用户表 BlogUsers
--userID唯一的
--userName
--pwd
--sex
create
- 线程的调度
bijian1013
java多线程thread线程的调度java多线程
1. Java提供一个线程调度程序来监控程序中启动后进入可运行状态的所有线程。线程调度程序按照线程的优先级决定应调度哪些线程来执行。
2. 多数线程的调度是抢占式的(即我想中断程序运行就中断,不需要和将被中断的程序协商)
a) 
- 查看日志常用命令
bijian1013
linux命令unix
一.日志查找方法,可以用通配符查某台主机上的所有服务器grep "关键字" /wls/applogs/custom-*/error.log
二.查看日志常用命令1.grep '关键字' error.log:在error.log中搜索'关键字'2.grep -C10 '关键字' error.log:显示关键字前后10行记录3.grep '关键字' error.l
- 【持久化框架MyBatis3一】MyBatis版HelloWorld
bit1129
helloworld
MyBatis这个系列的文章,主要参考《Java Persistence with MyBatis 3》。
样例数据
本文以MySQL数据库为例,建立一个STUDENTS表,插入两条数据,然后进行单表的增删改查
CREATE TABLE STUDENTS
(
stud_id int(11) NOT NULL AUTO_INCREMENT,
- 【Hadoop十五】Hadoop Counter
bit1129
hadoop
1. 只有Map任务的Map Reduce Job
File System Counters
FILE: Number of bytes read=3629530
FILE: Number of bytes written=98312
FILE: Number of read operations=0
FILE: Number of lar
- 解决Tomcat数据连接池无法释放
ronin47
tomcat 连接池 优化
近段时间,公司的检测中心报表系统(SMC)的开发人员时不时找到我,说用户老是出现无法登录的情况。前些日子因为手头上 有Jboss集群的测试工作,发现用户不能登录时,都是在Tomcat中将这个项目Reload一下就好了,不过只是治标而已,因为大概几个小时之后又会 再次出现无法登录的情况。
今天上午,开发人员小毛又找到我,要我协助将这个问题根治一下,拖太久用户难保不投诉。
简单分析了一
- java-75-二叉树两结点的最低共同父结点
bylijinnan
java
import java.util.LinkedList;
import java.util.List;
import ljn.help.*;
public class BTreeLowestParentOfTwoNodes {
public static void main(String[] args) {
/*
* node data is stored in
- 行业垂直搜索引擎网页抓取项目
carlwu
LuceneNutchHeritrixSolr
公司有一个搜索引擎项目,希望各路高人有空来帮忙指导,谢谢!
这是详细需求:
(1) 通过提供的网站地址(大概100-200个网站),网页抓取程序能不断抓取网页和其它类型的文件(如Excel、PDF、Word、ppt及zip类型),并且程序能够根据事先提供的规则,过滤掉不相干的下载内容。
(2) 程序能够搜索这些抓取的内容,并能对这些抓取文件按照油田名进行分类,然后放到服务器不同的目录中。
- [通讯与服务]在总带宽资源没有大幅增加之前,不适宜大幅度降低资费
comsci
资源
降低通讯服务资费,就意味着有更多的用户进入,就意味着通讯服务提供商要接待和服务更多的用户,在总体运维成本没有由于技术升级而大幅下降的情况下,这种降低资费的行为将导致每个用户的平均带宽不断下降,而享受到的服务质量也在下降,这对用户和服务商都是不利的。。。。。。。。
&nbs
- Java时区转换及时间格式
Cwind
java
本文介绍Java API 中 Date, Calendar, TimeZone和DateFormat的使用,以及不同时区时间相互转化的方法和原理。
问题描述:
向处于不同时区的服务器发请求时需要考虑时区转换的问题。譬如,服务器位于东八区(北京时间,GMT+8:00),而身处东四区的用户想要查询当天的销售记录。则需把东四区的“今天”这个时间范围转换为服务器所在时区的时间范围。
- readonly,只读,不可用
dashuaifu
jsjspdisablereadOnlyreadOnly
readOnly 和 readonly 不同,在做js开发时一定要注意函数大小写和jsp黄线的警告!!!我就经历过这么一件事:
使用readOnly在某些浏览器或同一浏览器不同版本有的可以实现“只读”功能,有的就不行,而且函数readOnly有黄线警告!!!就这样被折磨了不短时间!!!(期间使用过disable函数,但是发现disable函数之后后台接收不到前台的的数据!!!)
- LABjs、RequireJS、SeaJS 介绍
dcj3sjt126com
jsWeb
LABjs 的核心是 LAB(Loading and Blocking):Loading 指异步并行加载,Blocking 是指同步等待执行。LABjs 通过优雅的语法(script 和 wait)实现了这两大特性,核心价值是性能优化。LABjs 是一个文件加载器。RequireJS 和 SeaJS 则是模块加载器,倡导的是一种模块化开发理念,核心价值是让 JavaScript 的模块化开发变得更
- [应用结构]入口脚本
dcj3sjt126com
PHPyii2
入口脚本
入口脚本是应用启动流程中的第一环,一个应用(不管是网页应用还是控制台应用)只有一个入口脚本。终端用户的请求通过入口脚本实例化应用并将将请求转发到应用。
Web 应用的入口脚本必须放在终端用户能够访问的目录下,通常命名为 index.php,也可以使用 Web 服务器能定位到的其他名称。
控制台应用的入口脚本一般在应用根目录下命名为 yii(后缀为.php),该文
- haoop shell命令
eksliang
hadoophadoop shell
cat
chgrp
chmod
chown
copyFromLocal
copyToLocal
cp
du
dus
expunge
get
getmerge
ls
lsr
mkdir
movefromLocal
mv
put
rm
rmr
setrep
stat
tail
test
text
- MultiStateView不同的状态下显示不同的界面
gundumw100
android
只要将指定的view放在该控件里面,可以该view在不同的状态下显示不同的界面,这对ListView很有用,比如加载界面,空白界面,错误界面。而且这些见面由你指定布局,非常灵活。
PS:ListView虽然可以设置一个EmptyView,但使用起来不方便,不灵活,有点累赘。
<com.kennyc.view.MultiStateView xmlns:android=&qu
- jQuery实现页面内锚点平滑跳转
ini
JavaScripthtmljqueryhtml5css
平时我们做导航滚动到内容都是通过锚点来做,刷的一下就直接跳到内容了,没有一丝的滚动效果,而且 url 链接最后会有“小尾巴”,就像#keleyi,今天我就介绍一款 jquery 做的滚动的特效,既可以设置滚动速度,又可以在 url 链接上没有“小尾巴”。
效果体验:http://keleyi.com/keleyi/phtml/jqtexiao/37.htmHTML文件代码:
&
- kafka offset迁移
kane_xie
kafka
在早前的kafka版本中(0.8.0),offset是被存储在zookeeper中的。
到当前版本(0.8.2)为止,kafka同时支持offset存储在zookeeper和offset manager(broker)中。
从官方的说明来看,未来offset的zookeeper存储将会被弃用。因此现有的基于kafka的项目如果今后计划保持更新的话,可以考虑在合适
- android > 搭建 cordova 环境
mft8899
android
1 , 安装 node.js
http://nodejs.org
node -v 查看版本
2, 安装 npm
可以先从 https://github.com/isaacs/npm/tags 下载 源码 解压到
- java封装的比较器,比较是否全相同,获取不同字段名字
qifeifei
非常实用的java比较器,贴上代码:
import java.util.HashSet;
import java.util.List;
import java.util.Set;
import net.sf.json.JSONArray;
import net.sf.json.JSONObject;
import net.sf.json.JsonConfig;
i
- 记录一些函数用法
.Aky.
位运算PHP数据库函数IP
高手们照旧忽略。
想弄个全天朝IP段数据库,找了个今天最新更新的国内所有运营商IP段,copy到文件,用文件函数,字符串函数把玩下。分割出startIp和endIp这样格式写入.txt文件,直接用phpmyadmin导入.csv文件的形式导入。(生命在于折腾,也许你们觉得我傻X,直接下载人家弄好的导入不就可以,做自己的菜鸟,让别人去说吧)
当然用到了ip2long()函数把字符串转为整型数
- sublime text 3 rust
wudixiaotie
Sublime Text
1.sublime text 3 => install package => Rust
2.cd ~/.config/sublime-text-3/Packages
3.mkdir rust
4.git clone https://github.com/sp0/rust-style
5.cd rust-style
6.cargo build --release
7.ctrl