- python文档处理第三方库_值得收藏的Python第三方库
weixin_39619481
python文档处理第三方库
网络站点爬取爬取网络站点的库Scrapy–一个快速高级的屏幕爬取及网页采集框架。cola–一个分布式爬虫框架。Demiurge–基于PyQuery的爬虫微型框架。feedparser–通用feed解析器。Grab–站点爬取框架。MechanicalSoup–用于自动和网络站点交互的Python库。portia–Scrapy可视化爬取。pyspider–一个强大的爬虫系统。RoboBrowser–一
- Python-玩转数据-爬虫框架pyspider 与 Scrapy 的区别
人猿宇宙
python爬虫开发语言
Python-玩转数据-爬虫框架pyspider与Scrapy的区别1、pyspider提供了WebUI,爬虫的编写、调试都是在WebUI中进行的而Scrapy原生是不具备这个功能的,采用的是代码和命令行操作,但可以通过对接Portia实现可视化配置。2、pyspider调试非常方便,WebUI操作便捷直观,在Scrapy中则是使用parse命令进行调试,论方便程度不及pyspider。3、pys
- python爬虫基本库_Python爬虫:(番外)爬虫常用库整理推荐
weixin_39563420
python爬虫基本库
你不会有猫的scrapy系列:大名鼎鼎的python爬虫框架,网上成熟教程有很多,我的一些使用心得后期会单开一章。portia:可视化爬虫。也是scrapinghub系列弄出来的东西,底层是scrapy,比较好玩,基本没有代码难度,后面会单独写一下。pyspider:pyspider中文网一个国人编写的强大的网络爬虫系统并带有强大的WebUI。采用Python语言编写,分布式架构,支持多种数据库后
- Mr.Island of Portia
Mr_Island
有没有一个时刻,觉得自己像是一座岛。无关于孤傲,也并不与世隔绝。只是伴随着些许死寂,茫然地度过岁月静好。
- 用python写网络爬虫(第二版)技术PDF书籍分享
14026da90cfa
本书讲解了如何使用Python来编写网络爬虫程序,内容包括网络爬虫简介,从页面中抓取数据的3种方法,提取缓存中的数据,使用多个线程和进程进行并发抓取,抓取动态页面中的内容,与表单进行交互,处理页面中的验证码问题,以及使用Scarpy和Portia进行数据抓取,并在最后介绍了使用本书讲解的数据抓取技术对几个真实的网站进行抓取的实例,旨在帮助读者活学活用书中介绍的技术。本书适合有一定Python编程经
- 8.用python写网路爬虫,Scrapy
久孤776
python爬虫scrapy
前言Scrapy是一个流行的网络爬虫框架,它拥有很多简化网站抓取的高级函数。本章中,我们将学习使用Scrapy抓取示例网站,目标任务与第2章相同。然后,我们还会介绍Portia,这是一个基于Scrapy的应用,允许用户通过点击界面抓取网站。8.1安装我们可以使用pip命令安装Scrapy,如下所示。pipinstallScrapy由于Scrapy依赖一些外部库,因此如果在安装过程中遇到困难的话,可
- 我终于说出了内心真实的想法
圆梦随笔
今天,我们成都头马演讲俱乐部的会员群对把会费从每月70元提升到每月80元讨论得热火朝天。首先,财务官Portia在群里说:各位亲,9月是续费季,应该续2020.10-2021.3月的费用。因为场地租赁及汇率变化等原因,成都头马会费拟从70/月变动到80/月,且参照成都其他头马收费(如樊登,錦英,Happy收费80,还有其他收费80的),成都头马会费这一变动当属合理范围,现在先征求大家意见。赞成请回
- Python爬虫框架的介绍
ProgramStack
Python爬虫自动化python爬虫开发语言scrapycrawley
爬虫框架的介绍Scrapy框架Crawley框架Portia框架Newspaper框架Python-goose框架随着网络爬虫的应用越来越多,一些爬虫框架逐渐涌现,这些框架将爬虫的一些常用功能和业务逻辑进行封装。这些框架的基础上,根据自己的需求添加少量的代码,就可以实现自己想的的一个爬虫。使用Python语言开发的爬虫框架有很多,但是实现方式和原理大同小异,用户只需要深入掌握一种框架,对其他框架做
- Python爬虫框架NewSpaper使用详解
目录写在前面newspapernewspaper框架的使用例如:单条新闻内容获取newspaper文章缓存其他功能写在后面写在前面原计划继续写一篇Portia的使用博客,结果在编写代码途中发现,在windows7的DockerToolbox里面使用Portia错误实在是太多了,建议大家还是在Linux虚拟机或者直接在服务器上去运行。否则太耗费精力了~今天我们转移一下,介绍一款newspaperne
- Portia开源可视化爬虫工具的使用学习
目录背景安装使用Portia包pagesample启动程序总结背景由于最近在写一个可供配置的爬虫模板,方便快速扩展新的抓取业务,并且最后目标是将其做成一个可视化的配置服务。还正在进行中,并且有点没有头绪,所以想参考网上现有的轮子,看看能不能找到点新的思路。安装Docker安装完成后拉去portia服务项目#路径自定义即可,可在后面加上portia的版本dockerrun-i-t--rm-v:/ap
- 看懂Python爬虫框架,所见即所得一切皆有可能
Mr数据杨
Python爬虫基础和项目管理python爬虫mongodbscrapygerapy
文章目录内容介绍Scrapy爬虫框架Python爬虫自学目录内容介绍说起Python爬虫,非数据分析或是专业的爬虫工程师都会使用爬虫框架,其中包括Scrapy、Crawley、Portia、newspaper等等,但是其中使用占比最高的是Scrapy框架。顺带说一下光会写爬虫不懂得项目管理的话永远你就是一个兵,所以对于爬虫管理框架来说,首选Gerapy框架。来一个知乎本人的高赞回答解释一下这个事情
- Python爬虫:(番外)爬虫常用库整理推荐
Tony带不带水
你不会有猫的scrapy系列:大名鼎鼎的python爬虫框架,网上成熟教程有很多,我的一些使用心得后期会单开一章。portia:可视化爬虫。也是scrapinghub系列弄出来的东西,底层是scrapy,比较好玩,基本没有代码难度,后面会单独写一下。上面两个的官方信息可以看:ScrapinghubSupportCenterpyspider:pyspider中文网一个国人编写的强大的网络爬虫系统并带
- crawler - python 8大爬虫框架/常用爬虫框架/常用爬虫工具
开码牛
pythonpythonpython爬虫爬虫
python8大爬虫框架csdn:https://blog.csdn.net/helunqu2017/article/details/112854447scrapy框架:目前较成熟与常用的爬虫框架,http://Scrapy.org/Crawley框架:可以比较高效地攫取互联网对应的内容,官网:http://project.crawley-cloud.com/Portia框架:可以可视化地爬取网页
- node.js爬虫框架node-crawler初体验
百度爬虫这个词语,一般出现的都是python相关的资料。py也有很多爬虫框架,比如scrapy,Portia,Crawley等。之前我个人更喜欢用C#做爬虫。随着对nodejs的熟悉。发现做这种事情还是用脚本语言适合多了,至少不用写那么多的实体类。而且脚本一般使用比较简单。在github上搜索node+spider,排名第一的就是node-crawlergithub:https://github.
- Python爬虫入门教程 79-100 Python Portia爬虫框架-在Win7里面配置起来
梦想橡皮擦
爬虫100例教程pythondockerpython爬虫入门教程python爬虫教程python爬虫
写在前面曾经有人问我,为何要写100篇关于爬虫的博客?我想说,因为吹牛吹过头了呗,100篇是真的难写。希望在未来爬虫100例系列博客能在Python爬虫教学领域有那么一点点的位置。今天开始,我将从一些成熟框架入手,继续提高你的爬虫知识面。Portia是啥?这个框架在最开始就计划写一下了,没想到拖到这里,Portia属于可视化爬虫,基本描述参照下述内容Portiaisatoolthatallowsy
- Python爬虫入门教程 80-100 Python 玩转NewSpaper爬虫框架
梦想橡皮擦
爬虫100例教程python编程语言python爬虫百例python爬虫100例python爬虫入门教程
Python爬虫入门教程80-100写在前面newspapernewspaper框架的使用例如:单条新闻内容获取newspaper文章缓存其他功能写在后面这里是梦想橡皮擦Python爬虫系列的第80篇,点击图片看全部博客写在前面原计划继续写一篇Portia的使用博客,结果在编写代码途中发现,在windows7的DockerToolbox里面使用Portia错误实在是太多了,建议大家还是在Linux
- 抓取的模板适配工具 Portia 的使用
Yujiaao
scrapypython爬虫
按官网下载启动docker-composeup-d访问localhost:9001,结果404进到容器,发现/app/portiaui/dist文件夹下是空的。下载nodejs,yarn使用yarn编译:
[email protected]:Theengine"node"isincompatiblewiththismodule.Expectedversion"~4.1.1".Got"1
- 抓取的模板适配工具 Portia 的使用
Yujiaao
scrapypython爬虫
按官网下载启动docker-composeup-d访问localhost:9001,结果404进到容器,发现/app/portiaui/dist文件夹下是空的。下载nodejs,yarn使用yarn编译:
[email protected]:Theengine"node"isincompatiblewiththismodule.Expectedversion"~4.1.1".Got"1
- scrapy爬虫学习系列四:portia的学习入门
zhanglao33
系列文章列表:scrapy爬虫学习系列一:scrapy爬虫环境的准备:http://www.cnblogs.com/zhaojiedi1992/p/zhaojiedi_python_007_scrapy01.htmlscrapy爬虫学习系列二:scrapy简单爬虫样例学习:http://www.cnblogs.com/zhaojiedi1992/p/zhaojiedi_python_007_scr
- 30天了解30种技术系列---(16)可视化爬虫工具---Portia
老钱的人工智能探索
30天了解30种技术
Portia是scrapyhub开源的一款可视化的爬虫规则编写工具,提供可视化的Web页面,你只需要通过点击标注页面上你需要抽取的数据,不需要任何编程知识即可完成规则的开发。(动态网页需要自己编写JS解析器)。Portia的项目地址为:https://github.com/scrapinghub/portia安装方式如下:gitclonehttps://github.com/scrapinghub
- python爬虫一般用什么框架?六大Python框架
老男孩IT
Python
python爬虫一般用什么框架?python爬虫可以使用的框架有很多,一般在大型需求的时候才会使用python爬虫框架。Scrapy:一个为了爬取网站数据,提取结构性数据而编写的应用框架。应用在数据挖掘、信息处理或者存储历史数据等一系列程序中。是很强大的爬虫框架,可以满足简单的页面爬取。Crawley:高速爬取对应网站内容,支持关系和非关系数据库,数据可以导出为JSON、XML等。Portia:开
- python爬虫一般用什么框架?六大Python框架
老男孩IT
Python
python爬虫一般用什么框架?python爬虫可以使用的框架有很多,一般在大型需求的时候才会使用python爬虫框架。Scrapy:一个为了爬取网站数据,提取结构性数据而编写的应用框架。应用在数据挖掘、信息处理或者存储历史数据等一系列程序中。是很强大的爬虫框架,可以满足简单的页面爬取。Crawley:高速爬取对应网站内容,支持关系和非关系数据库,数据可以导出为JSON、XML等。Portia:开
- Portia可视化爬虫部署
我叫干脆面
php学习nodejs
安装如果是ubuntu14.04可以参考可视化爬虫Portia安装和部署踩过的坑如果是ubuntu16.04,尝试过本地安装,但是因为老是提示apt-get安装错误:Err:15http://ppa.launchpad.net/beineri/opt-qt551-trusty/ubuntuxenial/mainamd64Packages404NotFoundIgn:16http://ppa.lau
- 【可视化爬虫】scrapinghub 可视化抓取 portia环境搭建全过程
吴姬压酒
Scrapyportia可视化抓取爬虫
文章目录一、install_deps:安装系统级依赖二、install_splash:安装splash三、install_python_deps:安装python依赖四、安装ember.js五、安装并配置nginx六、ember.js依赖安装一、install_deps:安装系统级依赖【Ubuntu环境】curl:GetafilefromanHTTP,HTTPSorFTPserverlibxml2
- 可视化的网页内容抓取工具 Portia
52ML
»本文链接:http://www.52ml.net/12256.html»转载请注明来源:我爱机器学习(52ml.net)»《可视化的网页内容抓取工具Portia》PortiaSpider(孔蛛)号称世界上最聪明的蜘蛛,孔蛛属,英文名Portia,也翻译为波西亚蜘蛛(波西亚跳蛛)。以此命名的可视化网页内容抓取工具开源了。具体请参考:http://blog.scrapinghub.com/2014/
- 用Python写网络爬虫PDF高清完整版免费下载|百度云盘|python中级进阶学习教程
Python界的一股清流
百度云盘:用Python写网络爬虫nPDF高清完整版免费下载提取码:67pkimage.png内容提要本书讲解了如何使用P川lOil来编写网络爬虫程序,内容包括网络爬虫简介,从页面中抓取数据的三种方法,提取缓存中的数据,使用多个线程和进程来进行并发抓取,如何抓取动态页面中的内容,与表单进行交互,处理页面中的验证码问题,以及使用Scarpy和Portia来进行数据抓取,并在最后使用本书介绍的数据抓取
- 可视化爬虫Portia安装和部署踩过的坑
anchichun6550
背景Scrapy爬虫的确是好使好用,去过scrapinghub的官网浏览一下,更是赞叹可视化爬虫的犀利。scrapinghub有一系列的产品,开源了大部分项目,Portia负责可视化爬虫的编辑,SpiderCloud负责云端爬虫的部署,Scrapy是实现他们底层的技术。国内的可视化爬虫技术也有不少,据我所知就这几种:集搜客造数如果有其他优秀的可视化爬虫我没有提到,大家可以补充。他们的功能暂不讨论,
- 30天了解30种技术系列---(16)可视化爬虫工具---Portia
老钱的人工智能探索
老钱说新技术
Portia是scrapyhub开源的一款可视化的爬虫规则编写工具,提供可视化的Web页面,你只需要通过点击标注页面上你需要抽取的数据,不需要任何编程知识即可完成规则的开发。(动态网页需要自己编写JS解析器)。Portia的项目地址为:https://github.com/scrapinghub/portia安装方式如下:gitclonehttps://github.com/scrapinghub
- Portia---一款开源可视化爬虫工具
爱python的王三金
爬虫(urllib)python学习笔记
文介绍Portia的学习使用背景由于最近在写一个可供配置的爬虫模板,方便快速扩展新的抓取业务,并且最后目标是将其做成一个可视化的配置服务。还正在进行中,并且有点没有头绪,所以想参考网上现有的轮子,看看能不能找到点新的思路。安装Docker安装完成后拉去portia服务项目#路径自定义即可,可在后面加上portia的版本dockerrun-i-t--rm-v:/app/data/projects:r
- python爬虫工具及最佳实践
asin929
Python
爬虫工具及框架scrapy请参阅最新文档--文档1.0版distribute_crawler使用scrapy,redis,mongodb,graphite实现的一个分布式网络爬虫,底层存储mongodb集群,分布式使用redis实现,爬虫状态显示使用graphite实现。portia这是一个使用Web界面的爬虫工具,也是基于Scrapy.pyspider可自定义脚本进行爬虫,见demo.最佳实践知
- 辗转相处求最大公约数
沐刃青蛟
C++漏洞
无言面对”江东父老“了,接触编程一年了,今天发现还不会辗转相除法求最大公约数。惭愧惭愧!
为此,总结一下以方便日后忘了好查找。
1.输入要比较的两个数a,b
忽略:2.比较大小(因为后面要的是大的数对小的数做%操作)
3.辗转相除(用循环不停的取余,如a%b,直至b=0)
4.最后的a为两数的最大公约数
&
- F5负载均衡会话保持技术及原理技术白皮书
bijian1013
F5负载均衡
一.什么是会话保持? 在大多数电子商务的应用系统或者需要进行用户身份认证的在线系统中,一个客户与服务器经常经过好几次的交互过程才能完成一笔交易或者是一个请求的完成。由于这几次交互过程是密切相关的,服务器在进行这些交互过程的某一个交互步骤时,往往需要了解上一次交互过程的处理结果,或者上几步的交互过程结果,服务器进行下
- Object.equals方法:重载还是覆盖
Cwind
javagenericsoverrideoverload
本文译自StackOverflow上对此问题的讨论。
原问题链接
在阅读Joshua Bloch的《Effective Java(第二版)》第8条“覆盖equals时请遵守通用约定”时对如下论述有疑问:
“不要将equals声明中的Object对象替换为其他的类型。程序员编写出下面这样的equals方法并不鲜见,这会使程序员花上数个小时都搞不清它为什么不能正常工作:”
pu
- 初始线程
15700786134
暑假学习的第一课是讲线程,任务是是界面上的一条线运动起来。
既然是在界面上,那必定得先有一个界面,所以第一步就是,自己的类继承JAVA中的JFrame,在新建的类中写一个界面,代码如下:
public class ShapeFr
- Linux的tcpdump
被触发
tcpdump
用简单的话来定义tcpdump,就是:dump the traffic on a network,根据使用者的定义对网络上的数据包进行截获的包分析工具。 tcpdump可以将网络中传送的数据包的“头”完全截获下来提供分析。它支 持针对网络层、协议、主机、网络或端口的过滤,并提供and、or、not等逻辑语句来帮助你去掉无用的信息。
实用命令实例
默认启动
tcpdump
普通情况下,直
- 安卓程序listview优化后还是卡顿
肆无忌惮_
ListView
最近用eclipse开发一个安卓app,listview使用baseadapter,里面有一个ImageView和两个TextView。使用了Holder内部类进行优化了还是很卡顿。后来发现是图片资源的问题。把一张分辨率高的图片放在了drawable-mdpi文件夹下,当我在每个item中显示,他都要进行缩放,导致很卡顿。解决办法是把这个高分辨率图片放到drawable-xxhdpi下。
&nb
- 扩展easyUI tab控件,添加加载遮罩效果
知了ing
jquery
(function () {
$.extend($.fn.tabs.methods, {
//显示遮罩
loading: function (jq, msg) {
return jq.each(function () {
var panel = $(this).tabs(&
- gradle上传jar到nexus
矮蛋蛋
gradle
原文地址:
https://docs.gradle.org/current/userguide/maven_plugin.html
configurations {
deployerJars
}
dependencies {
deployerJars "org.apache.maven.wagon
- 千万条数据外网导入数据库的解决方案。
alleni123
sqlmysql
从某网上爬了数千万的数据,存在文本中。
然后要导入mysql数据库。
悲剧的是数据库和我存数据的服务器不在一个内网里面。。
ping了一下, 19ms的延迟。
于是下面的代码是没用的。
ps = con.prepareStatement(sql);
ps.setString(1, info.getYear())............;
ps.exec
- JAVA IO InputStreamReader和OutputStreamReader
百合不是茶
JAVA.io操作 字符流
这是第三篇关于java.io的文章了,从开始对io的不了解-->熟悉--->模糊,是这几天来对文件操作中最大的感受,本来自己认为的熟悉了的,刚刚在回想起前面学的好像又不是很清晰了,模糊对我现在或许是最好的鼓励 我会更加的去学 加油!:
JAVA的API提供了另外一种数据保存途径,使用字符流来保存的,字符流只能保存字符形式的流
字节流和字符的难点:a,怎么将读到的数据
- MO、MT解读
bijian1013
GSM
MO= Mobile originate,上行,即用户上发给SP的信息。MT= Mobile Terminate,下行,即SP端下发给用户的信息;
上行:mo提交短信到短信中心下行:mt短信中心向特定的用户转发短信,你的短信是这样的,你所提交的短信,投递的地址是短信中心。短信中心收到你的短信后,存储转发,转发的时候就会根据你填写的接收方号码寻找路由,下发。在彩信领域是一样的道理。下行业务:由SP
- 五个JavaScript基础问题
bijian1013
JavaScriptcallapplythisHoisting
下面是五个关于前端相关的基础问题,但却很能体现JavaScript的基本功底。
问题1:Scope作用范围
考虑下面的代码:
(function() {
var a = b = 5;
})();
console.log(b);
什么会被打印在控制台上?
回答:
上面的代码会打印 5。
&nbs
- 【Thrift二】Thrift Hello World
bit1129
Hello world
本篇,不考虑细节问题和为什么,先照葫芦画瓢写一个Thrift版本的Hello World,了解Thrift RPC服务开发的基本流程
1. 在Intellij中创建一个Maven模块,加入对Thrift的依赖,同时还要加上slf4j依赖,如果不加slf4j依赖,在后面启动Thrift Server时会报错
<dependency>
- 【Avro一】Avro入门
bit1129
入门
本文的目的主要是总结下基于Avro Schema代码生成,然后进行序列化和反序列化开发的基本流程。需要指出的是,Avro并不要求一定得根据Schema文件生成代码,这对于动态类型语言很有用。
1. 添加Maven依赖
<?xml version="1.0" encoding="UTF-8"?>
<proj
- 安装nginx+ngx_lua支持WAF防护功能
ronin47
需要的软件:LuaJIT-2.0.0.tar.gz nginx-1.4.4.tar.gz &nb
- java-5.查找最小的K个元素-使用最大堆
bylijinnan
java
import java.util.Arrays;
import java.util.Random;
public class MinKElement {
/**
* 5.最小的K个元素
* I would like to use MaxHeap.
* using QuickSort is also OK
*/
public static void
- TCP的TIME-WAIT
bylijinnan
socket
原文连接:
http://vincent.bernat.im/en/blog/2014-tcp-time-wait-state-linux.html
以下为对原文的阅读笔记
说明:
主动关闭的一方称为local end,被动关闭的一方称为remote end
本地IP、本地端口、远端IP、远端端口这一“四元组”称为quadruplet,也称为socket
1、TIME_WA
- jquery ajax 序列化表单
coder_xpf
Jquery ajax 序列化
checkbox 如果不设定值,默认选中值为on;设定值之后,选中则为设定的值
<input type="checkbox" name="favor" id="favor" checked="checked"/>
$("#favor&quo
- Apache集群乱码和最高并发控制
cuisuqiang
apachetomcat并发集群乱码
都知道如果使用Http访问,那么在Connector中增加URIEncoding即可,其实使用AJP时也一样,增加useBodyEncodingForURI和URIEncoding即可。
最大连接数也是一样的,增加maxThreads属性即可,如下,配置如下:
<Connector maxThreads="300" port="8019" prot
- websocket
dalan_123
websocket
一、低延迟的客户端-服务器 和 服务器-客户端的连接
很多时候所谓的http的请求、响应的模式,都是客户端加载一个网页,直到用户在进行下一次点击的时候,什么都不会发生。并且所有的http的通信都是客户端控制的,这时候就需要用户的互动或定期轮训的,以便从服务器端加载新的数据。
通常采用的技术比如推送和comet(使用http长连接、无需安装浏览器安装插件的两种方式:基于ajax的长
- 菜鸟分析网络执法官
dcj3sjt126com
网络
最近在论坛上看到很多贴子在讨论网络执法官的问题。菜鸟我正好知道这回事情.人道"人之患好为人师" 手里忍不住,就写点东西吧. 我也很忙.又没有MM,又没有MONEY....晕倒有点跑题.
OK,闲话少说,切如正题. 要了解网络执法官的原理. 就要先了解局域网的通信的原理.
前面我们看到了.在以太网上传输的都是具有以太网头的数据包. 
- Android相对布局属性全集
dcj3sjt126com
android
RelativeLayout布局android:layout_marginTop="25dip" //顶部距离android:gravity="left" //空间布局位置android:layout_marginLeft="15dip //距离左边距
// 相对于给定ID控件android:layout_above 将该控件的底部置于给定ID的
- Tomcat内存设置详解
eksliang
jvmtomcattomcat内存设置
Java内存溢出详解
一、常见的Java内存溢出有以下三种:
1. java.lang.OutOfMemoryError: Java heap space ----JVM Heap(堆)溢出JVM在启动的时候会自动设置JVM Heap的值,其初始空间(即-Xms)是物理内存的1/64,最大空间(-Xmx)不可超过物理内存。
可以利用JVM提
- Java6 JVM参数选项
greatwqs
javaHotSpotjvmjvm参数JVM Options
Java 6 JVM参数选项大全(中文版)
作者:Ken Wu
Email:
[email protected]
转载本文档请注明原文链接 http://kenwublog.com/docs/java6-jvm-options-chinese-edition.htm!
本文是基于最新的SUN官方文档Java SE 6 Hotspot VM Opt
- weblogic创建JMC
i5land
weblogicjms
进入 weblogic控制太
1.创建持久化存储
--Services--Persistant Stores--new--Create FileStores--name随便起--target默认--Directory写入在本机建立的文件夹的路径--ok
2.创建JMS服务器
--Services--Messaging--JMS Servers--new--name随便起--Pers
- 基于 DHT 网络的磁力链接和BT种子的搜索引擎架构
justjavac
DHT
上周开发了一个磁力链接和 BT 种子的搜索引擎 {Magnet & Torrent},本文简单介绍一下主要的系统功能和用到的技术。
系统包括几个独立的部分:
使用 Python 的 Scrapy 框架开发的网络爬虫,用来爬取磁力链接和种子;
使用 PHP CI 框架开发的简易网站;
搜索引擎目前直接使用的 MySQL,将来可以考虑使
- sql添加、删除表中的列
macroli
sql
添加没有默认值:alter table Test add BazaarType char(1)
有默认值的添加列:alter table Test add BazaarType char(1) default(0)
删除没有默认值的列:alter table Test drop COLUMN BazaarType
删除有默认值的列:先删除约束(默认值)alter table Test DRO
- PHP中二维数组的排序方法
abc123456789cba
排序二维数组PHP
<?php/*** @package BugFree* @version $Id: FunctionsMain.inc.php,v 1.32 2005/09/24 11:38:37 wwccss Exp $*** Sort an two-dimension array by some level
- hive优化之------控制hive任务中的map数和reduce数
superlxw1234
hivehive优化
一、 控制hive任务中的map数: 1. 通常情况下,作业会通过input的目录产生一个或者多个map任务。 主要的决定因素有: input的文件总个数,input的文件大小,集群设置的文件块大小(目前为128M, 可在hive中通过set dfs.block.size;命令查看到,该参数不能自定义修改);2. 
- Spring Boot 1.2.4 发布
wiselyman
spring boot
Spring Boot 1.2.4已于6.4日发布,repo.spring.io and Maven Central可以下载(推荐使用maven或者gradle构建下载)。
这是一个维护版本,包含了一些修复small number of fixes,建议所有的用户升级。
Spring Boot 1.3的第一个里程碑版本将在几天后发布,包含许多