- MapReduce01:基本原理和wordCount代码实现
冬至喵喵
大数据mapreduce
本篇文章中,笔者记录了自己对于MapReduce的肤浅理解,参考资料主要包括《大数据Hadoop3.X分布式处理实战》和网络视频课程。下文介绍了MapReduce的基本概念、运行逻辑以及在wordCount代码示例。一、MapReduce概述1.概述google为解决其搜索引擎中的大规模网页数据的并行化处理问题,设计了MapReduce,在发明MapReduce之后首先用其重新改写了搜索引擎中we
- 大数据Hadoop+HBase+Spark+Hive集群搭建教程:一站式掌握大数据技术
贾诺翼
大数据Hadoop+HBase+Spark+Hive集群搭建教程:一站式掌握大数据技术【下载地址】大数据HadoopHBaseSparkHive集群搭建教程七月在线1本资源文件提供了关于如何搭建大数据集群的详细教程,涵盖了Hadoop、HBase、Spark和Hive等关键技术的配置与部署。教程内容由七月在线提供,旨在帮助用户快速掌握大数据集群的搭建方法,并能够在实际项目中应用这些技术项目地址:h
- 大数据Hadoop集群运行程序
赵广陆
hadoophadoopbigdatamapreduce
目录1运行自带的MapReduce程序2常见错误1运行自带的MapReduce程序下面我们在Hadoop集群上运行一个MapReduce程序,以帮助读者对分布式计算有个基本印象。在安装Hadoop时,系统给用户提供了一些MapReduce示例程序,其中有一个典型的用于计算圆周率的Java程序包,现在运行该程序。该jar包文件的位置和文件名是“~/hadoop-3.1.0/share/Hadoop/
- 浅析大数据Hadoop之YARN架构
haotian1685
python数据清洗人工智能大数据大数据学习深度学习大数据大数据学习YARNhadoop
1.YARN本质上是资源管理系统。YARN提供了资源管理和资源调度等机制1.1原HadoopMapReduce框架对于业界的大数据存储及分布式处理系统来说,Hadoop是耳熟能详的卓越开源分布式文件存储及处理框架,对于Hadoop框架的介绍在此不再累述,读者可参考Hadoop官方简介。使用和学习过老Hadoop框架(0.20.0及之前版本)的同仁应该很熟悉如下的原MapReduce框架图:1.2H
- Datax ETL工具源码研究
Spring1985
由于公司数据共享交换产品中需要用到数据交换工具,所以对数据交换工具进行了大量的研究,目前比较流行的数据交换工具有Kittle、Sqoop、KafkaConnect、DataX;以下是个人的一点比对结果:如下四款工具除了Kittle其他的共同点都是面向插件方式开发,扩展性都比较好。Kittle优点:与大数据Hadoop结合比较好,功能比较齐全,强大,支持数据库,文件数据读写,界面拖拽方式操作;缺点:
- java大数据hadoop2.9.2 hive操作
crud-boy
java大数据大数据hivehadoop
1、创建常规数据库表(1)创建表createtablet_stu2(idint,namestring,hobbymap)rowformatdelimitedfieldsterminatedby','collectionitemsterminatedby'-'mapkeysterminatedby':';(2)创建文件student.txt1,zhangsan,唱歌:非常喜欢-跳舞:喜欢-游泳:一般
- java大数据hadoop2.9.2 Flume安装&操作
crud-boy
java大数据大数据flume
1、flume安装(1)解压缩tar-xzvfapache-flume-1.9.0-bin.tar.gzrm-rfapache-flume-1.9.0-bin.tar.gzmv./apache-flume-1.9.0-bin//usr/local/flume(2)配置cd/usr/local/flume/confcp./flume-env.sh.template./flume-env.shvifl
- 大数据Hadoop生态圈技术之浅析PageRank计算原理
A尚学堂Nancy老师
一、什么是PageRank?——PageRank是Google提出的算法,用于衡量特定网页相对于搜索引擎索引中的其他网页而言的重要程度。——是Google创始人拉里·佩奇和谢尔盖·布林于1997年创造的——PageRank实现了将链接价值概念作为排名因素。二、计算环境——Hadoop-2.5.2——四台主机——两台NN的HA——两台RM的HA——离线计算框架MapReduce三、计算原理(1)思考
- HDFS执行balance报错:hdfs balance java.io.IOException: Another Balancer is running.. Exiting
不会吐丝的蜘蛛侠。
Hadoophdfshadoopjava
现象:1、大数据Hadoop集群,HDFS扩容后,为了使各节点数据均衡,执行balance操作。2、启动hdfsbalance时,一直出现其他的balance在执行中,其实并没有执行。java.io.IOException:AnotherBalancerisrunning…Exiting…解决方法:网上的思路:①HDFS在运行Balancer的时候,会将运行Balancer的主机名写入到balan
- 大数据Hadoop/Hive学习笔记一(基础概念)
lucky_myj
大数据hadoop
大数据Hadoop/Hive学习笔记一(基础概念)一,概念介绍:大数据:大数据一般用来描述一种数量庞大,复杂的数据集,传统数据处理应用程序难以应对。大数据通常应用于预测分析,用户行为分析或从数据中提取有价值的信息用于高级数据分析方法,并不局限与指某种特定规模的数据集大数据的特征:大数据具有多样性、体量(volume)和价值密度(value)/精准性(veracity)体量Volume:非结构化数据
- java大数据hadoop2.9.2 Linux安装mariadb和hive
crud-boy
java大数据大数据linuxmariadb
一、安装mariadb版本centos71、检查Linux服务器是否已安装mariadbyumlistinstalledmariadb*2、如果安装了,想要卸载yumremovemariadbrm-rf/etc/my.cnfrm-rf/var/lib/mysql才能完全删除3、安装mariadb在线网络安装yuminstall-ymariadb-server开启服务systemctlstartma
- 大数据Hadoop入门——HDFS分布式文件系统基础
nucty
大数据大数据hadoophdfs
HDFS总结在现代的企业环境中,海量数据超过单台物理计算机的存储能力,分布式文件系统应运而生,对数据分区存储于若干物理主机,管理网络中跨多台计算机存储的文件系统。HDFS只是分布式文件管理系统中的一种。HDFS命令基础语法:【hadoopfs具体命令、hdfsdfs具体命令】两个是完全相同的。显示文件列表#hdfsdfs-lsURL创建目录#hdfsdfs-mkdir[-p]URL使用-p参数可以
- java大数据hadoop2.92安装伪分布式文件系统
crud-boy
java大数据大数据java
ApacheHadoop3.3.6–Hadoop:SettingupaSingleNodeCluster.1、解压缩到某个路径/usr/local/hadoop2、修改配置文件/usr/local/hadoop/etc/hadoop/hadoop-env.shexportJAVA_HOME=/usr/local/javajdk3、修改配置文件/usr/local/hadoop/etc/hadoop
- Java大数据hadoop2.9.2搭建伪分布式yarn资源管理器
crud-boy
java大数据java大数据eclipse
1、修改配置文件cd/usr/local/hadoop/etc/hadoopcp./mapred-site.xml.template./mapred-site.xmlvimapred-site.xmlmapreduce.framework.nameyarnviyarn-site.xmlyarn.nodemanager.aux-servicesmapreduce_shuffle2、重新启动hadoo
- java大数据hadoop2.92 Java连接操作
crud-boy
java大数据大数据javahadoop
1、要想Java可以连接自己虚拟机的hadoop文件系统,需要给文件系统权限(1)需要在/usr/local/hadoop/etc/hadoop/core-site.xmlcore-site.xml文件配置具体ipfs.defaultFShdfs://ip:9000(2)文件权限hdfsdfs-chmod-R777/2、maven依赖org.apache.hadoophadoop-common2.
- java大数据hadoop2.9.2 Java编写Hadoop分析平均成绩
crud-boy
java大数据大数据hadoop分布式
1、准备文件,例如score.txt,内容如下:zsk188lsk198wwk178zsk288lsk298wwk278zsk388lsk398wwk3782、创建maven项目org.apache.hadoophadoop-common2.9.2org.apache.hadoophadoop-client${hadoop.version}org.apache.hadoophadoop-hdfs$
- 大数据Hadoop3.0更新,到底改进了哪些新的特性呢
尚学先生
截止到目前,大数据hadoop已经更新到了3.0版本,那么相比较之前的版本,3.0到底在哪些方面做出了新的改变呢?到底做了哪些重大的改进呢?1、HadoopCommon(1)内核的精简,这个是很多次版本更新都会进行重组的地方。想比较与之前的版本,3.0剔除了一些过期的API和实现,将默认组件实现替换成最高效的实现(比如将FileOutputCommitter缺省实现换为v2版本,废除hftp转由w
- 第一章 大数据Hadoop学习笔记(一)
Thanks.
hadoop学习大数据
一、存储单位按顺序给出数据存储单位:bit、Byte、KB、MB、GB、TB、PB、EB、ZB、YB、BB、NB、DB。一般TB、PB、EB为单位的数据为大数据。1Byte=8bit1K=1024Byte1MB=1024K1G=1024M1T=1024G1P=1024T二、大数据主要解决海量数据的采集、存储和分析计算问题。三、大数据特点(4V)Volume(大量)、Velocity(高速)、Var
- 大数据Hadoop入门学习线路图
千_锋小小千
Hadoop是系统学习大数据的必会知识之一,Hadoop里面包括几个组件HDFS、MapReduce和YARN,HDFS是存储数据的地方就像我们电脑的硬盘一样文件都存储在这个上面,MapReduce是对数据进行处理计算的。YARN是一种新的Hadoop资源管理器,可为上层应用提供统一的资源管理和调度,它的引入为集群在利用率、资源统一管理和数据共享等方面带来了巨大好处。如何入门Hadoop学习,不妨
- sqoop的导入命令详解
夜空痕
sqoop的背景sqoop是一个配合大数据hadoop做数据底层的导入导出操作,需要配合hive及分布式文件系统(hdfs或blob)一起使用,在大数据ETL应用领域,sqoop占据主流。sqoop是一个对数据进行导入或者导出的ETL工具,也有其他的同类产品,datax、kettle,但是不管使用什么工具,这都是一种手段,终其究竟,要学的是其中的思想和逻辑。sqoop分为导入操作和导出操作,从关系
- YARN知识点总结
飞有飞言
如果把大数据Hadoop集群当作一台计算机,那么HDFS=磁盘YARN=任务调度器+资源管理器所有任务都是运行在Yarn上Yarn分为两个大的模块:ResourceManagerNodeManagerResourceManager运行在master机器上,用于分配资源两个模块Scheduler负责资源分配ApplicationsManager负责应用管理.RM不负责启动container,而是告诉
- 大数据Hadoop分布式文件系统HDFS的两类节点NameNode和DataNode
A尚学堂Nancy老师
HDFS集群有两类节点,并以管理者-工作者模式运行,即一个NameNode(管理者)和多个DataNode(工作者)。HDFS官方架构图一、NameNode(NN)——基于内存存储:不会和磁盘发生交换·只存在内存中·持久化——NameNode主要功能·接受客户端的读写服务·收集DataNode汇报的Block列表信息——NameNode保存metadata信息包括·文件owership和permi
- 大数据Hadoop集群的启动
赵广陆
hadoophadoopbigdatahdfs
目录1启动准备工作1.1配置操作系统的环境变量1.2创建Hadoop数据目录1.3格式化文件系统1.4启动和关闭Hadoop1.5验证Hadoop是否成功启动1.6hadoop-daemon.sh的使用2HDFS常用的操作命令3hdfs的高级使用命令3.1HDFS文件限额配置3.2数量限额3.3空间大小限额3.4HDFS的管理命令3.5hdfs的安全模式想学习架构师构建流程请跳转:Java架构师系
- 大数据Hadoop技术的发展历史与未来前景
人工智能和大数据时代
大数据Hadoop
大数据概念火了又火,但是好多人对大数据的概念却一知半解,今天主要来细说下Hadoop:1.Hadoop是什么1)Hadoop是一个由Apache基金会所开发的分布式系统基础架构2)主要解决,海量数据的存储和海量数据的分析问题。3)广义上来说,HADOOP通常是指一个更广泛的概念——HADOOP生态圈2.Hadoop发展历史1)Lucene–DougCutting开创的开源软件,用java书写代码,
- Hyper-v虚拟机Hadoop集群搭建
真.电脑人
hadoop大数据分布式
大数据Hadoop简介Hadoop是一个由Apache基金会所开发的分布式系统基础架构。Hadoop实现了一个分布式文件系统(HadoopDistributedFileSystem),简称HDFS。(海量数据存储)HDFS为海量的数据提供了存储,而MapReduce**分布式计算**则为海量的数据提供了计算总结:用Java开发HDFS–解决大数据存储问题MapReduce–解决大数据计算问题HDF
- 【大数据学习笔记-1】大数据hadoop平台基本组件
工匠小能手
相关概念和应用场景大数据
Hadoop是一个由Apache基金会所开发的分布式计算和存储架构。说人话的通俗描述:你在爱奇艺网站看过一次科幻片后,下次再登录爱奇艺,首页会把最新科幻动作片推送给你,目的是要向你多收点会员费。这背后的技术就是叫大数据的技术来自动判断你好什么口味的电影。行业描述:开源的分布式存储和计算框架,广泛用户海量数据的存储和处理,比如淘宝网的商品推送,爱奇艺视频的首页电影推送。Hadoop的主要组件:htt
- 【大数据Hadoop】HDFS-Namenode-format格式化的源码步骤分析
笑起来贼好看
Hadoop大数据服务运维部署hadoop大数据hdfs
Namenodeformat流程格式化命令源码解读初始化操作格式化操作本地写VERSION文件JournalManager的格式化持久化FsImage文件流程根据配置项获取nameserviceId、namenodeId判断配置项dfs.namenode.support.allow.format是否允许格式化,一般生产环境建议配置,防止误操作格式化了已有数据。获取格式化的目录(fsImage和ed
- 大数据Hadoop-HDFS_架构、读写流程
大沙头三马路
BigDateLinux大数据hadoophdfsHCIA
大数据Hadoop-HDFS基本系统架构HDFS架构包含三个部分:NameNode,DataNode,Client。NameNode:NameNode用于存储、生成文件系统的元数据。运行一个实例。DataNode:DataNode用于存储实际的数据,将自己管理的数据块上报给NameNode,运行多个实例。Client:支持业务访问HDFS,从NameNode,DataNode获取数据返回给业务。多
- 大数据Hadoop-HDFS_元数据持久化
大沙头三马路
BigDateLinux大数据hadoophdfslinux
大数据Hadoop-HDFS_元数据持久化(1)在HDFS第一次格式化后,NameNode(即图中的主NameNode)就会生成fsimage和editslog两个文件;(2)备用NameNode(即图中的备NameNode)从主用NameNode上下载FSimage,并从共享存储中读取EditLog;(3)备用NameNode将日志和旧的元数据合并,生成新的元数据FSImage.ckpt;(4)
- 大数据课程结构
张一峰
大数据大数据
1、第一阶段javaSE基础阶段-张一峰2、第二阶段-JavaWeb+数据库阶段-张3、第三阶段-大数据分布式架构-张一峰4、第四阶段-大数据Hadoop实战-张一峰5、第五阶段-大数据spark实战-张一峰6、第六阶段-大数据机器学习实战-张一峰
- 辗转相处求最大公约数
沐刃青蛟
C++漏洞
无言面对”江东父老“了,接触编程一年了,今天发现还不会辗转相除法求最大公约数。惭愧惭愧!
为此,总结一下以方便日后忘了好查找。
1.输入要比较的两个数a,b
忽略:2.比较大小(因为后面要的是大的数对小的数做%操作)
3.辗转相除(用循环不停的取余,如a%b,直至b=0)
4.最后的a为两数的最大公约数
&
- F5负载均衡会话保持技术及原理技术白皮书
bijian1013
F5负载均衡
一.什么是会话保持? 在大多数电子商务的应用系统或者需要进行用户身份认证的在线系统中,一个客户与服务器经常经过好几次的交互过程才能完成一笔交易或者是一个请求的完成。由于这几次交互过程是密切相关的,服务器在进行这些交互过程的某一个交互步骤时,往往需要了解上一次交互过程的处理结果,或者上几步的交互过程结果,服务器进行下
- Object.equals方法:重载还是覆盖
Cwind
javagenericsoverrideoverload
本文译自StackOverflow上对此问题的讨论。
原问题链接
在阅读Joshua Bloch的《Effective Java(第二版)》第8条“覆盖equals时请遵守通用约定”时对如下论述有疑问:
“不要将equals声明中的Object对象替换为其他的类型。程序员编写出下面这样的equals方法并不鲜见,这会使程序员花上数个小时都搞不清它为什么不能正常工作:”
pu
- 初始线程
15700786134
暑假学习的第一课是讲线程,任务是是界面上的一条线运动起来。
既然是在界面上,那必定得先有一个界面,所以第一步就是,自己的类继承JAVA中的JFrame,在新建的类中写一个界面,代码如下:
public class ShapeFr
- Linux的tcpdump
被触发
tcpdump
用简单的话来定义tcpdump,就是:dump the traffic on a network,根据使用者的定义对网络上的数据包进行截获的包分析工具。 tcpdump可以将网络中传送的数据包的“头”完全截获下来提供分析。它支 持针对网络层、协议、主机、网络或端口的过滤,并提供and、or、not等逻辑语句来帮助你去掉无用的信息。
实用命令实例
默认启动
tcpdump
普通情况下,直
- 安卓程序listview优化后还是卡顿
肆无忌惮_
ListView
最近用eclipse开发一个安卓app,listview使用baseadapter,里面有一个ImageView和两个TextView。使用了Holder内部类进行优化了还是很卡顿。后来发现是图片资源的问题。把一张分辨率高的图片放在了drawable-mdpi文件夹下,当我在每个item中显示,他都要进行缩放,导致很卡顿。解决办法是把这个高分辨率图片放到drawable-xxhdpi下。
&nb
- 扩展easyUI tab控件,添加加载遮罩效果
知了ing
jquery
(function () {
$.extend($.fn.tabs.methods, {
//显示遮罩
loading: function (jq, msg) {
return jq.each(function () {
var panel = $(this).tabs(&
- gradle上传jar到nexus
矮蛋蛋
gradle
原文地址:
https://docs.gradle.org/current/userguide/maven_plugin.html
configurations {
deployerJars
}
dependencies {
deployerJars "org.apache.maven.wagon
- 千万条数据外网导入数据库的解决方案。
alleni123
sqlmysql
从某网上爬了数千万的数据,存在文本中。
然后要导入mysql数据库。
悲剧的是数据库和我存数据的服务器不在一个内网里面。。
ping了一下, 19ms的延迟。
于是下面的代码是没用的。
ps = con.prepareStatement(sql);
ps.setString(1, info.getYear())............;
ps.exec
- JAVA IO InputStreamReader和OutputStreamReader
百合不是茶
JAVA.io操作 字符流
这是第三篇关于java.io的文章了,从开始对io的不了解-->熟悉--->模糊,是这几天来对文件操作中最大的感受,本来自己认为的熟悉了的,刚刚在回想起前面学的好像又不是很清晰了,模糊对我现在或许是最好的鼓励 我会更加的去学 加油!:
JAVA的API提供了另外一种数据保存途径,使用字符流来保存的,字符流只能保存字符形式的流
字节流和字符的难点:a,怎么将读到的数据
- MO、MT解读
bijian1013
GSM
MO= Mobile originate,上行,即用户上发给SP的信息。MT= Mobile Terminate,下行,即SP端下发给用户的信息;
上行:mo提交短信到短信中心下行:mt短信中心向特定的用户转发短信,你的短信是这样的,你所提交的短信,投递的地址是短信中心。短信中心收到你的短信后,存储转发,转发的时候就会根据你填写的接收方号码寻找路由,下发。在彩信领域是一样的道理。下行业务:由SP
- 五个JavaScript基础问题
bijian1013
JavaScriptcallapplythisHoisting
下面是五个关于前端相关的基础问题,但却很能体现JavaScript的基本功底。
问题1:Scope作用范围
考虑下面的代码:
(function() {
var a = b = 5;
})();
console.log(b);
什么会被打印在控制台上?
回答:
上面的代码会打印 5。
&nbs
- 【Thrift二】Thrift Hello World
bit1129
Hello world
本篇,不考虑细节问题和为什么,先照葫芦画瓢写一个Thrift版本的Hello World,了解Thrift RPC服务开发的基本流程
1. 在Intellij中创建一个Maven模块,加入对Thrift的依赖,同时还要加上slf4j依赖,如果不加slf4j依赖,在后面启动Thrift Server时会报错
<dependency>
- 【Avro一】Avro入门
bit1129
入门
本文的目的主要是总结下基于Avro Schema代码生成,然后进行序列化和反序列化开发的基本流程。需要指出的是,Avro并不要求一定得根据Schema文件生成代码,这对于动态类型语言很有用。
1. 添加Maven依赖
<?xml version="1.0" encoding="UTF-8"?>
<proj
- 安装nginx+ngx_lua支持WAF防护功能
ronin47
需要的软件:LuaJIT-2.0.0.tar.gz nginx-1.4.4.tar.gz &nb
- java-5.查找最小的K个元素-使用最大堆
bylijinnan
java
import java.util.Arrays;
import java.util.Random;
public class MinKElement {
/**
* 5.最小的K个元素
* I would like to use MaxHeap.
* using QuickSort is also OK
*/
public static void
- TCP的TIME-WAIT
bylijinnan
socket
原文连接:
http://vincent.bernat.im/en/blog/2014-tcp-time-wait-state-linux.html
以下为对原文的阅读笔记
说明:
主动关闭的一方称为local end,被动关闭的一方称为remote end
本地IP、本地端口、远端IP、远端端口这一“四元组”称为quadruplet,也称为socket
1、TIME_WA
- jquery ajax 序列化表单
coder_xpf
Jquery ajax 序列化
checkbox 如果不设定值,默认选中值为on;设定值之后,选中则为设定的值
<input type="checkbox" name="favor" id="favor" checked="checked"/>
$("#favor&quo
- Apache集群乱码和最高并发控制
cuisuqiang
apachetomcat并发集群乱码
都知道如果使用Http访问,那么在Connector中增加URIEncoding即可,其实使用AJP时也一样,增加useBodyEncodingForURI和URIEncoding即可。
最大连接数也是一样的,增加maxThreads属性即可,如下,配置如下:
<Connector maxThreads="300" port="8019" prot
- websocket
dalan_123
websocket
一、低延迟的客户端-服务器 和 服务器-客户端的连接
很多时候所谓的http的请求、响应的模式,都是客户端加载一个网页,直到用户在进行下一次点击的时候,什么都不会发生。并且所有的http的通信都是客户端控制的,这时候就需要用户的互动或定期轮训的,以便从服务器端加载新的数据。
通常采用的技术比如推送和comet(使用http长连接、无需安装浏览器安装插件的两种方式:基于ajax的长
- 菜鸟分析网络执法官
dcj3sjt126com
网络
最近在论坛上看到很多贴子在讨论网络执法官的问题。菜鸟我正好知道这回事情.人道"人之患好为人师" 手里忍不住,就写点东西吧. 我也很忙.又没有MM,又没有MONEY....晕倒有点跑题.
OK,闲话少说,切如正题. 要了解网络执法官的原理. 就要先了解局域网的通信的原理.
前面我们看到了.在以太网上传输的都是具有以太网头的数据包. 
- Android相对布局属性全集
dcj3sjt126com
android
RelativeLayout布局android:layout_marginTop="25dip" //顶部距离android:gravity="left" //空间布局位置android:layout_marginLeft="15dip //距离左边距
// 相对于给定ID控件android:layout_above 将该控件的底部置于给定ID的
- Tomcat内存设置详解
eksliang
jvmtomcattomcat内存设置
Java内存溢出详解
一、常见的Java内存溢出有以下三种:
1. java.lang.OutOfMemoryError: Java heap space ----JVM Heap(堆)溢出JVM在启动的时候会自动设置JVM Heap的值,其初始空间(即-Xms)是物理内存的1/64,最大空间(-Xmx)不可超过物理内存。
可以利用JVM提
- Java6 JVM参数选项
greatwqs
javaHotSpotjvmjvm参数JVM Options
Java 6 JVM参数选项大全(中文版)
作者:Ken Wu
Email:
[email protected]
转载本文档请注明原文链接 http://kenwublog.com/docs/java6-jvm-options-chinese-edition.htm!
本文是基于最新的SUN官方文档Java SE 6 Hotspot VM Opt
- weblogic创建JMC
i5land
weblogicjms
进入 weblogic控制太
1.创建持久化存储
--Services--Persistant Stores--new--Create FileStores--name随便起--target默认--Directory写入在本机建立的文件夹的路径--ok
2.创建JMS服务器
--Services--Messaging--JMS Servers--new--name随便起--Pers
- 基于 DHT 网络的磁力链接和BT种子的搜索引擎架构
justjavac
DHT
上周开发了一个磁力链接和 BT 种子的搜索引擎 {Magnet & Torrent},本文简单介绍一下主要的系统功能和用到的技术。
系统包括几个独立的部分:
使用 Python 的 Scrapy 框架开发的网络爬虫,用来爬取磁力链接和种子;
使用 PHP CI 框架开发的简易网站;
搜索引擎目前直接使用的 MySQL,将来可以考虑使
- sql添加、删除表中的列
macroli
sql
添加没有默认值:alter table Test add BazaarType char(1)
有默认值的添加列:alter table Test add BazaarType char(1) default(0)
删除没有默认值的列:alter table Test drop COLUMN BazaarType
删除有默认值的列:先删除约束(默认值)alter table Test DRO
- PHP中二维数组的排序方法
abc123456789cba
排序二维数组PHP
<?php/*** @package BugFree* @version $Id: FunctionsMain.inc.php,v 1.32 2005/09/24 11:38:37 wwccss Exp $*** Sort an two-dimension array by some level
- hive优化之------控制hive任务中的map数和reduce数
superlxw1234
hivehive优化
一、 控制hive任务中的map数: 1. 通常情况下,作业会通过input的目录产生一个或者多个map任务。 主要的决定因素有: input的文件总个数,input的文件大小,集群设置的文件块大小(目前为128M, 可在hive中通过set dfs.block.size;命令查看到,该参数不能自定义修改);2. 
- Spring Boot 1.2.4 发布
wiselyman
spring boot
Spring Boot 1.2.4已于6.4日发布,repo.spring.io and Maven Central可以下载(推荐使用maven或者gradle构建下载)。
这是一个维护版本,包含了一些修复small number of fixes,建议所有的用户升级。
Spring Boot 1.3的第一个里程碑版本将在几天后发布,包含许多