- kafka connect,将数据批量写到hdfs完整过程
weixin_34162401
大数据数据库json
为什么80%的码农都做不了架构师?>>>本文是基于hadoop2.7.1,以及kafka0.11.0.0。kafka-connect是以单节点模式运行,即standalone。一.kafka和kafkaconnect简介kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。比较直观的解释就是其有一个生产者(producer)和一个消费者(con
- hive 写 es 报EsHadoopRemoteException: index_closed_exception: closed null
守猫de人
Elasticsearches6/es7大数据
错误由来,es添加xpack后,hive写es总报index关闭。通过测试,其实数据是可以写入index,且数据量对不上,怀疑是最后提交的时候无法成功,一直提交刷新,最后报错。Status:FailedVertexfailed,vertexName=Map1,vertexId=vertex_1605086559607_0014_1_00,diagnostics=[Taskfailed,taskId
- JAVA学习-练习试用Java实现“实现一个Hadoop MapReduce任务,对大数据集中的时间序列数据进行窗口聚合和筛选”
守护者170
java学习java学习
问题:使用java语言,实现一个HadoopMapReduce任务,对大数据集中的时间序列数据进行窗口聚合和筛选。解答思路:为了实现一个HadoopMapReduce任务,对大数据集中的时间序列数据进行窗口聚合和筛选,我们需要定义一个MapReduce程序。以下是一个简单的示例,它使用Hadoop的JavaAPI来实现这个任务。首先,我们需要定义Map和Reduce类,以及一个Driver类来运行
- Scala基础
阿巴阿巴拉
scala开发语言后端
Scala基本介绍定义:多范式编程语言,运行于JVM,融合面向对象与函数式编程特性,兼容Java程序。特点:优雅,注重用户体验;开发速度快,语言表达能力强,静态编译;融合大数据生态,解决JavaAPI融入Hadoop生态困难问题。与Java关系:基于JVM,能编译成字节码,可直接用Java代码,功能上优于Java。编译器安装-安装JDK-安装Scala-Windows安装Scala编译器-IDEA
- 6.hadoop中rpc中的动态代理的理解
qq_21292551
rpc动态代理
代理模式抽象角色:真实对象和代理对象的共同接口代理角色:秘书真实角色(被代理角色):局长实现代理接口&&调用转发创建动态代理步骤:1.创建一个实现接口InvocationHandler的类,它必须实现invoke方法2.创建被代理的类以及接口3.通过Proxy的静态方法newProxyInstance(ClassLoaderloader,Class[]interfaces,InvocationHa
- Mapreduce初使用
直裾
mapreducejava
(一)MapReduce的定义MapReduce是一个分布式运算程序的编程框架,是用户开发“基于Hadoop的数据分析应用”的核心框架。MapReduce核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个Hadoop集群上。(二)MapReduce优缺点好,知道了MapReduce的作用之后,我们先来大概说下它的优缺点。先来看优点,这里总结了4条:1)M
- hive相关面试题以及答案
酷爱码
编程学习分布式hive
什么是Hive?它的作用是什么?答:Hive是一个建立在Hadoop之上的数据仓库工具,它提供了类似于SQL的查询语言HiveQL来操作存储在Hadoop中的数据。Hive的主要作用是让用户能够使用SQL语法来查询和分析大规模数据集。Hive的架构是什么样的?答:Hive的架构主要包括三个关键组件:HiveQL、HiveMetastore和Hive执行引擎。HiveQL是用户使用的SQL查询语言,
- Hadoop中HDFS工作原理
sdlyjzh
HadoopHDFS
Hadoop其实并不是一个产品,而是一些独立模块的组合。主要有分布式文件系统HDFS和大型分布式数据处理库MapReduce。由于目前主要用到HDFS,所以这里看一下它的工作原理,以及相应的介绍下配置。什么是HDFS?HadoopDistributedFileSystem,字面意思,Hadoop分布式文件系统,通俗的讲,就是可以将不同节点的设备用来存储。它分为两个部分:NameNode和DateN
- Spark
薇晶晶
大数据
Spark简介Spark的特点运行速度快:使用DAG执行引擎以支持循环数据流与内存计算容易使用:支持使用Scala、Java、Python和R语言进行编程,可以通过SparkShell进行交互式编程通用性:Spark提供了完整而强大的技术栈,包括SQL查询、流式计算、机器学习和图算法组件运行模式多样:可运行于独立的集群模式中,可运行于Hadoop中,也可运行于AmazonEC2等云环境中,并且可以
- hadoop集群常用命令搜集——筑梦之路
筑梦之路
大数据hadoop大数据分布式
服务启停命令#脚本启停hadoop全部服务(master节点执行,各节点需配置免密)./start-all.sh#包含yarn(ResourceManager,NodeManager)和hdfs(JournalNode,NameNode,DataNode,DFSZKFailoverController)./stop-all.sh#脚本启停ResourceManager,NodeManager./s
- hadoop集群常用shell脚本
Hi Xiu Hui
hadoophadoop
1.群发脚本XSync(xsync)#!/bin/bash#1获取参数,如果不够直接退出pcount=$#if((pcount==0));thenechonoargs;exit;fi#2获取文件名称p1=$1fname=`basename$p1`echofname=$fname#3获取上级目录到绝对路径pdir=`cd-P$(dirname$p1);pwd`echopdir=$pdir#4获取当前
- Hadoop集群常用命令
小萌新~~~~
hadoop大数据分布式
1.启动Hadoop集群#启动HDFSstart-dfs.sh#启动YARNstart-yarn.sh2.停止Hadoop集群#停止YARNstop-yarn.sh#停止HDFSstop-dfs.sh3.HDFS常用命令查看HDFS状态hdfsdfsadmin-report上传文件到HDFShdfsdfs-put/local/path/to/file/hdfs/path/从HDFS下载文件hdfs
- hadoop集群常用命令
悻运
hadoop
#Hadoop集群常用命令##HDFS文件系统操作命令1.**基本文件操作**-hadoopfs-ls:列出目录内容-hadoopfs-mkdir:创建目录-hadoopfs-put:从本地复制文件到HDFS-hadoopfs-get:从HDFS复制文件到本地-hadoopfs-cat:查看文件内容-hadoopfs-tail:查看文件尾部内容-hadoopfs-rm:删除文件-hadoopfs-
- hadoop 集群的常用命令
Eternity......
大数据spark
Hadoop集群是一个分布式系统,常用于存储和处理大规模数据。以下是一些Hadoop集群的常用命令:HDFS(Hadoop分布式文件系统)命令1.启动和停止HDFS-启动HDFSstart-dfs.sh此命令会启动NameNode、SecondaryNameNode和DataNode等HDFS相关的守护进程。-停止HDFSstop-dfs.sh该命令用于停止正在运行的HDFS守护进程。2.创建目录
- 11 配置Hadoop集群-免密登录
满分对我强制爱
hadoopgithub大数据
第一课时一、复习导入前面的课程中我们在虚拟机上安装并测试使用了hadoop的示例程序wordcount,并且在准备好了集群的同步工具,那接下来,我们就可去配置hadoop集群了。二、授新(一)认识ssh命令SSH(SecureShell)命令是一种用于通过加密协议安全地连接到远程服务器的工具。它广泛应用于远程登录、文件传输和命令执行等场景。它最基本的用法是连接到远程服务器,格式如:ssh用户名@主
- Hadoop分布式文件系统HDFS
AI天才研究院
AI大模型企业级应用开发实战DeepSeekR1&大数据AI人工智能大模型计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
Hadoop分布式文件系统HDFS作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming关键词:大数据存储,分布式计算,海量数据处理,高可用性,容错机制1.背景介绍1.1问题的由来随着互联网技术和数字设备的普及,企业级数据量呈现出爆炸式的增长趋势。传统的单机或小型集群的数据存储与管理方式已无法满足大规模数据处理的需求。数据的快速增长对存储系统的容量、性能以
- hdfs原理
raining_time
hdfs原理hdfs读写原理hdfs优缺点hdfs安全模式hdfs常用命令
简介HDFS(HadoopDistributedFileSystem)Hadoop分布式文件系统。是根据google发表的论文翻版的。论文为GFS(GoogleFileSystem)Google文件系统。HDFS有很多特点:①保存多个副本,且提供容错机制,副本丢失或宕机自动恢复。默认存3份。(用空间换安全)②运行在廉价的机器上。③适合大数据的处理。多大?多小?HDFS默认会将文件分割成block,
- 实时数据流处理利器:Apache Storm 在大数据中的应用
Echo_Wish
大数据高阶实战秘籍大数据apachestorm
实时数据流处理利器:ApacheStorm在大数据中的应用引言在如今的数据驱动时代,企业和开发者们面临的一个核心挑战是如何高效处理实时数据流。传统的批处理框架(如Hadoop)在面对海量数据时表现优秀,但其高延迟的缺点使其难以满足实时场景的需求。这时,ApacheStorm作为一个低延迟、高吞吐、分布式的流式处理框架,成为了实时数据分析、日志监控、欺诈检测等场景的理想选择。今天,我们就来深入探讨A
- Hbase的学习笔记(3)
白居不易.
hbase学习java
Hbase的学习笔记(3)本次主要学习Hbase与Java的配合使用,即通过Java语言完成对Hbase表的增删改查。1.所需依赖jar包org.apache.hadoophadoop-clientorg.apache.hadoophadoop-common注意:有些时候程序报错,跟maven的jar包加载顺序有关,具体的可以去了解下相关知识。我在测试时,虽然有的类导包进来是importorg.a
- Linux下安装Zookeeper教程
.猫的树
Linuxjava-zookeeperzookeeperlinux
ZooKeeper简介ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。一、下载ZooKe
- 大数据必学免费、开源分布式数据库——Apache Hive
遇码
大数据数据仓库开源hivehadoopsql数据库ApacheHive
Hive是大数据开发、分析领域无法绕开的一个话题。我将分认识Hive、快速部署、快速入门等几个模块为同学们详细地介绍Hive,期望可以为刚刚接触大数据领域的同学们建立一个初步的认知。Hive是什么Hive,又称ApacheHive,由Facebook开源用于解决海量结构化日志的数据统计工具。Hive是基于ApacheHadoop的一个数据仓库工具,用来进行数据提取、转化、加载,这是一种可以存储、查
- Spark 从HDFS读取时,通常按文件块(block)数量决定初始partition数,这是怎么实现的?
闯闯桑
sparkhdfs大数据
在Spark中,从HDFS读取数据时按文件块(block)数量决定初始partition数,这一机制是通过HadoopInputFormat的分片(split)策略实现的。具体流程如下:1.HDFS文件块(Block)与SparkPartition的对应关系HDFS默认块大小(如128MB/256MB)决定了文件的物理存储分布。Spark在读取HDFS文件时,会调用Hadoop的InputForm
- hadoop相关面试题以及答案
酷爱码
编程学习hadoop大数据分布式
什么是Hadoop?它的主要组件是什么?Hadoop是一个开源的分布式计算框架,用于处理大规模数据的存储和计算。其主要组件包括HadoopDistributedFileSystem(HDFS)和MapReduce。解释HDFS的工作原理。HDFS采用主从架构,包括一个NameNode和多个DataNode。NameNode负责管理文件系统的命名空间和数据块的映射关系,DataNode负责存储实际数
- 大数据内容分享(五):Hadoop各组件的主要功能及作用详解
之乎者也·
大数据(Hadoop)内容分享大数据hadoop分布式
目录前言存储类型组件计算分析引擎组件任务调度和集群管理组件其它组件总结前言虽然hadoop的生态体系已经有好多年了,而且越来越多的做大数据的可能会觉得hadoop体系在数据处理方面有一些笨重,但是作为大数据的分布式系统领域的鼻祖,我们还是好好学习一下。Hadoop体系最初建立于2005年,是由DougCutting和MikeCafarella开发的。它的设计灵感来自于Google的MapReduc
- hadoop 3.x 伪分布式搭建
勤匠
分布式hadoop大数据
hadoop伪分布式搭建环境CentOS7jdk1.8hadoop3.3.61.准备准备环境所需包上传所有压缩包到服务器2.安装jdk#解压jdk到/usr/local目录下tar-xvfjdk-8u431-linux-x64.tar.gz-C/usr/local先不着急配置java环境变量,后面和hadoop一起配置3.安装hadoop#解压hadoop到/usr/local目录下tar-xvf
- java实现hbase表创建、数据插入、删除表
zhuiwenwen
hadoop
近日查看了相关资料后,梳理了一下用java实现hbase的表创建、数据插入、删除表,代码如下:1、需要的jar包:commons-codec-1.4.jarcommons-logging-1.0.4.jarhadoop-0.20.2-core.jarhbase-0.20.6.jarlog4j-1.2.15.jarzookeeper-3.2.2.jar2、代码:packageorg.myhbase;
- ssh: Could not resolve hostname you: Temporary failure in name resolution
Agatha方艺璇
Hadoop大数据sshhadoophdfs
安装Hadoop时报错此问题:原因是配置ip时写错了1、配置主机名与IP地址的映射关系:vi/etc/hosts192.168.215.152niit012、主机名称配置:vi/etc/sysconfig/networkniit01
- 使用esri的gis-tools-for-hadoop工具包,在hive中实现空间计算
从地图看世界
GIS大数据hadoophiver语言
以基站工参表实现空间关系判断(点在多边形内)为例,使用ESRI的gis-tools-for-hadoop工具包,在hive中实现数据空间计算的几个主要步骤:上传空间地理实体数据到hadoop集群;hive中创建地理实体表;与基站工参表做空间判断(点在多边形内)。一、HiveHive是基于Hadoop的数据仓库,采用MPP架构(大规模并行处理),存储结构化数据,提供sql查询功能,sql语句转换为M
- 《Operating System Concepts》阅读笔记:p483-p488
操作系统
《OperatingSystemConcepts》学习第40天,p483-p488总结,总计6页。一、技术总结1.objectstorage(1)objectstorage管理软件Hadoopfilesystem(HDFS)、Ceph。二、英语总结(生词:1)1.commodity(1)commodity:com-("together,with")+modus("measure,manner",*
- Hadoop/Spark 生态
不辉放弃
大数据
Hadoop/Spark生态是大数据处理的核心技术体系,专为解决海量数据的存储、计算和分析问题而设计。以下从底层原理到核心组件详细讲解,帮助你快速建立知识框架!一、为什么需要Hadoop/Spark?传统单机瓶颈:数据量超过单机存储极限(如PB级数据)计算任务无法在合理时间内完成(如TB级日志分析)核心解决思路:分布式存储:数据拆分到多台机器存储(如HDFS)分布式计算:任务拆分到多台机器并行处理
- 关于旗正规则引擎规则中的上传和下载问题
何必如此
文件下载压缩jsp文件上传
文件的上传下载都是数据流的输入输出,大致流程都是一样的。
一、文件打包下载
1.文件写入压缩包
string mainPath="D:\upload\"; 下载路径
string tmpfileName=jar.zip; &n
- 【Spark九十九】Spark Streaming的batch interval时间内的数据流转源码分析
bit1129
Stream
以如下代码为例(SocketInputDStream):
Spark Streaming从Socket读取数据的代码是在SocketReceiver的receive方法中,撇开异常情况不谈(Receiver有重连机制,restart方法,默认情况下在Receiver挂了之后,间隔两秒钟重新建立Socket连接),读取到的数据通过调用store(textRead)方法进行存储。数据
- spark master web ui 端口8080被占用解决方法
daizj
8080端口占用sparkmaster web ui
spark master web ui 默认端口为8080,当系统有其它程序也在使用该接口时,启动master时也不会报错,spark自己会改用其它端口,自动端口号加1,但为了可以控制到指定的端口,我们可以自行设置,修改方法:
1、cd SPARK_HOME/sbin
2、vi start-master.sh
3、定位到下面部分
- oracle_执行计划_谓词信息和数据获取
周凡杨
oracle执行计划
oracle_执行计划_谓词信息和数据获取(上)
一:简要说明
在查看执行计划的信息中,经常会看到两个谓词filter和access,它们的区别是什么,理解了这两个词对我们解读Oracle的执行计划信息会有所帮助。
简单说,执行计划如果显示是access,就表示这个谓词条件的值将会影响数据的访问路径(表还是索引),而filter表示谓词条件的值并不会影响数据访问路径,只起到
- spring中datasource配置
g21121
dataSource
datasource配置有很多种,我介绍的一种是采用c3p0的,它的百科地址是:
http://baike.baidu.com/view/920062.htm
<!-- spring加载资源文件 -->
<bean name="propertiesConfig"
class="org.springframework.b
- web报表工具FineReport使用中遇到的常见报错及解决办法(三)
老A不折腾
finereportFAQ报表软件
这里写点抛砖引玉,希望大家能把自己整理的问题及解决方法晾出来,Mark一下,利人利己。
出现问题先搜一下文档上有没有,再看看度娘有没有,再看看论坛有没有。有报错要看日志。下面简单罗列下常见的问题,大多文档上都有提到的。
1、repeated column width is largerthan paper width:
这个看这段话应该是很好理解的。比如做的模板页面宽度只能放
- mysql 用户管理
墙头上一根草
linuxmysqluser
1.新建用户 //登录MYSQL@>mysql -u root -p@>密码//创建用户mysql> insert into mysql.user(Host,User,Password) values(‘localhost’,'jeecn’,password(‘jeecn’));//刷新系统权限表mysql>flush privileges;这样就创建了一个名为:
- 关于使用Spring导致c3p0数据库死锁问题
aijuans
springSpring 入门Spring 实例Spring3Spring 教程
这个问题我实在是为整个 springsource 的员工蒙羞
如果大家使用 spring 控制事务,使用 Open Session In View 模式,
com.mchange.v2.resourcepool.TimeoutException: A client timed out while waiting to acquire a resource from com.mchange.
- 百度词库联想
annan211
百度
<!DOCTYPE html>
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
<title>RunJS</title&g
- int数据与byte之间的相互转换实现代码
百合不是茶
位移int转bytebyte转int基本数据类型的实现
在BMP文件和文件压缩时需要用到的int与byte转换,现将理解的贴出来;
主要是要理解;位移等概念 http://baihe747.iteye.com/blog/2078029
int转byte;
byte转int;
/**
* 字节转成int,int转成字节
* @author Administrator
*
- 简单模拟实现数据库连接池
bijian1013
javathreadjava多线程简单模拟实现数据库连接池
简单模拟实现数据库连接池
实例1:
package com.bijian.thread;
public class DB {
//private static final int MAX_COUNT = 10;
private static final DB instance = new DB();
private int count = 0;
private i
- 一种基于Weblogic容器的鉴权设计
bijian1013
javaweblogic
服务器对请求的鉴权可以在请求头中加Authorization之类的key,将用户名、密码保存到此key对应的value中,当然对于用户名、密码这种高机密的信息,应该对其进行加砂加密等,最简单的方法如下:
String vuser_id = "weblogic";
String vuse
- 【RPC框架Hessian二】Hessian 对象序列化和反序列化
bit1129
hessian
任何一个对象从一个JVM传输到另一个JVM,都要经过序列化为二进制数据(或者字符串等其他格式,比如JSON),然后在反序列化为Java对象,这最后都是通过二进制的数据在不同的JVM之间传输(一般是通过Socket和二进制的数据传输),本文定义一个比较符合工作中。
1. 定义三个POJO
Person类
package com.tom.hes
- 【Hadoop十四】Hadoop提供的脚本的功能
bit1129
hadoop
1. hadoop-daemon.sh
1.1 启动HDFS
./hadoop-daemon.sh start namenode
./hadoop-daemon.sh start datanode
通过这种逐步启动的方式,比start-all.sh方式少了一个SecondaryNameNode进程,这不影响Hadoop的使用,其实在 Hadoop2.0中,SecondaryNa
- 中国互联网走在“灰度”上
ronin47
管理 灰度
中国互联网走在“灰度”上(转)
文/孕峰
第一次听说灰度这个词,是任正非说新型管理者所需要的素质。第二次听说是来自马化腾。似乎其他人包括马云也用不同的语言说过类似的意思。
灰度这个词所包含的意义和视野是广远的。要理解这个词,可能同样要用“灰度”的心态。灰度的反面,是规规矩矩,清清楚楚,泾渭分明,严谨条理,是决不妥协,不转弯,认死理。黑白分明不是灰度,像彩虹那样
- java-51-输入一个矩阵,按照从外向里以顺时针的顺序依次打印出每一个数字。
bylijinnan
java
public class PrintMatrixClockwisely {
/**
* Q51.输入一个矩阵,按照从外向里以顺时针的顺序依次打印出每一个数字。
例如:如果输入如下矩阵:
1 2 3 4
5 6 7 8
9
- mongoDB 用户管理
开窍的石头
mongoDB用户管理
1:添加用户
第一次设置用户需要进入admin数据库下设置超级用户(use admin)
db.addUsr({user:'useName',pwd:'111111',roles:[readWrite,dbAdmin]});
第一个参数用户的名字
第二个参数
- [游戏与生活]玩暗黑破坏神3的一些问题
comsci
生活
暗黑破坏神3是有史以来最让人激动的游戏。。。。但是有几个问题需要我们注意
玩这个游戏的时间,每天不要超过一个小时,且每次玩游戏最好在白天
结束游戏之后,最好在太阳下面来晒一下身上的暗黑气息,让自己恢复人的生气
&nb
- java 二维数组如何存入数据库
cuiyadll
java
using System;
using System.Linq;
using System.Text;
using System.Windows.Forms;
using System.Xml;
using System.Xml.Serialization;
using System.IO;
namespace WindowsFormsApplication1
{
- 本地事务和全局事务Local Transaction and Global Transaction(JTA)
darrenzhu
javaspringlocalglobaltransaction
Configuring Spring and JTA without full Java EE
http://spring.io/blog/2011/08/15/configuring-spring-and-jta-without-full-java-ee/
Spring doc -Transaction Management
http://docs.spring.io/spri
- Linux命令之alias - 设置命令的别名,让 Linux 命令更简练
dcj3sjt126com
linuxalias
用途说明
设置命令的别名。在linux系统中如果命令太长又不符合用户的习惯,那么我们可以为它指定一个别名。虽然可以为命令建立“链接”解决长文件名的问 题,但对于带命令行参数的命令,链接就无能为力了。而指定别名则可以解决此类所有问题【1】。常用别名来简化ssh登录【见示例三】,使长命令变短,使常 用的长命令行变短,强制执行命令时询问等。
常用参数
格式:alias
格式:ali
- yii2 restful web服务[格式响应]
dcj3sjt126com
PHPyii2
响应格式
当处理一个 RESTful API 请求时, 一个应用程序通常需要如下步骤 来处理响应格式:
确定可能影响响应格式的各种因素, 例如媒介类型, 语言, 版本, 等等。 这个过程也被称为 content negotiation。
资源对象转换为数组, 如在 Resources 部分中所描述的。 通过 [[yii\rest\Serializer]]
- MongoDB索引调优(2)——[十]
eksliang
mongodbMongoDB索引优化
转载请出自出处:http://eksliang.iteye.com/blog/2178555 一、概述
上一篇文档中也说明了,MongoDB的索引几乎与关系型数据库的索引一模一样,优化关系型数据库的技巧通用适合MongoDB,所有这里只讲MongoDB需要注意的地方 二、索引内嵌文档
可以在嵌套文档的键上建立索引,方式与正常
- 当滑动到顶部和底部时,实现Item的分离效果的ListView
gundumw100
android
拉动ListView,Item之间的间距会变大,释放后恢复原样;
package cn.tangdada.tangbang.widget;
import android.annotation.TargetApi;
import android.content.Context;
import android.content.res.TypedArray;
import andr
- 程序员用HTML5制作的爱心树表白动画
ini
JavaScriptjqueryWebhtml5css
体验效果:http://keleyi.com/keleyi/phtml/html5/31.htmHTML代码如下:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml"><head><meta charset="UTF-8" >
<ti
- 预装windows 8 系统GPT模式的ThinkPad T440改装64位 windows 7旗舰版
kakajw
ThinkPad预装改装windows 7windows 8
该教程具有普遍参考性,特别适用于联想的机器,其他品牌机器的处理过程也大同小异。
该教程是个人多次尝试和总结的结果,实用性强,推荐给需要的人!
缘由
小弟最近入手笔记本ThinkPad T440,但是特别不能习惯笔记本出厂预装的Windows 8系统,而且厂商自作聪明地预装了一堆没用的应用软件,消耗不少的系统资源(本本的内存为4G,系统启动完成时,物理内存占用比
- Nginx学习笔记
mcj8089
nginx
一、安装nginx 1、在nginx官方网站下载一个包,下载地址是:
http://nginx.org/download/nginx-1.4.2.tar.gz
2、WinSCP(ftp上传工
- mongodb 聚合查询每天论坛链接点击次数
qiaolevip
每天进步一点点学习永无止境mongodb纵观千象
/* 18 */
{
"_id" : ObjectId("5596414cbe4d73a327e50274"),
"msgType" : "text",
"sendTime" : ISODate("2015-07-03T08:01:16.000Z"
- java术语(PO/POJO/VO/BO/DAO/DTO)
Luob.
DAOPOJODTOpoVO BO
PO(persistant object) 持久对象
在o/r 映射的时候出现的概念,如果没有o/r映射,就没有这个概念存在了.通常对应数据模型(数据库),本身还有部分业务逻辑的处理.可以看成是与数据库中的表相映射的java对象.最简单的PO就是对应数据库中某个表中的一条记录,多个记录可以用PO的集合.PO中应该不包含任何对数据库的操作.
VO(value object) 值对象
通
- 算法复杂度
Wuaner
Algorithm
Time Complexity & Big-O:
http://stackoverflow.com/questions/487258/plain-english-explanation-of-big-o
http://bigocheatsheet.com/
http://www.sitepoint.com/time-complexity-algorithms/