- Spark SQL中掌控sql语句的执行 - 了解你的查询计划
鸿乃江边鸟
本文翻译自BeinchargeofQueryExcutioninSparkSQL背景自spark2.x的sql以及申明行DataFrameAPi以来,在spark查询数据越来越方便。仅仅用几行代码就能表达出复杂的查询逻辑以及实现复杂的操作。这个api最大的优势在于用户不需要考虑太多的执行情况,自动有优化器优化出最有效率的执行方式去执行此次查询。而且有效的查询语句执行不仅是因为能够节约资源,而且能够
- 基于Spark2.x新闻网大数据实时分析可视化系统项目
飞雪雪团队
课程大纲第一章:案例需求分析与设计1.全套课程内容概述2.案例需求分析3.系统架构设计4.系统数据流程设计5.集群资源规划设计第二章:linux环境准备与设置1.Linux系统常规设置2.克隆虚拟机并进行相关的配置3.对集群中的机器进行基本配置第三章:Hadoop2.X分布式集群部署1.Hadoop2.X版本下载及安装2.Hadoop2.X分布式集群配置3.分发到其他各个机器节点4.HDFS启动集
- Spark权威指南(中文版)--第23章 生产环境中的结构化流
登峰大数据
SparkTheDefinitiveGuide(Spark权威指南)中文版。本书详细介绍了Spark2.x版本的各个模块,目前市面上最好的Spark2.x学习书籍!!!关注:登峰大数据,阅读中文Spark权威指南(完整版),系统学习Spark大数据框架!如果您觉得作者翻译的内容有帮助,请分享给更多人。您的分享,是作者翻译的动力本书前几章已经从用户的角度介绍了结构化流。这自然是应用程序的核心。本章将
- Spark3-AQE-数据倾斜Join优化
zuoseve01
spark
AdaptiveQueryExection(自适应查询计划)简称AQE,在最早在spark1.6版本就已经有了AQE;到了spark2.x版本,intel大数据团队进行了相应的原型开发和实践;到了spark3.0时代,AQE终于面向用户可以使用了注:以下代码分析基于Spark3.0.1版本1Join的自适应数据倾斜处理代码位于sql.core模块的org.apache.spark.sql.exec
- spark 提交java_java中使用SparkLauncher提交spark应用
米佗耶目
spark提交java
将开发好的sparkapplication(对于java/scala来说是jar)提交到spark集群执行的方式通常包括两种,一种是通常使用的sparksubmit脚本(spark2.x版本是spark2-shell,可以参考https://www.jianshu.com/p/1d41174441b6),另一种是spark官方提供的javaAPISparkLauncher类。下面来介绍使用Spar
- Spark之自定义AccumulatorV2
阿坤的博客
本文介绍如何使用Spark2中自定义累加器来实现数据的统计。Spark2.x之后,之前的的accumulator被废除,用AccumulatorV2代替;1.自定义AccumulatorclassStrAccumulatorextendsAccumulatorV2[String,String]{//a=10|b=20privatevarv=""overridedefisZero:Boolean=v
- Spark-通信架构
布莱安托
Spark2.x版本使用Netty通讯框架作为内部通讯组间。Spark基于Netty新的RPC框架借鉴了Akka中的设计,基于Actor模型。Spark通讯框架中各个组件(Client/Master/Worker)可以认为是一个个独立的实体,各个实体之间通过消息来进行通信。Endpoint(Client/Master/Worker)有1个InBox和多个OutBox(数量取决于当前Endpoint
- 【Spark】用scala2.11编译打包构建镜像
runzhliu
KubernetesSpark
如果关注Spark社区的同学已经知道,从Spark3.0开始,就不再支持用Scala2.11来编译了,Scala2.11相关的依赖也被Owen去掉了,所以如果要用Spark3.0的同学就需要用Scala2.12去编译打包了。而如果还在用Spark2.x版本的,至少在2.4.5的版本中,已经是将Scala2.12作为默认的Scala版本了,如果用户的程序是用Scala2.11写的,也需要将Spark
- Spark2.x精通:Master端循环消息处理源码剖析(二)
大数据开发运维架构
微信公众号:大数据开发运维架构关注可了解更多大数据相关的资讯。问题或建议,请公众号留言;如果您觉得“大数据开发运维架构”对你有帮助,欢迎转发朋友圈从微信公众号拷贝过来,格式有些错乱,建议直接去公众号阅读上一篇文章Spark2.x精通:Master端循环消息处理源码剖析(一)主要讲解了:1主节点切换后,数据恢复app、driver、executor恢复流程;2.完成数据恢复后对应App、Worker
- Spark3-AQE-数据倾斜Join优化
蠟筆小噺没有烦恼
AdaptiveQueryExection(自适应查询计划)简称AQE,在最早在spark1.6版本就已经有了AQE;到了spark2.x版本,intel大数据团队进行了相应的原型开发和实践;到了spark3.0时代,AQE终于面向用户可以使用了注:以下代码分析基于Spark3.0.1版本1Join的自适应数据倾斜处理代码位于sql.core模块的org.apache.spark.sql.exec
- Spark2.x精通:Master端循环消息处理源码剖析(一)
大数据开发运维架构
微信公众号:大数据开发运维架构关注可了解更多大数据相关的资讯。问题或建议,请公众号留言;如果您觉得“大数据开发运维架构”对你有帮助,欢迎转发朋友圈从微信公众号拷贝过来,格式有些错乱,建议直接去公众号阅读上篇文章:Spark2.x精通:Standalone模式Master节点启动源码剖析,讲了Standalone模式下Master节点的启动过程中如何进行主函数调用和初始化的,但是Master启动后还
- 基于Spark3的个性化推荐系统——理论知识
程研板
#推荐系统推荐系统算法协同过滤机器学习
本博客整理自慕课网实战《基于Spark2.x的个性化推荐系统》目录一.推荐系统的生态介绍1.生态概述2.常见问题3.效果评测二.协同过滤推荐算法原理1.基于用户的协同过滤2.基于物品的协同过滤3.基于模型的协同过滤4.缺失值填充三.ALS算法原理一.推荐系统的生态介绍1.生态概述数据算法基于关联的推荐算法:如购买鞋子的顾客,会有10%的顾客会买袜子。有Apriori算法和FP-Growth算法。基
- spark广播变量的原理_Spark2.x(六十二):(Spark2.4)共享变量 - Broadcast原理分析...
杨良枝
spark广播变量的原理
之前对Broadcast有分析,但是不够深入《Spark2.3(四十三):SparkBroadcast总结》,本章对其实现过程以及原理进行分析。带着以下几个问题去写本篇文章:1)driver端如何实现broadcast的装备,是否会把broadcast数据发送给executor端?2)executor如何获取到broadcast数据?导入Spark一个非常重要的特征就是共享变量。共享变量分为广播变
- Sparklyr
Liam_ml
Sparklyr是rstudio社区维护的一个spark的接口。文档Sparklyr文档:https://spark.rstudio.com安装Sparklyr:sparklyr::spark_install(version="2.3.0",hadoop_version="2.7"),不依赖于Spark版本,spark2.X完美兼容1.X。Spark环境配置需要注意的问题:下载和Hadoop对应版
- PySpark:DataFrame及其常用列操作
Sun_Sherry
PySparkPySpark
Spark版本:V3.2.11.DataFrame虽然RDD是Spark最基本的抽象,但RDD的计算函数对Spark而言是不透明的。也就是说Spark并不知道你要在计算函数里干什么。无论你是要做连接、过滤、选择还是聚合,对Spark来说都是一个lambda表达式而已。正是由于不能掌握RDD中的计算或表达式,因此Spark无法对表达式进行优化。为了解决上述问题,从Spark2.x开始,RDD被降级为
- spark dataframe 如何保存到本地
zy_now
在Spark2.x里面,可以直接使用以下命令df.write.format("csv").save(filepath)
- Spark2.x精通:TaskScheduler的Task任务提交源码剖析
大数据开发运维架构
微信公众号:大数据开发运维架构关注可了解更多大数据相关的资讯。问题或建议,请公众号留言;如果您觉得“大数据开发运维架构”对你有帮助,欢迎转发朋友圈从微信公众号拷贝过来,格式有些错乱,建议直接去公众号阅读接上篇文章:Spark2.x精通:Job触发流程源码深度剖析(二),我们这里继续讲解TaskScheduler如何进行Task任务提交的。1.上篇文章中最后是通过调用taskScheduler.su
- 大数据--spark
像影子追着光梦游_
大数据大数据spark
什么是SparkApacheSpark的架构基础是弹性分布式数据集(RDD),这是一种只读的多组数据项,分布在机器集群上,以容错方式维护。[2]DataframeAPI作为RDD之上的抽象发布,随后是DatasetAPI。在Spark1.x中,RDD是主要的应用程序编程接口(API),但从Spark2.x开始,鼓励使用数据集API[3],即使RDDAPI没有被弃用。[4][5]RDD技术仍然是Da
- java中使用SparkLauncher提交spark应用
alexlee666
将开发好的sparkapplication(对于java/scala来说是jar)提交到spark集群执行的方式通常包括两种,一种是通常使用的sparksubmit脚本(spark2.x版本是spark2-shell,可以参考https://www.jianshu.com/p/1d41174441b6),另一种是spark官方提供的javaAPISparkLauncher类。下面来介绍使用Spar
- Spark2.x精通:Standalone模式Master节点启动源码剖析
大数据开发运维架构
微信公众号:大数据开发运维架构关注可了解更多大数据相关的资讯。问题或建议,请公众号留言;如果您觉得“大数据开发运维架构”对你有帮助,欢迎转发朋友圈从微信公众号拷贝过来,格式有些错乱,建议直接去公众号阅读对于Spark生产环境部署模式通常是SparkStandalone或SparkOnYarn,这里我们跟踪下源码,分析Standalone模式下Master节点的启动流程,已经相关的初始化流程:源码版
- Spark2.x机器学习视频教程
菜花小噗噗
Spark2.x机器学习视频教程课程学习址:http://www.xuetuwuyou.com/course/311课程出自学途无忧网:http://www.xuetuwuyou.com本课程讲解Spark在机器学习中的应用,并介绍如何从各种公开渠道获取用于机器学习系统的数据。内容涵盖推荐系统、回归、聚类、分类等经典机器学习算法及其实际应用,涵盖使用SparkMLPipelineAPI创建和调试机
- Spark2.x 机器学习视频教程
菜花小噗噗
Spark2.x机器学习视频教程讲师:轩宇老师课程观看地址:http://www.xuetuwuyou.com/course/311课程出自学途无忧网:http://www.xuetuwuyou.com本课程讲解Spark在机器学习中的应用,并介绍如何从各种公开渠道获取用于机器学习系统的数据。内容涵盖推荐系统、回归、聚类、分类等经典机器学习算法及其实际应用,涵盖使用SparkMLPipelineA
- spark内核解析和调优指南
HUC-暖阳
spark技术篇大数据之调优篇mysqlsparkhadoophdfsjava
Spark内存管理Spark作为一个基于内存的分布式计算引擎,其内存管理模块在整个系统中扮演着非常重要的角色。理解Spark内存管理的基本原理,有助于更好地开发Spark应用程序和进行性能调优。本文中阐述的原理基于Spark2.X版本。在执行Spark的应用程序时,Spark集群会启动Driver和Executor两种JVM进程,前者为主控进程,负责创建Spark上下文,提交Spark作业(Job
- 【spark系列3】spark 3.0.1 AQE(Adaptive Query Exection)分析
鸿乃江边鸟
AQE简介从sparkconfiguration,到在最早在spark1.6版本就已经有了AQE;到了spark2.x版本,intel大数据团队进行了相应的原型开发和实践;到了spark3.0时代,Databricks和intel一起为社区贡献了新的AQEspark3.0.1中的AQE的配置配置项默认值官方说明分析spark.sql.adaptive.enabledfalse是否开启自适应查询此处
- 【spark系列3】spark 3.0.1 AQE(Adaptive Query Exection)分析
鸿乃江边鸟
spark大数据
AQE简介从sparkconfiguration,到在最早在spark1.6版本就已经有了AQE;到了spark2.x版本,intel大数据团队进行了相应的原型开发和实践;到了spark3.0时代,Databricks和intel一起为社区贡献了新的AQEspark3.0.1中的AQE的配置配置项默认值官方说明分析spark.sql.adaptive.enabledfalse是否开启自适应查询此处
- 【spark系列3】spark 3.0.1 AQE(Adaptive Query Exection)分析
鸿乃江边鸟
spark大数据
AQE简介从sparkconfiguration,到在最早在spark1.6版本就已经有了AQE;到了spark2.x版本,intel大数据团队进行了相应的原型开发和实践;到了spark3.0时代,Databricks和intel一起为社区贡献了新的AQEspark3.0.1中的AQE的配置配置项默认值官方说明分析spark.sql.adaptive.enabledfalse是否开启自适应查询此处
- HCIA-Big Data华为认证大数据工程师在线课程笔记
L小Ray想有腮
文章目录一、简介二、HDFS分布式文件系统三、MapReduce分布式离线批处理和Yarn资源协调四、Spark2.x基于内存的分布式计算五、HBase分布式NoSQL数据库HBase架构关键流程和特性FusionInsightHBase优化六、Hive分布式数据仓库概述和架构数据存储模型七、Streaming分布式流计算引擎简介系统架构Streaming特性华为StreamCQL介绍八、Flin
- spark 合并github (pull request)pr 的正确姿势
鸿乃江边鸟
spark
最近在做内部spark版本升级的工作,涉及到github上合并pr的工作,具体的是spark2.x升级到spark3.0.1时兼容hdfscdh-2.6.0-5.13.1,报编译错误[INFO]Compiling25Scalasourcesto/Users/libinsong/Documents/codes/tongdun/spark-3.0/resource-managers/yarn/targ
- Spark2.X java.net.URISyntaxException完美解决办法
zhangjunli
Sparksparkspark2.xURIException
windows下使用intellij开发sparkmllib程序发现如下错误。varspark=SparkSession.builder().master("local").appName("test").getOrCreate()运行时报错:6/08/1115:39:20INFOSharedState:Warehousepathis'file:D:\development\intellij_id
- spark2.x由浅入深深到底系列七之py4j在spark中python api的使用
weixin_34318326
大数据pythonscala
学习spark的任何技术前请先正确理解spark,可以参考:正确理解Spark我们知道spark的RDD支持scalaapi、javaapi以及pythonapi,我们分别对scalaapi与javaapi做了详细的介绍,本文我们将探讨rddpythonapi是怎么使用py4j来调用scala/java的api的,从而来实现pythonapi的功能。首先我们先介绍下py4j。一、py4jpy4j是
- TOMCAT在POST方法提交参数丢失问题
357029540
javatomcatjsp
摘自http://my.oschina.net/luckyi/blog/213209
昨天在解决一个BUG时发现一个奇怪的问题,一个AJAX提交数据在之前都是木有问题的,突然提交出错影响其他处理流程。
检查时发现页面处理数据较多,起初以为是提交顺序不正确修改后发现不是由此问题引起。于是删除掉一部分数据进行提交,较少数据能够提交成功。
恢复较多数据后跟踪提交FORM DATA ,发现数
- 在MyEclipse中增加JSP模板 删除-2008-08-18
ljy325
jspxmlMyEclipse
在D:\Program Files\MyEclipse 6.0\myeclipse\eclipse\plugins\com.genuitec.eclipse.wizards_6.0.1.zmyeclipse601200710\templates\jsp 目录下找到Jsp.vtl,复制一份,重命名为jsp2.vtl,然后把里面的内容修改为自己想要的格式,保存。
然后在 D:\Progr
- JavaScript常用验证脚本总结
eksliang
JavaScriptjavaScript表单验证
转载请出自出处:http://eksliang.iteye.com/blog/2098985
下面这些验证脚本,是我在这几年开发中的总结,今天把他放出来,也算是一种分享吧,现在在我的项目中也在用!包括日期验证、比较,非空验证、身份证验证、数值验证、Email验证、电话验证等等...!
&nb
- 微软BI(4)
18289753290
微软BI SSIS
1)
Q:查看ssis里面某个控件输出的结果:
A MessageBox.Show(Dts.Variables["v_lastTimestamp"].Value.ToString());
这是我们在包里面定义的变量
2):在关联目的端表的时候如果是一对多的关系,一定要选择唯一的那个键作为关联字段。
3)
Q:ssis里面如果将多个数据源的数据插入目的端一
- 定时对大数据量的表进行分表对数据备份
酷的飞上天空
大数据量
工作中遇到数据库中一个表的数据量比较大,属于日志表。正常情况下是不会有查询操作的,但如果不进行分表数据太多,执行一条简单sql语句要等好几分钟。。
分表工具:linux的shell + mysql自身提供的管理命令
原理:使用一个和原表数据结构一样的表,替换原表。
linux shell内容如下:
=======================开始 
- 本质的描述与因材施教
永夜-极光
感想随笔
不管碰到什么事,我都下意识的想去探索本质,找寻一个最形象的描述方式。
我坚信,世界上对一件事物的描述和解释,肯定有一种最形象,最贴近本质,最容易让人理解
&
- 很迷茫。。。
随便小屋
随笔
小弟我今年研一,也是从事的咱们现在最流行的专业(计算机)。本科三流学校,为了能有个更好的跳板,进入了考研大军,非常有幸能进入研究生的行业(具体学校就不说了,怕把学校的名誉给损了)。
先说一下自身的条件,本科专业软件工程。主要学习就是软件开发,几乎和计算机没有什么区别。因为学校本身三流,也就是让老师带着学生学点东西,然后让学生毕业就行了。对专业性的东西了解的非常浅。就那学的语言来说
- 23种设计模式的意图和适用范围
aijuans
设计模式
Factory Method 意图 定义一个用于创建对象的接口,让子类决定实例化哪一个类。Factory Method 使一个类的实例化延迟到其子类。 适用性 当一个类不知道它所必须创建的对象的类的时候。 当一个类希望由它的子类来指定它所创建的对象的时候。 当类将创建对象的职责委托给多个帮助子类中的某一个,并且你希望将哪一个帮助子类是代理者这一信息局部化的时候。
Abstr
- Java中的synchronized和volatile
aoyouzi
javavolatilesynchronized
说到Java的线程同步问题肯定要说到两个关键字synchronized和volatile。说到这两个关键字,又要说道JVM的内存模型。JVM里内存分为main memory和working memory。 Main memory是所有线程共享的,working memory则是线程的工作内存,它保存有部分main memory变量的拷贝,对这些变量的更新直接发生在working memo
- js数组的操作和this关键字
百合不是茶
js数组操作this关键字
js数组的操作;
一:数组的创建:
1、数组的创建
var array = new Array(); //创建一个数组
var array = new Array([size]); //创建一个数组并指定长度,注意不是上限,是长度
var arrayObj = new Array([element0[, element1[, ...[, elementN]]]
- 别人的阿里面试感悟
bijian1013
面试分享工作感悟阿里面试
原文如下:http://greemranqq.iteye.com/blog/2007170
一直做企业系统,虽然也自己一直学习技术,但是感觉还是有所欠缺,准备花几个月的时间,把互联网的东西,以及一些基础更加的深入透析,结果这次比较意外,有点突然,下面分享一下感受吧!
&nb
- 淘宝的测试框架Itest
Bill_chen
springmaven框架单元测试JUnit
Itest测试框架是TaoBao测试部门开发的一套单元测试框架,以Junit4为核心,
集合DbUnit、Unitils等主流测试框架,应该算是比较好用的了。
近期项目中用了下,有关itest的具体使用如下:
1.在Maven中引入itest框架:
<dependency>
<groupId>com.taobao.test</groupId&g
- 【Java多线程二】多路条件解决生产者消费者问题
bit1129
java多线程
package com.tom;
import java.util.LinkedList;
import java.util.Queue;
import java.util.concurrent.ThreadLocalRandom;
import java.util.concurrent.locks.Condition;
import java.util.concurrent.loc
- 汉字转拼音pinyin4j
白糖_
pinyin4j
以前在项目中遇到汉字转拼音的情况,于是在网上找到了pinyin4j这个工具包,非常有用,别的不说了,直接下代码:
import java.util.HashSet;
import java.util.Set;
import net.sourceforge.pinyin4j.PinyinHelper;
import net.sourceforge.pinyin
- org.hibernate.TransactionException: JDBC begin failed解决方案
bozch
ssh数据库异常DBCP
org.hibernate.TransactionException: JDBC begin failed: at org.hibernate.transaction.JDBCTransaction.begin(JDBCTransaction.java:68) at org.hibernate.impl.SessionImp
- java-并查集(Disjoint-set)-将多个集合合并成没有交集的集合
bylijinnan
java
import java.util.ArrayList;
import java.util.Arrays;
import java.util.HashMap;
import java.util.HashSet;
import java.util.Iterator;
import java.util.List;
import java.util.Map;
import java.ut
- Java PrintWriter打印乱码
chenbowen00
java
一个小程序读写文件,发现PrintWriter输出后文件存在乱码,解决办法主要统一输入输出流编码格式。
读文件:
BufferedReader
从字符输入流中读取文本,缓冲各个字符,从而提供字符、数组和行的高效读取。
可以指定缓冲区的大小,或者可使用默认的大小。大多数情况下,默认值就足够大了。
通常,Reader 所作的每个读取请求都会导致对基础字符或字节流进行相应的读取请求。因
- [天气与气候]极端气候环境
comsci
环境
如果空间环境出现异变...外星文明并未出现,而只是用某种气象武器对地球的气候系统进行攻击,并挑唆地球国家间的战争,经过一段时间的准备...最大限度的削弱地球文明的整体力量,然后再进行入侵......
那么地球上的国家应该做什么样的防备工作呢?
&n
- oracle order by与union一起使用的用法
daizj
UNIONoracleorder by
当使用union操作时,排序语句必须放在最后面才正确,如下:
只能在union的最后一个子查询中使用order by,而这个order by是针对整个unioning后的结果集的。So:
如果unoin的几个子查询列名不同,如
Sql代码
select supplier_id, supplier_name
from suppliers
UNI
- zeus持久层读写分离单元测试
deng520159
单元测试
本文是zeus读写分离单元测试,距离分库分表,只有一步了.上代码:
1.ZeusMasterSlaveTest.java
package com.dengliang.zeus.webdemo.test;
import java.util.ArrayList;
import java.util.List;
import org.junit.Assert;
import org.j
- Yii 截取字符串(UTF-8) 使用组件
dcj3sjt126com
yii
1.将Helper.php放进protected\components文件夹下。
2.调用方法:
Helper::truncate_utf8_string($content,20,false); //不显示省略号 Helper::truncate_utf8_string($content,20); //显示省略号
&n
- 安装memcache及php扩展
dcj3sjt126com
PHP
安装memcache tar zxvf memcache-2.2.5.tgz cd memcache-2.2.5/ /usr/local/php/bin/phpize (?) ./configure --with-php-confi
- JsonObject 处理日期
feifeilinlin521
javajsonJsonOjbectJsonArrayJSONException
写这边文章的初衷就是遇到了json在转换日期格式出现了异常 net.sf.json.JSONException: java.lang.reflect.InvocationTargetException 原因是当你用Map接收数据库返回了java.sql.Date 日期的数据进行json转换出的问题话不多说 直接上代码
&n
- Ehcache(06)——监听器
234390216
监听器listenerehcache
监听器
Ehcache中监听器有两种,监听CacheManager的CacheManagerEventListener和监听Cache的CacheEventListener。在Ehcache中,Listener是通过对应的监听器工厂来生产和发生作用的。下面我们将来介绍一下这两种类型的监听器。
- activiti 自带设计器中chrome 34版本不能打开bug的解决
jackyrong
Activiti
在acitivti modeler中,如果是chrome 34,则不能打开该设计器,其他浏览器可以,
经证实为bug,参考
http://forums.activiti.org/content/activiti-modeler-doesnt-work-chrome-v34
修改为,找到
oryx.debug.js
在最头部增加
if (!Document.
- 微信收货地址共享接口-终极解决
laotu5i0
微信开发
最近要接入微信的收货地址共享接口,总是不成功,折腾了好几天,实在没办法网上搜到的帖子也是骂声一片。我把我碰到并解决问题的过程分享出来,希望能给微信的接口文档起到一个辅助作用,让后面进来的开发者能快速的接入,而不需要像我们一样苦逼的浪费好几天,甚至一周的青春。各种羞辱、谩骂的话就不说了,本人还算文明。
如果你能搜到本贴,说明你已经碰到了各种 ed
- 关于人才
netkiller.github.com
工作面试招聘netkiller人才
关于人才
每个月我都会接到许多猎头的电话,有些猎头比较专业,但绝大多数在我看来与猎头二字还是有很大差距的。 与猎头接触多了,自然也了解了他们的工作,包括操作手法,总体上国内的猎头行业还处在初级阶段。
总结就是“盲目推荐,以量取胜”。
目前现状
许多从事人力资源工作的人,根本不懂得怎么找人才。处在人才找不到企业,企业找不到人才的尴尬处境。
企业招聘,通常是需要用人的部门提出招聘条件,由人
- 搭建 CentOS 6 服务器 - 目录
rensanning
centos
(1) 安装CentOS
ISO(desktop/minimal)、Cloud(AWS/阿里云)、Virtualization(VMWare、VirtualBox)
详细内容
(2) Linux常用命令
cd、ls、rm、chmod......
详细内容
(3) 初始环境设置
用户管理、网络设置、安全设置......
详细内容
(4) 常驻服务Daemon
- 【求助】mongoDB无法更新主键
toknowme
mongodb
Query query = new Query(); query.addCriteria(new Criteria("_id").is(o.getId())); &n
- jquery 页面滚动到底部自动加载插件集合
xp9802
jquery
很多社交网站都使用无限滚动的翻页技术来提高用户体验,当你页面滑到列表底部时候无需点击就自动加载更多的内容。下面为你推荐 10 个 jQuery 的无限滚动的插件:
1. jQuery ScrollPagination
jQuery ScrollPagination plugin 是一个 jQuery 实现的支持无限滚动加载数据的插件。
2. jQuery Screw
S