- 【hadoop】master一键启动hadoop集群(高可用)
火龙谷
hadoophadooplinux
之前写了一篇【hadoop】master一键启动zkServer-CSDN博客现在是最好的安排:1.cd~vimhadoop-all.sh#!/bin/bash#检查参数是否为start或stopif["$1"="start"];then#启动服务sh~/zk-all.shstartstart-dfs.shstart-yarn.shelif["$1"="stop"];then#停止服务stop-y
- 【hadoop】基于hive的B站用户行为大数据分析
火龙谷
hadoophivehadoop数据仓库
1.需求分析b站现在积累有用户数据和视频列表数据,为了配合市场部门做好用户运营工作,需要对b站的用户行为进行分析,其具体需求如下所示:统计b站视频不同评分等级(行转列)的视频数。统计上传b站视频最多的用户Top10,以及这些用户上传的视频观看次数在前10的视频。统计b站每个类别视频观看数topn。统计b站视频分类热度topn。统计b站视频观看数topn。2.表结构2.1user表结构2.2vide
- 第4章 分布式数据库HBase(又是一篇呕心力作,一文详讲HBase)
wyz191
大数据技术原理与应用-概念存储处理分析与应用大数据hbase
HBase是谷歌BigTable的开源实现,是一个高可靠、高性能、面向列、可伸缩的分布式数据库,主要用来存储非结构化和半结构化的松散数据。适合于存储大表数据(表的规模可以达到数十亿行以及数百万列),并且对大表数据的读、写访问可以达到实时级别。利用HadoopHDFS(HadoopDistributedFileSystem)作为其文件存储系统,提供实时读写的分布式数据库系统。利用ZooKeeper作
- Atlas安装详解
g511266804
大数据大数据hadoophivezookeeper
一、Atlas简介1.Atlas概述ApacheAtlas为组织提供开放式元数据管理和治理功能,用以构建其数据资产目录,对这些资产进行分类和管理,并为数据分析师和数据治理团队,提供围绕这些数据资产的协作功能,它为Hadoop集群提供了包括数据分类、集中策略引擎、数据血缘、安全和生命周期管理在内的元数据治理核心能力。2.Atlas框架原理2.1Core层Atlas核心包含以下组件:2.1.1类型系统
- 机器学习:利用Spark MLlib实现分布式机器学习算法训练与预测。
AI天才研究院
AI大模型企业级应用开发实战大数据人工智能语言模型JavaPython架构设计
作者:禅与计算机程序设计艺术1.背景介绍近年来,随着云计算、大数据、人工智能等技术的不断发展,基于大规模数据处理的机器学习算法也在迅速发展壮大。机器学习(MachineLearning)是一门融合了统计、模式识别、计算机科学、数据挖掘等多领域知识而成的交叉学科,其目的是利用已知的数据,对未知的数据进行预测、分类、聚类、降维等任务,从而提高计算机程序的学习能力,改善自身的决策能力,解决实际问题。随着
- Spark-SQL核心编程:DataFrame、DataSet与RDD深度解析
不要天天开心
spark
在大数据处理领域,Spark-SQL是极为重要的工具。今天就来深入探讨Spark-SQL中DataFrame、DataSet和RDD这三个关键数据结构。Spark-SQL的前身是Shark,它摆脱了对Hive的过度依赖,在数据兼容、性能优化和组件扩展上有显著提升。DataFrame是基于RDD的分布式数据集,类似二维表格且带有schema元信息,这让SparkSQL能优化执行,性能优于RDD,其A
- spark-SQL核心编程
桑榆0806
spark
1.Spark-SQL简介起源与发展:Spark-SQL前身为Shark,因对Hive依赖制约Spark发展而被弃用。它汲取Shark优点重新开发,在数据兼容、性能优化和组件扩展方面表现出色。特点:易整合,统一数据访问,兼容Hive,支持标准数据连接。编程抽象:提供DataFrame和DataSet两个编程抽象,DataFrame带schema元信息,DataSet是其扩展,具有强类型等特性。2.
- Spark SQL架构工作原理及流程解析
我想去吃ya
sparksql架构大数据数据库
SparkSQL架构工作原理及流程解析,sparksql从shark发展而来,Shark为了实现Hive兼容,在HQL方面重用了Hive中HQL的解析、逻辑执行计划翻译、执行计划优化等逻辑。SparkSQL兼容Hive,因为SparkSQL架构与Hive底层结构相似,SparkSQL复用了Hive提供的元数据仓库(Metastore)、HiveQL、用户自定义函数(UDF)以及序列化和反序列工具(
- Java中,spark提供的Dataset详解
小巫程序Demo日记
Spark+Hadoop学习Javajavaspark开发语言
小巫程序Demo日记:SparkDataset使用全解Java和scala的Dataset的创建方式有所不同,因为Java的API和类型系统与Scala不同。比如,Scala中的隐式转换和case类在Java中并不适用,需要用JavaBean或Encoders来明确指定类型。基本操作部分,比如show()和printSchema(),这些方法在Java中应该是一样的,因为Spark的DataFra
- 大数据面试题目_综合面试_hadoop面试题_hive面试题_sqoop面试题_spark面试题_flume面试题_kafka面试题---大数据面试题007
添柴程序猿
大数据hadoophive大数据面试题flume
大数据面试:1.说一下hadoop的集群部署模式有哪几种,完全分布式如何部署以及配置?2.hadoop的守护进程有哪些?2.之前的公司,为什么要离职?3.之前公司的待遇工资多少?4.用Flink处理过什么场景的业务,是如何实现的,说一下流程?5.有没有用过NIFI?6.做的时候后端是如何做的,用的什么框架?有没有了解过springcloudTencent?7.hadoop中的代理用户功能的作用,和
- 大数据面试问答-HBase/ClickHouse
孟意昶
数据开发面试经验记录大数据面试hbase
1.HBase1.1概念HBase是构建在HadoopHDFS之上的分布式NoSQL数据库,采用列式存储模型,支持海量数据的实时读写和随机访问。适用于高吞吐、低延迟的场景,如实时日志处理、在线交易等。RowKey(行键)定义:表中每行数据的唯一标识,类似于关系数据库的主键。特点:数据按RowKey的字典序全局排序。所有查询必须基于RowKey或范围扫描(Scan)。示例:user_123_orde
- [Spark]深入解密Spark SQL源码:Catalyst框架如何优雅地解析你的SQL
darkchink
sparksql大数据分布式数据库
本文内容组织形式总结具体例子执行语句解析层优化层物理计划层执行层猜你喜欢PS总结先写个总结,接下来会分别产出各个部分的源码解析,SparkSQL主要分为以下五个执行部分。具体例子接下来举个具体的例子来说明执行语句SELECTname,ageFROMusersWHEREage>18假设我要从users这张表里面取出name,age两个字段解析层map将处理的数据逐条进行映射转换,这里的转换可以是类型的转换,也可以是值的转换。defmap[U:ClassTag](f:T=>U):RDD[U](2)mapPartitions将待处理的数据以分区为单位发送到计算节点进行处理,这里的处理是指可以进行任意的处理,哪怕是过滤数据。defmapPartitions[U:ClassTag](f
- Hadoop:大数据时代的基石
麻芝汤圆
spark大数据分析大数据hadoop分布式web安全安全linuxcentos
在当今数字化浪潮中,数据量呈爆炸式增长,企业和组织面临着前所未有的数据处理挑战。从社交媒体的海量信息到物联网设备的实时数据,如何高效地存储、管理和分析这些数据成为了一个关键问题。ApacheHadoop作为大数据处理领域的核心框架,为解决这些问题提供了强大的支持。本文将深入探讨Hadoop的架构、核心组件以及它在大数据生态系统中的重要性。一、大数据的挑战在大数据时代,数据的规模、类型和处理速度都达
- Spark-SQL2
戈云 1106
spark
Spark-SQL一.Spark-SQL核心编程(二)利用IDEA开发Spark-SQL创建子模块Spark-SQL,并添加依赖org.apache.sparkspark-sql_2.123.0.0创建Spark-SQL的测试代码:caseclassUser(id:Int,name:String,age:Int)objectSparkSQLDemo{defmain(args:Array[Strin
- Spark-SQL3
戈云 1106
spark人工智能
Spark-SQL一.Spark-SQL核心编程(四)1.数据加载与保存:1)通用方式:SparkSQL提供了通用的保存数据和数据加载的方式。这里的通用指的是使用相同的API,根据不同的参数读取和保存不同格式的数据,SparkSQL默认读取和保存的文件格式为parquet。2)加载数据:spark.read.load是加载数据的通用方法。如果读取不同格式的数据,可以对不同的数据格式进行设定。spa
- Spark-SQL核心编程实战:自定义函数与聚合函数详解
不要天天开心
spark
在大数据处理领域,Spark-SQL是极为重要的工具。今天和大家分享一下在Spark-SQL开发中的自定义函数和聚合函数的使用,这些都是基于实际项目开发经验的总结。在Spark-SQL开发时,第一步是搭建开发环境。在IDEA中创建Spark-SQL子模块,并添加spark-sql_2.12:3.0.0依赖,这样就为后续开发打下基础。自定义函数是Spark-SQL开发的一大亮点。UDF(用户定义函数
- hadoop3.2+zookeeper集群搭建
liu137612432
大数据hadoophadoop集群搭建大数据hadoopzookeeper
hadoop3.2集群搭建版本选择JDK:jdk1.8.0_141zookeeper:apache-zookeeper-3.5.9hadoop:hadoop-3.2.3我这里是本机虚拟机搭建,使用三个节点,分别是node01、node02、node03集群部署规划node01node02node03ZookeeperZookeeperZookeeperNameNodeNameNodeZKFCZKF
- spark spark-sql提交方式及参数优化建议
爱折腾的小土豆
sparksql大数据
Spark作为分布式的SQL查询引擎,官方测试结果比Hivesql快100倍。目前spark提交命令有spark-shell、spark-submit、spark-sql三种方式,下面我就来看看spark-sql的提交方式。与hive执行命令对比:下面我们用hive提交的方式与spark-sql做一下比较,发现基本是一致的。但是hive底层使用mr执行速度实在不忍直视,当然如果条件允许,可以考虑安
- Ubuntu16.04 Spark2.7.7伪分布式从零开始部署
BaideS
Spark学习
因工作上的需要,尝试在一台Ubuntu16.04部署Spark,因为之前没有了解过Spark,故踩坑时部署了Local版和Standalone单机伪分布式版,现记录如下。因为在部署Spark之前并未明确出Spark是什么,踩了相应的坑,故在此一并说明:Spark的目标是做一个分布式计算框架,因为是分布式所以它需要通讯(故需要安装SSH),有因为只是一个计算框架,所以其分布式数据来源需要由Hadoo
- Spark-Sql编程(三)
煤烦恼
sparksql大数据
一、数据加载与保存通用方式:使用spark.read.load和df.write.save,通过format指定数据格式(如csv、jdbc、json等),option设置特定参数(jdbc格式下的url、user等),load和save指定路径。保存时可通过mode设置SaveMode,如ErrorIfExists(默认,文件存在则抛异常)、Append(追加)、Overwrite(覆盖)、Ig
- 【无标题】spark SQL核心编程
zzh-
笔记
MySQLSparkSQL可以通过JDBC从关系型数据库中读取数据的方式创建DataFrame,通过对DataFrame一系列的计算后,还可以将数据再写回关系型数据库中。IDEA通过JDBC对MySQL进行操作:1)导入依赖mysqlmysql-connector-java5.1.27MySQL88.0.112)读取数据valsparkConf=newSparkConf().setMaster("
- 【Hadoop】Yarn资源管理调度
大数据hadoopyarn
一、Yarn产生背景Yarn(全称为YetAnotherResourceNegotiator,译为"另一个资源协调者")在Hadoop2.0版本中引入,其诞生是为了解决Hadoop1.x架构中MapReduce的资源管理和计算框架耦合的问题。简而言之,就是之前MapReduce的资源管理和计算框架是耦合在一起的,为了解耦而设计出了Yarn。Yarn是一种新的Hadoop资源管理器,它是一个通用资源
- uml活动图 各个功能的操作流程和分支_uml活动图
Furumomo
uml活动图各个功能的操作流程和分支
uml是程序员需要掌握一个重要工具,特别在研究hadoop(http://www.iigrowing.cn/hadoop)系统中,有很多相关的uml图形需要绘制,为了方便大家了解uml,在网络上找了些uml方面的文章(http://www.iigrowing.cn/?s=uml)在参考资料中,在uml参考资料中缺少活动图方面的介绍,因此特地在网络上寻找了一些资料,然后整理成一篇文章,供大家参考,水
- org.apache.spark.SparkException: Kryo serialization failed: Buffer overflow...
对许
#Sparkspark大数据
Spark异常:Kryoserializationfailed:Bufferoverflow.1、问题描述SparkSQL任务报错如下:org.apache.spark.SparkException:Kryoserializationfailed:Bufferoverflow.Available:0,required:xxx.Toavoidthis,increasespark.kryoserial
- 阿里云 EMR Serverless Spark 在微财机器学习场景下的应用
Apache Spark中国社区
阿里云serverlessspark机器学习云计算
作者:微财技术研发经理宋鑫微财介绍微财是一家创新型的金融科技企业,凭借多年积累的金融科技能力和数据处理优势,为客户提供消费分期等金融信息服务,致力于成为值得信赖的金融机构合作伙伴。旗下拥有好分期等品牌,为高成长用户提供信用分期借款过程中的综合性信息、技术以及辅助服务。业务挑战数据资源是金融科技企业的核心价值,微财依托大数据评估用户借款过程中的风险,随着微财业务的快速发展,积累了大量用户数据,大数据
- spark-sql cli 参数及使用
千淘万漉
云计算/大数据spark-sql客户端
原文地址https://www.cnblogs.com/mobiwangyue/p/9049928.html很难找到spark-sqlcli使用的教程,总结下一、启动方法/data/spark-1.4.0-bin-cdh4/bin/spark-sql--masterspark://master:7077--total-executor-cores10--executor-memory1g--exe
- spark-sql日志屏蔽
jinruoqq
sparkspark
aliasmyspark-sql='spark-sql--driver-java-options"-Dlog4j.configuration=file:/spark/conf/log4j-warn.properties"'
- 使用Spark on YARN模式执行Spark Shell和Spark SQL编程
海上的风浪
sparksqlajax编程
使用SparkonYARN模式执行SparkShell和SparkSQL编程Spark是一个强大的分布式计算框架,它提供了许多API和工具,可以用于大规模数据处理和分析。在Spark中,可以通过使用SparkShell和SparkSQL来进行交互式编程和SQL查询。本文将介绍如何在SparkonYARN模式下使用SparkShell和SparkSQL进行编程,并提供相应的源代码示例。一、Spark
- spark core
什么芮.
sparkpytorchscala人工智能
RDD转换算子RDD根据数据处理方式的不同将算子整体上分为Value类型、双Value类型和Key-Value类型。Value类型:1、map函数签名defmap[U:ClassTag](f:T=>U):RDD[U]函数说明将处理的数据逐条进行映射转换,这里的转换可以是类型的转换,也可以是值的转换。2、mapPartitions函数签名defmapPartitions[U:ClassTag](f:
- scala的option和some
矮蛋蛋
编程scala
原文地址:
http://blog.sina.com.cn/s/blog_68af3f090100qkt8.html
对于学习 Scala 的 Java™ 开发人员来说,对象是一个比较自然、简单的入口点。在 本系列 前几期文章中,我介绍了 Scala 中一些面向对象的编程方法,这些方法实际上与 Java 编程的区别不是很大。我还向您展示了 Scala 如何重新应用传统的面向对象概念,找到其缺点
- NullPointerException
Cb123456
androidBaseAdapter
java.lang.NullPointerException: Attempt to invoke virtual method 'int android.view.View.getImportantForAccessibility()' on a null object reference
出现以上异常.然后就在baidu上
- PHP使用文件和目录
天子之骄
php文件和目录读取和写入php验证文件php锁定文件
PHP使用文件和目录
1.使用include()包含文件
(1):使用include()从一个被包含文档返回一个值
(2):在控制结构中使用include()
include_once()函数需要一个包含文件的路径,此外,第一次调用它的情况和include()一样,如果在脚本执行中再次对同一个文件调用,那么这个文件不会再次包含。
在php.ini文件中设置
- SQL SELECT DISTINCT 语句
何必如此
sql
SELECT DISTINCT 语句用于返回唯一不同的值。
SQL SELECT DISTINCT 语句
在表中,一个列可能会包含多个重复值,有时您也许希望仅仅列出不同(distinct)的值。
DISTINCT 关键词用于返回唯一不同的值。
SQL SELECT DISTINCT 语法
SELECT DISTINCT column_name,column_name
F
- java冒泡排序
3213213333332132
java冒泡排序
package com.algorithm;
/**
* @Description 冒泡
* @author FuJianyong
* 2015-1-22上午09:58:39
*/
public class MaoPao {
public static void main(String[] args) {
int[] mao = {17,50,26,18,9,10
- struts2.18 +json,struts2-json-plugin-2.1.8.1.jar配置及问题!
7454103
DAOspringAjaxjsonqq
struts2.18 出来有段时间了! (貌似是 稳定版)
闲时研究下下! 貌似 sruts2 搭配 json 做 ajax 很吃香!
实践了下下! 不当之处请绕过! 呵呵
网上一大堆 struts2+json 不过大多的json 插件 都是 jsonplugin.34.jar
strut
- struts2 数据标签说明
darkranger
jspbeanstrutsservletScheme
数据标签主要用于提供各种数据访问相关的功能,包括显示一个Action里的属性,以及生成国际化输出等功能
数据标签主要包括:
action :该标签用于在JSP页面中直接调用一个Action,通过指定executeResult参数,还可将该Action的处理结果包含到本页面来。
bean :该标签用于创建一个javabean实例。如果指定了id属性,则可以将创建的javabean实例放入Sta
- 链表.简单的链表节点构建
aijuans
编程技巧
/*编程环境WIN-TC*/ #include "stdio.h" #include "conio.h"
#define NODE(name, key_word, help) \ Node name[1]={{NULL, NULL, NULL, key_word, help}}
typedef struct node { &nbs
- tomcat下jndi的三种配置方式
avords
tomcat
jndi(Java Naming and Directory Interface,Java命名和目录接口)是一组在Java应用中访问命名和目录服务的API。命名服务将名称和对象联系起来,使得我们可以用名称
访问对象。目录服务是一种命名服务,在这种服务里,对象不但有名称,还有属性。
tomcat配置
- 关于敏捷的一些想法
houxinyou
敏捷
从网上看到这样一句话:“敏捷开发的最重要目标就是:满足用户多变的需求,说白了就是最大程度的让客户满意。”
感觉表达的不太清楚。
感觉容易被人误解的地方主要在“用户多变的需求”上。
第一种多变,实际上就是没有从根本上了解了用户的需求。用户的需求实际是稳定的,只是比较多,也比较混乱,用户一般只能了解自己的那一小部分,所以没有用户能清楚的表达出整体需求。而由于各种条件的,用户表达自己那一部分时也有
- 富养还是穷养,决定孩子的一生
bijian1013
教育人生
是什么决定孩子未来物质能否丰盛?为什么说寒门很难出贵子,三代才能出贵族?真的是父母必须有钱,才能大概率保证孩子未来富有吗?-----作者:@李雪爱与自由
事实并非由物质决定,而是由心灵决定。一朋友富有而且修养气质很好,兄弟姐妹也都如此。她的童年时代,物质上大家都很贫乏,但妈妈总是保持生活中的美感,时不时给孩子们带回一些美好小玩意,从来不对孩子传递生活艰辛、金钱来之不易、要懂得珍惜
- oracle 日期时间格式转化
征客丶
oracle
oracle 系统时间有 SYSDATE 与 SYSTIMESTAMP;
SYSDATE:不支持毫秒,取的是系统时间;
SYSTIMESTAMP:支持毫秒,日期,时间是给时区转换的,秒和毫秒是取的系统的。
日期转字符窜:
一、不取毫秒:
TO_CHAR(SYSDATE, 'YYYY-MM-DD HH24:MI:SS')
简要说明,
YYYY 年
MM 月
- 【Scala六】分析Spark源代码总结的Scala语法四
bit1129
scala
1. apply语法
FileShuffleBlockManager中定义的类ShuffleFileGroup,定义:
private class ShuffleFileGroup(val shuffleId: Int, val fileId: Int, val files: Array[File]) {
...
def apply(bucketId
- Erlang中有意思的bug
bookjovi
erlang
代码中常有一些很搞笑的bug,如下面的一行代码被调用两次(Erlang beam)
commit f667e4a47b07b07ed035073b94d699ff5fe0ba9b
Author: Jovi Zhang <bookjovi@gmail.com>
Date: Fri Dec 2 16:19:22 2011 +0100
erts:
- 移位打印10进制数转16进制-2008-08-18
ljy325
java基础
/**
* Description 移位打印10进制的16进制形式
* Creation Date 15-08-2008 9:00
* @author 卢俊宇
* @version 1.0
*
*/
public class PrintHex {
// 备选字符
static final char di
- 读《研磨设计模式》-代码笔记-组合模式
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.util.ArrayList;
import java.util.List;
abstract class Component {
public abstract void printStruct(Str
- 利用cmd命令将.class文件打包成jar
chenyu19891124
cmdjar
cmd命令打jar是如下实现:
在运行里输入cmd,利用cmd命令进入到本地的工作盘符。(如我的是D盘下的文件有此路径 D:\workspace\prpall\WEB-INF\classes)
现在是想把D:\workspace\prpall\WEB-INF\classes路径下所有的文件打包成prpall.jar。然后继续如下操作:
cd D: 回车
cd workspace/prpal
- [原创]JWFD v0.96 工作流系统二次开发包 for Eclipse 简要说明
comsci
eclipse设计模式算法工作swing
JWFD v0.96 工作流系统二次开发包 for Eclipse 简要说明
&nb
- SecureCRT右键粘贴的设置
daizj
secureCRT右键粘贴
一般都习惯鼠标右键自动粘贴的功能,对于SecureCRT6.7.5 ,这个功能也已经是默认配置了。
老版本的SecureCRT其实也有这个功能,只是不是默认设置,很多人不知道罢了。
菜单:
Options->Global Options ...->Terminal
右边有个Mouse的选项块。
Copy on Select
Paste on Right/Middle
- Linux 软链接和硬链接
dongwei_6688
linux
1.Linux链接概念Linux链接分两种,一种被称为硬链接(Hard Link),另一种被称为符号链接(Symbolic Link)。默认情况下,ln命令产生硬链接。
【硬连接】硬连接指通过索引节点来进行连接。在Linux的文件系统中,保存在磁盘分区中的文件不管是什么类型都给它分配一个编号,称为索引节点号(Inode Index)。在Linux中,多个文件名指向同一索引节点是存在的。一般这种连
- DIV底部自适应
dcj3sjt126com
JavaScript
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml&q
- Centos6.5使用yum安装mysql——快速上手必备
dcj3sjt126com
mysql
第1步、yum安装mysql
[root@stonex ~]# yum -y install mysql-server
安装结果:
Installed:
mysql-server.x86_64 0:5.1.73-3.el6_5 &nb
- 如何调试JDK源码
frank1234
jdk
相信各位小伙伴们跟我一样,想通过JDK源码来学习Java,比如collections包,java.util.concurrent包。
可惜的是sun提供的jdk并不能查看运行中的局部变量,需要重新编译一下rt.jar。
下面是编译jdk的具体步骤:
1.把C:\java\jdk1.6.0_26\sr
- Maximal Rectangle
hcx2013
max
Given a 2D binary matrix filled with 0's and 1's, find the largest rectangle containing all ones and return its area.
public class Solution {
public int maximalRectangle(char[][] matrix)
- Spring MVC测试框架详解——服务端测试
jinnianshilongnian
spring mvc test
随着RESTful Web Service的流行,测试对外的Service是否满足期望也变的必要的。从Spring 3.2开始Spring了Spring Web测试框架,如果版本低于3.2,请使用spring-test-mvc项目(合并到spring3.2中了)。
Spring MVC测试框架提供了对服务器端和客户端(基于RestTemplate的客户端)提供了支持。
&nbs
- Linux64位操作系统(CentOS6.6)上如何编译hadoop2.4.0
liyong0802
hadoop
一、准备编译软件
1.在官网下载jdk1.7、maven3.2.1、ant1.9.4,解压设置好环境变量就可以用。
环境变量设置如下:
(1)执行vim /etc/profile
(2)在文件尾部加入:
export JAVA_HOME=/home/spark/jdk1.7
export MAVEN_HOME=/ho
- StatusBar 字体白色
pangyulei
status
[[UIApplication sharedApplication] setStatusBarStyle:UIStatusBarStyleLightContent];
/*you'll also need to set UIViewControllerBasedStatusBarAppearance to NO in the plist file if you use this method
- 如何分析Java虚拟机死锁
sesame
javathreadoracle虚拟机jdbc
英文资料:
Thread Dump and Concurrency Locks
Thread dumps are very useful for diagnosing synchronization related problems such as deadlocks on object monitors. Ctrl-\ on Solaris/Linux or Ctrl-B
- 位运算简介及实用技巧(一):基础篇
tw_wangzhengquan
位运算
http://www.matrix67.com/blog/archives/263
去年年底写的关于位运算的日志是这个Blog里少数大受欢迎的文章之一,很多人都希望我能不断完善那篇文章。后来我看到了不少其它的资料,学习到了更多关于位运算的知识,有了重新整理位运算技巧的想法。从今天起我就开始写这一系列位运算讲解文章,与其说是原来那篇文章的follow-up,不如说是一个r
- jsearch的索引文件结构
yangshangchuan
搜索引擎jsearch全文检索信息检索word分词
jsearch是一个高性能的全文检索工具包,基于倒排索引,基于java8,类似于lucene,但更轻量级。
jsearch的索引文件结构定义如下:
1、一个词的索引由=分割的三部分组成: 第一部分是词 第二部分是这个词在多少