- spark任务运行
冰火同学
Sparkspark大数据分布式
运行环境在这里插入代码片[root@hadoop000conf]#java-versionjavaversion"1.8.0_144"Java(TM)SERuntimeEnvironment(build1.8.0_144-b01)[root@hadoop000conf]#echo$JAVA_HOME/home/hadoop/app/jdk1.8.0_144[root@hadoop000conf]#
- Hadoop 的分布式缓存机制是如何实现的?如何在大规模集群中优化缓存性能?
晚夜微雨问海棠呀
分布式hadoop缓存
Hadoop的分布式缓存机制是一种用于在MapReduce任务中高效分发和访问文件的机制。通过分布式缓存,用户可以将小文件(如配置文件、字典文件等)分发到各个计算节点,从而提高任务的执行效率。分布式缓存的工作原理文件上传:用户将需要缓存的文件上传到HDFS(HadoopDistributedFileSystem)。文件路径可以在作业配置中指定。作业提交:在提交MapReduce作业时,用户可以通过
- 集群与分片:深入理解及应用实践
一休哥助手
架构系统架构
目录引言什么是集群?集群的定义集群的类型什么是分片?分片的定义分片的类型集群与分片的关系集群的应用场景负载均衡高可用性分片的应用场景大数据处理数据库分片集群与分片的架构设计系统架构设计数据存储设计案例分析Hadoop集群Elasticsearch分片性能优化策略集群性能优化分片性能优化挑战和解决方案总结参考资料引言在现代计算系统中,处理大规模数据和提高系统的可靠性已经成为了基础需求。集群和分片是两
- hive spark读取hive hbase外表报错分析和解决
spring208208
hivehivesparkhbase
问题现象使用Sparkshell操作hive关联Hbase的外表导致报错;hive使用tez引擎操作关联Hbase的外表时报错。问题1:使用tez或spark引擎,在hive查询时只要关联hbase的hive表就会有问题其他表正常。“org.apache.hadoop.hbase.client.RetriesExhaustedException:Can’tgetthelocations”问题2:s
- Ubuntu下配置安装Hadoop 2.2
weixin_30501857
大数据java运维
---恢复内容开始---这两天玩Hadoop,之前在我的Mac上配置了好长时间都没成功的Hadoop环境,今天想在win7虚拟机下的Ubuntu12.0464位机下配置,然后再建一个组群看一看。参考资料:1.InstallingsinglenodeHadoop2.2.0onUbuntu:http://bigdatahandler.com/hadoop-hdfs/installing-single-
- 2014 6月,比较老了
金金2019
AwesomeBigDataAcuratedlistofawesomebigdataframeworks,resourcesandotherawesomeness.Inspiredbyawesome-php,awesome-python,awesome-ruby,hadoopecosystemtable&big-data.Yourcontributionsarealwayswelcome!Awes
- Hive服务启动 之 metastore配置 和 hiveserver2
龍浮影
hive
Hive服务启动之metastore服务配置和hiveserver2 配置hive的时候都需要配置hive-site.xml,配置过程中可以选择hive直连或者使用metastore服务间接连接,那么他们之间有什么区别呢? 首先贴直连配置代码:javax.jdo.option.ConnectionURLjdbc:mysql://hadoop102:3306/metastore?useSSL=fal
- 5. clickhouse 单节点多实例部署
Toroidals
大数据组件安装部署教程clickhouse单节点多实例伪分布安装部署
环境说明:主机名:cmc01为例操作系统:centos7安装部署软件版本部署方式centos7zookeeperzookeeper-3.4.10伪分布式hadoophadoop-3.1.3伪分布式hivehive-3.1.3-bin伪分布式clickhouse21.11.10.1-2单节点多实例dolphinscheduler3.0.0单节点kettlepdi-ce-9.3.0.0单节点sqoop
- 蓝易云 - HBase基础知识
蓝易云
hbase数据库大数据phppython人工智能
HBase是一个分布式、可伸缩、列式存储的NoSQL数据库,它建立在Hadoop的HDFS之上,提供高可靠性、高性能的数据存储和访问。以下是HBase的基础知识:数据模型:HBase以表的形式存储数据,每个表由行和列组成,可以动态添加列族。每行由唯一的行键标识,列族和列限定符(Qualifier)用于唯一标识列。架构:HBase采用分布式架构,数据被分散存储在多个RegionServer上,每个R
- 腾讯云大数据套件TBDS与阿里云大数据能力产品对比
奋力向前123
数据库java人工智能腾讯云大数据阿里云
前言博主在接触大数据方向研究的时候是在2016年,那时候正是大数据概念非常火热的一个时间段,最著名的Google的3篇论文。GoogleFS、MapReduce、BigTable,奠定了大数据框架产品的基础。Google文件系统,计算框架和存储框架。往后所有的大数据产品和过程域无一不是在三个模块的基础上进行搭建,迭代,完善。我们最开始使用的都是开源的产品,比如hadoop,HDSF,MAPRedu
- DS缩写乱争:当小海豚撞上AI顶流,技术圈也逃不过“撞名”修罗场
数据库
DS缩写风云:从“小海豚”到“深度求索”的魔幻现实曾几何时,技术圈提到DS,人们脑海中浮现的是一只灵动的“小海豚”——ApacheDolphinScheduler(简称DS)。这个2019年诞生的分布式任务调度系统,凭借可视化DAG界面、多租户支持和对Hadoop/Spark生态的深度集成,一度是大数据工程师的“梦中情工”。然而,命运的齿轮在2025年初突然加速转动:杭州AI公司DeepSeek(
- 1. hadoop 1.0.0 source code
小阿小火苗
hadoop
https://archive.apache.org/dist/hadoop/core/hadoop-1.0.0/
- hadoop 1.0 基本概念了解
fenggfa
hadoophadoop大数据mapreduce
hadoop基本概念了解common:hadoop组件公共常用工具类Avro:Avro是用于数据序列化的系统。不同机器之间数据交流的保障。MapReduce:MapReduce是一种编程模型,分为Map函数和Reduce函数。Map函数负责将输入数据转化为中间值,中间值再通过Reduce函数转化成输出数据HDFS:HDFS是一个分布式文件系统。通过一次写入,多次读出来实现。Chukwa:Chukw
- 深入理解Hadoop 1.0.0源码架构及组件实现
隔壁王医生
本文还有配套的精品资源,点击获取简介:Hadoop1.0.0作为大数据处理的开源框架,在业界有广泛应用。该版本包含核心分布式文件系统HDFS、MapReduce计算模型、Common工具库等关键组件。通过分析源码,可深入理解这些组件的设计和实现细节,包括数据复制、任务调度、容错机制以及系统配置管理。本课程旨在指导学生和开发者深入学习Hadoop的核心原理和实践应用,为其在大数据领域的进一步研究和开
- 如何在Java中实现高效的分布式计算框架:从Hadoop到Spark
省赚客app开发者
javahadoopspark
如何在Java中实现高效的分布式计算框架:从Hadoop到Spark大家好,我是微赚淘客系统3.0的小编,是个冬天不穿秋裤,天冷也要风度的程序猿!今天我们来探讨如何在Java中实现高效的分布式计算框架,重点介绍Hadoop和Spark这两个在大数据处理领域中广泛使用的技术。一、Hadoop:基础分布式计算框架Hadoop是一个开源的分布式计算框架,最早由Apache开发,旨在处理海量数据。它的核心
- 分布式架构设计全解:以银行系统为例
聚合收藏
本文还有配套的精品资源,点击获取简介:分布式架构设计对于银行处理实时交易和数据分析至关重要,本文深入分析了Hadoop、F5、Dubbo和SpringCloud等技术在银行项目中的实际应用。Hadoop用于构建大数据仓库并支持数据分析,F5优化网络流量并确保高可用性,Dubbo和SpringCloud实现服务间的通信和微服务架构。通过这些技术的集成,银行可以建立高效且弹性的IT基础设施,满足快速变
- HiveQL命令(三)- Hive函数
BigDataMagician
HiveQL命令hivehadoop数据仓库
文章目录前言一、Hive内置函数1.数值函数2.字符串函数3.日期与时间函数4.条件函数5.聚合函数6.集合函数7.类型转换函数8.表生成函数(UDTF)前言在大数据处理和分析的过程中,数据的转换和处理是至关重要的环节。ApacheHive作为一种流行的数据仓库工具,提供了丰富的内置函数,帮助用户高效地处理和分析存储在Hadoop分布式文件系统(HDFS)中的数据。这些内置函数涵盖了数值计算、字符
- 【hudi】基于hive2.1.1的编译hudi-1.0.0源码
lisacumt
大数据
hudi版本1.0.0需要使用较低版本的hive,编译hudi只需要修改下类即可:org.apache.hudi.hadoop.hive.HoodieCombineHiveInputFormat一、复制org.apache.hadoop.hive.common.StringInternUtils找个hive2.3.9的源码包,创建包路径,并将此类复制到hudi的hudi-common到下。当然其他
- 掌握大数据--Hive全面指南
纪祥_ee1
大数据hivehadoop
1.Hive简介2.Hive部署方式3.Hive的架构图4.Hive初体验5.HiveSQL语法--DDL操作数据库1.Hive简介ApacheHive是建立在Hadoop之上的一个数据仓库工具,它提供了一种类似于SQL的查询语言,称为HiveQL,用于查询和分析存储在Hadoop分布式文件系统(HDFS)中的大规模结构化数据。以下是Hive的一些主要特点和介绍:1.类SQL查询语言:HiveSQ
- ZooKeeper 技术全解:概念、功能、文件系统与主从同步
专业WP网站开发-Joyous
Java分布式zookeeper分布式云原生
引言随着分布式系统变得越来越复杂,对协调服务的需求也在不断增长。ZooKeeper作为一个由Apache维护的开源分布式协调服务框架,广泛用于Hadoop生态系统和其他需要协调的分布式环境中。这一系统旨在解决分布式应用中常见的挑战,如配置管理、命名服务、分布式同步和集群管理等。ZooKeeper通过提供一个可靠的、简单的服务,确保了分布式系统中的数据一致性和协调性。它的设计哲学强调高可用性和高性能
- hadoop之MapReduce:片和块
哒啵Q297
hadoopmapreduce大数据
假如我现在500M这样的数据,如何存储?500M=128M+128M+128M+116M分为四个块进行存储。计算的时候,是按照片儿计算的,而不是块儿。块是物理概念,一个块就是128M,妥妥的,毋庸置疑。片是逻辑概念,一个片大约等于一个块。假如我现在需要计算一个300M的文件,这个时候启动多少个MapTask任务?答案是有多少个片儿,就启动多少个任务。一个片儿约等于一个块,但是最大可以128M*1.
- Hadoop智能房屋推荐系统 爬虫1w+ 协同过滤余弦函数推荐 代码+视频教程+文档
小盼江
课题设计Hadoop课设hadoop爬虫大数据
Hadoop智能房屋推荐系统爬虫1w+协同过滤余弦函数推荐带视频教程毕设设计课题设计【Hadoop项目】1.data.csv上传到hadoop集群环境2.data.csv数据清洗3.MapReducer数据汇总处理,将Reducer的结果数据保存到本地Mysql数据库中4.Springboot+Echarts+MySQL显示数据分析结果分析数据维度如下:【房屋分类热度】【各分类下房屋数量及占比】【
- 计算机毕业设计hadoop+spark+hive新能源汽车数据分析可视化大屏 汽车推荐系统 新能源汽车推荐系统 汽车爬虫 汽车大数据 机器学习 大数据毕业设计 深度学习 知识图谱 人工智能
qq+593186283
hadoop大数据人工智能
(1)设计目的本次设计一个基于Hive的新能源汽车数据仓管理系统。企业管理员登录系统后可以在汽车保养时,根据这些汽车内置传感器传回的数据分析其故障原因,以便维修人员更加及时准确处理相关的故障问题。或者对这些数据分析之后向车主进行预警提示车主注意保养汽车,以提高汽车行驶的安全系数。(2)设计要求利用Flume进行分布式的日志数据采集,Kafka实现高吞吐量的数据传输,DateX进行数据清洗、转换和整
- Hadoop解决数据倾斜方法?思维导图 代码示例(java 架构)
用心去追梦
hadoopjava架构
数据倾斜(DataSkew)是分布式计算框架中常见的问题,特别是在MapReduce作业里。当某些Mapper或Reducer处理的数据量远大于其他节点时,就会导致整体任务执行时间延长,并且资源利用率不均衡。为了解决这个问题,Hadoop提供了多种策略和技术手段来优化数据分布和任务分配。以下是关于Hadoop解决数据倾斜的方法总结、思维导图描述以及Java代码示例。Hadoop解决数据倾斜方法概述
- Ranger Hive Service连接测试失败问题解决
一张假钞
hivehadoop数据仓库
个人博客地址:RangerHiveService连接测试失败问题解决|一张假钞的真实世界异常信息如下:org.apache.ranger.plugin.client.HadoopException:UnabletoconnecttoHiveThriftServerinstance..UnabletoconnecttoHiveThriftServerinstance..Couldnotopencli
- python操作hbase创建表(一)
金融小白数据分析之路
大数据hbasepython数据库
python通过thrift来操作hbase在开发环境安装python库pipinstallthriftpipinstallhbase-thrifthbase中需要开启hbase-daemon.shstartthrifthadoop、hbse、Zookeeper都需要开启fromhbaseimportHbasefromthrift.transportimportTSocketfromhbase.t
- spark安装与环境配置
Handoking
大数据进阶中sparkpython安装
1.安装spark官网http://spark.apache.org/downloads.html考虑到spark之后要结合hadoop一起使用,所以下载和已经安装hadoop版本均兼容的spark(首先安装好hadoop选择伪分布式配置(因为我是单机运行,有集群的朋友查看集群环境搭建的方法。)```)![这里写图片描述](https://img-blog.csdn.net/20180718201
- ClickHouse vs StarRocks 选型对比
金州饿霸
BigData分布式数据库clickhouse
一、面向列存的DBMS新的选择Hadoop从诞生已经十三年了,Hadoop的供应商争先恐后的为Hadoop贡献各种开源插件,发明各种的解决方案技术栈,一方面确实帮助很多用户解决了问题,但另一方面因为繁杂的技术栈与高昂的维护成本,Hadoop也渐渐地失去了原本属于他的市场。对于用户来说,一套高性能,简单化,可扩展的数据库产品能够帮助他们解决业务痛点问题。越来越多的人将目光锁定在列存的分布式数据库上。
- StarRocks和ClickHouse对比
靴子学长
clickhouse数据库数据库架构java
经过研究,StarRocks与ClickHouse作为OLAP数据库在某些场景下都展现出极端的性能表现,且都不依赖于ApacheHadoop生态系统。在特定情况下,StarRocks的性能甚至优于ClickHouse。ClickHouse适合变化较少的扁平表场景,而StarRocks在单表测试中表现更好,且在多表关联方面具有更大的优势1。在架构方面,ClickHouse采用散布-聚集的模型,而St
- spark on yarn-cluster在生产环境 部署 spark 任务, 同时支持读取外部可配置化文件
千里风雪
sparklinux运维spark大数据hadoop
SparkYarn-cluster在生产环境部署,同时支持参数可配置化方法在Spark中,有Yarn-Client和Yarn-Cluster两种模式可以运行在Yarn上,通常Yarn-cluster适用于生产环境,而Yarn-Cluster更适用于交互,调试模式提示:前提条件有hadoop集群,可以在yarn上运行Job文章目录SparkYarn-cluster在生产环境部署,同时支持参数可配置化
- JAVA中的Enum
周凡杨
javaenum枚举
Enum是计算机编程语言中的一种数据类型---枚举类型。 在实际问题中,有些变量的取值被限定在一个有限的范围内。 例如,一个星期内只有七天 我们通常这样实现上面的定义:
public String monday;
public String tuesday;
public String wensday;
public String thursday
- 赶集网mysql开发36条军规
Bill_chen
mysql业务架构设计mysql调优mysql性能优化
(一)核心军规 (1)不在数据库做运算 cpu计算务必移至业务层; (2)控制单表数据量 int型不超过1000w,含char则不超过500w; 合理分表; 限制单库表数量在300以内; (3)控制列数量 字段少而精,字段数建议在20以内
- Shell test命令
daizj
shell字符串test数字文件比较
Shell test命令
Shell中的 test 命令用于检查某个条件是否成立,它可以进行数值、字符和文件三个方面的测试。 数值测试 参数 说明 -eq 等于则为真 -ne 不等于则为真 -gt 大于则为真 -ge 大于等于则为真 -lt 小于则为真 -le 小于等于则为真
实例演示:
num1=100
num2=100if test $[num1]
- XFire框架实现WebService(二)
周凡杨
javawebservice
有了XFire框架实现WebService(一),就可以继续开发WebService的简单应用。
Webservice的服务端(WEB工程):
两个java bean类:
Course.java
package cn.com.bean;
public class Course {
private
- 重绘之画图板
朱辉辉33
画图板
上次博客讲的五子棋重绘比较简单,因为只要在重写系统重绘方法paint()时加入棋盘和棋子的绘制。这次我想说说画图板的重绘。
画图板重绘难在需要重绘的类型很多,比如说里面有矩形,园,直线之类的,所以我们要想办法将里面的图形加入一个队列中,这样在重绘时就
- Java的IO流
西蜀石兰
java
刚学Java的IO流时,被各种inputStream流弄的很迷糊,看老罗视频时说想象成插在文件上的一根管道,当初听时觉得自己很明白,可到自己用时,有不知道怎么代码了。。。
每当遇到这种问题时,我习惯性的从头开始理逻辑,会问自己一些很简单的问题,把这些简单的问题想明白了,再看代码时才不会迷糊。
IO流作用是什么?
答:实现对文件的读写,这里的文件是广义的;
Java如何实现程序到文件
- No matching PlatformTransactionManager bean found for qualifier 'add' - neither
林鹤霄
java.lang.IllegalStateException: No matching PlatformTransactionManager bean found for qualifier 'add' - neither qualifier match nor bean name match!
网上找了好多的资料没能解决,后来发现:项目中使用的是xml配置的方式配置事务,但是
- Row size too large (> 8126). Changing some columns to TEXT or BLOB
aigo
column
原文:http://stackoverflow.com/questions/15585602/change-limit-for-mysql-row-size-too-large
异常信息:
Row size too large (> 8126). Changing some columns to TEXT or BLOB or using ROW_FORMAT=DYNAM
- JS 格式化时间
alxw4616
JavaScript
/**
* 格式化时间 2013/6/13 by 半仙
[email protected]
* 需要 pad 函数
* 接收可用的时间值.
* 返回替换时间占位符后的字符串
*
* 时间占位符:年 Y 月 M 日 D 小时 h 分 m 秒 s 重复次数表示占位数
* 如 YYYY 4占4位 YY 占2位<p></p>
* MM DD hh mm
- 队列中数据的移除问题
百合不是茶
队列移除
队列的移除一般都是使用的remov();都可以移除的,但是在昨天做线程移除的时候出现了点问题,没有将遍历出来的全部移除, 代码如下;
//
package com.Thread0715.com;
import java.util.ArrayList;
public class Threa
- Runnable接口使用实例
bijian1013
javathreadRunnablejava多线程
Runnable接口
a. 该接口只有一个方法:public void run();
b. 实现该接口的类必须覆盖该run方法
c. 实现了Runnable接口的类并不具有任何天
- oracle里的extend详解
bijian1013
oracle数据库extend
扩展已知的数组空间,例:
DECLARE
TYPE CourseList IS TABLE OF VARCHAR2(10);
courses CourseList;
BEGIN
-- 初始化数组元素,大小为3
courses := CourseList('Biol 4412 ', 'Psyc 3112 ', 'Anth 3001 ');
--
- 【httpclient】httpclient发送表单POST请求
bit1129
httpclient
浏览器Form Post请求
浏览器可以通过提交表单的方式向服务器发起POST请求,这种形式的POST请求不同于一般的POST请求
1. 一般的POST请求,将请求数据放置于请求体中,服务器端以二进制流的方式读取数据,HttpServletRequest.getInputStream()。这种方式的请求可以处理任意数据形式的POST请求,比如请求数据是字符串或者是二进制数据
2. Form
- 【Hive十三】Hive读写Avro格式的数据
bit1129
hive
1. 原始数据
hive> select * from word;
OK
1 MSN
10 QQ
100 Gtalk
1000 Skype
2. 创建avro格式的数据表
hive> CREATE TABLE avro_table(age INT, name STRING)STORE
- nginx+lua+redis自动识别封解禁频繁访问IP
ronin47
在站点遇到攻击且无明显攻击特征,造成站点访问慢,nginx不断返回502等错误时,可利用nginx+lua+redis实现在指定的时间段 内,若单IP的请求量达到指定的数量后对该IP进行封禁,nginx返回403禁止访问。利用redis的expire命令设置封禁IP的过期时间达到在 指定的封禁时间后实行自动解封的目的。
一、安装环境:
CentOS x64 release 6.4(Fin
- java-二叉树的遍历-先序、中序、后序(递归和非递归)、层次遍历
bylijinnan
java
import java.util.LinkedList;
import java.util.List;
import java.util.Stack;
public class BinTreeTraverse {
//private int[] array={ 1, 2, 3, 4, 5, 6, 7, 8, 9 };
private int[] array={ 10,6,
- Spring源码学习-XML 配置方式的IoC容器启动过程分析
bylijinnan
javaspringIOC
以FileSystemXmlApplicationContext为例,把Spring IoC容器的初始化流程走一遍:
ApplicationContext context = new FileSystemXmlApplicationContext
("C:/Users/ZARA/workspace/HelloSpring/src/Beans.xml&q
- [科研与项目]民营企业请慎重参与军事科技工程
comsci
企业
军事科研工程和项目 并非要用最先进,最时髦的技术,而是要做到“万无一失”
而民营科技企业在搞科技创新工程的时候,往往考虑的是技术的先进性,而对先进技术带来的风险考虑得不够,在今天提倡军民融合发展的大环境下,这种“万无一失”和“时髦性”的矛盾会日益凸显。。。。。。所以请大家在参与任何重大的军事和政府项目之前,对
- spring 定时器-两种方式
cuityang
springquartz定时器
方式一:
间隔一定时间 运行
<bean id="updateSessionIdTask" class="com.yang.iprms.common.UpdateSessionTask" autowire="byName" />
<bean id="updateSessionIdSchedule
- 简述一下关于BroadView站点的相关设计
damoqiongqiu
view
终于弄上线了,累趴,戳这里http://www.broadview.com.cn
简述一下相关的技术点
前端:jQuery+BootStrap3.2+HandleBars,全站Ajax(貌似对SEO的影响很大啊!怎么破?),用Grunt对全部JS做了压缩处理,对部分JS和CSS做了合并(模块间存在很多依赖,全部合并比较繁琐,待完善)。
后端:U
- 运维 PHP问题汇总
dcj3sjt126com
windows2003
1、Dede(织梦)发表文章时,内容自动添加关键字显示空白页
解决方法:
后台>系统>系统基本参数>核心设置>关键字替换(是/否),这里选择“是”。
后台>系统>系统基本参数>其他选项>自动提取关键字,这里选择“是”。
2、解决PHP168超级管理员上传图片提示你的空间不足
网站是用PHP168做的,反映使用管理员在后台无法
- mac 下 安装php扩展 - mcrypt
dcj3sjt126com
PHP
MCrypt是一个功能强大的加密算法扩展库,它包括有22种算法,phpMyAdmin依赖这个PHP扩展,具体如下:
下载并解压libmcrypt-2.5.8.tar.gz。
在终端执行如下命令: tar zxvf libmcrypt-2.5.8.tar.gz cd libmcrypt-2.5.8/ ./configure --disable-posix-threads --
- MongoDB更新文档 [四]
eksliang
mongodbMongodb更新文档
MongoDB更新文档
转载请出自出处:http://eksliang.iteye.com/blog/2174104
MongoDB对文档的CURD,前面的博客简单介绍了,但是对文档更新篇幅比较大,所以这里单独拿出来。
语法结构如下:
db.collection.update( criteria, objNew, upsert, multi)
参数含义 参数  
- Linux下的解压,移除,复制,查看tomcat命令
y806839048
tomcat
重复myeclipse生成webservice有问题删除以前的,干净
1、先切换到:cd usr/local/tomcat5/logs
2、tail -f catalina.out
3、这样运行时就可以实时查看运行日志了
Ctrl+c 是退出tail命令。
有问题不明的先注掉
cp /opt/tomcat-6.0.44/webapps/g
- Spring之使用事务缘由(3-XML实现)
ihuning
spring
用事务通知声明式地管理事务
事务管理是一种横切关注点。为了在 Spring 2.x 中启用声明式事务管理,可以通过 tx Schema 中定义的 <tx:advice> 元素声明事务通知,为此必须事先将这个 Schema 定义添加到 <beans> 根元素中去。声明了事务通知后,就需要将它与切入点关联起来。由于事务通知是在 <aop:
- GCD使用经验与技巧浅谈
啸笑天
GC
前言
GCD(Grand Central Dispatch)可以说是Mac、iOS开发中的一大“利器”,本文就总结一些有关使用GCD的经验与技巧。
dispatch_once_t必须是全局或static变量
这一条算是“老生常谈”了,但我认为还是有必要强调一次,毕竟非全局或非static的dispatch_once_t变量在使用时会导致非常不好排查的bug,正确的如下: 1
- linux(Ubuntu)下常用命令备忘录1
macroli
linux工作ubuntu
在使用下面的命令是可以通过--help来获取更多的信息1,查询当前目录文件列表:ls
ls命令默认状态下将按首字母升序列出你当前文件夹下面的所有内容,但这样直接运行所得到的信息也是比较少的,通常它可以结合以下这些参数运行以查询更多的信息:
ls / 显示/.下的所有文件和目录
ls -l 给出文件或者文件夹的详细信息
ls -a 显示所有文件,包括隐藏文
- nodejs同步操作mysql
qiaolevip
学习永无止境每天进步一点点mysqlnodejs
// db-util.js
var mysql = require('mysql');
var pool = mysql.createPool({
connectionLimit : 10,
host: 'localhost',
user: 'root',
password: '',
database: 'test',
port: 3306
});
- 一起学Hive系列文章
superlxw1234
hiveHive入门
[一起学Hive]系列文章 目录贴,入门Hive,持续更新中。
[一起学Hive]之一—Hive概述,Hive是什么
[一起学Hive]之二—Hive函数大全-完整版
[一起学Hive]之三—Hive中的数据库(Database)和表(Table)
[一起学Hive]之四-Hive的安装配置
[一起学Hive]之五-Hive的视图和分区
[一起学Hive
- Spring开发利器:Spring Tool Suite 3.7.0 发布
wiselyman
spring
Spring Tool Suite(简称STS)是基于Eclipse,专门针对Spring开发者提供大量的便捷功能的优秀开发工具。
在3.7.0版本主要做了如下的更新:
将eclipse版本更新至Eclipse Mars 4.5 GA
Spring Boot(JavaEE开发的颠覆者集大成者,推荐大家学习)的配置语言YAML编辑器的支持(包含自动提示,