- 关于CarbonData+Spark SQL的一些应用实践和调优经验分享
weixin_34075551
大数据人工智能后端
大数据时代,中大型企业数据的爆发式增长,几乎每天都能产生约100GB到10TB的数据。而企业数据分系统构建与扩张,导致不同应用场景下大数据冗余严重。行业亟需一个高效、统一的融合数仓,从海量数据中快速获取有效信息,从而洞察机遇、规避风险。\\在这样的现状下,CarbonData诞生了,作为首个由中国贡献给Apache社区的顶级开源项目,CarbonData提供了一种新的融合数据存储方案,以一份数据同
- CarbonData集成 Presto(Trino)(1)- 介绍 & 环境篇
ConradJam
大数据JAVA
个人介绍有幸在开源之夏选上课题基于CarbonData之Presto优化课题,这个课题主要是针对Presto使用CarbonData查询上做更多的一些优化。这个课题对于我来说十分有挑战点,涉及大数据领域的组件十分多,首先CarbonData作为大数据的一种文件存储格式,在OLAP计算引擎上的查询加速实现有助于数据更快的查询和产出;其次大数据涉及的组件和版本比较广泛,在测试、兼容各种方面带来的挑战会
- 本教程旨在为正在构建,部署和使用CarbonData的最终用户和开发人员提供故障排除。
不吃饭的猪
大数据
本教程旨在为正在构建,部署和使用CarbonData的最终用户和开发人员提供故障排除。加载数据时,出现tablestatus.lock问题症状:17/11/1116:48:13ERRORLocalFileLock:mainhdfs:/localhost:9000/carbon/store/default/hdfstable/tablestatus.lock(Nosuchfileordirector
- 华为大数据战略_华为大数据开源战略部部长陈亮 - Apache CarbonData,实现大数据即席查询秒级响应...
weixin_39954674
华为大数据战略
1.实现大数据即席查询秒级响应2.LiangChen/陈亮华为大数据开源开发部LeaderApacheCarbonDataPMC&CommitterEmail:
[email protected]多年大数据和BI项目开发和实践经验,对大数据开源技术(Hadoop,Spark,CarbonData等)有深入理解.3.⼤数据现在和未来将深刻的改变运营商网络增效网络性能管理与SQM策略保障
- CarbonData,来自华为的中国力量
weixin_34259159
大数据
这篇我们继续深入来看看在存储格式的演变之上有什么新的黑科技。华为公司在2016年开源了类parquet的列存格式:CarbonData,并且贡献给了Apache社区。CarbonData仅仅用了不到一年的时间就成功毕业,成为了Apache社区的顶级项目,CarbonData是首个由华人公司主导的Apache顶级项目,(来源自eBay的Kylin算是首个由华人主导的顶级开源项目)笔者这里还是要向华为
- 华为的Carbondata
空中飞鸟lanse
Apache开源项目大数据
华为独立开发并开源的Carbondata通过Apache基金会的投票,成为ApacheIncubator(孵化器)项目!Carbondata的目标是创建一种新的Hadoop文件格式,只用一份数据,满足多样化的数据查询需求,包括顺序读,OLAP查询,随机读。CarbonData是一个为了更快的交互查询而生的新的Hadoop原生文件格式,用于大数据的快速分析和多维度查询hadoop本地数据存储设计。在
- CarbonData 华为开源项目
tangkuo9
BigDataCarbonData华为开源项目
CarbonData是一个为了更快的交互查询而生的新的Hadoop原生文件格式,用于大数据的快速分析和多维度查询hadoop本地数据存储设计。在客户基准上,CarbonData已经展示出管理运行在非常低成本的硬件上的PB级别的数据,并且比目前的开源解决方案快了近10倍。特征:使用内置索引在快以秒计的时间内快速分析查询,交互式OLAP-style的查询优化,高投入扫描查询,低延迟点查询。快速的数据加
- CarbonData部署和使用
Yore Yuen
大数据ApacheCarbonData列式存储安装SparkSQL增删改查
ApacheCarbonData|GitHub|文档1概述CarbonData是一个开源的用于快速数据分析的新型BigData文件格式,这个项目是华为公司在2016年开源的类Parquet的列式存储,也仅仅用了不到一年的时间就成为了Apache的顶级项目。CarbonData是一种高性能数据解决方案,支持各种数据分析方案,包括BI分析,临时SQL查询,详细记录快速过滤查找,流分析等。CarbonD
- WeX5、CarbonData 等荣获2016年度开源项目大奖
历史上的今天
开源WeX5CarbonData起步软件华为
12月4日,开源中国源创会年终盛典在北京落幕,起步科技旗下的WeX5移动开发工具等一批开源项目荣获“2016年度码云最受欢迎十大开源项目”奖项!本次颁发的“2016年度码云最受欢迎十大开源项目”,是根据过去一年的用户访问、交流分享和项目本身的更新频度等诸多角度,对收录于开源中国3万多款开源软件进行统计,从而得出前10名最受欢迎的开源软件。这种立足于用户大数据的评价机制,忠实地反映出各款开源软件的市
- 深度访谈:华为开源数据格式CarbonData项目,实现大数据即席查询秒级响应
chouya3495
数据库大数据
华为宣布开源了CarbonData项目,该项目于6月3日通过Apache社区投票,成功进入Apache孵化器。CarbonData是一种低时延查询、存储和计算分离的轻量化文件存储格式。那么相比SQLonHadoop方案、传统NoSQL或相对ElasticSearch等搜索系统,CarbonData具有什么样的优势呢?CarbonData的技术架构是什么样子的?未来有什么样的规划?我们采访了Carb
- 华为开源carbondata中的使用问题处理
不吃饭的猪
开源大数据
carbondata中的使用问题处理Q:什么是不良记录?A:由于数据类型不兼容而无法加载到CarbonData中的记录或为空或具有不兼容格式的记录被归类为不良记录。Q:CarbonData中的不良记录存储在哪里?A:不良记录存储在carbon.properties文件的carbon.badRecords.location中设置的位置。Q:如何启用不良记录日志?A:在加载数据时,我们可以指定处理不良
- 2019-12-15
StayBlank
目前carbondata中文文档只更新到1.4.0,而英文文档已经更新到1.6,所以中间有一些默认值的变化,导致踩了一些坑。比如中文文档里默认的排序范围是LOCAL_SORT,image.png再看下1.6的英文文档,竟然变成了no_sort,image.png结果就会导致bucket不起作用image.png
- carbondata中查询hive java.net.SocketTimeoutException: Read timed out 问题解
不吃饭的猪
hivejavahadoop
问题解决方案:步骤一:在jdbcurl后面追加参数,设定各种超时时间参数设置为5000秒,因为hive任务可能会执行比较久,所以超时时间设置长一点在hivejdbc中直接添加就行,咋carbondata中使用beeline连接方式直接在beeline-ujdbc:hive2://localhost:10000/?hive.metastore.client.socket.timeout=5000&h
- carbondata优化小姐
不吃饭的猪
大数据
一,carbondata高效原因carbondata文件是hdfs的列式存储格式查询速度是sparkSQL的10倍,通过多种索引技术和多次pushdown优化,对TB级别数据快速响应高效的压缩,使用轻量级和和重量级压缩组合的方式,减少60~80%的空间二。参数调优场景一:查询时候:a.扫描线程数量:扫描仪(Scanner)线程控制每个任务中并行处理的数据块的数量。通过增加扫描仪线程数,可增加并行处
- carbondata测试报告
君子慎独焉
carbondata测试报告此文档是测试carbondata(1.4)与parquet(1.10)在sparksql搜索引擎上执行的对比情况硬件配置CPU:Intel(R)Xeon(R)
[email protected]:128GHardDisk:12X4T,SATA盘spark服务硬件配置CPU:Intel(R)Xeon(R)
[email protected]
- carbondata表中出现beeline连接问题
不吃饭的猪
hadoopjava大数据hive
carbondata表中出现beeline连接问题简析:【借助问题分析】这个和起的的beeline问题有不同,主要这是链接carbondata的不是连接hive的Q1:[hdfs@ps-device-id-ydsc-229045hive]$$SPARK_HOME/bin/beeline-ujdbc:hive2://11.111.111.45:10000Connectingtojdbc:hive2:
- SparkSQL-从DataFrame说起
严国华
转自:http://hbasefly.com/2017/02/16/sparksql-dataframe/写在文章之前本着更好地理解大数据生态圈的本意以及工作的需要,前段时间熟悉了SQL查询引擎SparkSQL、Hadoop文件格式Parquet/CarbonData、大数据基准测试标准TPCDS/TPCH等相关知识,后续将会陆续整理出相关的内容;所有分享内容都是参考相关资料完成,文中很多细节都是
- Spark、Flink、CarbonData技术实践最佳案例解析
weixin_34198797
大数据人工智能json
当前无论是传统企业还是互联网公司对大数据实时分析和处理的要求越来越高,数据越实时价值越大,面向毫秒~秒级的实时大数据计算场景,Spark和Flink各有所长。CarbonData是一种高性能大数据存储方案,已在20+企业生产环境上部署应用,其中最大的单一集群数据规模达到几万亿。\\为帮助开发者更深入的了解这三个大数据开源技术及其实际应用场景,9月8日,InfoQ联合华为云举办了一场实时大数据Mee
- Carbondata1.3.1+Spark2.1.0+Hadoop2.7.3集成问题记录(持续更新)
Jonathan丶Wei
一、版本问题目前官方虽说支持了spark2.2.1,下载git代码后编译完全是可以通过的,但是在使用过程会出现问题。按照目前所验证的结果是,spark2.1.0版本和carbondata1.3.1版本是可以正常使用的。二、java.lang.NoClassDefFoundError:com/sun/jersey/api/client/config/ClientConfigjava.lang.NoC
- Hive读取CarbonData文件问题调试
君子慎独焉
1.参考文档https://github.com/apache/carbondata/blob/master/docs/hive-guide.md2.问题呈现select*fromtest_carbon;没有数据selectcount(1)fromtest_carbon;有值selectdistinctnamefromtest_carbon有值;3.调试步骤由于hive读取carbon是使用的se
- Linux version 4.19.90-2003.4.0.0036.oe1.aarch64安装carbonData
5imple
ApacheCarbonDatalinuxmavenjavaapache
先决条件thriftmavenjava文章目录先决条件一、安装java、maven二、thrift安装三、获取CarbonData四、编译方式五、spark集成未完,待更新一、安装java、mavenjava请安装适配版本,本机X86架构安装jdk版本不一样,用jdk1.8.0_131创建java目录,下载openjdk。cd/usrmkdirjavacdjavawgethttps://githu
- 盘点2021年Apache年报中出现的国产项目
ruc_czk
Apacheapache大数据项目架构iotgithub
盘点2021年Apache年报中出现的国产项目:ShardingSphere,IoTDB,CarbonData,Eagle,Kylin,Apisix,DolphinSchedulerANDEcharts1、引言2、项目盘点2.1ShardingSphere2.2IoTDB2.3CarbonData2.4Eagle2.5Kylin2.5APISIX2.6DolphinScheduler2.7ECha
- CarbonData Hadoop伪分布式集群搭建
文竹小二
此篇文章基于上一篇carbondata构建过程。1、可为carbondata用户增加管理员权限,避免一些对新手来说比较棘手的权限问题以root账号登录,并输入visudo命令,增加如下图标红所示行。image.png然后再以carbondata用户登录。2、配置SSH免密登录测试ssh是否可用#按提示输入密码xxx,就可以登陆到本机sshlocalhost但这样登录是需要每次输入密码的,我们需要配
- CarbonData OSS Bucket管理
文竹小二
第一步:购买阿里云oss三个字,很便宜。第二步:参照图中所示步骤进行ossbucket创建image.png第三步:创建目录/carbon/session/data/store,后续用于验证carbonsession集成oss/carbon/sdk/data,后续用于验证carbonsdk集成oss第四步:carbondata用到的4个基本术语Endpoint:image.pngAccessKey
- CarbonData 构建过程
文竹小二
1、准备类Unix环境(Linux,MacOSX)笔者在阿里云上申请了一台ECS,系统为CentOS7.664位。2、准备git环境yum-yinstallgit3、OracleJava7or81)下载tar并解压在window中下载jdk-8u202-linux-x64.tar.gz(下载地址为https://www.oracle.com/technetwork/java/javase/down
- CarbonData集成OSS - 基础环境搭建
文竹小二
第一步:构建CarbonData见CarbonData构建过程第二步:搭建伪分布式集群见CarbonDatahadoop伪分布式集群搭建第三步:OSSbucket管理见CarbonDataossbucket管理
- 基于CarbonData的电信时空大数据探索
华为云开发者社区
摘要:作为IOT最底层的无线通信网络生成大量与位置相关的数据,用于无线通信网络规划和优化,帮助电信运营商建设更好体验的精品网络,构建万物互联的信息社会。本文分享自华为云社区《基于CarbonData的电信时空大数据探索》,作者:张军、龚云骏。1使用场景随着万物互联的时代到来,以及智慧终端普及,现实世界超过80%的数据与地理位置相关,比如日常使用的社交、支付、出行相关APP。作为IOT最底层的无线通
- 看CarbonData如何用四招助力Apache Spark
摘要:CarbonData在ApacheSpark和存储系统之间起到中介服务的作用,为Spark提供的4个重要功能。本文分享自华为云社区《MakeApacheSparkbetterwithCarbonData》,原文作者:大数据修行者。Spark无疑是一个强大的处理引擎和一个用于更快处理的分布式集群计算框架。不幸的是,Spark在一些方面也存在不足。如果我们将ApacheSpark与ApacheC
- spark on yarn模式安装和配置carbondata
JasonLee'blog
carbondatacarbondata1.5.1sparkonyarn
本节将介绍如何在SparkonYARN模式的集群上安装和配置CarbonData。carbondata1.5.1的编译可以看上一篇版本:spark2.3.1,carbondata1.5.1前置条件HadoopHDFS和Yarn需要安装和运行。Spark需要在所有的集群节点上安装并且运行。CarbonData用户需要有权限访问HDFS.以下步骤仅针对于Driver程序所在的节点.(Driver节点就
- Spark Committer、CarbonData PMC等七位资深大咖齐聚CCTC,Spark议题正式发布
csdn郭芮
5月18-19日,北京•朝阳门悠唐皇冠假日酒店,CSDN主办的中国云计算技术大会将围绕最热门、最前沿的云计算技术与行业实践重磅登场。本次大会上,超过50位Spark、Docker、Mesos、TensorFlow、Serverless方面的专家将汇聚一堂,和超过2000名开发者共襄盛举。在19日的Spark技术峰会上,来自Databricks、阿里巴巴、华为、苏宁、新浪微博、七牛、宜人贷等七位专家
- 插入表主键冲突做更新
a-john
有以下场景:
用户下了一个订单,订单内的内容较多,且来自多表,首次下单的时候,内容可能会不全(部分内容不是必须,出现有些表根本就没有没有该订单的值)。在以后更改订单时,有些内容会更改,有些内容会新增。
问题:
如果在sql语句中执行update操作,在没有数据的表中会出错。如果在逻辑代码中先做查询,查询结果有做更新,没有做插入,这样会将代码复杂化。
解决:
mysql中提供了一个sql语
- Android xml资源文件中@、@android:type、@*、?、@+含义和区别
Cb123456
@+@?@*
一.@代表引用资源
1.引用自定义资源。格式:@[package:]type/name
android:text="@string/hello"
2.引用系统资源。格式:@android:type/name
android:textColor="@android:color/opaque_red"
- 数据结构的基本介绍
天子之骄
数据结构散列表树、图线性结构价格标签
数据结构的基本介绍
数据结构就是数据的组织形式,用一种提前设计好的框架去存取数据,以便更方便,高效的对数据进行增删查改。正确选择合适的数据结构,对软件程序的高效执行的影响作用不亚于算法的设计。此外,在计算机系统中数据结构的作用也是非同小可。例如常常在编程语言中听到的栈,堆等,就是经典的数据结构。
经典的数据结构大致如下:
一:线性数据结构
(1):列表
a
- 通过二维码开放平台的API快速生成二维码
一炮送你回车库
api
现在很多网站都有通过扫二维码用手机连接的功能,联图网(http://www.liantu.com/pingtai/)的二维码开放平台开放了一个生成二维码图片的Api,挺方便使用的。闲着无聊,写了个前台快速生成二维码的方法。
html代码如下:(二维码将生成在这div下)
? 1
&nbs
- ImageIO读取一张图片改变大小
3213213333332132
javaIOimageBufferedImage
package com.demo;
import java.awt.image.BufferedImage;
import java.io.File;
import java.io.IOException;
import javax.imageio.ImageIO;
/**
* @Description 读取一张图片改变大小
* @author FuJianyon
- myeclipse集成svn(一针见血)
7454103
eclipseSVNMyEclipse
&n
- 装箱与拆箱----autoboxing和unboxing
darkranger
J2SE
4.2 自动装箱和拆箱
基本数据(Primitive)类型的自动装箱(autoboxing)、拆箱(unboxing)是自J2SE 5.0开始提供的功能。虽然为您打包基本数据类型提供了方便,但提供方便的同时表示隐藏了细节,建议在能够区分基本数据类型与对象的差别时再使用。
4.2.1 autoboxing和unboxing
在Java中,所有要处理的东西几乎都是对象(Object)
- ajax传统的方式制作ajax
aijuans
Ajax
//这是前台的代码
<%@ page language="java" import="java.util.*" pageEncoding="UTF-8"%> <% String path = request.getContextPath(); String basePath = request.getScheme()+
- 只用jre的eclipse是怎么编译java源文件的?
avords
javaeclipsejdktomcat
eclipse只需要jre就可以运行开发java程序了,也能自动 编译java源代码,但是jre不是java的运行环境么,难道jre中也带有编译工具? 还是eclipse自己实现的?谁能给解释一下呢问题补充:假设系统中没有安装jdk or jre,只在eclipse的目录中有一个jre,那么eclipse会采用该jre,问题是eclipse照样可以编译java源文件,为什么呢?
&nb
- 前端模块化
bee1314
模块化
背景: 前端JavaScript模块化,其实已经不是什么新鲜事了。但是很多的项目还没有真正的使用起来,还处于刀耕火种的野蛮生长阶段。 JavaScript一直缺乏有效的包管理机制,造成了大量的全局变量,大量的方法冲突。我们多么渴望有天能像Java(import),Python (import),Ruby(require)那样写代码。在没有包管理机制的年代,我们是怎么避免所
- 处理百万级以上的数据处理
bijian1013
oraclesql数据库大数据查询
一.处理百万级以上的数据提高查询速度的方法: 1.应尽量避免在 where 子句中使用!=或<>操作符,否则将引擎放弃使用索引而进行全表扫描。
2.对查询进行优化,应尽量避免全表扫描,首先应考虑在 where 及 o
- mac 卸载 java 1.7 或更高版本
征客丶
javaOS
卸载 java 1.7 或更高
sudo rm -rf /Library/Internet\ Plug-Ins/JavaAppletPlugin.plugin
成功执行此命令后,还可以执行 java 与 javac 命令
sudo rm -rf /Library/PreferencePanes/JavaControlPanel.prefPane
成功执行此命令后,还可以执行 java
- 【Spark六十一】Spark Streaming结合Flume、Kafka进行日志分析
bit1129
Stream
第一步,Flume和Kakfa对接,Flume抓取日志,写到Kafka中
第二部,Spark Streaming读取Kafka中的数据,进行实时分析
本文首先使用Kakfa自带的消息处理(脚本)来获取消息,走通Flume和Kafka的对接 1. Flume配置
1. 下载Flume和Kafka集成的插件,下载地址:https://github.com/beyondj2ee/f
- Erlang vs TNSDL
bookjovi
erlang
TNSDL是Nokia内部用于开发电信交换软件的私有语言,是在SDL语言的基础上加以修改而成,TNSDL需翻译成C语言得以编译执行,TNSDL语言中实现了异步并行的特点,当然要完整实现异步并行还需要运行时动态库的支持,异步并行类似于Erlang的process(轻量级进程),TNSDL中则称之为hand,Erlang是基于vm(beam)开发,
- 非常希望有一个预防疲劳的java软件, 预防过劳死和眼睛疲劳,大家一起努力搞一个
ljy325
企业应用
非常希望有一个预防疲劳的java软件,我看新闻和网站,国防科技大学的科学家累死了,太疲劳,老是加班,不休息,经常吃药,吃药根本就没用,根本原因是疲劳过度。我以前做java,那会公司垃圾,老想赶快学习到东西跳槽离开,搞得超负荷,不明理。深圳做软件开发经常累死人,总有不明理的人,有个软件提醒限制很好,可以挽救很多人的生命。
相关新闻:
(1)IT行业成五大疾病重灾区:过劳死平均37.9岁
- 读《研磨设计模式》-代码笔记-原型模式
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
/**
* Effective Java 建议使用copy constructor or copy factory来代替clone()方法:
* 1.public Product copy(Product p){}
* 2.publi
- 配置管理---svn工具之权限配置
chenyu19891124
SVN
今天花了大半天的功夫,终于弄懂svn权限配置。下面是今天收获的战绩。
安装完svn后就是在svn中建立版本库,比如我本地的是版本库路径是C:\Repositories\pepos。pepos是我的版本库。在pepos的目录结构
pepos
component
webapps
在conf里面的auth里赋予的权限配置为
[groups]
- 浅谈程序员的数学修养
comsci
设计模式编程算法面试招聘
浅谈程序员的数学修养
- 批量执行 bulk collect与forall用法
daizj
oraclesqlbulk collectforall
BULK COLLECT 子句会批量检索结果,即一次性将结果集绑定到一个集合变量中,并从SQL引擎发送到PL/SQL引擎。通常可以在SELECT INTO、
FETCH INTO以及RETURNING INTO子句中使用BULK COLLECT。本文将逐一描述BULK COLLECT在这几种情形下的用法。
有关FORALL语句的用法请参考:批量SQL之 F
- Linux下使用rsync最快速删除海量文件的方法
dongwei_6688
OS
1、先安装rsync:yum install rsync
2、建立一个空的文件夹:mkdir /tmp/test
3、用rsync删除目标目录:rsync --delete-before -a -H -v --progress --stats /tmp/test/ log/这样我们要删除的log目录就会被清空了,删除的速度会非常快。rsync实际上用的是替换原理,处理数十万个文件也是秒删。
- Yii CModel中rules验证规格
dcj3sjt126com
rulesyiivalidate
Yii cValidator主要用法分析:
yii验证rulesit 分类: Yii yii的rules验证 cValidator主要属性 attributes ,builtInValidators,enableClientValidation,message,on,safe,skipOnError
 
- 基于vagrant的redis主从实验
dcj3sjt126com
vagrant
平台: Mac
工具: Vagrant
系统: Centos6.5
实验目的: Redis主从
实现思路
制作一个基于sentos6.5, 已经安装好reids的box, 添加一个脚本配置从机, 然后作为后面主机从机的基础box
制作sentos6.5+redis的box
mkdir vagrant_redis
cd vagrant_
- Memcached(二)、Centos安装Memcached服务器
frank1234
centosmemcached
一、安装gcc
rpm和yum安装memcached服务器连接没有找到,所以我使用的是make的方式安装,由于make依赖于gcc,所以要先安装gcc
开始安装,命令如下,[color=red][b]顺序一定不能出错[/b][/color]:
建议可以先切换到root用户,不然可能会遇到权限问题:su root 输入密码......
rpm -ivh kernel-head
- Remove Duplicates from Sorted List
hcx2013
remove
Given a sorted linked list, delete all duplicates such that each element appear only once.
For example,Given 1->1->2, return 1->2.Given 1->1->2->3->3, return&
- Spring4新特性——JSR310日期时间API的支持
jinnianshilongnian
spring4
Spring4新特性——泛型限定式依赖注入
Spring4新特性——核心容器的其他改进
Spring4新特性——Web开发的增强
Spring4新特性——集成Bean Validation 1.1(JSR-349)到SpringMVC
Spring4新特性——Groovy Bean定义DSL
Spring4新特性——更好的Java泛型操作API
Spring4新
- 浅谈enum与单例设计模式
247687009
java单例
在JDK1.5之前的单例实现方式有两种(懒汉式和饿汉式并无设计上的区别故看做一种),两者同是私有构
造器,导出静态成员变量,以便调用者访问。
第一种
package singleton;
public class Singleton {
//导出全局成员
public final static Singleton INSTANCE = new S
- 使用switch条件语句需要注意的几点
openwrt
cbreakswitch
1. 当满足条件的case中没有break,程序将依次执行其后的每种条件(包括default)直到遇到break跳出
int main()
{
int n = 1;
switch(n) {
case 1:
printf("--1--\n");
default:
printf("defa
- 配置Spring Mybatis JUnit测试环境的应用上下文
schnell18
springmybatisJUnit
Spring-test模块中的应用上下文和web及spring boot的有很大差异。主要试下来差异有:
单元测试的app context不支持从外部properties文件注入属性
@Value注解不能解析带通配符的路径字符串
解决第一个问题可以配置一个PropertyPlaceholderConfigurer的bean。
第二个问题的具体实例是:
 
- Java 定时任务总结一
tuoni
javaspringtimerquartztimertask
Java定时任务总结 一.从技术上分类大概分为以下三种方式: 1.Java自带的java.util.Timer类,这个类允许你调度一个java.util.TimerTask任务; 说明: java.util.Timer定时器,实际上是个线程,定时执行TimerTask类 &
- 一种防止用户生成内容站点出现商业广告以及非法有害等垃圾信息的方法
yangshangchuan
rank相似度计算文本相似度词袋模型余弦相似度
本文描述了一种在ITEYE博客频道上面出现的新型的商业广告形式及其应对方法,对于其他的用户生成内容站点类型也具有同样的适用性。
最近在ITEYE博客频道上面出现了一种新型的商业广告形式,方法如下:
1、注册多个账号(一般10个以上)。
2、从多个账号中选择一个账号,发表1-2篇博文