- NLP_jieba中文分词的常用模块
Hiweir ·
NLP_jieba的使用自然语言处理中文分词人工智能nlp
1.jieba分词模式(1)精确模式:把句子最精确的切分开,比较适合文本分析.默认精确模式.(2)全模式:把句子中所有可能成词的词都扫描出来,cut_all=True,缺点:速度快,不能解决歧义(3)paddle:利用百度的paddlepaddle深度学习框架.简单来说就是使用百度提供的分词模型.use_paddle=True.(4)搜索引擎模式:在精确模式的基础上,对长词再进行切分,提高召回率,
- Python的情感词典情感分析和情绪计算
yava_free
python大数据人工智能
一.大连理工中文情感词典情感分析(SentimentAnalysis)和情绪分类(EmotionClassification)都是非常重要的文本挖掘手段。情感分析的基本流程如下图所示,通常包括:自定义爬虫抓取文本信息;使用Jieba工具进行中文分词、词性标注;定义情感词典提取每行文本的情感词;通过情感词构建情感矩阵,并计算情感分数;结果评估,包括将情感分数置于0.5到-0.5之间,并可视化显示。目
- python连接es_Elasticsearch --- 3. ik中文分词器, python操作es
weixin_39962285
python连接es
一.IK中文分词器1.下载安装2.测试#显示结果{"tokens":[{"token":"上海","start_offset":0,"end_offset":2,"type":"CN_WORD","position":0},{"token":"自来水","start_offset":2,"end_offset":5,"type":"CN_WORD","position":1},{"token":"
- 自然语言处理系列八》中文分词》规则分词》正向最大匹配法
陈敬雷-充电了么-CEO兼CTO
算法人工智能大数据算法人工智能编程语言java自然语言处理
注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《自然语言处理原理与实战》(人工智能科学与技术丛书)【陈敬雷编著】【清华大学出版社】文章目录自然语言处理系列八规则分词正向最大匹配法总结自然语言处理系列八规则分词规则分词是基于字典、词库匹配的分词方法(机械分词法),其实现的主要思想是:切分语句时,将语句特定长的字符串与字典进行匹配,匹配成功就进行切分。按照匹配的方式可分为:正向最
- Java 结合elasticsearch-ik分词器,实现评论的违规词汇脱敏等操作
八百码
elasticsearch大数据搜索引擎
IK分词(IKAnalyzer)是一款基于Java开发的中文分词工具,它结合了词典分词和基于统计的分词方法,旨在为用户提供高效、准确、灵活的中文分词服务。注意:需要自己建立一个敏感词库,然后自己选择方式同步到elasticsearch中,方便比对操作话不多说,直接上后台代码这个依赖是我使用的,可以结合自己的情况自己选择适用版本的相关依赖org.elasticsearchelasticsearcho
- 文本分析之关键词提取(TF-IDF算法)
SEVEN-YEARS
tf-idf
键词提取是自然语言处理中的一个重要步骤,可以帮助我们理解文本的主要内容。TF-IDF(TermFrequency-InverseDocumentFrequency)是一种常用的关键词提取方法,它基于词频和逆文档频率的概念来确定词语的重要性。准备工作首先,我们需要准备一些工具和库,包括Pandas、jieba(结巴分词)、sklearn等。Pandas:用于数据处理。jieba:用于中文分词。skl
- MySQL 实现模糊匹配
flying jiang
架构设计数据库mysql数据库
摘要:在不依赖Elasticsearch等外部搜索引擎的情况下,您依然能够充分利用MySQL数据库内置的LIKE和REGEXP操作符来实现高效的模糊匹配功能。针对更为复杂的搜索需求,尤其是在处理大型数据集时,结合使用IK分词器(虽然IK分词器本身主要用于中文分词,在Elasticsearch等搜索引擎中广泛应用,但可以通过一些创造性的方法间接应用于MySQL环境)可以显著提升搜索的准确性和效率。正
- Python数据可视化词云展示周董的歌
PathonDiss
马上开始了,你准备好了么准备工作环境:Windows+Python3.6IDE:根据个人喜好,自行选择模块:Matplotlib是一个Python的2D数学绘图库pipinstallmatplotlibimportmatplotlib.pyplotaspltjieba中文分词库pipinstalljiebaimportjiebawordcloud词云库pipinstallwordcloudfrom
- android sqlite 分词,sqlite3自定义分词器
雷幺幺
androidsqlite分词
sqlite3通过使用fts3虚表支持全文搜索,默认支持simple和porter两种分词器,并提供了接口来自定义分词器。这里我们利用mmseg来构造自定义的中文分词器。虽然sqlite在fts3_tokenizer.h中提供了各种接口供用户自定义分词器,但其并未提供c函数供用户来注册自定义的分词器,分词器的注册必须使用sql语句来完成。SELECTfts3_tokenizer(,);其中toke
- 自然语言处理NLP之中文分词和词性标注
陈敬雷-充电了么-CEO兼CTO
自然语言处理
注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《自然语言处理原理与实战》(人工智能科学与技术丛书)【陈敬雷编著】【清华大学出版社】文章目录一、Python第三方库jieba(中文分词、词性标注)特点二、jieba中文分词的安装关键词抽取基于TF-IDF算法TF-IDF原理介绍基于TextRank算法的关键词抽取textRank算法原理介绍总结一、Python第三方库jieba
- ElasticSearch
HW--
elasticsearch
一、适用场景全文搜索:1.电商搜索2.站内搜索3.文档管理系统4.论坛和社交媒体日志分析与监控:1.服务器日志2.应用日志3.运维监控数据分析:1.业务分析2.时序数据分析NoSQLJSON文档数据库:作为JSON文档数据库使用搜索推荐实现个性化搜索和推荐功能地理信息系统存储和查询带有地理信息的数据大规模监控系统二、为什么要安装分词器?IK分词器中针对中文分词提供了ik_smart和ik_max_
- Lucene实现自定义中文同义词分词器
WangJonney
LuceneLucene
----------------------------------------------------------lucene的分词_中文分词介绍----------------------------------------------------------Paoding:庖丁解牛分词器。已经没有更新了mmseg:使用搜狗的词库1.导入包(有两个包:1.带dic的,2.不带dic的)如果使用
- HanLP实战教程:离线本地版分词与命名实体识别
Tim_Van
中文分词命名实体识别自然语言处理
HanLP是一个功能强大的自然语言处理库,提供了多种语言的分词、命名实体识别等功能。然而,网上关于HanLP的说明往往比较混乱,很多教程都是针对很多年前的API用法。而HanLP官网主要讲述的是RESTful格式的在线请求,但很少提到离线本地版本。本文将介绍如何在离线本地环境中使用HanLP2.1的nativeAPI进行中文分词和命名实体识别。本文使用的HanLP版本为HanLP2.1.0-bet
- es安装中文分词器 IK
我要好好学java
elasticsearch中文分词大数据
1.下载https://github.com/medcl/elasticsearch-analysis-ik这个是官方的下载地址,下载跟自己es版本对应的即可那么需要下载7.12.0版本的分词器2.安装1.在es的plugins的文件夹下先创建一个ik目录bashcd/home/apps/elasticsearch/plugins/mkdirik2.然后将下载解压后的文件放入到ik文件夹下3.重启
- python笔记——jieba库
Toby不写代码
python学习python
文章目录一.概述二.jieba库使用三.实例一.概述1.jieba库概述jieba库是一个重要的第三方中文分词函数库,不是安装包自带的,需要通过pip指令安装pip3installjieba二.jieba库使用1.库函数jieba.cut(s)——精确模式,返回一个可迭代数据类型jieba.cut(s,cut_all=True)——全模式,输出文本s中可能的单词jieba.cut_for_sear
- 什么是jieba?
zg1g
easyui前端javascriptecmascript前端框架
简介jieba是一个流行的中文分词工具,它能够将一段文本切分成有意义的词语。它是目前Python中最常用的中文分词库之一,具有简单易用、高效准确的特点。该库能够处理多种文本分析任务,如情感分析、关键词提取、文本分类等。安装在使用jieba库之前,需要先安装它。可以通过pip命令来进行安装:pip install jieba分词方法jieba库提供了三种分词方法:精确模式、全模式和搜索引擎模式。精确
- 基于jieba库实现中文词频统计
kongxx
要实现中文分词功能,大家基本上都是在使用jieba这个库来实现,下面就看看怎样实现一个简单文本分词功能。安装python的工具,安装当然是使用pip安装了。pipinstalljieba使用先看一个小例子,下面的代码是从一个文本文件中分词并统计出现频率最高的10个单词,并打印到控制台。#!/usr/bin/envpython#-*-coding:utf-8-*-importjiebaimportj
- 如何使用Python进行地址信息(省/市/区/姓名/电话)提取
在数据处理和分析的领域中,地址信息提取是一个常见且关键的任务。Python,作为一门功能强大的编程语言,配合一些专门的库,可以有效地帮助我们从一段文本中提取出详细的地址信息。本文将结合具体的代码示例,详细介绍如何使用Python进行地址信息的提取。准备工作在开始之前,我们需要安装一些必要的Python库:jieba:一个中文分词库,可以用来识别中文文本中的词语。paddle:百度开发的深度学习平台
- NLP学习(二)—中文分词技术
陈易德
NLP自然语言处理
本次代码的环境:运行平台:WindowsPython版本:Python3.xIDE:PyCharm一、前言这篇内容主要是讲解的中文分词,词是一个完整语义的最小单位。分词技术是词性标注、命名实体识别、关键词提取等技术的基础。本篇博文会主要介绍基于规则的分词、基于统计的分词、jieba库等内容。一直在说中文分词,那中文分词和欧语系的分词有什么不同或者说是难点的呢?主要难点在于汉语结构与印欧体系语种差异
- NLP词典切分算法
卡拉比丘流形
自然语言处理自然语言处理python
目录一、词典的加载二、切分算法2.1完全切分2.2正向最长匹配2.3逆向最长匹配2.4双向最长匹配3.速度测评词的定义在语言学上,词语的定义是具备独立意义的最小单位在基于词典的中文分词中,词典中的字符串就是词词的性质一、词典的加载加载HanLP附带的迷你核心词典frompyhanlpimport*defload_dictionary():"""加载HanLP中的mini词库:return:一个se
- Python 词云 【中/英】小白简单入门教程
嗨学编程
1.分析构建词云需要具备:原料即文章等内容将内容进行分词将分词后的内容利用构建词云的工具进行构建保存成图片2.需要的主要模块jieba中文分词wordcloud构建词云3.模块原理wordcloud的实现原理文本预处理词频统计将高频词以图片形式进行彩色渲染jieba的实现原理进行中文分词(有多种模式)4.英文词云英文分词和构建词云只需要wordcloud模块Python学习资料或者需要代码、视频加
- java多线程 封装_【原创】中文分词系统 ICTCLAS2015 的JAVA封装和多线程执行(附代码)...
洪文律所
java多线程封装
本文针对的问题是ICTCLAS2015的多线程分词,为了实现多线程做了简单的JAVA封装。如果有需要可以自行进一步封装其它接口。首先ICTCLAS2015的传送门(http://ictclas.nlpir.org/),其对中文分词做的比较透彻,而且有一定的可调式性。但是应用到实际开发中的话,多线程操作是必须的,因此有了本文的初衷。可能有的小伙伴不太清楚ICTCLASS是干嘛的,下面是一段介绍:NL
- 华为OD机试真题C卷-篇2
laufing
算法与数据结构(python)华为od算法刷题python
文章目录启动多任务排序有效子字符串最长子字符串的长度最长子字符串的长度(二)两个字符串间的最短路径问题生成Huffman树可以处理的最大任务中文分词模拟器手机App防沉迷系统根据IP查找城市文件缓存系统寻找最优的路测线路Wonderland游乐园项目排期/最少交付时间灰度图存储精准核酸检测运输时间启动多任务排序A任务依赖B任务,执行时需要先执行B任务,完成后才可以执行A任务;若一个任务不依赖其他任
- elasticsearch使用ik中文分词器
huan1993
一、背景es自带了一堆的分词器,比如standard、whitespace、language(比如english)等分词器,但是都对中文分词的效果不太好,此处安装第三方分词器ik,来实现分词。二、安装ik分词器1、从github上找到和本次es版本匹配上的分词器#下载地址https://github.com/medcl/elasticsearch-analysis-ik/releases2、使用e
- TF-IDF入门与实例
lawenliu
我们对文档分析的时候,通常需要提取关键词,中文分词可以使用jieba分词,英文通过空格和特殊字符分割即可。那么分割之后是不是出现频率越高这些词就能越好代表这篇文章描述的内容呢?答案是否定的,比如英文中常见的词a、an等,中文中常见的“的”、“你”等等。有一些词可以通过过滤stopWord词表去掉,但是对于领域文档分析就会遇到更复杂的情况,比如需要把100份文档分到不同的领域,提取每个领域的关键词;
- 【2023华为OD-C卷-第三题-中文分词模拟器】100%通过率(JavaScript&Java&Python&C++)
塔子哥学算法
华为odc语言中文分词
本题已有网友报告代码100%通过率OJ&答疑服务购买任意专栏,即可添加博主vx:utheyi,获取答疑/辅导服务OJ权限获取可以在购买专栏后访问网站:首页-CodeFun2000题目描述给定一个连续不包含空格的字符串,该字符串仅包含英文小写字母及英文标点符号(逗号、分号、句号),同时给定词库,对该字符串进行精确分词。说明:精确分词:字符串分词后,不会出现重叠。即"ilovechina",不同词库可
- 自然语言处理从零到入门 分词
BlackStar_L
自然语言处理与文本检索自然语言处理人工智能
自然语言处理从零到入门分词–Tokenization一、什么是分词?二、为什么要分词?三、中英文分词的3个典型区别四、中文分词的3大难点五、3种典型的分词方法六、分词工具总结参考分词是NLP的基础任务,将句子,段落分解为字词单位,方便后续的处理的分析。本文将介绍分词的原因,中英文分词的3个区别,中文分词的3大难点,分词的3种典型方法。最后将介绍中文分词和英文分词常用的工具。一、什么是分词?分词是自
- NLP入门系列—分词 Tokenization
不二人生
自然语言处理自然语言处理人工智能
NLP入门系列—分词Tokenization分词是NLP的基础任务,将句子,段落分解为字词单位,方便后续的处理的分析。本文将介绍分词的原因,中英文分词的3个区别,中文分词的3大难点,分词的3种典型方法。最后将介绍中文分词和英文分词常用的工具。分词就是将句子、段落、文章这种长文本,分解为以字词为单位的数据结构,方便后续的处理分析工作。词是一个比较合适的粒度词是表达完整含义的最小单位。字的粒度太小,无
- 07、全文检索 -- Solr -- Solr 全文检索 之 为索引库添加中文分词器
_L_J_H_
#全文检索(Solr和Elasticsearch)全文检索solr中文分词
目录Solr全文检索之为索引库添加中文分词器添加中文分词器1、添加中文分词器的jar包2、修改managed-schema配置文件什么是fieldType3、添加停用词文档4、重启solr5、添加【*_cn】动态字段,并为该字段设置中文分词器6、演示分词器的区别演示text_cjk这个简单的分词器演示text_cn这个中文分词器Solr全文检索之为索引库添加中文分词器添加中文分词器1、添加中文分词
- Python 中 jieba 库
SteveKenny
pythonpython开发语言后端
文章目录jieba库一、简介1、是什么2、安装二、基本使用1、三种模式2、使用语法2.1对词组的基本操作2.2关键字提取2.3词性标注2.4返回词语在原文的起止位置jieba库一、简介1、是什么(1)jieba是优秀的中文分词第三方库中文文本需要通过分词获得单个的词语jieba是优秀的中文分词第三方库,需要额外安装jieba库提供三种分词模式,最简单只需掌握一个函数(2)jieba分词的原理jie
- Linux的Initrd机制
被触发
linux
Linux 的 initrd 技术是一个非常普遍使用的机制,linux2.6 内核的 initrd 的文件格式由原来的文件系统镜像文件转变成了 cpio 格式,变化不仅反映在文件格式上, linux 内核对这两种格式的 initrd 的处理有着截然的不同。本文首先介绍了什么是 initrd 技术,然后分别介绍了 Linux2.4 内核和 2.6 内核的 initrd 的处理流程。最后通过对 Lin
- maven本地仓库路径修改
bitcarter
maven
默认maven本地仓库路径:C:\Users\Administrator\.m2
修改maven本地仓库路径方法:
1.打开E:\maven\apache-maven-2.2.1\conf\settings.xml
2.找到
 
- XSD和XML中的命名空间
darrenzhu
xmlxsdschemanamespace命名空间
http://www.360doc.com/content/12/0418/10/9437165_204585479.shtml
http://blog.csdn.net/wanghuan203/article/details/9203621
http://blog.csdn.net/wanghuan203/article/details/9204337
http://www.cn
- Java 求素数运算
周凡杨
java算法素数
网络上对求素数之解数不胜数,我在此总结归纳一下,同时对一些编码,加以改进,效率有成倍热提高。
第一种:
原理: 6N(+-)1法 任何一个自然数,总可以表示成为如下的形式之一: 6N,6N+1,6N+2,6N+3,6N+4,6N+5 (N=0,1,2,…)
- java 单例模式
g21121
java
想必单例模式大家都不会陌生,有如下两种方式来实现单例模式:
class Singleton {
private static Singleton instance=new Singleton();
private Singleton(){}
static Singleton getInstance() {
return instance;
}
- Linux下Mysql源码安装
510888780
mysql
1.假设已经有mysql-5.6.23-linux-glibc2.5-x86_64.tar.gz
(1)创建mysql的安装目录及数据库存放目录
解压缩下载的源码包,目录结构,特殊指定的目录除外:
- 32位和64位操作系统
墙头上一根草
32位和64位操作系统
32位和64位操作系统是指:CPU一次处理数据的能力是32位还是64位。现在市场上的CPU一般都是64位的,但是这些CPU并不是真正意义上的64 位CPU,里面依然保留了大部分32位的技术,只是进行了部分64位的改进。32位和64位的区别还涉及了内存的寻址方面,32位系统的最大寻址空间是2 的32次方= 4294967296(bit)= 4(GB)左右,而64位系统的最大寻址空间的寻址空间则达到了
- 我的spring学习笔记10-轻量级_Spring框架
aijuans
Spring 3
一、问题提问:
→ 请简单介绍一下什么是轻量级?
轻量级(Leightweight)是相对于一些重量级的容器来说的,比如Spring的核心是一个轻量级的容器,Spring的核心包在文件容量上只有不到1M大小,使用Spring核心包所需要的资源也是很少的,您甚至可以在小型设备中使用Spring。
 
- mongodb 环境搭建及简单CURD
antlove
WebInstallcurdNoSQLmongo
一 搭建mongodb环境
1. 在mongo官网下载mongodb
2. 在本地创建目录 "D:\Program Files\mongodb-win32-i386-2.6.4\data\db"
3. 运行mongodb服务 [mongod.exe --dbpath "D:\Program Files\mongodb-win32-i386-2.6.4\data\
- 数据字典和动态视图
百合不是茶
oracle数据字典动态视图系统和对象权限
数据字典(data dictionary)是 Oracle 数据库的一个重要组成部分,这是一组用于记录数据库信息的只读(read-only)表。随着数据库的启动而启动,数据库关闭时数据字典也关闭 数据字典中包含
数据库中所有方案对象(schema object)的定义(包括表,视图,索引,簇,同义词,序列,过程,函数,包,触发器等等)
数据库为一
- 多线程编程一般规则
bijian1013
javathread多线程java多线程
如果两个工两个以上的线程都修改一个对象,那么把执行修改的方法定义为被同步的,如果对象更新影响到只读方法,那么只读方法也要定义成同步的。
不要滥用同步。如果在一个对象内的不同的方法访问的不是同一个数据,就不要将方法设置为synchronized的。
- 将文件或目录拷贝到另一个Linux系统的命令scp
bijian1013
linuxunixscp
一.功能说明 scp就是security copy,用于将文件或者目录从一个Linux系统拷贝到另一个Linux系统下。scp传输数据用的是SSH协议,保证了数据传输的安全,其格式如下: scp 远程用户名@IP地址:文件的绝对路径
- 【持久化框架MyBatis3五】MyBatis3一对多关联查询
bit1129
Mybatis3
以教员和课程为例介绍一对多关联关系,在这里认为一个教员可以叫多门课程,而一门课程只有1个教员教,这种关系在实际中不太常见,通过教员和课程是多对多的关系。
示例数据:
地址表:
CREATE TABLE ADDRESSES
(
ADDR_ID INT(11) NOT NULL AUTO_INCREMENT,
STREET VAR
- cookie状态判断引发的查找问题
bitcarter
formcgi
先说一下我们的业务背景:
1.前台将图片和文本通过form表单提交到后台,图片我们都做了base64的编码,并且前台图片进行了压缩
2.form中action是一个cgi服务
3.后台cgi服务同时供PC,H5,APP
4.后台cgi中调用公共的cookie状态判断方法(公共的,大家都用,几年了没有问题)
问题:(折腾两天。。。。)
1.PC端cgi服务正常调用,cookie判断没
- 通过Nginx,Tomcat访问日志(access log)记录请求耗时
ronin47
一、Nginx通过$upstream_response_time $request_time统计请求和后台服务响应时间
nginx.conf使用配置方式:
log_format main '$remote_addr - $remote_user [$time_local] "$request" ''$status $body_bytes_sent "$http_r
- java-67- n个骰子的点数。 把n个骰子扔在地上,所有骰子朝上一面的点数之和为S。输入n,打印出S的所有可能的值出现的概率。
bylijinnan
java
public class ProbabilityOfDice {
/**
* Q67 n个骰子的点数
* 把n个骰子扔在地上,所有骰子朝上一面的点数之和为S。输入n,打印出S的所有可能的值出现的概率。
* 在以下求解过程中,我们把骰子看作是有序的。
* 例如当n=2时,我们认为(1,2)和(2,1)是两种不同的情况
*/
private stati
- 看别人的博客,觉得心情很好
Cb123456
博客心情
以为写博客,就是总结,就和日记一样吧,同时也在督促自己。今天看了好长时间博客:
职业规划:
http://www.iteye.com/blogs/subjects/zhiyeguihua
android学习:
1.http://byandby.i
- [JWFD开源工作流]尝试用原生代码引擎实现循环反馈拓扑分析
comsci
工作流
我们已经不满足于仅仅跳跃一次,通过对引擎的升级,今天我测试了一下循环反馈模式,大概跑了200圈,引擎报一个溢出错误
在一个流程图的结束节点中嵌入一段方程,每次引擎运行到这个节点的时候,通过实时编译器GM模块,计算这个方程,计算结果与预设值进行比较,符合条件则跳跃到开始节点,继续新一轮拓扑分析,直到遇到
- JS常用的事件及方法
cwqcwqmax9
js
事件 描述
onactivate 当对象设置为活动元素时触发。
onafterupdate 当成功更新数据源对象中的关联对象后在数据绑定对象上触发。
onbeforeactivate 对象要被设置为当前元素前立即触发。
onbeforecut 当选中区从文档中删除之前在源对象触发。
onbeforedeactivate 在 activeElement 从当前对象变为父文档其它对象之前立即
- 正则表达式验证日期格式
dashuaifu
正则表达式IT其它java其它
正则表达式验证日期格式
function isDate(d){
var v = d.match(/^(\d{4})-(\d{1,2})-(\d{1,2})$/i);
if(!v) {
this.focus();
return false;
}
}
<input value="2000-8-8" onblu
- Yii CModel.rules() 方法 、validate预定义完整列表、以及说说验证
dcj3sjt126com
yii
public array rules () {return} array 要调用 validate() 时应用的有效性规则。 返回属性的有效性规则。声明验证规则,应重写此方法。 每个规则是数组具有以下结构:array('attribute list', 'validator name', 'on'=>'scenario name', ...validation
- UITextAttributeTextColor = deprecated in iOS 7.0
dcj3sjt126com
ios
In this lesson we used the key "UITextAttributeTextColor" to change the color of the UINavigationBar appearance to white. This prompts a warning "first deprecated in iOS 7.0."
Ins
- 判断一个数是质数的几种方法
EmmaZhao
Mathpython
质数也叫素数,是只能被1和它本身整除的正整数,最小的质数是2,目前发现的最大的质数是p=2^57885161-1【注1】。
判断一个数是质数的最简单的方法如下:
def isPrime1(n):
for i in range(2, n):
if n % i == 0:
return False
return True
但是在上面的方法中有一些冗余的计算,所以
- SpringSecurity工作原理小解读
坏我一锅粥
SpringSecurity
SecurityContextPersistenceFilter
ConcurrentSessionFilter
WebAsyncManagerIntegrationFilter
HeaderWriterFilter
CsrfFilter
LogoutFilter
Use
- JS实现自适应宽度的Tag切换
ini
JavaScripthtmlWebcsshtml5
效果体验:http://hovertree.com/texiao/js/3.htm
该效果使用纯JavaScript代码,实现TAB页切换效果,TAB标签根据内容自适应宽度,点击TAB标签切换内容页。
HTML文件代码:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml"
- Hbase Rest API : 数据查询
kane_xie
RESThbase
hbase(hadoop)是用java编写的,有些语言(例如python)能够对它提供良好的支持,但也有很多语言使用起来并不是那么方便,比如c#只能通过thrift访问。Rest就能很好的解决这个问题。Hbase的org.apache.hadoop.hbase.rest包提供了rest接口,它内嵌了jetty作为servlet容器。
启动命令:./bin/hbase rest s
- JQuery实现鼠标拖动元素移动位置(源码+注释)
明子健
jqueryjs源码拖动鼠标
欢迎讨论指正!
print.html代码:
<!DOCTYPE html>
<html>
<head>
<meta http-equiv=Content-Type content="text/html;charset=utf-8">
<title>发票打印</title>
&l
- Postgresql 连表更新字段语法 update
qifeifei
PostgreSQL
下面这段sql本来目的是想更新条件下的数据,可是这段sql却更新了整个表的数据。sql如下:
UPDATE tops_visa.visa_order
SET op_audit_abort_pass_date = now()
FROM
tops_visa.visa_order as t1
INNER JOIN tops_visa.visa_visitor as t2
ON t1.
- 将redis,memcache结合使用的方案?
tcrct
rediscache
公司架构上使用了阿里云的服务,由于阿里的kvstore收费相当高,打算自建,自建后就需要自己维护,所以就有了一个想法,针对kvstore(redis)及ocs(memcache)的特点,想自己开发一个cache层,将需要用到list,set,map等redis方法的继续使用redis来完成,将整条记录放在memcache下,即findbyid,save等时就memcache,其它就对应使用redi
- 开发中遇到的诡异的bug
wudixiaotie
bug
今天我们服务器组遇到个问题:
我们的服务是从Kafka里面取出数据,然后把offset存储到ssdb中,每个topic和partition都对应ssdb中不同的key,服务启动之后,每次kafka数据更新我们这边收到消息,然后存储之后就发现ssdb的值偶尔是-2,这就奇怪了,最开始我们是在代码中打印存储的日志,发现没什么问题,后来去查看ssdb的日志,才发现里面每次set的时候都会对同一个key