- TensorRT模型量化实践
痛&快乐着
深度学习TensorRTc++深度学习
文章目录量化基本概念量化的方法方式1:trtexec(PTQ的一种)方式2:PTQ2.1pythononnx转trt2.2polygraphy工具:应该是对2.1量化过程的封装方式3:QAT(追求精度时推荐)使用TensorRT量化实践(C++版)使用TensorRT量化(python版)参考文献量化基本概念后训练量化PostTrainingQuantization(PTQ)量化过程仅仅通过离线推
- 使用TensorRT对YOLOv8模型进行加速推理
fengbingchun
DeepLearningCUDA/TensorRTYOLOv8TensorRT
这里使用GitHub上shouxieai的infer框架对YOLOv8模型进行加速推理,操作过程如下所示:1.配置环境,依赖项,包括:(1).CUDA:11.8(2).cuDNN:8.7.0(3).TensorRT:8.5.3.1(4).ONNX:1.16.0(5).OpenCV:4.10.02.cloneinfer代码:https://github.com/shouxieai/infer3.使用
- ONNX Runtime、CUDA、cuDNN、TensorRT版本对应
可keke
ML&DLpytorchdeeplearning
文章目录ONNXRuntime的安装ONNXRuntime与CUDA、cuDNN的版本对应ONNXRuntime与ONNX的版本对应ONNXRuntime、TensorRT、CUDA版本对应ONNXRuntime的安装官方文档注意,到目前为止,onnxruntime-gpu在CUDA12.x和CUDA11.x下的安装命令是不同的,仔细阅读官方文档。验证安装python>>>importonnxru
- python 安装 win32com
郎君啊
python开发语言
扩展,Python,安装相关视频讲解:StableDiffusion提升出图速度,TensorRT扩展,SDXL-SSD-1B-A1111,速度提升60%,PyTorch更新python的or运算赋值用法用python编程Excel有没有用处?如何在Windows系统上安装win32com一、整体流程步骤操作1下载并安装Python2安装pywin32扩展包3验证安装是否成功二、具体操作步骤及代码
- 深度学习部署:Triton(Triton inference server)【旧称:TensorRT serving,专门针对TensorRT设计的服务器框架,后来变为Triton,支持其他推理后端】
u013250861
#LLM/部署深度学习人工智能
triton作为一个NVIDIA开源的商用级别的服务框架,个人认为很好用而且很稳定,API接口的变化也不大,我从2020年的20.06切换到2022年的22.06,两个大版本切换,一些涉及到代码的工程变动很少,稍微修改修改就可以直接复用,很方便。本系列讲解的版本也是基于22.06。本系列讲解重点是结合实际的应用场景以及源码分析,以及写一些triton周边的插件、集成等。非速成,适合同样喜欢深入的小
- python opencv cuda tensorrt pytorch之间的版本对应
YIACA
pythonopencvpytorch
python3.7opencv4.4cuda10.2tensorrt7xpytorch1.5DeepStream5.xOpenCV2.x:支持Python2.xOpenCV3.x:支持Python2.7、Python3.xOpenCV4.x:支持Python2.7、Python3.x、Python3.8+CUDA11.x:支持Python3.6、3.7、3.8、3.9CUDA10.2:支持Pyth
- 自动驾驶之心规划控制理论&实战课程
vsdvsvfhf
自动驾驶人工智能机器学习
单目3D与单目BEV全栈教程(视频答疑)多传感器标定全栈系统学习教程多传感器融合:毫米波雷达和视觉融合感知全栈教程(深度学习传统方式)多传感器融合跟踪全栈教程(视频答疑)多模态融合3D目标检测教程(视频答疑)规划控制理论&实战课程国内首个BEV感知全栈系列学习教程首个基于Transformer的分割检测视觉大模型视频课程CUDA与TensorRT部署实战课程(视频答疑)Occupancy从入门到精
- LLM大模型落地-从理论到实践
hhaiming_
语言模型人工智能ai深度学习
简述按个人偏好和目标总结了学习目标和路径(可按需学习),后续将陆续整理出相应学习资料和资源。学习目标熟悉主流LLM(Llama,ChatGLM,Qwen)的技术架构和技术细节;有实际应用RAG、PEFT和SFT的项目经验较强的NLP基础,熟悉BERT、T5、Transformer和GPT的实现和差异,能快速掌握业界进展,有对话系统相关研发经验掌握TensorRT-LLM、vLLM等主流推理加速框架
- 算法学习-2024.8.16
蓝纹绿茶
学习
一、Tensorrt学习补充TensorRT支持INT8和FP16的计算。深度学习网络在训练时,通常使用32位或16位数据。TensorRT则在网络的推理时选用不这么高的精度,达到加速推断的目的。TensorRT对于网络结构进行了重构,把一些能够合并的运算合并在了一起,针对GPU的特性做了优化。一个深度学习模型,在没有优化的情况下,比如一个卷积层、一个偏置层和一个reload层,这三层是需要调用三
- onnx转tensorRT模型出现错误 This version of TensorRT only supports input K as an initializer
lainegates
pytorch人工智能深度学习神经网络
问题onnx模型转tensorRT模型时,出现错误。ThisversionofTensorRTonlysupportsinputKasaninitializer.TryapplyingconstantfoldingonthemodelusingPolygraphgoogle到tensorRT8.6支持了dynamictopk,不会再有这个问题。但项目上限制是tensorRT8.5Problemsc
- trt | torch2trt的使用方式
Mopes__
分享TensorRTtorch2trt
一、安装1.安装tensorrtpython接口下载trt包.tar.gzhttps://developer.nvidia.com/nvidia-tensorrt-5x-download解压tarxvfTensorRT-6.0.1.5.Ubuntu-18.04.x86_64-gnu.cuda-10.1.cudnn7.6.tar.gz安装trtpython接口cdpythonpipinstallte
- 用TensorRT-LLM跑通chatGLM3_6B模型
心瘾こころ
语言模型python
零、参考资料NVIDIA官网THUDM的GithubNVIDIA的Github一、构建TensorRT-LLM的docker镜像gitlfsinstallgitclonehttps://github.com/NVIDIA/TensorRT-LLM.gitcdTensorRT-LLMgitsubmoduleupdate--init--recursivesudomake-Cdockerrelease_
- Ubuntu20.04部署Ollama
stxinu
Nvidia人工智能linux服务器人工智能
在Ubuntu20.04上面安装完RTX4060的NvidiaCuda和TensorRT环境后,就开始跑些大模型看看。下面是安装使用Ollama的过程:安装Ollama:curl-khttps://ollama.com/install.sh|sh执行上面命令,有如下打印:%Total%Received%XferdAverageSpeedTimeTimeTimeCurrentDloadUploadT
- AI秒出图!StableDiffusion Automatic1111正式支持Tensorrt
germandai
人工智能stablediffusion
秒级出图的AI绘画终于支持Automatic1111。今天在AI绘画的开源平台Automatic1111上发布了Tensorrt项目,项目地址是https://github.com/AUTOMATIC1111/stable-diffusion-webui-tensorrt该项目是基于automatic1111的stable-diffusion-webui项目的子项目。基本原理:我们知道,autom
- PyTorch训练,TensorRT部署的简要步骤(采用ONNX中转的方式)
赛先生.AI
TensorRTpytorch人工智能TensorRTONNX
1.简述使用PyTorch执行训练,使用TensorRT进行部署有很多种方法,比较常用的是基于INetworkDefinition进行每一层的自定义,这样一来,会反向促使研究者能够对真个网络的细节有更深的理解。另一种相对简便的方式就是通过ONNX中间转换的形式。本文主要针对该途径进行简单的脉络阐述。2.导出ONNX如果使用的是PyTorch训练框架,可采用其自带的ONNX导出API。torch.o
- ChatGPT引领的AI面试攻略系列:cuda和tensorRT
梦想的理由
深度学习c++chatgpt人工智能面试
系列文章目录cuda和tensorRT(本文)AI全栈工程师文章目录系列文章目录一、前言二、面试题1.CUDA编程基础2.CUDA编程进阶3.性能优化4.TensorRT基础5.TensorRT进阶6.实际应用与案例分析7.编程与代码实践8.高级话题与趋势一、前言随着人工智能技术的飞速发展,该领域的就业机会也随之增多。无论是刚刚踏入这一领域的新手,还是经验丰富的专业人士,都可能面临着各种面试挑战。
- 使用TensorRT在PyTorch项目中加速深度学习推理
从零开始学习人工智能
深度学习pytorch人工智能
在PyTorch项目中使用TensorRT进行深度学习推理通常涉及以下步骤:模型训练:首先,在PyTorch中训练你的深度学习模型。模型导出:训练完成后,将模型从PyTorch导出为ONNX(OpenNeuralNetworkExchange)格式。ONNX是一种用于表示深度学习模型的开放格式,它使得模型可以在不同的深度学习框架之间互操作。模型优化:使用TensorRT优化ONNX模型。Tenso
- [C++]使用C++部署yolov9的tensorrt模型进行目标检测
FL1623863129
C/C++目标检测人工智能计算机视觉
部署YOLOv9的TensorRT模型进行目标检测是一个涉及多个步骤的过程,主要包括准备环境、模型转换、编写代码和模型推理。首先,确保你的开发环境已安装了NVIDIA的TensorRT。TensorRT是一个用于高效推理的SDK,它能对TensorFlow、PyTorch等框架训练的模型进行优化,从而加速模型在NVIDIAGPU上的运行速度。接下来,你需要将YOLOv9的模型转换为TensorRT
- [技术杂谈]Chat With RTX 介绍
FL1623863129
技术杂谈人工智能
英伟达(Nvidia)已于近日发布了名为“ChatwithRTX”的Demo版个性化AI聊天机器人,并在其海外官网渠道中提供了下载链接。据了解,这是一款适用于Windows平台的聊天机器人,由TensorRT-LLM提供支持,完全在本地运行。据官网信息显示,想要安装该聊天机器人应用,用户的系统配置需使用Nvidia的30系/40系显卡(或Ampere/Ada架构的其他显卡),且显存至少为8GB。此
- WhisperFusion:具有超低延迟无缝对话功能的AI系统
语音之家
智能语音人工智能语音识别语言模型
WhisperFusion基于WhisperLive和WhisperSpeech的功能而构建,在实时语音到文本管道之上集成了大型语言模型Mistral(LLM)。LLM和Whisper都经过优化,可作为TensorRT引擎高效运行,从而最大限度地提高性能和实时处理能力。WhiperSpeech是通过torch.compile进行优化的。特征实时语音转文本:利用OpenAIWhisperLive将口
- 心法利器[107] onnx和tensorRT的bert加速方案记录
机智的叉烧
bert人工智能深度学习自然语言处理
心法利器本栏目主要和大家一起讨论近期自己学习的心得和体会,与大家一起成长。具体介绍:仓颉专项:飞机大炮我都会,利器心法我还有。2023年新一版的文章合集已经发布,获取方式看这里:又添十万字-CS的陋室2023年文章合集来袭,更有历史文章合集,欢迎下载。往期回顾心法利器[102]|大模型落地应用架构的一种模式心法利器[103]|大模型badcase修复方案思考心法利器[104]|基础RAG-向量检索
- jetson orin nano 使用yolov8导出engine
coder攻城狮
YOLO
1.导出onnx经过前面训练,得到了best.pt模型,现在想要使用tensorrt进行推理,需要先导出为onnx格式,再转化为engine格式。yoloexportmodel=best.ptformat=onnxopset=12simplify=True2.解决错误在导出过程中,可能会出现错误,cmake版本问题安装好后,默认cmake版本为3.16,需要对cmake进行升级sudopipins
- TensorRT下载安装
Jumy_S
python
TensorRT下载安装一下载地址https://developer.nvidia.com/nvidia-tensorrt-8x-download版本8.2.3GA(成熟稳定版)和8.4.0EA(新功能测试版)以后,有C++和python的API,完全等价可以混用二安装tensorrt的python版本pipinstalltensorrt-8.5.1.7-cp38-none-win_amd64.w
- 安装使用MMDeploy(Python版)
*Major*
人工智能python
安装使用MMDeploy(Python版)一安装MMDeploypythonmmdeploy-main/tools/deploy.pymmdeploy-main/configs/mmdet/detection/detection_tensorrt_dynamic-320x320-1344x1344.pymmdetection/configs/faster_rcnn/faster-rcnn_r50_
- Stable Diffusion教程——使用TensorRT GPU加速提升Stable Diffusion出图速度
知来者逆
StableDiffusionstablediffusionTensorRT人工智能AIGC
概述Diffusion模型在生成图像时最大的瓶颈是速度过慢的问题。为了解决这个问题,StableDiffusion采用了多种方式来加速图像生成,使得实时图像生成成为可能。最核心的加速是StableDiffusion使用了编码器将图像从原始的3512512大小转换为更小的46464大小,从而极大地降低了计算量。它还利用了潜在表示空间(latentspace)上的Diffusion过程,进一步降低了计
- yolov5 torch转tensorrt详解【推荐】
Teng-Sun
YOLO
转化函数#可以在https://github.com/ultralytics/yolov5/blob/master/export.py里面找到defexport_engine(model,im,file,half,dynamic,simplify,workspace=4,verbose=False,prefix=colorstr('TensorRT:')):#YOLOv5TensorRTexpor
- mmdetection模型转onnx和tensorrt实战
dream_home8407
python深度学习人工智能
一,说明1.本次实战使用的是mmdetection算法框架中的Cascase-Rcnn训练的模型;2.模型转换时,运行环境中各种工具的版本要保持一致;3.TensorRT我一直装不上,我用的是镜像环境.参考链接:link二,使用Docker镜像1.0,镜像基础环境构建exportTAG=openmmlab/mmdeploy:ubuntu20.04-cuda11.8-mmdeploydockerpu
- Jetson AGX Orin安装Anaconda,Cuda,Cudnn,pytorch,Tensorrt,ROS
枭玉龙
#ubuntu系统下安装pytorch人工智能python
Anaconda:https://repo.anaconda.com/archive/Cuda:https://forums.developer.nvidia.com/t/pytorch-for-jetson/720481:安装Anaconda3下载:Anaconda3-2021.11-Linux-aarch64.shchmod+xAnaconda3-2021.11-Linux-aarch64.s
- Jetson Xavier NX CUDA、cuDNN、TensorRT与Pytorch环境配置
想努力的人
pytorch人工智能python
橘子大虾关注IP属地:江苏0.1312022.05.1911:31:43字数331阅读3,854torch与vision源码安装包下载链接:https://pan.baidu.com/s/1mrIgGoMo0bq6otGhlh-E3A提取码:6sb31.Cuda、CuDNN和TensorRT在JetsonXavierNx控制台中执行指令#更新软件源sudoaptupdate#安装JetPack组件
- orin nx 安装paddlespeech记录
想努力的人
算法语音合成人工智能
nx配置:模块版本说明CPU8核内存16GCuda版本11.4Opencv版本4.5.4Tensorrt版本5.1Cudnn版本8.6.0.166Deepstream版本6.2Python版本3.8算力100T安装paddlepaddle:去飞桨官网下载jetpack版本的:下载安装Linux推理库-PaddlePaddle深度学习平台当需要调用语速的接口时:需要安装soxbindings包,这个
- mongodb3.03开启认证
21jhf
mongodb
下载了最新mongodb3.03版本,当使用--auth 参数命令行开启mongodb用户认证时遇到很多问题,现总结如下:
(百度上搜到的基本都是老版本的,看到db.addUser的就是,请忽略)
Windows下我做了一个bat文件,用来启动mongodb,命令行如下:
mongod --dbpath db\data --port 27017 --directoryperdb --logp
- 【Spark103】Task not serializable
bit1129
Serializable
Task not serializable是Spark开发过程最令人头疼的问题之一,这里记录下出现这个问题的两个实例,一个是自己遇到的,另一个是stackoverflow上看到。等有时间了再仔细探究出现Task not serialiazable的各种原因以及出现问题后如何快速定位问题的所在,至少目前阶段碰到此类问题,没有什么章法
1.
package spark.exampl
- 你所熟知的 LRU(最近最少使用)
dalan_123
java
关于LRU这个名词在很多地方或听说,或使用,接下来看下lru缓存回收的实现
1、大体的想法
a、查询出最近最晚使用的项
b、给最近的使用的项做标记
通过使用链表就可以完成这两个操作,关于最近最少使用的项只需要返回链表的尾部;标记最近使用的项,只需要将该项移除并放置到头部,那么难点就出现 你如何能够快速在链表定位对应的该项?
这时候多
- Javascript 跨域
周凡杨
JavaScriptjsonp跨域cross-domain
 
- linux下安装apache服务器
g21121
apache
安装apache
下载windows版本apache,下载地址:http://httpd.apache.org/download.cgi
1.windows下安装apache
Windows下安装apache比较简单,注意选择路径和端口即可,这里就不再赘述了。 2.linux下安装apache:
下载之后上传到linux的相关目录,这里指定为/home/apach
- FineReport的JS编辑框和URL地址栏语法简介
老A不折腾
finereportweb报表报表软件语法总结
JS编辑框:
1.FineReport的js。
作为一款BS产品,browser端的JavaScript是必不可少的。
FineReport中的js是已经调用了finereport.js的。
大家知道,预览报表时,报表servlet会将cpt模板转为html,在这个html的head头部中会引入FineReport的js,这个finereport.js中包含了许多内置的fun
- 根据STATUS信息对MySQL进行优化
墙头上一根草
status
mysql 查看当前正在执行的操作,即正在执行的sql语句的方法为:
show processlist 命令
mysql> show global status;可以列出MySQL服务器运行各种状态值,我个人较喜欢的用法是show status like '查询值%';一、慢查询mysql> show variab
- 我的spring学习笔记7-Spring的Bean配置文件给Bean定义别名
aijuans
Spring 3
本文介绍如何给Spring的Bean配置文件的Bean定义别名?
原始的
<bean id="business" class="onlyfun.caterpillar.device.Business">
<property name="writer">
<ref b
- 高性能mysql 之 性能剖析
annan211
性能mysqlmysql 性能剖析剖析
1 定义性能优化
mysql服务器性能,此处定义为 响应时间。
在解释性能优化之前,先来消除一个误解,很多人认为,性能优化就是降低cpu的利用率或者减少对资源的使用。
这是一个陷阱。
资源时用来消耗并用来工作的,所以有时候消耗更多的资源能够加快查询速度,保持cpu忙绿,这是必要的。很多时候发现
编译进了新版本的InnoDB之后,cpu利用率上升的很厉害,这并不
- 主外键和索引唯一性约束
百合不是茶
索引唯一性约束主外键约束联机删除
目标;第一步;创建两张表 用户表和文章表
第二步;发表文章
1,建表;
---用户表 BlogUsers
--userID唯一的
--userName
--pwd
--sex
create
- 线程的调度
bijian1013
java多线程thread线程的调度java多线程
1. Java提供一个线程调度程序来监控程序中启动后进入可运行状态的所有线程。线程调度程序按照线程的优先级决定应调度哪些线程来执行。
2. 多数线程的调度是抢占式的(即我想中断程序运行就中断,不需要和将被中断的程序协商)
a) 
- 查看日志常用命令
bijian1013
linux命令unix
一.日志查找方法,可以用通配符查某台主机上的所有服务器grep "关键字" /wls/applogs/custom-*/error.log
二.查看日志常用命令1.grep '关键字' error.log:在error.log中搜索'关键字'2.grep -C10 '关键字' error.log:显示关键字前后10行记录3.grep '关键字' error.l
- 【持久化框架MyBatis3一】MyBatis版HelloWorld
bit1129
helloworld
MyBatis这个系列的文章,主要参考《Java Persistence with MyBatis 3》。
样例数据
本文以MySQL数据库为例,建立一个STUDENTS表,插入两条数据,然后进行单表的增删改查
CREATE TABLE STUDENTS
(
stud_id int(11) NOT NULL AUTO_INCREMENT,
- 【Hadoop十五】Hadoop Counter
bit1129
hadoop
1. 只有Map任务的Map Reduce Job
File System Counters
FILE: Number of bytes read=3629530
FILE: Number of bytes written=98312
FILE: Number of read operations=0
FILE: Number of lar
- 解决Tomcat数据连接池无法释放
ronin47
tomcat 连接池 优化
近段时间,公司的检测中心报表系统(SMC)的开发人员时不时找到我,说用户老是出现无法登录的情况。前些日子因为手头上 有Jboss集群的测试工作,发现用户不能登录时,都是在Tomcat中将这个项目Reload一下就好了,不过只是治标而已,因为大概几个小时之后又会 再次出现无法登录的情况。
今天上午,开发人员小毛又找到我,要我协助将这个问题根治一下,拖太久用户难保不投诉。
简单分析了一
- java-75-二叉树两结点的最低共同父结点
bylijinnan
java
import java.util.LinkedList;
import java.util.List;
import ljn.help.*;
public class BTreeLowestParentOfTwoNodes {
public static void main(String[] args) {
/*
* node data is stored in
- 行业垂直搜索引擎网页抓取项目
carlwu
LuceneNutchHeritrixSolr
公司有一个搜索引擎项目,希望各路高人有空来帮忙指导,谢谢!
这是详细需求:
(1) 通过提供的网站地址(大概100-200个网站),网页抓取程序能不断抓取网页和其它类型的文件(如Excel、PDF、Word、ppt及zip类型),并且程序能够根据事先提供的规则,过滤掉不相干的下载内容。
(2) 程序能够搜索这些抓取的内容,并能对这些抓取文件按照油田名进行分类,然后放到服务器不同的目录中。
- [通讯与服务]在总带宽资源没有大幅增加之前,不适宜大幅度降低资费
comsci
资源
降低通讯服务资费,就意味着有更多的用户进入,就意味着通讯服务提供商要接待和服务更多的用户,在总体运维成本没有由于技术升级而大幅下降的情况下,这种降低资费的行为将导致每个用户的平均带宽不断下降,而享受到的服务质量也在下降,这对用户和服务商都是不利的。。。。。。。。
&nbs
- Java时区转换及时间格式
Cwind
java
本文介绍Java API 中 Date, Calendar, TimeZone和DateFormat的使用,以及不同时区时间相互转化的方法和原理。
问题描述:
向处于不同时区的服务器发请求时需要考虑时区转换的问题。譬如,服务器位于东八区(北京时间,GMT+8:00),而身处东四区的用户想要查询当天的销售记录。则需把东四区的“今天”这个时间范围转换为服务器所在时区的时间范围。
- readonly,只读,不可用
dashuaifu
jsjspdisablereadOnlyreadOnly
readOnly 和 readonly 不同,在做js开发时一定要注意函数大小写和jsp黄线的警告!!!我就经历过这么一件事:
使用readOnly在某些浏览器或同一浏览器不同版本有的可以实现“只读”功能,有的就不行,而且函数readOnly有黄线警告!!!就这样被折磨了不短时间!!!(期间使用过disable函数,但是发现disable函数之后后台接收不到前台的的数据!!!)
- LABjs、RequireJS、SeaJS 介绍
dcj3sjt126com
jsWeb
LABjs 的核心是 LAB(Loading and Blocking):Loading 指异步并行加载,Blocking 是指同步等待执行。LABjs 通过优雅的语法(script 和 wait)实现了这两大特性,核心价值是性能优化。LABjs 是一个文件加载器。RequireJS 和 SeaJS 则是模块加载器,倡导的是一种模块化开发理念,核心价值是让 JavaScript 的模块化开发变得更
- [应用结构]入口脚本
dcj3sjt126com
PHPyii2
入口脚本
入口脚本是应用启动流程中的第一环,一个应用(不管是网页应用还是控制台应用)只有一个入口脚本。终端用户的请求通过入口脚本实例化应用并将将请求转发到应用。
Web 应用的入口脚本必须放在终端用户能够访问的目录下,通常命名为 index.php,也可以使用 Web 服务器能定位到的其他名称。
控制台应用的入口脚本一般在应用根目录下命名为 yii(后缀为.php),该文
- haoop shell命令
eksliang
hadoophadoop shell
cat
chgrp
chmod
chown
copyFromLocal
copyToLocal
cp
du
dus
expunge
get
getmerge
ls
lsr
mkdir
movefromLocal
mv
put
rm
rmr
setrep
stat
tail
test
text
- MultiStateView不同的状态下显示不同的界面
gundumw100
android
只要将指定的view放在该控件里面,可以该view在不同的状态下显示不同的界面,这对ListView很有用,比如加载界面,空白界面,错误界面。而且这些见面由你指定布局,非常灵活。
PS:ListView虽然可以设置一个EmptyView,但使用起来不方便,不灵活,有点累赘。
<com.kennyc.view.MultiStateView xmlns:android=&qu
- jQuery实现页面内锚点平滑跳转
ini
JavaScripthtmljqueryhtml5css
平时我们做导航滚动到内容都是通过锚点来做,刷的一下就直接跳到内容了,没有一丝的滚动效果,而且 url 链接最后会有“小尾巴”,就像#keleyi,今天我就介绍一款 jquery 做的滚动的特效,既可以设置滚动速度,又可以在 url 链接上没有“小尾巴”。
效果体验:http://keleyi.com/keleyi/phtml/jqtexiao/37.htmHTML文件代码:
&
- kafka offset迁移
kane_xie
kafka
在早前的kafka版本中(0.8.0),offset是被存储在zookeeper中的。
到当前版本(0.8.2)为止,kafka同时支持offset存储在zookeeper和offset manager(broker)中。
从官方的说明来看,未来offset的zookeeper存储将会被弃用。因此现有的基于kafka的项目如果今后计划保持更新的话,可以考虑在合适
- android > 搭建 cordova 环境
mft8899
android
1 , 安装 node.js
http://nodejs.org
node -v 查看版本
2, 安装 npm
可以先从 https://github.com/isaacs/npm/tags 下载 源码 解压到
- java封装的比较器,比较是否全相同,获取不同字段名字
qifeifei
非常实用的java比较器,贴上代码:
import java.util.HashSet;
import java.util.List;
import java.util.Set;
import net.sf.json.JSONArray;
import net.sf.json.JSONObject;
import net.sf.json.JsonConfig;
i
- 记录一些函数用法
.Aky.
位运算PHP数据库函数IP
高手们照旧忽略。
想弄个全天朝IP段数据库,找了个今天最新更新的国内所有运营商IP段,copy到文件,用文件函数,字符串函数把玩下。分割出startIp和endIp这样格式写入.txt文件,直接用phpmyadmin导入.csv文件的形式导入。(生命在于折腾,也许你们觉得我傻X,直接下载人家弄好的导入不就可以,做自己的菜鸟,让别人去说吧)
当然用到了ip2long()函数把字符串转为整型数
- sublime text 3 rust
wudixiaotie
Sublime Text
1.sublime text 3 => install package => Rust
2.cd ~/.config/sublime-text-3/Packages
3.mkdir rust
4.git clone https://github.com/sp0/rust-style
5.cd rust-style
6.cargo build --release
7.ctrl