- LLM大模型学习:LLM大模型推理加速
七七Seven~
学习人工智能transformer深度学习llama
文Mia/叶娇娇推理优化部署、推理加速技术是现在,尤其在大模型时代背景之下,消费级GPU和边端设备仍为主流的状况下。推理加速是实际工程落地的首要考虑因素之一,今天笔者来聊聊涉及到的可以实现大模型推理加速的技术。目录一、模型优化技术二、模型压缩技术三、硬件加速四、GPU加速五、模型并行化和分布式计算技术一、模型优化学习常见的模型优化技术,如模型剪枝、量化、分片、蒸馏等,掌握相应的实现方法。1.1剪枝
- Python中的深度学习神经网络
2301_78297473
深度学习python神经网络
文章目录1.引言-简介-深度学习与Python的关系2.神经网络的原理-神经网络基础知识-Python中的神经网络库与工具-构建与训练神经网络模型的步骤深度学习训练过程3.卷积神经网络的原理-卷积层与池化层-特征提取与全连接层-Python中的CNN库与工具4.Python中深度学习的挑战和未来发展方向-计算资源与速度-迁移学习与模型压缩-融合多种深度学习算法1.引言-简介深度学习是机器学习的一个
- 模型剪枝综述
发狂的小花
人工智能#模型部署深度学习人工智能模型部署模型剪枝性能优化
目录1深度神经网络的稀疏性:2剪枝算法分类:3具体的剪枝方法包括:4剪枝算法流程:5几种常见的剪枝算法:6结构化剪枝和非结构化剪枝各有其优缺点:7剪枝算法对模型精度的影响8影响剪枝算法对模型精度的因素模型压缩中的剪枝算法是一种应用广泛的模型压缩方法,其通过剔除模型中“不重要”的权重,来减少模型的参数量和计算量,同时尽量保证模型的精度不受影响。模型剪枝的核心是模型中的权重、激活、梯度等是稀疏的,减少
- 图像处理之蒸馏
醉后才知酒浓
面试题OpenCV图像处理人工智能计算机视觉深度学习
蒸馏什么是蒸馏蒸馏技术分类什么是轨迹一致性蒸馏(TCD)什么是蒸馏在图像处理领域,蒸馏是一种模型压缩和知识迁移的技术。它的基本思想是利用一个大型且复杂的模型(教师模型)来指导一个小型且简单的模型(学生模型)的训练。教师模型通常具有较高的性能和准确性,但由于其复杂性和计算成本,可能不适合在资源受限的环境中使用。因此,蒸馏的目标是将教师模型的知识转移到学生模型中,以便在保持或接近教师模型性能的同时,降
- 英伟达如何通过剪枝和蒸馏技术让Llama 3.1模型“瘦身“?
蒜鸭
人工智能算法机器学习
英伟达如何通过剪枝和蒸馏技术让Llama3.1模型"瘦身"?大家好,我是蒜鸭。今天我们来聊聊英伟达最近在大语言模型优化方面的一项有趣研究。随着Meta发布Llama3.1系列模型,如何在保持模型性能的同时缩小其体积成为了业界关注的焦点。英伟达研究团队通过结构化权重剪枝和知识蒸馏技术,成功将Llama3.18B模型压缩为4B参数的小型语言模型,并取得了不俗的效果。让我们一起来深入探讨这项技术的原理和
- 大模型训练和推理
李明朔
AIGC深度学习人工智能
文章目录一、NLP基础1.Tokenizer2.positionencoding3.注意力机制与transformer架构二、大模型训练1.SFT训练2.RLHF训练3.分布式并行训练技术(1)模型并行(2)数据并行4.MoE技术4.PEFT训练5.上下文扩展技术三、大模型推理1.模型压缩(1)剪枝(2)量化2.显存优化技术3.调度优化技术4.请求优化技术5.采样和解码加速6.模型并行策略7.其他
- 基于深度学习的高效模型压缩
SEU-WYL
深度学习dnn深度学习人工智能
基于深度学习的高效模型压缩技术在确保模型性能的同时,显著减少了模型的存储需求和计算复杂度,从而使得深度学习模型能够更好地适应资源受限的环境(如移动设备、嵌入式系统)并加快推理速度。以下是关于高效模型压缩的详细讨论:1.模型压缩的背景与挑战随着深度学习模型的不断发展,模型规模和复杂性大幅增加,特别是在计算机视觉、自然语言处理等领域,模型通常包含数以亿计的参数。这种大规模模型虽然能够实现高精度,但其计
- 【机器学习】机器学习与大模型在人工智能领域的融合应用与性能优化新探索
E绵绵
Everything人工智能机器学习大模型pythonAIGC应用科技
文章目录引言机器学习与大模型的基本概念机器学习概述监督学习无监督学习强化学习大模型概述GPT-3BERTResNetTransformer机器学习与大模型的融合应用自然语言处理文本生成文本分类机器翻译图像识别自动驾驶医学影像分析语音识别智能助手语音转文字大模型性能优化的新探索模型压缩权重剪枝量化知识蒸馏分布式训练数据并行模型并行异步训练高效推理模型裁剪缓存机制专用硬件未来展望跨领域应用智能化系统人
- 大模型量化技术原理-LLM.int8()、GPTQ
吃果冻不吐果冻皮
动手学大模型人工智能
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变得越来越大,因此,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。模型压缩主要分为如下几类:剪枝(Pruning)知识蒸馏(KnowledgeDistillation)量化之前也写过一些文章涉及大模型量化相关的内容。基于LLaMA-7B/Bloomz-7B1-mt复现开
- 模型压缩开源项目:阿里-tinyNAS/微软NNI/华为-vega
清风2022
tinyNAS神经网络AutoMLvega
文章目录阿里-TinyNAS使用流程步骤一:搜索模型结构步骤二:导出模型结果步骤三:使用搜索的模型结构图像分类任务目标检测任务华为-vega简介定位优点缺点微软NNI简介定位优点缺点阿里-TinyNAShttps://github.com/alibaba/lightweight-neural-architecture-search聚焦NAS,进行合理的模块划分;更偏向算法使用平台,搜索得到精度较好
- 自然语言处理 | (13)kenLM统计语言模型构建与应用
CoreJT
自然语言处理自然语言处理(NLP)kenLM工具库统计语言模型n-gram智能纠错
本篇博客中我们将学习如何使用KenLM工具构建统计语言模型,并使用它完成一个典型的'智能纠错'文本任务。目录1.实验准备2.训练数据3.训练语言模型4.模型压缩5.模型加载6.智能纠错1.实验准备安装依赖#安装依赖!aptinstalllibboost-all-dev!aptinstalllibbz2-dev!aptinstalllibeigen3-dev下载KenLM并编译#下载kenlm压缩包
- 今日arXiv最热NLP大模型论文:微软提出SliceGPT,删除25%模型参数,性能几乎无损
夕小瑶
自然语言处理人工智能
引言:探索大型语言模型的高效压缩方法随着大型语言模型(LLMs)在自然语言处理领域的广泛应用,它们对计算和内存资源的巨大需求成为了一个不容忽视的问题。为了缓解这些资源限制,研究者们提出了多种模型压缩方法,其中剪枝(pruning)技术因其在后训练阶段应用的潜力而备受关注。然而,现有的剪枝技术面临着需要额外数据结构支持和在当前硬件上受限的加速效果等挑战。在这篇博客中,我们将探讨一种新的剪枝方案——S
- 不容错过|大模型等各行业最新赛事汇总,速递给你!
会议之眼
人工智能阿里云微信
比赛动态1、AICAS2024大挑战:通用算力大模型推理性能软硬协同优化挑战赛比赛简介:选手基于通义千问-7B大语言模型,可从多角度提出相关方法(如模型压缩,参数稀疏,精度量化和结构剪枝等),并结合Arm架构硬件特性和开源软件资源(比如硬件BF16,矢量矩阵乘,ArmComputeLibrary等)来系统优化提升大模型在硬件上的推理性能。最终通过赛题组委会指定的测试方案获取选手的优化方法的评分。初
- Yolov8_obb旋转框检测,模型剪枝压缩
早茶和猫
旋转框模型剪枝YOLO剪枝目标检测算法人工智能
Yolov8_obb模型压缩之模型剪枝一、剪枝原理和pipleline参考:yolov5模型压缩之模型剪枝模型压缩(二)yolov5剪枝本次使用稀疏训练对channel维度进行剪枝,来自论文LearningEfficientConvolutionalNetworksThroughNetworkSlimming。其实原理很容易理解,我们知道bn层中存在两个可训练参数γ,β,输入经过bn获得归一化后的
- Threejs in autonomous driving -(2)模型精简
土肥圆_c1ab
在开发准备阶段建模同学都会提供一个车模,从前段考量一般来说超过100kb都算是大文件了,这个模型一般是obj+mtl文件,这两个一般都会超过MB。推动精简的话都非常都难。精简方案删减模型的顶点和面片模型压缩第一种专业性比较强,我们是搞不定的,那么就可以从第二种思路为出发点。通过万能的搜索引擎搜索我们可以找到被誉为3d业界的json格式的gltf。gltf简介。这里推荐两个工具obj2gltfhtt
- 训练和部署之间的区别-模型压缩
An_ich
深度学习python开发语言人工智能网络算法深度学习机器学习
神经网络训练神经网络训练的本质就是找到一个f(x),只不过是一个参数量很大的f(x)那么神经网络训练和部署之间的区别就是减少参数量为什么要减少参数量1.大模型不方便进行部署,网络的推断速度比较慢2.对于移动端等设备也没有这么强的算力3.对于网络训练的结果,也就是网络训练中学习到的知识和网络参数量两者的关系不是线性的,知识和参数量之间的关系更趋向于一个log函数怎样减少参数量1.减小参数的精度例如将
- AI模型压缩技术
SugarPPig
人工智能人工智能
模型压缩技术是指通过一系列方法和技巧,减小深度学习模型的大小和计算量,同时尽量保持模型的性能。这对于在资源受限的设备上部署模型、减少模型传输和存储成本以及提高模型推理速度都非常有用。以下是一些常见的模型压缩技术:参数剪枝(Pruning):通过删除模型中不重要的参数来减小模型的大小。剪枝方法可以基于参数的重要性进行选择,例如,通过设置阈值来删除小于该阈值的参数。量化(Quantization):将
- 和GPT讨论知识蒸馏的基本概念
Mighty_Crane
gpt人工智能
User帮我解释一下知识蒸馏、教师学生网络、逆向蒸馏等概念ChatGPT知识蒸馏(KnowledgeDistillation)是一种模型压缩技术。在这个过程中,一个大型、复杂的模型(通常称为“教师”模型)被用来训练一个更小、更简单的模型(称为“学生”模型)。学生模型不仅学习从数据到输出的映射,还学习模仿教师模型的行为,这通常能提高其性能。逆向蒸馏(ReverseDistillation)是其中的一
- 第五节课 LMDeploy 大模型量化部署实践(笔记)
幽径微澜
书生·浦语大模型实战营(笔记笔记python
来源:(5)LMDeploy大模型量化部署实践_哔哩哔哩_bilibili课程文档:https://github.com/InternLM/tutorial/blob/main/lmdeploy/lmdeploy.md1.大模型部署背景(1)模型部署定义将训练好的模型在特定软硬件环境中启动的过程,使模型能够接收输入并返回预测结果为了满足性能和效率的要求,常常对需要对模型进行优化,例如模型压缩和硬件
- 【书生·浦语大模型实战营05】《(5)LMDeploy 大模型量化部署实践》学习笔记
songyuc
学习笔记
《(5)LMDeploy大模型量化部署实践》课程文档:《LMDeploy的量化和部署》1、大模型部署背景1.1模型部署定义将训练好的模型在特定软硬件环境中启动的过程,使模型能够接收输入并返回预测结果为了满足性能和效率的需求,常常需要对模型进行优化,例如模型压缩和硬件加速产品形态云端、边缘计算端、移动端1.2大模型特点内存开销巨大庞大的参数量。7B模型仅权重就需要14+G显存采用自回归生成token
- Model Compression and Acceleration Overview
Ada's
认知智能认知计算片上互联边缘计算系统科学神经科学认知科学专题《智能芯片》
模型压缩、模型加速模型压缩方法:能够有效降低参数冗余减少存储占用、通信带宽、计算复杂度利部署线性或非线性量化:1/2bits,int8和fp16等;结构或非结构剪枝:deepcompression,channelpruning和networkslimming等;网络结构搜索(NAS:NetworkArchitectureSearch):DARTS,DetNAS、NAS-FCOS、Proxyless
- 初识人工智能,一文读懂过拟合&欠拟合和模型压缩的知识文集(3)
普修罗双战士
人工智能专栏人工智能机器学习自然语言处理语言模型人机交互计算机视觉
作者简介,普修罗双战士,一直追求不断学习和成长,在技术的道路上持续探索和实践。多年互联网行业从业经验,历任核心研发工程师,项目技术负责人。欢迎点赞✍评论⭐收藏人工智能领域知识链接专栏人工智能专业知识学习一人工智能专栏人工智能专业知识学习二人工智能专栏人工智能专业知识学习三人工智能专栏人工智能专业知识学习四人工智能专栏人工智能专业知识学习五人工智能专栏人工智能专业知识学习六人工智能专栏人工智能专业知
- 对 MODNet 其他模块的剪枝探索
Maitre Chen
剪枝算法深度学习人工智能计算机视觉
写在前面先前笔者分享了《对MODNet主干网络MobileNetV2的剪枝探索》,没想到被选为了CSDN每天值得看系列,因为笔者开设的专栏《MODNet-Compression探索之旅》仅仅只是记录笔者在模型压缩领域的探索历程,对此笔者深感荣幸,非常感谢官方大大的认可!!!接下来,笔者会加倍努力,创作更多优质文章,为社区贡献更多有价值、有意思的内容!!!!本文将分享笔者对MODNet网络结构内部其
- Knowledge Distillation (1) 模块替换之bert-of-theseus-上篇
小蛋子
更好的阅读体验请跳转至KnowledgeDistillation(1)模块替换之bert-of-theseus-上篇如果忒修斯的船上的木头被逐渐替换,直到所有的木头都不是原来的木头,那这艘船还是原来的那艘船吗?-普鲁塔克最近遇到一个需要对算法加速的场景,了解到了一个比较简洁实用的方法:Bert-of-theseus,了解了原理后参考代码实验后,验证了其有效性,所以总结一下。模型压缩模型在设计之初都
- 改进yolov7网络(从轻量化方面的8个方法)
qhchao
YOLO网络计算机视觉
当谈到目标检测领域时,YOLOv7(YouOnlyLookOncev7)是一种非常流行的深度学习网络模型。虽然YOLOv7已经在精度和速度方面取得了显著的改进,但我们仍然可以从轻量化角度来进一步优化该模型。以下是8条关于如何从轻量化角度改进YOLOv7网络的建议:1.模型压缩:使用轻量化的模型压缩技术,如剪枝(pruning)和量化(quantization),来减小YOLOv7的模型大小。通过剪
- 本地模型能力适配
道亦无名
人工智能人工智能
本地模型能力适配是指将多模态大模型应用于本地设备或特定场景时,需要进行的一种技术处理。由于多模态大模型通常需要较大的计算资源和存储空间,直接将其部署到本地设备上可能会面临性能和效率的瓶颈。因此,需要进行本地模型能力适配,以适应本地设备的计算能力和存储限制。具体来说,本地模型能力适配可以通过以下几种方式实现:模型压缩:通过减少模型的大小和计算复杂度,使其更加适合本地设备的计算和存储能力。例如,可以使
- 将大模型与小模型结合的8种常用策略分享,附17篇案例论文和代码
深度之眼
人工智能干货深度学习干货机器学习人工智能深度学习大模型小模型
现在我们对大模型的研究逐渐转向了“降耗增效”,通过结合高性能低耗资的小模型,实现更高效的计算和内存利用,达到满足特定场景的需求、降低成本和提高效率、提升系统性能以及增强适应性和扩展性的目的。那么如何将大模型与小模型结合?目前较常用的策略有模型压缩(蒸馏、剪枝)、提示语压缩、联合推理、迁移学习、权值共享、集成学习等。咱们今天就来简单聊聊这8种策略。部分策略的具体步骤以及每种策略相关的参考论文我也放上
- Knowledge Distilling,知识蒸馏
FeynmanMa
Distillingtheknowledgeinaneuralnetwork1.Motivationknowledge_distilling_title.jpg论文作者比较大名鼎鼎了。Motivation一部分来自模型压缩[2],一部分源自作者认为大部分机器学习采用ensemble方法或者学习一个很大的模型来取得比较好的结果,但会给实际应用预测带来很大的压力,而且实际上模型之间也是有信息冗余的。希
- 大模型听课笔记——书生·浦语(5)
亲爱的阿基米德^
笔记
LMDeploy的量化和部署1大模型部署简介模型部署:将训练好的模型在特定软硬件环境中启动的过程,使模型能够接受输入并返回结果。为了满足性能和效率的需求。常常需要对模型进行优化,例如模型压缩和硬件加速产品形态:云端、变韵计算端、移动端计算设备:CPU、GPU、NPU、TPU等大模型的特点:内存开销巨大庞大的参数量采用自回归生成token,需要缓存Attentiondek/v,带来巨大的内存开销动态
- 【书生·浦语】大模型实战营——第五课笔记
Horace_01
笔记人工智能python语言模型
教程文档:https://github.com/InternLM/tutorial/blob/main/lmdeploy/lmdeploy.md视频链接:https://www.bilibili.com/video/BV1iW4y1A77P大模型部署背景关于模型部署通常需要模型压缩和硬件加速大模型的特点1、显存、内存花销巨大2、动态shape,输入输出数量不定3、相对视觉模型,LLM结构简单,大部
- Linux的Initrd机制
被触发
linux
Linux 的 initrd 技术是一个非常普遍使用的机制,linux2.6 内核的 initrd 的文件格式由原来的文件系统镜像文件转变成了 cpio 格式,变化不仅反映在文件格式上, linux 内核对这两种格式的 initrd 的处理有着截然的不同。本文首先介绍了什么是 initrd 技术,然后分别介绍了 Linux2.4 内核和 2.6 内核的 initrd 的处理流程。最后通过对 Lin
- maven本地仓库路径修改
bitcarter
maven
默认maven本地仓库路径:C:\Users\Administrator\.m2
修改maven本地仓库路径方法:
1.打开E:\maven\apache-maven-2.2.1\conf\settings.xml
2.找到
 
- XSD和XML中的命名空间
darrenzhu
xmlxsdschemanamespace命名空间
http://www.360doc.com/content/12/0418/10/9437165_204585479.shtml
http://blog.csdn.net/wanghuan203/article/details/9203621
http://blog.csdn.net/wanghuan203/article/details/9204337
http://www.cn
- Java 求素数运算
周凡杨
java算法素数
网络上对求素数之解数不胜数,我在此总结归纳一下,同时对一些编码,加以改进,效率有成倍热提高。
第一种:
原理: 6N(+-)1法 任何一个自然数,总可以表示成为如下的形式之一: 6N,6N+1,6N+2,6N+3,6N+4,6N+5 (N=0,1,2,…)
- java 单例模式
g21121
java
想必单例模式大家都不会陌生,有如下两种方式来实现单例模式:
class Singleton {
private static Singleton instance=new Singleton();
private Singleton(){}
static Singleton getInstance() {
return instance;
}
- Linux下Mysql源码安装
510888780
mysql
1.假设已经有mysql-5.6.23-linux-glibc2.5-x86_64.tar.gz
(1)创建mysql的安装目录及数据库存放目录
解压缩下载的源码包,目录结构,特殊指定的目录除外:
- 32位和64位操作系统
墙头上一根草
32位和64位操作系统
32位和64位操作系统是指:CPU一次处理数据的能力是32位还是64位。现在市场上的CPU一般都是64位的,但是这些CPU并不是真正意义上的64 位CPU,里面依然保留了大部分32位的技术,只是进行了部分64位的改进。32位和64位的区别还涉及了内存的寻址方面,32位系统的最大寻址空间是2 的32次方= 4294967296(bit)= 4(GB)左右,而64位系统的最大寻址空间的寻址空间则达到了
- 我的spring学习笔记10-轻量级_Spring框架
aijuans
Spring 3
一、问题提问:
→ 请简单介绍一下什么是轻量级?
轻量级(Leightweight)是相对于一些重量级的容器来说的,比如Spring的核心是一个轻量级的容器,Spring的核心包在文件容量上只有不到1M大小,使用Spring核心包所需要的资源也是很少的,您甚至可以在小型设备中使用Spring。
 
- mongodb 环境搭建及简单CURD
antlove
WebInstallcurdNoSQLmongo
一 搭建mongodb环境
1. 在mongo官网下载mongodb
2. 在本地创建目录 "D:\Program Files\mongodb-win32-i386-2.6.4\data\db"
3. 运行mongodb服务 [mongod.exe --dbpath "D:\Program Files\mongodb-win32-i386-2.6.4\data\
- 数据字典和动态视图
百合不是茶
oracle数据字典动态视图系统和对象权限
数据字典(data dictionary)是 Oracle 数据库的一个重要组成部分,这是一组用于记录数据库信息的只读(read-only)表。随着数据库的启动而启动,数据库关闭时数据字典也关闭 数据字典中包含
数据库中所有方案对象(schema object)的定义(包括表,视图,索引,簇,同义词,序列,过程,函数,包,触发器等等)
数据库为一
- 多线程编程一般规则
bijian1013
javathread多线程java多线程
如果两个工两个以上的线程都修改一个对象,那么把执行修改的方法定义为被同步的,如果对象更新影响到只读方法,那么只读方法也要定义成同步的。
不要滥用同步。如果在一个对象内的不同的方法访问的不是同一个数据,就不要将方法设置为synchronized的。
- 将文件或目录拷贝到另一个Linux系统的命令scp
bijian1013
linuxunixscp
一.功能说明 scp就是security copy,用于将文件或者目录从一个Linux系统拷贝到另一个Linux系统下。scp传输数据用的是SSH协议,保证了数据传输的安全,其格式如下: scp 远程用户名@IP地址:文件的绝对路径
- 【持久化框架MyBatis3五】MyBatis3一对多关联查询
bit1129
Mybatis3
以教员和课程为例介绍一对多关联关系,在这里认为一个教员可以叫多门课程,而一门课程只有1个教员教,这种关系在实际中不太常见,通过教员和课程是多对多的关系。
示例数据:
地址表:
CREATE TABLE ADDRESSES
(
ADDR_ID INT(11) NOT NULL AUTO_INCREMENT,
STREET VAR
- cookie状态判断引发的查找问题
bitcarter
formcgi
先说一下我们的业务背景:
1.前台将图片和文本通过form表单提交到后台,图片我们都做了base64的编码,并且前台图片进行了压缩
2.form中action是一个cgi服务
3.后台cgi服务同时供PC,H5,APP
4.后台cgi中调用公共的cookie状态判断方法(公共的,大家都用,几年了没有问题)
问题:(折腾两天。。。。)
1.PC端cgi服务正常调用,cookie判断没
- 通过Nginx,Tomcat访问日志(access log)记录请求耗时
ronin47
一、Nginx通过$upstream_response_time $request_time统计请求和后台服务响应时间
nginx.conf使用配置方式:
log_format main '$remote_addr - $remote_user [$time_local] "$request" ''$status $body_bytes_sent "$http_r
- java-67- n个骰子的点数。 把n个骰子扔在地上,所有骰子朝上一面的点数之和为S。输入n,打印出S的所有可能的值出现的概率。
bylijinnan
java
public class ProbabilityOfDice {
/**
* Q67 n个骰子的点数
* 把n个骰子扔在地上,所有骰子朝上一面的点数之和为S。输入n,打印出S的所有可能的值出现的概率。
* 在以下求解过程中,我们把骰子看作是有序的。
* 例如当n=2时,我们认为(1,2)和(2,1)是两种不同的情况
*/
private stati
- 看别人的博客,觉得心情很好
Cb123456
博客心情
以为写博客,就是总结,就和日记一样吧,同时也在督促自己。今天看了好长时间博客:
职业规划:
http://www.iteye.com/blogs/subjects/zhiyeguihua
android学习:
1.http://byandby.i
- [JWFD开源工作流]尝试用原生代码引擎实现循环反馈拓扑分析
comsci
工作流
我们已经不满足于仅仅跳跃一次,通过对引擎的升级,今天我测试了一下循环反馈模式,大概跑了200圈,引擎报一个溢出错误
在一个流程图的结束节点中嵌入一段方程,每次引擎运行到这个节点的时候,通过实时编译器GM模块,计算这个方程,计算结果与预设值进行比较,符合条件则跳跃到开始节点,继续新一轮拓扑分析,直到遇到
- JS常用的事件及方法
cwqcwqmax9
js
事件 描述
onactivate 当对象设置为活动元素时触发。
onafterupdate 当成功更新数据源对象中的关联对象后在数据绑定对象上触发。
onbeforeactivate 对象要被设置为当前元素前立即触发。
onbeforecut 当选中区从文档中删除之前在源对象触发。
onbeforedeactivate 在 activeElement 从当前对象变为父文档其它对象之前立即
- 正则表达式验证日期格式
dashuaifu
正则表达式IT其它java其它
正则表达式验证日期格式
function isDate(d){
var v = d.match(/^(\d{4})-(\d{1,2})-(\d{1,2})$/i);
if(!v) {
this.focus();
return false;
}
}
<input value="2000-8-8" onblu
- Yii CModel.rules() 方法 、validate预定义完整列表、以及说说验证
dcj3sjt126com
yii
public array rules () {return} array 要调用 validate() 时应用的有效性规则。 返回属性的有效性规则。声明验证规则,应重写此方法。 每个规则是数组具有以下结构:array('attribute list', 'validator name', 'on'=>'scenario name', ...validation
- UITextAttributeTextColor = deprecated in iOS 7.0
dcj3sjt126com
ios
In this lesson we used the key "UITextAttributeTextColor" to change the color of the UINavigationBar appearance to white. This prompts a warning "first deprecated in iOS 7.0."
Ins
- 判断一个数是质数的几种方法
EmmaZhao
Mathpython
质数也叫素数,是只能被1和它本身整除的正整数,最小的质数是2,目前发现的最大的质数是p=2^57885161-1【注1】。
判断一个数是质数的最简单的方法如下:
def isPrime1(n):
for i in range(2, n):
if n % i == 0:
return False
return True
但是在上面的方法中有一些冗余的计算,所以
- SpringSecurity工作原理小解读
坏我一锅粥
SpringSecurity
SecurityContextPersistenceFilter
ConcurrentSessionFilter
WebAsyncManagerIntegrationFilter
HeaderWriterFilter
CsrfFilter
LogoutFilter
Use
- JS实现自适应宽度的Tag切换
ini
JavaScripthtmlWebcsshtml5
效果体验:http://hovertree.com/texiao/js/3.htm
该效果使用纯JavaScript代码,实现TAB页切换效果,TAB标签根据内容自适应宽度,点击TAB标签切换内容页。
HTML文件代码:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml"
- Hbase Rest API : 数据查询
kane_xie
RESThbase
hbase(hadoop)是用java编写的,有些语言(例如python)能够对它提供良好的支持,但也有很多语言使用起来并不是那么方便,比如c#只能通过thrift访问。Rest就能很好的解决这个问题。Hbase的org.apache.hadoop.hbase.rest包提供了rest接口,它内嵌了jetty作为servlet容器。
启动命令:./bin/hbase rest s
- JQuery实现鼠标拖动元素移动位置(源码+注释)
明子健
jqueryjs源码拖动鼠标
欢迎讨论指正!
print.html代码:
<!DOCTYPE html>
<html>
<head>
<meta http-equiv=Content-Type content="text/html;charset=utf-8">
<title>发票打印</title>
&l
- Postgresql 连表更新字段语法 update
qifeifei
PostgreSQL
下面这段sql本来目的是想更新条件下的数据,可是这段sql却更新了整个表的数据。sql如下:
UPDATE tops_visa.visa_order
SET op_audit_abort_pass_date = now()
FROM
tops_visa.visa_order as t1
INNER JOIN tops_visa.visa_visitor as t2
ON t1.
- 将redis,memcache结合使用的方案?
tcrct
rediscache
公司架构上使用了阿里云的服务,由于阿里的kvstore收费相当高,打算自建,自建后就需要自己维护,所以就有了一个想法,针对kvstore(redis)及ocs(memcache)的特点,想自己开发一个cache层,将需要用到list,set,map等redis方法的继续使用redis来完成,将整条记录放在memcache下,即findbyid,save等时就memcache,其它就对应使用redi
- 开发中遇到的诡异的bug
wudixiaotie
bug
今天我们服务器组遇到个问题:
我们的服务是从Kafka里面取出数据,然后把offset存储到ssdb中,每个topic和partition都对应ssdb中不同的key,服务启动之后,每次kafka数据更新我们这边收到消息,然后存储之后就发现ssdb的值偶尔是-2,这就奇怪了,最开始我们是在代码中打印存储的日志,发现没什么问题,后来去查看ssdb的日志,才发现里面每次set的时候都会对同一个key