- 欺诈文本分类检测(十四):GPTQ量化模型
沉下心来学鲁班
微调分类人工智能语言模型微调
1.引言量化的本质:通过将模型参数从高精度(例如32位)降低到低精度(例如8位),来缩小模型体积。本文将采用一种训练后量化方法GPTQ,对前文已经训练并合并过的模型文件进行量化,通过比较模型量化前后的评测指标,来测试量化对模型性能的影响。GPTQ的核心思想在于:将所有权重压缩到8位或4位量化中,通过最小化与原始权重的均方误差来实现。在推理过程中,它将动态地将权重解量化为float16,以提高性能,
- TensorRT模型量化实践
痛&快乐着
深度学习TensorRTc++深度学习
文章目录量化基本概念量化的方法方式1:trtexec(PTQ的一种)方式2:PTQ2.1pythononnx转trt2.2polygraphy工具:应该是对2.1量化过程的封装方式3:QAT(追求精度时推荐)使用TensorRT量化实践(C++版)使用TensorRT量化(python版)参考文献量化基本概念后训练量化PostTrainingQuantization(PTQ)量化过程仅仅通过离线推
- AI多模态实战教程:面壁智能MiniCPM-V多模态大模型问答交互、llama.cpp模型量化和推理
AIGCmagic社区
AI多模态人工智能交互llama
一、项目简介MiniCPM-V系列是专为视觉-语⾔理解设计的多模态⼤型语⾔模型(MLLMs),提供⾼质量的⽂本输出,已发布4个版本。1.1主要模型及特性(1)MiniCPM-Llama3-V2.5:参数规模:8B性能:超越GPT-4V-1106、GeminiPro、Qwen-VL-Max和Claude3,⽀持30+种语⾔,多模态对话,增强OCR和指令跟随能⼒。部署:量化、编译优化,可⾼效部署于端侧
- 【学习笔记】:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU
淮序_
笔记ubuntullamapython
学习笔记:Ubuntu22使用模型量化工具llama.cpp部署大模型CPU+GPU前言1下载并编译llama.cpp1.1git下载llama.cpp仓库源码1.2编译源码(make)1.2.1选择一:仅在CPU上运行1.2.2选择二:使用GPU,与cuBLAS编译2量化大模型2.1准备大模型2.2生成量化模型3加载模型3.1CPU3.2GPU4llama-cpp-python4.1安装llam
- 神经网络量化
掉毛学渣
神经网络
最近在做神经网络的端侧部署,在做端侧部署的时候,为了减少内存压力和加快推理速度,会将单精度(fp32)模型量化成int8或者fp16。量化计算原理以线性非对称量化为例,浮点数量化为有符号定点数的计算原理如下:xint=clamp([xs]+z;−2b−1,2b−1−1)x_{int}=clamp([\frac{x}{s}]+z;-2^{b-1},2^{b-1}-1)xint=clamp([sx]+
- 【深入了解PyTorch】模型优化和加速:PyTorch优化技术与库的应用
prince_zxill
Python实战教程人工智能与机器学习教程pytorch人工智能python
【深入了解PyTorch】模型优化和加速:PyTorch优化技术与库的应用模型优化和加速:PyTorch优化技术与库的应用模型剪枝(ModelPruning)模型量化(ModelQuantization)混合精度训练(MixedPrecisionTraining)总结模型优化和加速:PyTorch优化技术与库的应用在机器学习和深度学习领域,模型的性能和效率一直是研究和应用的重要关注点。随着模型越来
- 大模型量化技术原理-LLM.int8()、GPTQ
吃果冻不吐果冻皮
动手学大模型人工智能
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变得越来越大,因此,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。模型压缩主要分为如下几类:剪枝(Pruning)知识蒸馏(KnowledgeDistillation)量化之前也写过一些文章涉及大模型量化相关的内容。基于LLaMA-7B/Bloomz-7B1-mt复现开
- 想要自己的专属 AI 猫娘助理?教你使用 CPU 本地安装部署运行 ChatGLM-6B实现
恒TBOSH
GPT-4人工智能
今天介绍的ChatGLM-6B是一个清华开源的、支持中英双语的对话语言模型,基于GLM架构,具有62亿参数。关键的是结合模型量化技术,ChatGLM-6B可以本地安装部署运行在消费级的显卡上做模型的推理和训练(全量仅需14GB显存,INT4量化级别下最低只需6GB显存)虽然智商比不过openAI的ChatGPT模型,但是ChatGLM-6B是个在部署后可以完全本地运行,可以自己随意调参,几乎没有任
- Datawhale用免费GPU线上跑AI项目实践课程任务一学习笔记。部署ChatGLM3-6B模型
Hoogte-oile
学习笔记学习笔记人工智能自然语言处理
前言本篇文章为学习笔记,流程参照Datawhale用免费GPU线上跑AI项目实践课程任务,个人写此文章为记录学习历程和补充概念,并希望为后续的学习者开辟道路,没有侵权的意思。如有错误也希望大佬们批评指正。模型介绍ChatGLM-6B是一个开源的、支持中英双语问答的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行
- MIT-BEVFusion系列七--量化1_公共部分和激光雷达网络的量化
端木的AI探索屋
bevfusion自动驾驶算法python人工智能
目录官方readme的Notesptq.py量化模块初始化解析命令行参数加载配置信息创建dataset和dataloader构建模型模型量化Lidarbackbone量化稀疏卷积模块量化量化完的效果加法模块量化本文是Nvidia的英伟达发布的部署MIT-BEVFusion的方案官方readme的Notes这是是官方提到的量化时需要注意的三个方面:1)在模型进行前向时,使用融合BN层可以为模型带来更
- LMDeploy 大模型量化部署实践
查里王
人工智能
在浦语的MDeploy大模型量化部署实践课程中,可能需要完成的任务包括:大模型部署背景2、LMDeploy简介环境配置:这个部分你需要安装并设置相关的开发工具和库。这可能包括Python环境、LMDeploy库等等。你需要明确写出你使用的操作系统以及安装所有需要的软件和库的步骤。这些信息可以来自官方文档或者课程提供的指南。服务部署:这个部分你需要使用LMDeploy部署InternLM-Chat-
- 书生谱语-全链条开发工具
SatVision炼金士
NLPpython
书生·谱语全链条开发体系包含:数据、模型预训练、模型微调、模型量化部署、模型测评、模型场景应用全链路开发体系github链接通用大模型国内外大语言模型快速发展,涌现了大量的大语言模型以及一批创业公司深度学习模型的发展大模型利用多模态优势,利用一个模型实现以往多个模型的功能,使模型具有通用行,大模型较为经典的语言问答、图文理解、图文生成,集成了nlp、图像识别、图像生成等功能。书生开源体系之书生万卷
- (2024,低比特模型量化,模型微调,QuEST,TAQuant)QuEST:通过高效选择性微调进行低比特扩散模型量化
EDPJ
论文笔记人工智能计算机视觉
QuEST:Low-bitDiffusionModelQuantizationviaEfficientSelectiveFinetuning公和众和号:EDPJ(进Q交流群:922230617或加VX:CV_EDPJ进V交流群)目录0.摘要2.相关工作3.方法3.1.预备知识3.2.扩散模型的量化感知属性3.3.通过高效选择微调进行量化3.3.1.微调的充分性3.3.2.选择性微调进行量化4.实验
- 大语言模型量化方法对比:GPTQ、GGUF、AWQ
javastart
自然语言aigc大模型语言模型人工智能自然语言处理AIGCchatgpt
原文:大语言模型量化方法对比:GPTQ、GGUF、AWQ-知乎在过去的一年里,大型语言模型(llm)有了飞速的发展,在本文中,我们将探讨几种(量化)的方式,除此以外,还会介绍分片及不同的保存和压缩策略。说明:每次加载LLM示例后,建议清除缓存,以防止出现OutOfMemory错误。delmodel,tokenizer,pipeimporttorchtorch.cuda.empty_cache()如
- 书生·浦语大模型实战营汇总
灬烖灬
语言模型
书生·浦语大模型实战营第一课:书生·浦语大模型全链路开源体系视频,笔记第二课:浦语大模型趣味Demo视频,文档,笔记,作业第三课:基于InternLM和LangChain搭建你的知识库视频,文档,笔记,作业第四课:XTuner大模型单卡低成本微调实战视频1,视频2,文档,笔记,作业第五课:LMDeploy大模型量化部署实践视频,文档,笔记,作业第六课:OpenCompass大模型评测视频,文档,笔
- 大模型学习之书生·浦语大模型笔记汇总
uncle_ll
#书生·浦语大模型学习笔记大模型LLM浦语大模型
笔记汇总地址:大模型学习之书生·浦语大模型1——全链路开源体系大模型学习之书生·浦语大模型2——趣味Demo大模型学习之书生·浦语大模型3——基于InternLM和LangChain搭建知识库大模型学习之书生·浦语大模型4——基于Xtuner大模型微调实战大模型学习之书生·浦语大模型5——基于LMDeploy大模型量化部署实践大模型学习之书生·浦语大模型6——基于OpenCompass大模型评测
- 【书生·浦语大模型实战营】学习笔记目录
songyuc
学习笔记
【书生·浦语大模型实战营01】《书生·浦语大模型全链路开源体系》【书生·浦语大模型实战营02】《轻松玩转书生·浦语大模型趣味Demo》学习笔记【书生·浦语大模型实战营03】《基于InternLM和LangChain搭建你的知识库》学习笔记【书生·浦语大模型实战营04】《(4)XTuner大模型单卡低成本微调实战》学习笔记【书生·浦语大模型实战营05】《(5)LMDeploy大模型量化部署实践》学习
- 【LMDeploy 大模型量化部署实践】学习笔记
尘汐筠竹
学习笔记
参考学习教程【LMDeploy的量化和部署】理论作业使用LMDeploy以本地对话、网页Gradio、API服务中的一种方式部署InternLM-Chat-7B模型,生成300字的小故事本地对话API服务Client命令端口转发网页Gradio
- 显存不够又想用某个模型时的模型量化操作
鱼鱼9901
nlp人工智能linux深度学习
fromtransformersimportAutoTokenizer,AutoModelForCausalLM,BitsAndBytesConfigquantization_config=BitsAndBytesConfig(load_in_8bit=True)tokenizer=AutoTokenizer.from_pretrained(path,trust_remote_code=True)
- 书生·浦语大模型--第五节课笔记&作业--LMDeploy 大模型量化部署实践
李日音
InternLM大模型笔记
文章目录大模型部署背景LMDeploy简介动手实践创建环境服务部署在线转换离线转换TurboMind推理+API服务Gradio作为前端Demo演示TurboMind服务作为后端TurboMind推理作为后端作业大模型部署背景部署:将训练好的模型在特定软硬件环境中启动的过程挑战:存储问题LMDeploy简介针对英伟达平台量化可以节省显存,提升推理速度访问数据占用了大量时间有一部分很重要的参数不量化
- 书生·浦语大模型实战营-学习笔记5
Kinno酱
大模型学习笔记自然语言处理chatgpt人工智能
LMDeploy大模型量化部署实践大模型部署背景LMDeploy简介轻量化、推理引擎、服务核心功能-量化显存消耗变少了大语言模型是典型的访存密集型任务,因为它是decoder-by-decoder先把数据量化为INT4存起来,算的时候会反量化为FP16AWQ算法:观察到模型在推理过程中,只有一小部分参数是重要的参数,这部分参数不量化,其他的参数量化,这样保留了显存,性能也不会下降多少核心功能-推理
- 第五节课 LMDeploy 大模型量化部署实践(笔记)
幽径微澜
书生·浦语大模型实战营(笔记笔记python
来源:(5)LMDeploy大模型量化部署实践_哔哩哔哩_bilibili课程文档:https://github.com/InternLM/tutorial/blob/main/lmdeploy/lmdeploy.md1.大模型部署背景(1)模型部署定义将训练好的模型在特定软硬件环境中启动的过程,使模型能够接收输入并返回预测结果为了满足性能和效率的要求,常常对需要对模型进行优化,例如模型压缩和硬件
- 【书生·浦语大模型实战营第5课】LMDeploy大模型量化部署实践
A-Little-Boy
OpenMMLab人工智能
量化是一种以参数或****计算中间结果精度下降换空间节省(以及同时带来的性能提升)的策略。对模型进行量化。主要包括KVCache量化和模型参数量化。KVCache量化是指将逐Token(Decoding)生成过程中的上下文K和V中间结果进行INT8量化(计算时再反量化),以降低生成过程中的显存占用。计算minmax。主要思路是通过计算给定输入样本在每一层不同位置处计算结果的统计情况。对于Atten
- 【书生·浦语大模型实战营05】《(5)LMDeploy 大模型量化部署实践》学习笔记
songyuc
学习笔记
《(5)LMDeploy大模型量化部署实践》课程文档:《LMDeploy的量化和部署》1、大模型部署背景1.1模型部署定义将训练好的模型在特定软硬件环境中启动的过程,使模型能够接收输入并返回预测结果为了满足性能和效率的需求,常常需要对模型进行优化,例如模型压缩和硬件加速产品形态云端、边缘计算端、移动端1.2大模型特点内存开销巨大庞大的参数量。7B模型仅权重就需要14+G显存采用自回归生成token
- 【大模型量化】OliVe:硬件友好的A4W4量化方案
AI小白龙
大模型语言模型人工智能
摘要基于变压器的大型语言模型(LLM)随着模型规模的增长取得了巨大的成功。LLM的规模每两年增长240倍,这超过了硬件的进步,并使模型推理变得越来越昂贵。模型量化是缓解LLM规模和硬件容量之间不断扩大的差距的有前途的方法。之前的离群点感知量化方案采用稀疏编码技术将离群点从正常值中分离出来,该过程需要全局协调(例如,全局稀疏度协调列表)。这导致复杂的编码/解码硬件逻辑和额外的编配控制器,用于计算离群
- [C#]winform部署yolov8图像分类的openvino格式的模型
FL1623863129
C#YOLOopenvino人工智能
【官方框架地址】https://github.com/ultralytics/ultralytics【openvino介绍】OpenVINO是一个针对Intel硬件优化的开源工具包,用于优化和部署深度学习模型。以下是OpenVINO部署模型的主要优点:高性能:OpenVINO提供了一系列性能优化工具,如模型量化和剪枝等,可以在Intel硬件平台上实现高性能和低延迟的推理。多平台支持:OpenVIN
- 本地部署 ChatGLM-6b
sanyer
ChatGLM-6B是一个开源的、支持中英双语的对话语言模型。基于GeneralLanguageModel(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。从零环境开始配置1、安装pythonhttps://www.python.org/downloads/windows/2、下载代码gitclonehttps://gi
- 科普:大语言模型中的量化是什么意思?
AI明说
AIGC人工智能
大语言模型是指能够处理大规模文本数据的深度学习模型,例如GPT-3、BERT等。这些模型通常有数十亿甚至数百亿个参数,占用大量的存储空间和计算资源。为了提高这些模型的效率和可移植性,一种常用的方法是模型量化。1:什么是模型量化?模型量化是指将模型中的参数或者激活值从高精度(例如32位浮点数)转换为低精度(例如4位或者8位整数)的过程。这样可以减少模型的大小和运算复杂度,同时保持模型的性能。2:模型
- [BUG] cannot import name ‘quantize_qat‘ from ‘onnxruntime.quantization‘
犟小孩
BUGbug前端javascript
前言进行onnx模型量化出现了这个错误解决:卸载重装onnx和onnxruntime,会自动安装最新,由于版本更新取消了quantize_qat函数改为以下代码:fromonnxruntime.quantizationimportquantize_dynamic,QuantType,quantize_staticmodel_fp32='yolov5s.onnx'model_quant='yolov
- 大模型学习第五课
敲键盘的喵桑
学习
学习目标:LMDeploy大模型量化部署实践学习内容:大模型部署背景LMDeploy简介动手实践环节学习时间:20240115学习产出:1,大模型部署背景模型部署定义,产品形态,计算设备大模型特点内存开销巨大,动态shape,相对视觉模型,LLM结构简单大模型部署挑战设备,推理,服务大模型部署方案技术点,方案2,LMDeploy简介是LLM在英伟达设备上部署的全流程解决方案。包括模型轻量化,推理和
- PHP,安卓,UI,java,linux视频教程合集
cocos2d-x小菜
javaUIlinuxPHPandroid
╔-----------------------------------╗┆
- zookeeper admin 笔记
braveCS
zookeeper
Required Software
1) JDK>=1.6
2)推荐使用ensemble的ZooKeeper(至少3台),并run on separate machines
3)在Yahoo!,zk配置在特定的RHEL boxes里,2个cpu,2G内存,80G硬盘
数据和日志目录
1)数据目录里的文件是zk节点的持久化备份,包括快照和事务日
- Spring配置多个连接池
easterfly
spring
项目中需要同时连接多个数据库的时候,如何才能在需要用到哪个数据库就连接哪个数据库呢?
Spring中有关于dataSource的配置:
<bean id="dataSource" class="com.mchange.v2.c3p0.ComboPooledDataSource"
&nb
- Mysql
171815164
mysql
例如,你想myuser使用mypassword从任何主机连接到mysql服务器的话。
GRANT ALL PRIVILEGES ON *.* TO 'myuser'@'%'IDENTIFIED BY 'mypassword' WI
TH GRANT OPTION;
如果你想允许用户myuser从ip为192.168.1.6的主机连接到mysql服务器,并使用mypassword作
- CommonDAO(公共/基础DAO)
g21121
DAO
好久没有更新博客了,最近一段时间工作比较忙,所以请见谅,无论你是爱看呢还是爱看呢还是爱看呢,总之或许对你有些帮助。
DAO(Data Access Object)是一个数据访问(顾名思义就是与数据库打交道)接口,DAO一般在业
- 直言有讳
永夜-极光
感悟随笔
1.转载地址:http://blog.csdn.net/jasonblog/article/details/10813313
精华:
“直言有讳”是阿里巴巴提倡的一种观念,而我在此之前并没有很深刻的认识。为什么呢?就好比是读书时候做阅读理解,我喜欢我自己的解读,并不喜欢老师给的意思。在这里也是。我自己坚持的原则是互相尊重,我觉得阿里巴巴很多价值观其实是基本的做人
- 安装CentOS 7 和Win 7后,Win7 引导丢失
随便小屋
centos
一般安装双系统的顺序是先装Win7,然后在安装CentOS,这样CentOS可以引导WIN 7启动。但安装CentOS7后,却找不到Win7 的引导,稍微修改一点东西即可。
一、首先具有root 的权限。
即进入Terminal后输入命令su,然后输入密码即可
二、利用vim编辑器打开/boot/grub2/grub.cfg文件进行修改
v
- Oracle备份与恢复案例
aijuans
oracle
Oracle备份与恢复案例
一. 理解什么是数据库恢复当我们使用一个数据库时,总希望数据库的内容是可靠的、正确的,但由于计算机系统的故障(硬件故障、软件故障、网络故障、进程故障和系统故障)影响数据库系统的操作,影响数据库中数据的正确性,甚至破坏数据库,使数据库中全部或部分数据丢失。因此当发生上述故障后,希望能重构这个完整的数据库,该处理称为数据库恢复。恢复过程大致可以分为复原(Restore)与
- JavaEE开源快速开发平台G4Studio v5.0发布
無為子
我非常高兴地宣布,今天我们最新的JavaEE开源快速开发平台G4Studio_V5.0版本已经正式发布。
访问G4Studio网站
http://www.g4it.org
2013-04-06 发布G4Studio_V5.0版本
功能新增
(1). 新增了调用Oracle存储过程返回游标,并将游标映射为Java List集合对象的标
- Oracle显示根据高考分数模拟录取
百合不是茶
PL/SQL编程oracle例子模拟高考录取学习交流
题目要求:
1,创建student表和result表
2,pl/sql对学生的成绩数据进行处理
3,处理的逻辑是根据每门专业课的最低分线和总分的最低分数线自动的将录取和落选
1,创建student表,和result表
学生信息表;
create table student(
student_id number primary key,--学生id
- 优秀的领导与差劲的领导
bijian1013
领导管理团队
责任
优秀的领导:优秀的领导总是对他所负责的项目担负起责任。如果项目不幸失败了,那么他知道该受责备的人是他自己,并且敢于承认错误。
差劲的领导:差劲的领导觉得这不是他的问题,因此他会想方设法证明是他的团队不行,或是将责任归咎于团队中他不喜欢的那几个成员身上。
努力工作
优秀的领导:团队领导应该是团队成员的榜样。至少,他应该与团队中的其他成员一样努力工作。这仅仅因为他
- js函数在浏览器下的兼容
Bill_chen
jquery浏览器IEDWRext
做前端开发的工程师,少不了要用FF进行测试,纯js函数在不同浏览器下,名称也可能不同。对于IE6和FF,取得下一结点的函数就不尽相同:
IE6:node.nextSibling,对于FF是不能识别的;
FF:node.nextElementSibling,对于IE是不能识别的;
兼容解决方式:var Div = node.nextSibl
- 【JVM四】老年代垃圾回收:吞吐量垃圾收集器(Throughput GC)
bit1129
垃圾回收
吞吐量与用户线程暂停时间
衡量垃圾回收算法优劣的指标有两个:
吞吐量越高,则算法越好
暂停时间越短,则算法越好
首先说明吞吐量和暂停时间的含义。
垃圾回收时,JVM会启动几个特定的GC线程来完成垃圾回收的任务,这些GC线程与应用的用户线程产生竞争关系,共同竞争处理器资源以及CPU的执行时间。GC线程不会对用户带来的任何价值,因此,好的GC应该占
- J2EE监听器和过滤器基础
白糖_
J2EE
Servlet程序由Servlet,Filter和Listener组成,其中监听器用来监听Servlet容器上下文。
监听器通常分三类:基于Servlet上下文的ServletContex监听,基于会话的HttpSession监听和基于请求的ServletRequest监听。
ServletContex监听器
ServletContex又叫application
- 博弈AngularJS讲义(16) - 提供者
boyitech
jsAngularJSapiAngularProvider
Angular框架提供了强大的依赖注入机制,这一切都是有注入器(injector)完成. 注入器会自动实例化服务组件和符合Angular API规则的特殊对象,例如控制器,指令,过滤器动画等。
那注入器怎么知道如何去创建这些特殊的对象呢? Angular提供了5种方式让注入器创建对象,其中最基础的方式就是提供者(provider), 其余四种方式(Value, Fac
- java-写一函数f(a,b),它带有两个字符串参数并返回一串字符,该字符串只包含在两个串中都有的并按照在a中的顺序。
bylijinnan
java
public class CommonSubSequence {
/**
* 题目:写一函数f(a,b),它带有两个字符串参数并返回一串字符,该字符串只包含在两个串中都有的并按照在a中的顺序。
* 写一个版本算法复杂度O(N^2)和一个O(N) 。
*
* O(N^2):对于a中的每个字符,遍历b中的每个字符,如果相同,则拷贝到新字符串中。
* O(
- sqlserver 2000 无法验证产品密钥
Chen.H
sqlwindowsSQL ServerMicrosoft
在 Service Pack 4 (SP 4), 是运行 Microsoft Windows Server 2003、 Microsoft Windows Storage Server 2003 或 Microsoft Windows 2000 服务器上您尝试安装 Microsoft SQL Server 2000 通过卷许可协议 (VLA) 媒体。 这样做, 收到以下错误信息CD KEY的 SQ
- [新概念武器]气象战争
comsci
气象战争的发动者必须是拥有发射深空航天器能力的国家或者组织....
原因如下:
地球上的气候变化和大气层中的云层涡旋场有密切的关系,而维持一个在大气层某个层次
- oracle 中 rollup、cube、grouping 使用详解
daizj
oraclegroupingrollupcube
oracle 中 rollup、cube、grouping 使用详解 -- 使用oracle 样例表演示 转自namesliu
-- 使用oracle 的样列库,演示 rollup, cube, grouping 的用法与使用场景
--- ROLLUP , 为了理解分组的成员数量,我增加了 分组的计数 COUNT(SAL)
- 技术资料汇总分享
Dead_knight
技术资料汇总 分享
本人汇总的技术资料,分享出来,希望对大家有用。
http://pan.baidu.com/s/1jGr56uE
资料主要包含:
Workflow->工作流相关理论、框架(OSWorkflow、JBPM、Activiti、fireflow...)
Security->java安全相关资料(SSL、SSO、SpringSecurity、Shiro、JAAS...)
Ser
- 初一下学期难记忆单词背诵第一课
dcj3sjt126com
englishword
could 能够
minute 分钟
Tuesday 星期二
February 二月
eighteenth 第十八
listen 听
careful 小心的,仔细的
short 短的
heavy 重的
empty 空的
certainly 当然
carry 携带;搬运
tape 磁带
basket 蓝子
bottle 瓶
juice 汁,果汁
head 头;头部
- 截取视图的图片, 然后分享出去
dcj3sjt126com
OSObjective-C
OS 7 has a new method that allows you to draw a view hierarchy into the current graphics context. This can be used to get an UIImage very fast.
I implemented a category method on UIView to get the vi
- MySql重置密码
fanxiaolong
MySql重置密码
方法一:
在my.ini的[mysqld]字段加入:
skip-grant-tables
重启mysql服务,这时的mysql不需要密码即可登录数据库
然后进入mysql
mysql>use mysql;
mysql>更新 user set password=password('新密码') WHERE User='root';
mysq
- Ehcache(03)——Ehcache中储存缓存的方式
234390216
ehcacheMemoryStoreDiskStore存储驱除策略
Ehcache中储存缓存的方式
目录
1 堆内存(MemoryStore)
1.1 指定可用内存
1.2 驱除策略
1.3 元素过期
2 &nbs
- spring mvc中的@propertysource
jackyrong
spring mvc
在spring mvc中,在配置文件中的东西,可以在java代码中通过注解进行读取了:
@PropertySource 在spring 3.1中开始引入
比如有配置文件
config.properties
mongodb.url=1.2.3.4
mongodb.db=hello
则代码中
@PropertySource(&
- 重学单例模式
lanqiu17
单例Singleton模式
最近在重新学习设计模式,感觉对模式理解更加深刻。觉得有必要记下来。
第一个学的就是单例模式,单例模式估计是最好理解的模式了。它的作用就是防止外部创建实例,保证只有一个实例。
单例模式的常用实现方式有两种,就人们熟知的饱汉式与饥汉式,具体就不多说了。这里说下其他的实现方式
静态内部类方式:
package test.pattern.singleton.statics;
publ
- .NET开源核心运行时,且行且珍惜
netcome
java.net开源
背景
2014年11月12日,ASP.NET之父、微软云计算与企业级产品工程部执行副总裁Scott Guthrie,在Connect全球开发者在线会议上宣布,微软将开源全部.NET核心运行时,并将.NET 扩展为可在 Linux 和 Mac OS 平台上运行。.NET核心运行时将基于MIT开源许可协议发布,其中将包括执行.NET代码所需的一切项目——CLR、JIT编译器、垃圾收集器(GC)和核心
- 使用oscahe缓存技术减少与数据库的频繁交互
Everyday都不同
Web高并发oscahe缓存
此前一直不知道缓存的具体实现,只知道是把数据存储在内存中,以便下次直接从内存中读取。对于缓存的使用也没有概念,觉得缓存技术是一个比较”神秘陌生“的领域。但最近要用到缓存技术,发现还是很有必要一探究竟的。
缓存技术使用背景:一般来说,对于web项目,如果我们要什么数据直接jdbc查库好了,但是在遇到高并发的情形下,不可能每一次都是去查数据库,因为这样在高并发的情形下显得不太合理——
- Spring+Mybatis 手动控制事务
toknowme
mybatis
@Override
public boolean testDelete(String jobCode) throws Exception {
boolean flag = false;
&nbs
- 菜鸟级的android程序员面试时候需要掌握的知识点
xp9802
android
熟悉Android开发架构和API调用
掌握APP适应不同型号手机屏幕开发技巧
熟悉Android下的数据存储
熟练Android Debug Bridge Tool
熟练Eclipse/ADT及相关工具
熟悉Android框架原理及Activity生命周期
熟练进行Android UI布局
熟练使用SQLite数据库;
熟悉Android下网络通信机制,S