- 2.8 通过微调提升模型的准确度与效率-大模型ACP模拟题-真题
admin皮卡
阿里云大模型ACP-考试回忆人工智能javaai
单选题模型量化技术的主要优势是?A.显著提升模型精度B.减少显存占用和响应时间✅C.完全保留原始模型能力D.支持多模态任务扩展解析:量化通过降低参数精度减少资源消耗,但对精度影响较小(<2%)以下关于LoRA技术的描述错误的是?A.通过低秩矩阵间接影响模型行为B.会直接修改原始模型权重✅C.支持参数回退操作D.训练效率高于全参微调解析:LoRA通过添加额外参数而非修改原权重实现微调当训练过程中出现
- Transformer模型量化Quantization 笔记
Foolbird123
transformer人工智能深度学习
模型参数与显存占用计算基础为了详细说明模型的参数数量和每个参数在显存中占用的空间大小,我们以facebookOPT-6.7B模型为例。逐步推理计算过程:1.估计参数总量:OPT-6.7B模型指一个含有大约6.7Billion(67亿)个参数的模型。2.计算单个参数的显存占用:OPT-6.7B模型默认使用Float16,每个参数占用16位(即2字节)的显存。3.计算总显存占用=参数总量×每个参数的显
- DeepSeek模型量化
快乐非自愿
deepseek
技术背景大语言模型(LargeLanguageModel,LLM),可以通过量化(Quantization)操作来节约内存/显存的使用,并且降低了通讯开销,进而达到加速模型推理的效果。常见的就是把Float16的浮点数,转换成低精度的整数,例如Int4整数。最极限的情况下,可以把参数转化成二值Bool变量,也就是只有0和1,但是这种大幅度的量化有可能导致模型的推理效果不佳。常用的是,在70B以下的
- 一文介绍DeepSeek的模型蒸馏和模型量化技术
江湖人称麻花滕
人工智能架构chatgpt开源语言模型
1关于DeepSeek最近大火的DeepSeek给中国AI市场带来了很多热度,在DeepSeek的官网,也反复提及“模型蒸馏”技术。大模型的模型蒸馏和模型量化是当前人工智能领域中重要的研究方向,它们对于提高模型的部署效率、降低资源消耗具有重要意义。2模型蒸馏(ModelDistillation)2.1定义与原理模型蒸馏是一种知识迁移的方法旨在将知识从一个大型的教师模型(TeacherModel)转
- 大模型量化概述
AI领航者
人工智能ai大模型
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变得越来越大,因此,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。模型压缩主要分为如下几类:剪枝(Pruning)知识蒸馏(KnowledgeDistillation)量化Quantization)本系列将针对一些常见大模型量化方案(GPTQ、LLM.int8()、Sm
- 模型压缩-模型蒸馏、模型剪枝、模型量化
NLP的小Y
剪枝机器学习nlp语言模型
一、模型蒸馏1.1蒸馏简介知识蒸馏是指通过教师模型指导学生模型训练,通过蒸馏的方式让学生模型学习到教师模型的知识,最终使学生模型达到或媲美教师模型的准确度。在模型压缩中,教师模型是一个预训练好的复杂的模型,而学生模型是一个规模较小的模型。如分类任务中,由训练好的教师模型在相同的数据下,通过将教师模型对样本的预测值作为学生模型的预测目标,指导学生模型学习,这个预测值一般指教师网络输出的类概率。教师模
- LLM 中的 Matryoshka 量化:原理与优势
数据掘金
量化LLM
什么是Matryoshka量化?MatQuant如何改进LLM性能指标MatQuant对模型量化的影响每个比特宽度处理模型权重的特定部分,并且它们的组合输出被聚合以优化整体量化性能。折线图显示了基于每个FFN(前馈网络)参数的有效比特数的不同量化技术下Gemma-29B的任务性能。右下角(int2):尽管比特范围有限,但MatQuant(蓝色)实现了对量化桶的更好利用,从而提高了效率。基线(红色三
- HarmonyOS Next模型量化技术详解
harmonyos
本文旨在深入探讨华为鸿蒙HarmonyOSNext系统(截止目前API12)中模型量化相关技术细节,基于实际开发实践进行总结。主要作为技术分享与交流载体,难免错漏,欢迎各位同仁提出宝贵意见和问题,以便共同进步。本文为原创内容,任何形式的转载必须注明出处及原作者。一、模型量化基础概念与意义(一)概念解释在HarmonyOSNext的模型世界里,模型量化就像是把大尺寸的物品(高精度数据)换成小尺寸的等
- HarmonyOS Next模型量化技术与实践
harmonyos
本文旨在深入探讨华为鸿蒙HarmonyOSNext系统(截止目前API12)中的模型量化技术,基于实际开发实践进行总结。主要作为技术分享与交流载体,难免错漏,欢迎各位同仁提出宝贵意见和问题,以便共同进步。本文为原创内容,任何形式的转载必须注明出处及原作者。一、模型量化基础概念与意义(一)概念解释在HarmonyOSNext的模型世界里,模型量化就像是对模型进行一场“瘦身之旅”。简单来说,它是将模型
- 基于DeepSeek-R1的高效推理优化实战:从API封装到动态批处理
竹木有心
人工智能
引言在LLM(大语言模型)应用中,推理延迟和计算资源消耗是核心痛点。本文以DeepSeek-R1-7B模型为例,通过动态批处理、模型量化和异步推理三大技术,将单次推理耗时从2.3s降至0.4s,吞吐量提升6倍。所有代码均通过PyTorch2.1+验证。一、环境准备与模型加载优化1.1硬件感知的模型加载通过device_map自动分配计算资源,避免显存溢出fromtransformersimport
- deepseek本地部署会遇到哪些坑
skyksksksksks
AI个人杂记人工智能深度学习神经网络自然语言处理
在本地部署DeepSeek(或其他类似AI模型)时,可能会遇到以下常见问题及解决方案:1.硬件资源不足问题表现:GPU不兼容(如型号过旧)、显存不足(OOM错误)或CPU模式性能极低。解决方案:确认GPU支持CUDA,检查显存需求(如至少16GB显存)。使用nvidia-smi监控显存,通过降低batch_size或模型量化(如FP16/INT8)优化资源。CPU模式下考虑模型轻量化(如使用ONN
- LLM模型部署经验分享
lewis_kai
阿里云语言模型
LLM模型部署经验分享作者:大连理工大学李凯首先,你需要选择一个合适的部署平台,这可以是本地服务器、云服务提供商(如AWS、Azure、GoogleCloud等)、边缘设备或者特定的部署服务(如HuggingFaceHub)。在这里我使用的是魔搭平台的云服务器。然后下载你要部署的模型,这里下载的是通义千问。下载并部署玩模型后,我们还可以对模型转换和优化,该文会介绍基于OpenVINO的模型量化实践
- 0. 金融资产组合模型进化全图鉴
AI量金术师
金融资产组合模型进化论人工智能金融python大数据机器学习
目录0.前言0.1专栏主旨0.2本文主旨1.资产组合模型进化路线2.资产组合模型量化回测实现3.金融量化难点通俗解释0.前言0.1专栏主旨本专栏【金融资产组合模型进化论】以马科维茨资产组合模型为起点,带领读者一步步感受、体验金融资产组合模型的优化、进化的演变,目标是能让所有读者都能看明白的金融资产组合模型理论+因子理论+时序模型,使读者对金融资产有一个框架的、高纬度的认识。0.2本文主旨本文为记录
- QAT与PTQ模型量化方法的区别
old_power
计算机视觉模型量化深度学习计算机视觉
QAT(QuantizationAwareTraining)和PTQ(PostTrainingQuantization)是两种常见的模型量化方法,用于减少深度学习模型的计算和存储开销,同时尽量保持模型的性能。1.QAT(QuantizationAwareTraining)定义:QAT是在模型训练过程中引入量化操作,使模型在训练时就能感知到量化带来的影响,从而更好地适应量化后的精度损失。流程:在训练
- 清华和哈工大把大模型量化做到了1比特,把世界顶尖多模态大模型开源大模型量化个人电脑运行!机器人领域首个开源视觉-语言操作大模型,激发开源VLMs更大潜能,视 Mamba速度提升2.8倍,内存能省87%
代码讲故事
机器人智慧之心Mamba机器人量化大模型开源视觉VLMs
清华和哈工大把大模型量化做到了1比特,把世界顶尖多模态大模型开源大模型量化个人电脑运行!机器人领域首个开源视觉-语言操作大模型,激发开源VLMs更大潜能,视Mamba速度提升2.8倍,内存能省87%。清华和哈工大把大模型量化做到了1比特。在追求更高效的机器学习模型部署时,模型量化技术应运而生,它通过降低权重矩阵的位宽来显著减少大型语言模型的存储和计算需求。我们一般的双精度浮点型double是64位
- llama.cpp部署
法号:行颠
机器学习机器学习
llama.cpp介绍部署介绍大模型的研究分为训练和推理两个部分:训练的过程,实际上就是在寻找模型参数,使得模型的损失函数最小化;推理结果最优化的过程;训练完成之后,模型的参数就固定了,这时候就可以使用模型进行推理,对外提供服务。llama.cpp主要解决的是推理过程中的性能问题。主要有两点优化:llama.cpp使用的是C语言写的机器学习张量库ggmlllama.cpp提供了模型量化的工具计算类
- 欺诈文本分类检测(十四):GPTQ量化模型
沉下心来学鲁班
微调分类人工智能语言模型微调
1.引言量化的本质:通过将模型参数从高精度(例如32位)降低到低精度(例如8位),来缩小模型体积。本文将采用一种训练后量化方法GPTQ,对前文已经训练并合并过的模型文件进行量化,通过比较模型量化前后的评测指标,来测试量化对模型性能的影响。GPTQ的核心思想在于:将所有权重压缩到8位或4位量化中,通过最小化与原始权重的均方误差来实现。在推理过程中,它将动态地将权重解量化为float16,以提高性能,
- TensorRT模型量化实践
痛&快乐着
深度学习TensorRTc++深度学习
文章目录量化基本概念量化的方法方式1:trtexec(PTQ的一种)方式2:PTQ2.1pythononnx转trt2.2polygraphy工具:应该是对2.1量化过程的封装方式3:QAT(追求精度时推荐)使用TensorRT量化实践(C++版)使用TensorRT量化(python版)参考文献量化基本概念后训练量化PostTrainingQuantization(PTQ)量化过程仅仅通过离线推
- AI多模态实战教程:面壁智能MiniCPM-V多模态大模型问答交互、llama.cpp模型量化和推理
AIGCmagic社区
AI多模态人工智能交互llama
一、项目简介MiniCPM-V系列是专为视觉-语⾔理解设计的多模态⼤型语⾔模型(MLLMs),提供⾼质量的⽂本输出,已发布4个版本。1.1主要模型及特性(1)MiniCPM-Llama3-V2.5:参数规模:8B性能:超越GPT-4V-1106、GeminiPro、Qwen-VL-Max和Claude3,⽀持30+种语⾔,多模态对话,增强OCR和指令跟随能⼒。部署:量化、编译优化,可⾼效部署于端侧
- 【学习笔记】:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU
淮序_
笔记ubuntullamapython
学习笔记:Ubuntu22使用模型量化工具llama.cpp部署大模型CPU+GPU前言1下载并编译llama.cpp1.1git下载llama.cpp仓库源码1.2编译源码(make)1.2.1选择一:仅在CPU上运行1.2.2选择二:使用GPU,与cuBLAS编译2量化大模型2.1准备大模型2.2生成量化模型3加载模型3.1CPU3.2GPU4llama-cpp-python4.1安装llam
- 神经网络量化
掉毛学渣
神经网络
最近在做神经网络的端侧部署,在做端侧部署的时候,为了减少内存压力和加快推理速度,会将单精度(fp32)模型量化成int8或者fp16。量化计算原理以线性非对称量化为例,浮点数量化为有符号定点数的计算原理如下:xint=clamp([xs]+z;−2b−1,2b−1−1)x_{int}=clamp([\frac{x}{s}]+z;-2^{b-1},2^{b-1}-1)xint=clamp([sx]+
- 【深入了解PyTorch】模型优化和加速:PyTorch优化技术与库的应用
prince_zxill
Python实战教程人工智能与机器学习教程pytorch人工智能python
【深入了解PyTorch】模型优化和加速:PyTorch优化技术与库的应用模型优化和加速:PyTorch优化技术与库的应用模型剪枝(ModelPruning)模型量化(ModelQuantization)混合精度训练(MixedPrecisionTraining)总结模型优化和加速:PyTorch优化技术与库的应用在机器学习和深度学习领域,模型的性能和效率一直是研究和应用的重要关注点。随着模型越来
- 大模型量化技术原理-LLM.int8()、GPTQ
吃果冻不吐果冻皮
动手学大模型人工智能
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变得越来越大,因此,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。模型压缩主要分为如下几类:剪枝(Pruning)知识蒸馏(KnowledgeDistillation)量化之前也写过一些文章涉及大模型量化相关的内容。基于LLaMA-7B/Bloomz-7B1-mt复现开
- 想要自己的专属 AI 猫娘助理?教你使用 CPU 本地安装部署运行 ChatGLM-6B实现
恒TBOSH
GPT-4人工智能
今天介绍的ChatGLM-6B是一个清华开源的、支持中英双语的对话语言模型,基于GLM架构,具有62亿参数。关键的是结合模型量化技术,ChatGLM-6B可以本地安装部署运行在消费级的显卡上做模型的推理和训练(全量仅需14GB显存,INT4量化级别下最低只需6GB显存)虽然智商比不过openAI的ChatGPT模型,但是ChatGLM-6B是个在部署后可以完全本地运行,可以自己随意调参,几乎没有任
- Datawhale用免费GPU线上跑AI项目实践课程任务一学习笔记。部署ChatGLM3-6B模型
Hoogte-oile
学习笔记学习笔记人工智能自然语言处理
前言本篇文章为学习笔记,流程参照Datawhale用免费GPU线上跑AI项目实践课程任务,个人写此文章为记录学习历程和补充概念,并希望为后续的学习者开辟道路,没有侵权的意思。如有错误也希望大佬们批评指正。模型介绍ChatGLM-6B是一个开源的、支持中英双语问答的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行
- MIT-BEVFusion系列七--量化1_公共部分和激光雷达网络的量化
端木的AI探索屋
bevfusion自动驾驶算法python人工智能
目录官方readme的Notesptq.py量化模块初始化解析命令行参数加载配置信息创建dataset和dataloader构建模型模型量化Lidarbackbone量化稀疏卷积模块量化量化完的效果加法模块量化本文是Nvidia的英伟达发布的部署MIT-BEVFusion的方案官方readme的Notes这是是官方提到的量化时需要注意的三个方面:1)在模型进行前向时,使用融合BN层可以为模型带来更
- LMDeploy 大模型量化部署实践
查里王
人工智能
在浦语的MDeploy大模型量化部署实践课程中,可能需要完成的任务包括:大模型部署背景2、LMDeploy简介环境配置:这个部分你需要安装并设置相关的开发工具和库。这可能包括Python环境、LMDeploy库等等。你需要明确写出你使用的操作系统以及安装所有需要的软件和库的步骤。这些信息可以来自官方文档或者课程提供的指南。服务部署:这个部分你需要使用LMDeploy部署InternLM-Chat-
- 书生谱语-全链条开发工具
SatVision炼金士
NLPpython
书生·谱语全链条开发体系包含:数据、模型预训练、模型微调、模型量化部署、模型测评、模型场景应用全链路开发体系github链接通用大模型国内外大语言模型快速发展,涌现了大量的大语言模型以及一批创业公司深度学习模型的发展大模型利用多模态优势,利用一个模型实现以往多个模型的功能,使模型具有通用行,大模型较为经典的语言问答、图文理解、图文生成,集成了nlp、图像识别、图像生成等功能。书生开源体系之书生万卷
- (2024,低比特模型量化,模型微调,QuEST,TAQuant)QuEST:通过高效选择性微调进行低比特扩散模型量化
EDPJ
论文笔记人工智能计算机视觉
QuEST:Low-bitDiffusionModelQuantizationviaEfficientSelectiveFinetuning公和众和号:EDPJ(进Q交流群:922230617或加VX:CV_EDPJ进V交流群)目录0.摘要2.相关工作3.方法3.1.预备知识3.2.扩散模型的量化感知属性3.3.通过高效选择微调进行量化3.3.1.微调的充分性3.3.2.选择性微调进行量化4.实验
- 大语言模型量化方法对比:GPTQ、GGUF、AWQ
javastart
自然语言aigc大模型语言模型人工智能自然语言处理AIGCchatgpt
原文:大语言模型量化方法对比:GPTQ、GGUF、AWQ-知乎在过去的一年里,大型语言模型(llm)有了飞速的发展,在本文中,我们将探讨几种(量化)的方式,除此以外,还会介绍分片及不同的保存和压缩策略。说明:每次加载LLM示例后,建议清除缓存,以防止出现OutOfMemory错误。delmodel,tokenizer,pipeimporttorchtorch.cuda.empty_cache()如
- PHP如何实现二维数组排序?
IT独行者
二维数组PHP排序
二维数组在PHP开发中经常遇到,但是他的排序就不如一维数组那样用内置函数来的方便了,(一维数组排序可以参考本站另一篇文章【PHP中数组排序函数详解汇总】)。二维数组的排序需要我们自己写函数处理了,这里UncleToo给大家分享一个PHP二维数组排序的函数:
代码:
functionarray_sort($arr,$keys,$type='asc'){
$keysvalue= $new_arr
- 【Hadoop十七】HDFS HA配置
bit1129
hadoop
基于Zookeeper的HDFS HA配置主要涉及两个文件,core-site和hdfs-site.xml。
测试环境有三台
hadoop.master
hadoop.slave1
hadoop.slave2
hadoop.master包含的组件NameNode, JournalNode, Zookeeper,DFSZKFailoverController
- 由wsdl生成的java vo类不适合做普通java vo
darrenzhu
VOwsdlwebservicerpc
开发java webservice项目时,如果我们通过SOAP协议来输入输出,我们会利用工具从wsdl文件生成webservice的client端类,但是这里面生成的java data model类却不适合做为项目中的普通java vo类来使用,当然有一中情况例外,如果这个自动生成的类里面的properties都是基本数据类型,就没问题,但是如果有集合类,就不行。原因如下:
1)使用了集合如Li
- JAVA海量数据处理之二(BitMap)
周凡杨
java算法bitmapbitset数据
路漫漫其修远兮,吾将上下而求索。想要更快,就要深入挖掘 JAVA 基础的数据结构,从来分析出所编写的 JAVA 代码为什么把内存耗尽,思考有什么办法可以节省内存呢? 啊哈!算法。这里采用了 BitMap 思想。
首先来看一个实验:
指定 VM 参数大小: -Xms256m -Xmx540m
- java类型与数据库类型
g21121
java
很多时候我们用hibernate的时候往往并不是十分关心数据库类型和java类型的对应关心,因为大多数hbm文件是自动生成的,但有些时候诸如:数据库设计、没有生成工具、使用原始JDBC、使用mybatis(ibatIS)等等情况,就会手动的去对应数据库与java的数据类型关心,当然比较简单的数据类型即使配置错了也会很快发现问题,但有些数据类型却并不是十分常见,这就给程序员带来了很多麻烦。
&nb
- Linux命令
510888780
linux命令
系统信息
arch 显示机器的处理器架构(1)
uname -m 显示机器的处理器架构(2)
uname -r 显示正在使用的内核版本
dmidecode -q 显示硬件系统部件 - (SMBIOS / DMI)
hdparm -i /dev/hda 罗列一个磁盘的架构特性
hdparm -tT /dev/sda 在磁盘上执行测试性读取操作
cat /proc/cpuinfo 显示C
- java常用JVM参数
墙头上一根草
javajvm参数
-Xms:初始堆大小,默认为物理内存的1/64(<1GB);默认(MinHeapFreeRatio参数可以调整)空余堆内存小于40%时,JVM就会增大堆直到-Xmx的最大限制
-Xmx:最大堆大小,默认(MaxHeapFreeRatio参数可以调整)空余堆内存大于70%时,JVM会减少堆直到 -Xms的最小限制
-Xmn:新生代的内存空间大小,注意:此处的大小是(eden+ 2
- 我的spring学习笔记9-Spring使用工厂方法实例化Bean的注意点
aijuans
Spring 3
方法一:
<bean id="musicBox" class="onlyfun.caterpillar.factory.MusicBoxFactory"
factory-method="createMusicBoxStatic"></bean>
方法二:
- mysql查询性能优化之二
annan211
UNIONmysql查询优化索引优化
1 union的限制
有时mysql无法将限制条件从外层下推到内层,这使得原本能够限制部分返回结果的条件无法应用到内层
查询的优化上。
如果希望union的各个子句能够根据limit只取部分结果集,或者希望能够先排好序在
合并结果集的话,就需要在union的各个子句中分别使用这些子句。
例如 想将两个子查询结果联合起来,然后再取前20条记录,那么mys
- 数据的备份与恢复
百合不是茶
oraclesql数据恢复数据备份
数据的备份与恢复的方式有: 表,方案 ,数据库;
数据的备份:
导出到的常见命令;
参数 说明
USERID 确定执行导出实用程序的用户名和口令
BUFFER 确定导出数据时所使用的缓冲区大小,其大小用字节表示
FILE 指定导出的二进制文
- 线程组
bijian1013
java多线程threadjava多线程线程组
有些程序包含了相当数量的线程。这时,如果按照线程的功能将他们分成不同的类别将很有用。
线程组可以用来同时对一组线程进行操作。
创建线程组:ThreadGroup g = new ThreadGroup(groupName);
&nbs
- top命令找到占用CPU最高的java线程
bijian1013
javalinuxtop
上次分析系统中占用CPU高的问题,得到一些使用Java自身调试工具的经验,与大家分享。 (1)使用top命令找出占用cpu最高的JAVA进程PID:28174 (2)如下命令找出占用cpu最高的线程
top -Hp 28174 -d 1 -n 1
32694 root 20 0 3249m 2.0g 11m S 2 6.4 3:31.12 java
- 【持久化框架MyBatis3四】MyBatis3一对一关联查询
bit1129
Mybatis3
当两个实体具有1对1的对应关系时,可以使用One-To-One的进行映射关联查询
One-To-One示例数据
以学生表Student和地址信息表为例,每个学生都有都有1个唯一的地址(现实中,这种对应关系是不合适的,因为人和地址是多对一的关系),这里只是演示目的
学生表
CREATE TABLE STUDENTS
(
- C/C++图片或文件的读写
bitcarter
写图片
先看代码:
/*strTmpResult是文件或图片字符串
* filePath文件需要写入的地址或路径
*/
int writeFile(std::string &strTmpResult,std::string &filePath)
{
int i,len = strTmpResult.length();
unsigned cha
- nginx自定义指定加载配置
ronin47
进入 /usr/local/nginx/conf/include 目录,创建 nginx.node.conf 文件,在里面输入如下代码:
upstream nodejs {
server 127.0.0.1:3000;
#server 127.0.0.1:3001;
keepalive 64;
}
server {
liste
- java-71-数值的整数次方.实现函数double Power(double base, int exponent),求base的exponent次方
bylijinnan
double
public class Power {
/**
*Q71-数值的整数次方
*实现函数double Power(double base, int exponent),求base的exponent次方。不需要考虑溢出。
*/
private static boolean InvalidInput=false;
public static void main(
- Android四大组件的理解
Cb123456
android四大组件的理解
分享一下,今天在Android开发文档-开发者指南中看到的:
App components are the essential building blocks of an Android
- [宇宙与计算]涡旋场计算与拓扑分析
comsci
计算
怎么阐述我这个理论呢? 。。。。。。。。。
首先: 宇宙是一个非线性的拓扑结构与涡旋轨道时空的统一体。。。。
我们要在宇宙中寻找到一个适合人类居住的行星,时间非常重要,早一个刻度和晚一个刻度,这颗行星的
- 同一个Tomcat不同Web应用之间共享会话Session
cwqcwqmax9
session
实现两个WEB之间通过session 共享数据
查看tomcat 关于 HTTP Connector 中有个emptySessionPath 其解释如下:
If set to true, all paths for session cookies will be set to /. This can be useful for portlet specification impleme
- springmvc Spring3 MVC,ajax,乱码
dashuaifu
springjquerymvcAjax
springmvc Spring3 MVC @ResponseBody返回,jquery ajax调用中文乱码问题解决
Spring3.0 MVC @ResponseBody 的作用是把返回值直接写到HTTP response body里。具体实现AnnotationMethodHandlerAdapter类handleResponseBody方法,具体实
- 搭建WAMP环境
dcj3sjt126com
wamp
这里先解释一下WAMP是什么意思。W:windows,A:Apache,M:MYSQL,P:PHP。也就是说本文说明的是在windows系统下搭建以apache做服务器、MYSQL为数据库的PHP开发环境。
工欲善其事,必须先利其器。因为笔者的系统是WinXP,所以下文指的系统均为此系统。笔者所使用的Apache版本为apache_2.2.11-
- yii2 使用raw http request
dcj3sjt126com
http
Parses a raw HTTP request using yii\helpers\Json::decode()
To enable parsing for JSON requests you can configure yii\web\Request::$parsers using this class:
'request' =&g
- Quartz-1.8.6 理论部分
eksliang
quartz
转载请出自出处:http://eksliang.iteye.com/blog/2207691 一.概述
基于Quartz-1.8.6进行学习,因为Quartz2.0以后的API发生的非常大的变化,统一采用了build模式进行构建;
什么是quartz?
答:简单的说他是一个开源的java作业调度框架,为在 Java 应用程序中进行作业调度提供了简单却强大的机制。并且还能和Sp
- 什么是POJO?
gupeng_ie
javaPOJO框架Hibernate
POJO--Plain Old Java Objects(简单的java对象)
POJO是一个简单的、正规Java对象,它不包含业务逻辑处理或持久化逻辑等,也不是JavaBean、EntityBean等,不具有任何特殊角色和不继承或不实现任何其它Java框架的类或接口。
POJO对象有时也被称为Data对象,大量应用于表现现实中的对象。如果项目中使用了Hiber
- jQuery网站顶部定时折叠广告
ini
JavaScripthtmljqueryWebcss
效果体验:http://hovertree.com/texiao/jquery/4.htmHTML文件代码:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title>网页顶部定时收起广告jQuery特效 - HoverTree<
- Spring boot内嵌的tomcat启动失败
kane_xie
spring boot
根据这篇guide创建了一个简单的spring boot应用,能运行且成功的访问。但移植到现有项目(基于hbase)中的时候,却报出以下错误:
SEVERE: A child container failed during start
java.util.concurrent.ExecutionException: org.apache.catalina.Lif
- leetcode: sort list
michelle_0916
Algorithmlinked listsort
Sort a linked list in O(n log n) time using constant space complexity.
====analysis=======
mergeSort for singly-linked list
====code======= /**
* Definition for sin
- nginx的安装与配置,中途遇到问题的解决
qifeifei
nginx
我使用的是ubuntu13.04系统,在安装nginx的时候遇到如下几个问题,然后找思路解决的,nginx 的下载与安装
wget http://nginx.org/download/nginx-1.0.11.tar.gz
tar zxvf nginx-1.0.11.tar.gz
./configure
make
make install
安装的时候出现
- 用枚举来处理java自定义异常
tcrct
javaenumexception
在系统开发过程中,总少不免要自己处理一些异常信息,然后将异常信息变成友好的提示返回到客户端的这样一个过程,之前都是new一个自定义的异常,当然这个所谓的自定义异常也是继承RuntimeException的,但这样往往会造成异常信息说明不一致的情况,所以就想到了用枚举来解决的办法。
1,先创建一个接口,里面有两个方法,一个是getCode, 一个是getMessage
public
- erlang supervisor分析
wudixiaotie
erlang
当我们给supervisor指定需要创建的子进程的时候,会指定M,F,A,如果是simple_one_for_one的策略的话,启动子进程的方式是supervisor:start_child(SupName, OtherArgs),这种方式可以根据调用者的需求传不同的参数给需要启动的子进程的方法。和最初的参数合并成一个数组,A ++ OtherArgs。那么这个时候就有个问题了,既然参数不一致,那