- 大模型量化
需要重新演唱
大模型量化
大模型量化是一种优化技术,旨在减少深度学习模型的内存占用和提高推理速度,同时尽量保持模型的精度。量化通过将模型中的浮点数权重和激活值转换为较低精度的表示形式来实现这一目标。以下是关于大模型量化的详细知识:目录1.量化基础1.1量化定义1.2量化优势1.3量化挑战2.量化方法2.1量化类型2.2量化粒度2.3量化算法3.量化实践3.1量化流程3.2量化工具4.量化案例4.1BERT量化4.2GPT-
- 深度学习之模型压缩三驾马车:模型剪枝、模型量化、知识蒸馏
king of code porter
深度学习深度学习剪枝人工智能
一、引言在深度学习中,我们训练出的神经网络往往非常庞大(比如像ResNet、YOLOv8、VisionTransformer),虽然精度很高,但“太重”了,运行起来很慢,占用内存大,不适合部署到手机、摄像头、机器人等资源受限的设备上。于是我们就想出了一个办法:给模型“瘦身”,让它又快又轻,还能保持不错的准确率。这就是——模型压缩!模型压缩有三种最常用的方法:模型剪枝模型量化知识蒸馏下面我们分别来通
- 海思Hi3516实现板端推理(附c++源码)
静_俭
海思Hi3516开发c++开发语言
提示:本文主要讲述利用SVPACL提供的API实现板端推理,用于实现图像的目标检测。源码下载链接在文末目录前言一、什么是SVPACL?二、接口调用流程2.1基本概念2.2调用流程2.3安装CANN2.4根据调用流程编写代码总结前言前文已经讲过了在Hi3516上实现读取摄像头数据和模型量化。实现以上任务后,接下来就可以实现板端的模型推理了。海思提供了SVPACL(SmartVisionProcess
- 【项目实训】【项目博客#06】大模型微调与推理优化(4.21-5.11)
elon_z
创新项目实训—哈哈哈萌霓队人工智能语言模型python
【项目实训】【项目博客#06】大模型微调与推理优化(4.21-5.11)文章目录【项目实训】【项目博客#06】大模型微调与推理优化(4.21-5.11)项目博客概述一、整体架构设计二、QLora量化微调技术2.1QLora技术原理2.2模型量化实现2.3训练数据格式化三、高效训练与参数优化3.1训练参数配置3.2模型合并与导出3.3多平台模型下载支持四、推理优化与部署4.1推理参数优化4.2量化推
- 大模型系列——大模型核心技术解析:参数量、量化、Zero版本与模型蒸馏
猫猫姐
大模型大模型人工智能
文章目录大模型系列——大模型核心技术解析:参数量、量化、Zero版本与模型蒸馏一、大模型的参数量:智能的"神经元"基础1.1参数量的定义与表示1.2参数量与模型性能的关系1.3参数量爆炸带来的挑战二、大模型量化技术:在精度与效率间起舞2.1量化的技术本质2.2量化方法的工程权衡2.3量化实战案例三、量化精度解析:Q2/Q4/Q8的迷宫选择3.1量化位宽的意义3.2不同量级的性能对比3.3选择策略的
- HarmonyOS Next模型量化:让端侧AI「轻装上阵,快如闪电」
harmonyos
宝子们!上次聊完模型量化基础,这次咱来点硬核实战!你知道吗?通过量化黑科技,能让100MB的模型缩小到10MB,还能在老旧手机上跑出「丝滑」体验!今天就带大家解锁HarmonyOSNext量化的「隐藏技能」,手把手教你打造「超轻量+高性能」的端侧AI!一、进阶量化技术:从「能用」到「好用」(一)混合精度量化:「精打细算」的智慧普通量化是「一刀切」全用低精度,而混合精度量化就像给模型「私人定制」——
- AI作画模型量化与剪枝技术实践
AI学长带你学AI
AI作画剪枝算法ai
AI作画模型量化与剪枝技术实践关键词:AI作画、模型量化、模型剪枝、StableDiffusion、神经网络压缩、推理优化、计算效率摘要:本文深入探讨AI作画模型的量化与剪枝技术实践。我们将从基础概念出发,详细分析StableDiffusion等主流AI作画模型的架构特点,系统讲解量化与剪枝的核心原理,提供完整的Python实现方案,并通过实际案例展示如何在不显著降低生成质量的前提下大幅提升模型效
- 【AI论文】PRIMA.CPP:在低资源日常家用集群上加速700亿参数级大型语言模型推理
东临碣石82
人工智能语言模型自然语言处理
摘要:DeepSeekR1和QwQ32B的出现突破了在家用设备上运行前沿大型语言模型(LLMs)的性能障碍。虽然消费类硬件越来越强大,模型量化也在不断改进,但现有的端侧解决方案仍然需要GPU集群、大RAM/VRAM和高带宽,远远超出了普通家庭集群的处理能力。本文介绍了prima.cpp,这是一个分布式推理系统,使用CPU/GPU、低RAM/VRAM、Wi-Fi和跨平台支持,在每天的家庭设备上运行7
- 讨论:单张4090能运行的最强开源大模型?
斯文by累
AIGCllama人工智能语言模型ai
Gemma2用最小参数量实现了超过三倍参数的模型能力,超过llama370B,特别中文翻译能力,比千问70B还要强。并且Gemma29B也非常出色,可以在6G显卡运行。不要迷信f16,参数大才是王道,越大参数模型量化损失越小,宁可要32B的量化也不要14B的f16精度。对于运行大型模型的最佳推理引擎,并非是llama.cpp或vllm,而是闲鱼。如果你考虑将4090显卡出售,无论换成哪种显卡,其性
- 极致压缩!PyTorch 2.2模型量化全解析:从原理到移动端部署实战(含性能对比与优化技巧)
游戏人生的NPC
PyTorch2.2深度学习进阶pytorch人工智能python
一、引言:AI模型小型化革命1.1移动端AI的现实挑战在智能终端设备上部署深度学习模型面临三大核心痛点:内存限制:某主流手机内存仅8GB,大型模型加载占用超30%算力瓶颈:移动端GPU算力仅为桌面级1/10,复杂模型推理延迟超500ms功耗问题:某人脸识别APP持续运行1小时耗电15%,严重影响续航1.2模型量化带来的突破PyTorch2.2提供的高级量化工具链,实现关键指标提升:指标原始FP32
- AIGC领域,文心一言的安全性与可靠性
AI大模型应用工坊
AI大模型开发实战AIGC文心一言ai
AIGC领域,文心一言的安全性与可靠性:从技术架构到工程实践的深度解析关键词:AIGC、文心一言、大模型安全、可靠性工程、内容安全、数据隐私、对抗鲁棒性摘要:本文围绕百度文心一言(ERNIEBot)在AIGC领域的安全性与可靠性展开深度技术解析。首先构建大模型安全技术体系,从数据安全、算法安全、应用安全三个维度拆解核心技术架构;其次通过数学模型量化可靠性指标,结合Python代码实现关键安全模块;
- 模型量化AWQ和GPTQ哪种效果好?
玩人工智能的辣条哥
人工智能大模型模型量化AWQGPTQ
环境:AWQGPTQ问题描述:模型量化AWQ和GPTQ哪种效果好?解决方案:关于AWQ(AdaptiveWeightQuantization)和GPTQ(GenerativePre-trainedTransformerQuantization)这两种量化方法的效果比较,具体优劣通常依赖于应用场景、模型结构和目标指标(如精度保持、推理速度、硬件支持等)。以下是两者的详细介绍与对比:1.基本介绍AWQ
- 深度神经网络模型量化
DuHz
dnn人工智能算法
深度神经网络模型量化模型量化的基本概念模型量化技术作为一种重要的模型压缩方法,在降低计算复杂度和提高执行效率方面显示出巨大价值。模型量化的核心思想是将模型参数和激活值从高精度表示(通常是32位浮点数FP32)转换为低精度表示(如8位整数INT8或更低位宽),从而减少模型存储空间并加速推理过程。从数学角度看,量化可以被视为一种映射函数QQQ,它将连续的浮点数值域R\mathcal{R}R映射到离散的
- 源2.0-M32大模型适配AutoGPTQ工具及量化&推理教程
源大模型
人工智能语言模型开源
AutoGTPQ简介AutoGPTQ是一个开源工具包,专注于简化大规模语言模型(LLMs)的量化过程。它基于高效的GPTQ算法开发,主要使用Python编程语言,并依托PyTorch框架来实现量化功能。AutoGPTQ的设计目标是为开发者和研究人员提供一个易于使用的API接口,即使对量化技术不太了解的用户也能轻松进行模型量化。通过采用仅量化权重的方式,该工具包在尽量减少性能损耗的情况下,缩减了模
- AI大模型的训练与优化
Jc.MJ
人工智能深度学习机器学习
AI大模型的训练与优化前言摘要1.计算资源分配与管理1.1分布式训练技术1.2异构计算策略1.3资源利用率监控与调优2.参数调优与正则化方法2.1学习率调度策略2.2正则化方法3.模型压缩与优化3.1模型剪枝(ModelPruning)3.2模型量化(ModelQuantization)3.3低秩近似(Low-RankApproximation)4.高效的训练算法4.1自然语言处理(NLP)4.2
- BaiChuan13B-GPTQ量化详解
三千院本院
大模型深度学习人工智能pytorch
知识要点:1、按照网上搜索的一些代码,如使用auto_gptq原生库进行训练后量化,可能会正常量化,但是在线推理时会出现如找不到bin文件或者tf文件,即模型权重文件,所以和网上大部分代码不同的地方在于,需要提前保存对应模型的权重文件,如果是BaiChuan13B,那么在进行模型量化前,对其进行保存代码如下:defsave_bin(pretrained_model_dir,quantized_mo
- 大模型量化AutoGPTQ代码配置
HuanB123
pythonlinuxubuntupycharm
针对大语言模型推理性能优化的研究取得了巨大的进展,如今我们不仅能够在高端显卡上完成大语言模型的推理,甚至在CPU和边缘设备上都可以轻松运行大语言模型。一系列的技术进步。在此记录我配置大模型量化的代码AutoGPTQ的过程中出现的问题和解决方案。代码链接:https://github.com/AutoGPTQ/AutoGPTQ其实最核心的在于安装auto-gptq这个包,但是直接pipinstall
- pytorch深度学习入门(15)之-使用onnx模型量化
码农呆呆
深度学习人工智能pytorch深度学习python神经网络
量化ONNX模型内容量化概述ONNX量化表示格式量化ONNX模型基于变压器的模型Transformer基于变压器的模型GPU上的量化常问问题量化概述ONNX运行时中的量化是指ONNX模型的8位线性量化。在量化期间,浮点值被映射到以下形式的8位量化空间:val_fp32=scale*(val_quantized-zero_point)scale是一个正实数,用于将浮点数映射到量化空间。计算方法如下:
- TinyML - 端侧智能革命及开源生态的深度指南
星源~
单片机边缘计算物联网人工智能
一、TinyML核心概念与技术价值 TinyML(TinyMachineLearning)是边缘计算与机器学习深度融合的新兴领域,旨在将轻量化机器学习模型部署于资源受限的嵌入式设备(如微控制器、传感器节点),实现本地化智能决策。其核心技术特征包括:1.硬件适配性针对ARMCortex-M、ESP32等微控制器优化模型,突破传统AI对GPU/云端的依赖。例如,通过模型量化(如8位整数运算)和结构剪
- “ 重磅揭秘:如何打造超高效的机器学习系统,释放大模型潜力?”
云边有个稻草人
热门文章机器学习人工智能大模型模型部署与推理机器学习系统的架构设计数据处理与管道设计大模型的训练与优化
目录引言一、大模型的定义与特点1.1大模型的定义1.2大模型的特点二、机器学习系统的架构设计2.1系统架构概述2.2数据处理与管道设计数据预处理与特征工程数据存储与分发2.3分布式计算与并行化2.4高效存储和模型管理三、大模型的训练与优化3.1训练大模型所需的资源3.2模型并行化技术3.3参数共享与模型压缩四、模型部署与推理4.1推理引擎的选择推理引擎的选择标准常见推理引擎4.2模型量化与剪枝模型
- 模型量化:8-bit/4-bit 量化、PTQ 与 QAT+案例
奥德彪123
嵌入式AIai深度学习边缘计算
模型量化:8-bit/4-bit量化、PTQ与QAT1.模型量化概述模型量化(Quantization)是一种减少模型存储大小和计算复杂度的方法,通常用于嵌入式设备和边缘计算。量化的主要目标是用更低的精度(如INT8或FP16)来表示模型权重和激活值,从而加速推理并降低存储需求。2.量化方法2.18-bit/4-bit量化(INT8、FP16)FP16(半精度浮点数)使用16-bit浮点数代替32
- 大模型之大模型压缩(量化、剪枝、蒸馏、低秩分解),推理(vllm)
大模型八哥
剪枝算法机器学习人工智能agiai大模型
目录前言一、模型量化(quantization)1.量化概念2.模型量化优点3.什么情况下应该/不应该使用模型量化4.落地挑战5.量化方法5.1量化训练(QuantAwareTraining,QAT)原理[伪量化节点(fakequant)](https://blog.csdn.net/qq_51175703/article/details/138320834?spm=1001.2014.3001.
- 【计算机视觉】目标检测:深度解析Detectron2:Meta开源目标检测与图像分割框架实战指南
白熊188
计算机视觉计算机视觉目标检测开源
深度解析Detectron2:Meta开源目标检测与图像分割框架实战指南技术架构与设计哲学核心设计理念关键技术组件环境配置与安装硬件建议配置详细安装步骤实战流程详解1.自定义数据集准备2.模型配置与训练3.模型评估与推理核心功能扩展1.自定义模型架构2.混合精度训练3.分布式训练常见问题与解决方案1.CUDA版本不匹配2.内存泄漏问题3.数据加载瓶颈性能优化技巧1.推理加速2.模型量化3.Tens
- 智能推荐系统性能优化:模型压缩与加速
AIGC应用创新大全
CSDNai
智能推荐系统性能优化:模型压缩与加速关键词:智能推荐系统、模型压缩、模型加速、知识蒸馏、模型量化、参数剪枝、低秩分解摘要:智能推荐系统已成为互联网产品的"流量引擎",但随着推荐模型从FM、DeepFM进化到Transformer、多模态大模型,参数量从百万级飙升至百亿级,计算复杂度呈指数级增长。本文将用"拆快递"式的通俗语言,结合生活案例与代码实战,带你拆解模型压缩与加速的核心技术(知识蒸馏/剪枝
- DeepSeek在物联网设备中的应用:通过轻量化模型实现本地化数据分析
程序边界
物联网数据分析struts
文章目录一、引言二、DeepSeek轻量化模型的技术原理1.模型量化2.模型剪枝3.动态精度调整三、本地化数据分析的实现路径1.硬件环境配置2.模型加载与推理3.数据预处理与后处理四、行业应用案例1.医疗智能穿戴设备2.工业设备预测性维护3.智能家居能耗优化五、性能优化与挑战1.性能优化2.技术挑战六、未来展望七、结论《巧用DeepSeek快速搞定数据分析》亮点内容简介作者简介目录随着物联网(Io
- 【DeepSeek】线上使用途径
行者无疆xcc
AIai
完整版R1:官方旗舰、性能巅峰在HuggingFace平台上,只有标有"DeepSeek-R1"的才是真正的"满血版"蒸馏版R1:轻量化设计、硬件友好通过知识蒸馏技术对大模型进行压缩,参数量大幅缩减至1.5亿至70亿(1.5B-70B)其底层架构融合了Qwen、Llama等开源模型的优势、硬件适配性更强、适合资源有限的场景。在HuggingFace带有Distill标签的均属于此类模型量化版通过牺
- Whisper 模型压缩技术:轻量级语音识别方案
AI学长带你学AI
CSDNwhisper语音识别人工智能ai
Whisper模型压缩技术:轻量级语音识别方案关键词:Whisper模型、模型压缩、轻量级语音识别、知识蒸馏、模型量化、剪枝优化、边缘部署摘要:本文深入探讨OpenAIWhisper模型的压缩技术体系,系统解析模型量化、结构剪枝、知识蒸馏等核心技术原理。通过数学建模分析压缩过程中的精度-效率平衡问题,结合PyTorch实战案例演示端到端压缩流程。重点阐述如何在保持语音识别精度的前提下,将Whisp
- (源码)TensorFlow自然语言处理深度解析:从理论到工业级实践
qq_16226939
人工智能tensorflow自然语言处理人工智能python深度学习bertnlp
本文是关于另一篇文章TensorFlow自然语言处理深度解析:从理论到工业级实践-CSDN博客的后续,以下是一个完整的、可执行的TensorFlowNLP代码实现,整合了文章中提到的核心技术点(注意力机制、BERT实现、混合精度训练、模型量化等),基于IMDB电影评论数据集构建文本分类系统:importtensorflowastfimporttensorflow_hubashubimportten
- 深度学习模型量化原理
ai产品老杨
深度学习人工智能python开发语言音视频安全
深度学习模型量化原理深度学习模型的量化(Quantization)是一种优化技术,它通过减少模型中权重和激活值的精度来减小模型大小和提高推理速度,同时尽量保持模型的准确度。模型在训练时,一般是以标准的float32类型(fp32)进行运算的,即使用32个bit来表示一个浮点数并进行浮点数运算。但是在边缘计算设备上进行推理时,处理器往往没有那么高的算力支持fp32的运算。此时,我们常常将模型量化为i
- 模型量化:轻量化你的深度学习模型
诸神缄默不语
人工智能学习笔记深度学习人工智能模型量化混合精度训练
诸神缄默不语-个人CSDN博文目录在深度学习领域,模型的性能通常与其大小成正比。然而,大型模型在部署时面临资源限制和高效率要求的挑战,尤其是在移动设备和边缘计算设备上。这时,模型量化就显得尤为重要。模型量化是指将神经网络的浮点算法转换为定点。文章目录1.什么是模型量化2.量化的主要类型1.量化阶段1.静态量化2.动态量化3.量化感知训练2.模型量化方案3.量化方法3.量化的挑战和应对策略3.1精度
- PHP如何实现二维数组排序?
IT独行者
二维数组PHP排序
二维数组在PHP开发中经常遇到,但是他的排序就不如一维数组那样用内置函数来的方便了,(一维数组排序可以参考本站另一篇文章【PHP中数组排序函数详解汇总】)。二维数组的排序需要我们自己写函数处理了,这里UncleToo给大家分享一个PHP二维数组排序的函数:
代码:
functionarray_sort($arr,$keys,$type='asc'){
$keysvalue= $new_arr
- 【Hadoop十七】HDFS HA配置
bit1129
hadoop
基于Zookeeper的HDFS HA配置主要涉及两个文件,core-site和hdfs-site.xml。
测试环境有三台
hadoop.master
hadoop.slave1
hadoop.slave2
hadoop.master包含的组件NameNode, JournalNode, Zookeeper,DFSZKFailoverController
- 由wsdl生成的java vo类不适合做普通java vo
darrenzhu
VOwsdlwebservicerpc
开发java webservice项目时,如果我们通过SOAP协议来输入输出,我们会利用工具从wsdl文件生成webservice的client端类,但是这里面生成的java data model类却不适合做为项目中的普通java vo类来使用,当然有一中情况例外,如果这个自动生成的类里面的properties都是基本数据类型,就没问题,但是如果有集合类,就不行。原因如下:
1)使用了集合如Li
- JAVA海量数据处理之二(BitMap)
周凡杨
java算法bitmapbitset数据
路漫漫其修远兮,吾将上下而求索。想要更快,就要深入挖掘 JAVA 基础的数据结构,从来分析出所编写的 JAVA 代码为什么把内存耗尽,思考有什么办法可以节省内存呢? 啊哈!算法。这里采用了 BitMap 思想。
首先来看一个实验:
指定 VM 参数大小: -Xms256m -Xmx540m
- java类型与数据库类型
g21121
java
很多时候我们用hibernate的时候往往并不是十分关心数据库类型和java类型的对应关心,因为大多数hbm文件是自动生成的,但有些时候诸如:数据库设计、没有生成工具、使用原始JDBC、使用mybatis(ibatIS)等等情况,就会手动的去对应数据库与java的数据类型关心,当然比较简单的数据类型即使配置错了也会很快发现问题,但有些数据类型却并不是十分常见,这就给程序员带来了很多麻烦。
&nb
- Linux命令
510888780
linux命令
系统信息
arch 显示机器的处理器架构(1)
uname -m 显示机器的处理器架构(2)
uname -r 显示正在使用的内核版本
dmidecode -q 显示硬件系统部件 - (SMBIOS / DMI)
hdparm -i /dev/hda 罗列一个磁盘的架构特性
hdparm -tT /dev/sda 在磁盘上执行测试性读取操作
cat /proc/cpuinfo 显示C
- java常用JVM参数
墙头上一根草
javajvm参数
-Xms:初始堆大小,默认为物理内存的1/64(<1GB);默认(MinHeapFreeRatio参数可以调整)空余堆内存小于40%时,JVM就会增大堆直到-Xmx的最大限制
-Xmx:最大堆大小,默认(MaxHeapFreeRatio参数可以调整)空余堆内存大于70%时,JVM会减少堆直到 -Xms的最小限制
-Xmn:新生代的内存空间大小,注意:此处的大小是(eden+ 2
- 我的spring学习笔记9-Spring使用工厂方法实例化Bean的注意点
aijuans
Spring 3
方法一:
<bean id="musicBox" class="onlyfun.caterpillar.factory.MusicBoxFactory"
factory-method="createMusicBoxStatic"></bean>
方法二:
- mysql查询性能优化之二
annan211
UNIONmysql查询优化索引优化
1 union的限制
有时mysql无法将限制条件从外层下推到内层,这使得原本能够限制部分返回结果的条件无法应用到内层
查询的优化上。
如果希望union的各个子句能够根据limit只取部分结果集,或者希望能够先排好序在
合并结果集的话,就需要在union的各个子句中分别使用这些子句。
例如 想将两个子查询结果联合起来,然后再取前20条记录,那么mys
- 数据的备份与恢复
百合不是茶
oraclesql数据恢复数据备份
数据的备份与恢复的方式有: 表,方案 ,数据库;
数据的备份:
导出到的常见命令;
参数 说明
USERID 确定执行导出实用程序的用户名和口令
BUFFER 确定导出数据时所使用的缓冲区大小,其大小用字节表示
FILE 指定导出的二进制文
- 线程组
bijian1013
java多线程threadjava多线程线程组
有些程序包含了相当数量的线程。这时,如果按照线程的功能将他们分成不同的类别将很有用。
线程组可以用来同时对一组线程进行操作。
创建线程组:ThreadGroup g = new ThreadGroup(groupName);
&nbs
- top命令找到占用CPU最高的java线程
bijian1013
javalinuxtop
上次分析系统中占用CPU高的问题,得到一些使用Java自身调试工具的经验,与大家分享。 (1)使用top命令找出占用cpu最高的JAVA进程PID:28174 (2)如下命令找出占用cpu最高的线程
top -Hp 28174 -d 1 -n 1
32694 root 20 0 3249m 2.0g 11m S 2 6.4 3:31.12 java
- 【持久化框架MyBatis3四】MyBatis3一对一关联查询
bit1129
Mybatis3
当两个实体具有1对1的对应关系时,可以使用One-To-One的进行映射关联查询
One-To-One示例数据
以学生表Student和地址信息表为例,每个学生都有都有1个唯一的地址(现实中,这种对应关系是不合适的,因为人和地址是多对一的关系),这里只是演示目的
学生表
CREATE TABLE STUDENTS
(
- C/C++图片或文件的读写
bitcarter
写图片
先看代码:
/*strTmpResult是文件或图片字符串
* filePath文件需要写入的地址或路径
*/
int writeFile(std::string &strTmpResult,std::string &filePath)
{
int i,len = strTmpResult.length();
unsigned cha
- nginx自定义指定加载配置
ronin47
进入 /usr/local/nginx/conf/include 目录,创建 nginx.node.conf 文件,在里面输入如下代码:
upstream nodejs {
server 127.0.0.1:3000;
#server 127.0.0.1:3001;
keepalive 64;
}
server {
liste
- java-71-数值的整数次方.实现函数double Power(double base, int exponent),求base的exponent次方
bylijinnan
double
public class Power {
/**
*Q71-数值的整数次方
*实现函数double Power(double base, int exponent),求base的exponent次方。不需要考虑溢出。
*/
private static boolean InvalidInput=false;
public static void main(
- Android四大组件的理解
Cb123456
android四大组件的理解
分享一下,今天在Android开发文档-开发者指南中看到的:
App components are the essential building blocks of an Android
- [宇宙与计算]涡旋场计算与拓扑分析
comsci
计算
怎么阐述我这个理论呢? 。。。。。。。。。
首先: 宇宙是一个非线性的拓扑结构与涡旋轨道时空的统一体。。。。
我们要在宇宙中寻找到一个适合人类居住的行星,时间非常重要,早一个刻度和晚一个刻度,这颗行星的
- 同一个Tomcat不同Web应用之间共享会话Session
cwqcwqmax9
session
实现两个WEB之间通过session 共享数据
查看tomcat 关于 HTTP Connector 中有个emptySessionPath 其解释如下:
If set to true, all paths for session cookies will be set to /. This can be useful for portlet specification impleme
- springmvc Spring3 MVC,ajax,乱码
dashuaifu
springjquerymvcAjax
springmvc Spring3 MVC @ResponseBody返回,jquery ajax调用中文乱码问题解决
Spring3.0 MVC @ResponseBody 的作用是把返回值直接写到HTTP response body里。具体实现AnnotationMethodHandlerAdapter类handleResponseBody方法,具体实
- 搭建WAMP环境
dcj3sjt126com
wamp
这里先解释一下WAMP是什么意思。W:windows,A:Apache,M:MYSQL,P:PHP。也就是说本文说明的是在windows系统下搭建以apache做服务器、MYSQL为数据库的PHP开发环境。
工欲善其事,必须先利其器。因为笔者的系统是WinXP,所以下文指的系统均为此系统。笔者所使用的Apache版本为apache_2.2.11-
- yii2 使用raw http request
dcj3sjt126com
http
Parses a raw HTTP request using yii\helpers\Json::decode()
To enable parsing for JSON requests you can configure yii\web\Request::$parsers using this class:
'request' =&g
- Quartz-1.8.6 理论部分
eksliang
quartz
转载请出自出处:http://eksliang.iteye.com/blog/2207691 一.概述
基于Quartz-1.8.6进行学习,因为Quartz2.0以后的API发生的非常大的变化,统一采用了build模式进行构建;
什么是quartz?
答:简单的说他是一个开源的java作业调度框架,为在 Java 应用程序中进行作业调度提供了简单却强大的机制。并且还能和Sp
- 什么是POJO?
gupeng_ie
javaPOJO框架Hibernate
POJO--Plain Old Java Objects(简单的java对象)
POJO是一个简单的、正规Java对象,它不包含业务逻辑处理或持久化逻辑等,也不是JavaBean、EntityBean等,不具有任何特殊角色和不继承或不实现任何其它Java框架的类或接口。
POJO对象有时也被称为Data对象,大量应用于表现现实中的对象。如果项目中使用了Hiber
- jQuery网站顶部定时折叠广告
ini
JavaScripthtmljqueryWebcss
效果体验:http://hovertree.com/texiao/jquery/4.htmHTML文件代码:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title>网页顶部定时收起广告jQuery特效 - HoverTree<
- Spring boot内嵌的tomcat启动失败
kane_xie
spring boot
根据这篇guide创建了一个简单的spring boot应用,能运行且成功的访问。但移植到现有项目(基于hbase)中的时候,却报出以下错误:
SEVERE: A child container failed during start
java.util.concurrent.ExecutionException: org.apache.catalina.Lif
- leetcode: sort list
michelle_0916
Algorithmlinked listsort
Sort a linked list in O(n log n) time using constant space complexity.
====analysis=======
mergeSort for singly-linked list
====code======= /**
* Definition for sin
- nginx的安装与配置,中途遇到问题的解决
qifeifei
nginx
我使用的是ubuntu13.04系统,在安装nginx的时候遇到如下几个问题,然后找思路解决的,nginx 的下载与安装
wget http://nginx.org/download/nginx-1.0.11.tar.gz
tar zxvf nginx-1.0.11.tar.gz
./configure
make
make install
安装的时候出现
- 用枚举来处理java自定义异常
tcrct
javaenumexception
在系统开发过程中,总少不免要自己处理一些异常信息,然后将异常信息变成友好的提示返回到客户端的这样一个过程,之前都是new一个自定义的异常,当然这个所谓的自定义异常也是继承RuntimeException的,但这样往往会造成异常信息说明不一致的情况,所以就想到了用枚举来解决的办法。
1,先创建一个接口,里面有两个方法,一个是getCode, 一个是getMessage
public
- erlang supervisor分析
wudixiaotie
erlang
当我们给supervisor指定需要创建的子进程的时候,会指定M,F,A,如果是simple_one_for_one的策略的话,启动子进程的方式是supervisor:start_child(SupName, OtherArgs),这种方式可以根据调用者的需求传不同的参数给需要启动的子进程的方法。和最初的参数合并成一个数组,A ++ OtherArgs。那么这个时候就有个问题了,既然参数不一致,那