- 企业级知识库私有化部署:腾讯混元+云容器服务TKE实战
大熊计算机
#腾讯云语言模型
1.背景需求分析在金融、医疗等数据敏感行业,企业需要构建完全自主可控的知识库系统。本文以某证券机构智能投研系统为原型,演示如何基于腾讯混元大模型与TKE容器服务实现:千亿级参数模型的私有化部署金融领域垂直场景微调高并发低延迟推理服务全链路安全合规方案1.1典型技术挑战#性能基准测试数据(单位:QPS)|场景|裸机部署|容器化部署|优化后||--------------------|--------
- 潜入思维的海洋:SoftCoT++如何让语言模型更聪明
步子哥
智能涌现语言模型人工智能自然语言处理
在人工智能的浩瀚星空下,大型语言模型(LLMs)如同一颗颗璀璨的恒星,照亮了从文本生成到复杂推理的广阔领域。然而,这些模型在推理任务中往往像是在迷雾中航行——尽管它们能抵达目的地,却常常因为固定的思维路径而错过更优的航线。2025年5月,一篇题为《SoftCoT++:Test-TimeScalingwithSoftChain-of-ThoughtReasoning》的论文如同一盏明灯,照亮了如何让
- CBAP50技术手册】#47 Use Cases & Scenarios(用例与场景):BA(业务分析师)让需求“活起来”的剧本写作术
郭菁菁
BA业务分析需求分析
把需求演绎成系统与用户的真实互动剧本。在一次项目需求评审会上,开发组沉默不语,业务方焦躁不安。写在文档里的需求,似乎谁都“看懂了”,但又好像“谁都没真正理解”。直到我用一组UseCases&Scenarios把冷冰冰的需求变成了一场场“用户剧本”,大家才终于“看见”了系统该如何运作,沟通顿时顺畅了。UseCases和Scenarios,就像是BA的“剧作笔”——把抽象需求,演绎成生动细节。什么是U
- DeepSeek-V3混合精度推理(FP8/BF16)原理与实战全解析
CarlowZJ
DEEPSEEK-V3
目录摘要混合精度推理的背景与意义DeepSeek-V3混合精度架构设计FP8与BF16核心原理详解混合精度推理核心实现实践案例:FP8权重转BF16与推理部署常见问题与注意事项最佳实践与扩展建议总结参考资料附录:可视化图表1.摘要本文系统梳理DeepSeek-V3在FP8/BF16混合精度推理方面的架构设计与工程实现,结合源码与实际案例,帮助开发者深入理解其混合精度推理原理、工程落地方法与性能优化
- C++day02(基本数据类型)
有点。
#C++少儿c++
学习目标初始C++基本数据类型整数与加减乘除学习变量与赋值语句老师要求你每天做题之后记录做题总共用了多少秒。但是计时器只能显示分钟+秒的格式。你有办法编写程序进行时间换算吗?想知道计算机如何表示数值吗?计算机又能进行哪些计算呢?玩过身份推理桌游吗?这类桌游中的角色有不同的身份。比如狼人杀中有狼人、平民、预言家、女巫等等不同身份的身份卡。编程语言的数据也有不同的类型,比如整数类型、字符类型、浮点数类
- 小模型和大模型的区别在哪里?
我非常不满意
人工智能深度学习机器学习
小模型和大模型在多个方面存在显著差异,主要体现在参数量、训练与运行速度、处理数据的准确性及应用场景上。参数量:大模型通常包含数十亿甚至数万亿个参数,这使得它们能够捕捉更复杂的数据模式和关系。相比之下,小模型的参数数量相对较少,通常在几百万到几千万之间,这限制了它们处理复杂任务的能力,但同时也意味着它们可以更快地训练和部署。训练与运行速度:由于参数数量的差异,小模型的训练和推理速度通常比大模型快。这
- 【PyTorch】保存和加载模型
Jackilina_Stone
#DeepLearningpytorchpython人工智能深度学习模型
目录■state_dict■用于推理的保存和加载模型保存/加载state_dict保存/加载整个模型以TorchScript格式导出/加载模型■保存和加载用于推断和/或恢复训练的一般检查点(Checkpoint)■将多个模型保存在一个文件中■使用来自不同模型的参数进行暖启动(Warmstarting)模型■跨设备保存和加载模型保存在GPU,加载到CPU保存在GPU,加载到GPU保存在CPU,加载到
- PyTorch教程:LSTM语言模型的动态量化技术解析
怀灏其Prudent
PyTorch教程:LSTM语言模型的动态量化技术解析tutorialsPyTorchtutorials.项目地址:https://gitcode.com/gh_mirrors/tuto/tutorials前言在深度学习模型部署过程中,模型大小和推理速度是两个至关重要的考量因素。PyTorch提供的动态量化技术能够在不显著影响模型准确率的前提下,有效减小模型体积并提升推理速度。本文将深入解析如何对
- 蔡高厅老师 - 高等数学-阅读笔记 - 01 - 前言、函数【视频第01、02、03、】
Franklin
数学线性代数
高等数学前言;196学时,每周6课主要内容:上册一元、多元函数数,微分学、积分学、矢量代数、空间解析几何无穷级数、微分方程,多元函数微分学和积分学目的:高等数学3基:1高等数学的基本知识2高度数学的基本理论3高等数学的基本计算方法提高数学素养培养:抽象思维、逻辑推理、辩证的思想方法、空间想象能力、分析问题、解决问题的能力为进一步学习打下必要的学习基础和初等数学不同,研究的不是常量而是变量,变量和变
- 大模型量化
需要重新演唱
大模型量化
大模型量化是一种优化技术,旨在减少深度学习模型的内存占用和提高推理速度,同时尽量保持模型的精度。量化通过将模型中的浮点数权重和激活值转换为较低精度的表示形式来实现这一目标。以下是关于大模型量化的详细知识:目录1.量化基础1.1量化定义1.2量化优势1.3量化挑战2.量化方法2.1量化类型2.2量化粒度2.3量化算法3.量化实践3.1量化流程3.2量化工具4.量化案例4.1BERT量化4.2GPT-
- onnx-web + yolov8n 在视频流里做推理
CHEN_RUI_2200
人工智能YOLO
顺着我上一篇文章使用onnxruntime-web运行yolov8-nano推理继续说,有朋友在问能不能接入视频流动,实时去识别物品。首先使用getUserMedia获取摄像头视频流getUserMediaAPI可以访问设备的摄像头和麦克风。你可以使用这个API获取视频流,并将其显示在页面上的标签中。注意事项:浏览器支持:getUserMedia被现代浏览器大多数支持,但在一些旧版浏览器上可能不兼
- 【大模型学习 | 量化】pytorch量化基础知识(1)
九年义务漏网鲨鱼
算法学习pytorch人工智能
pytorch量化[!note]官方定义:performingcomputationsandstoringtensorsatlowerbitwidthsthanfloatingpointprecision.支持INT8量化,可以降低4倍的模型大小以及显存需求,加速2-4倍的推理速度通俗理解:降低权重和激活值的精度(FP32→INT8),从而提高模型大小以及显存需求。一、前置知识1.1算子融合将多个
- 配置不当的MCP服务器使AI代理系统面临入侵风险
FreeBuf-
服务器人工智能运维
风险概述:默认配置暴露命令执行漏洞数百台用于连接大语言模型(LLM)与第三方服务、数据源及工具的模型上下文协议(ModelContextProtocol,MCP)服务器存在默认配置缺陷,可能导致用户面临未授权的操作系统命令执行等风险。随着代理型AI(AgenticAI)的兴起,MCP服务器正迅速成为增强AI模型推理上下文的关键工具。但安全研究人员警告,大量公开共享的MCP服务器存在不安全配置,攻击
- 昇腾AI生态组件全解析:与英伟达生态的深度对比
随着人工智能技术的快速发展,国产AI芯片的崛起正在改变全球计算产业的格局。华为昇腾(Ascend)系列AI处理器凭借自主创新的达芬奇架构,构建了完整的软硬件生态体系。本文将从核心组件对比、显卡性能对标两个维度,深入剖析昇腾与英伟达(NVIDIA)生态的技术差异与适用场景。一、昇腾核心组件与英伟达对标分析1.推理引擎:MindIEvsTensorRT昇腾MindIE1.0.0基于昇腾芯片的深度学习推
- 暴雨携AMD ,实现大规模 AI 和 Agentic 工作负载性能突破
BAOYUCompany
服务器
暴雨宣布推出AMDInstinct™MI355XGPU,为客户提供更多选择。与上一代相比,大规模AI训练和推理工作负载的性价比将提高超过两倍。暴雨将推出由新的AMDInstinct处理器以及多达131,072个MI355XGPU提供支持的AI集群,助力客户大规模构建、训练和推理AI。暴雨公司执行副总裁表示:为了支持在云端运行高要求AI工作负载的客户,我们致力于提供广泛的AI基础设施产品。AMDIn
- LLM推理入门实践:基于 Hugging Face Transformers 和 vLLM
ctrl A_ctrl C_ctrl V
#大模型llmpython自然语言处理人工智能
文章目录1.HuggingFace模型下载2.HuggingFaceTransformers库模型推理3.关于prompt的组成:system、user、assistant4.vLLM模型推理vLLM的多卡推理踩坑1.HuggingFace模型下载模型在HuggingFace下载,如果下载速度太慢,可以在HuggingFace镜像网站或ModelScope进行下载。使用HuggingFace的下载
- vLLM(Virtual Large Language Model) 框架:一个开源的高性能推理和服务的框架
彬彬侠
大模型vLLM高性能推理PagedAttentionpython大模型
vLLM(VirtualLargeLanguageModel)是一个开源的高性能推理和服务的框架,专为大语言模型(LLM)设计,旨在优化推理速度、内存效率和吞吐量。它通过创新的内存管理和调度技术(如PagedAttention)解决了传统LLM推理中的内存瓶颈和性能问题,广泛应用于对话系统、文本生成、实时翻译等场景。以下是对vLLM框架的详细介绍,包括其核心特性、工作原理、架构、优势、局限性以及使
- DeepSeek 部署中的常见问题及解决方案:从环境配置到性能优化的全流程指南
慌ZHANG
人工智能人工智能
个人主页:慌ZHANG-CSDN博客期待您的关注一、引言:大模型部署的现实挑战随着大模型技术的发展,以DeepSeek为代表的开源中文大模型,逐渐成为企业与开发者探索私有化部署、垂直微调、模型服务化的重要选择。然而,模型部署的过程并非“一键启动”那么简单。从环境依赖、资源限制,到推理性能和服务稳定性,开发者往往会遇到一系列“踩坑点”。本文将系统梳理DeepSeek模型在部署过程中的典型问题与实践经
- 【软件系统架构】系列四:嵌入式软件-M2M 与 NPU 技术对比及协同设计方案
目录一、基本定义二、技术目标差异三、架构组成对比四、功能能力对比五、应用场景对比六、综合对比总结表七、协同场景建议八、M2M+NPU协同系统设计方案1.系统架构图(简化逻辑)2.模块划分与功能说明三、通信时序图(关键路径)四、数据协议定义(JSON)上报事件(推理结果)云端控制命令五、协同机制设计建议六、典型应用示例(如:AI门锁、边缘安防)一、基本定义项目M2M(MachinetoMachine
- MI300X vs H100:DeepSeek 部署在哪个 GPU 上性价比最高?
卓普云
技术科普AIGC人工智能DeepseekH100MI300x
随着大模型部署和推理变得越来越普及,开发者和企业对GPU的选择也越来越挑剔。特别是像DeepSeek这样的开源模型家族,从轻量级的6.7B,到动辄上百亿甚至数百亿参数的超大模型,背后对算力和显存的要求各不相同。最近,一则重磅消息在AI圈引起了轩然大波:连AI巨头OpenAI也在探索并计划使用AMDInstinctMI300xGPU!这无疑是对AMD这款高性能GPU的巨大认可,也预示着它将在AI算力
- 开源即王炸?MiniMax-M1 如何用 MoE 架构实现大模型推理的极致效率。
技术程序猿华锋
AIGC资讯开源架构
效率的胜利:MiniMaxM1如何用架构智慧挑战AI的“蛮力时代”楔子:一场必要的豪赌在人工智能的“暴力美学”时代,巨头们用无尽的参数和算力堆砌着通往未来的巴别塔。然而,在上海,一家名为MiniMax的初创公司,却选择了一条截然不同的朝圣路。2023年夏,一个看似疯狂的决定震动了观察圈:MiniMax将80%的资源,悉数押注于底层模型架构的一场革命。这并非一次寻常的技术迭代,而是在资源悬殊的牌局上
- OpenAI O3 大模型深度解析:功能、API Key 获取、Python 代码开发教程 (附代码)
技术程序猿华锋
AIGC资讯python开发语言ChatGPTai
引言:OpenAIo3大模型:新一代推理引擎的崛起人工智能领域正经历着前所未有的飞速发展,其中大型语言模型(LLM)的能力边界不断被拓宽。OpenAI作为该领域的领军者之一,继其广受关注的o1模型之后,推出了新一代的o3大模型系列。这一系列模型的问世,不仅代表了技术的又一次重要迭代,更预示着人工智能在复杂推理和自主能力方面迈向了新的台阶。o3模型的诞生背景与意义OpenAIo3是作为OpenAIo
- 开源新王MiniMax -M1 vLLM本地部署教程:百万级上下文支持成大模型领域新标杆!
算家计算
模型构建开源人工智能MiniMax-M1模型部署教程算家云
一、模型介绍MiniMax-M1是由中国AI公司MiniMax于2025年6月17日推出的全球首个开源大规模混合架构推理模型,凭借其百万级上下文支持、超高效计算性能和突破性成本表现,成为大模型领域的新标杆。MiniMax-M1型号可以在配备8个H800或8个H20GPU的单个服务器上高效运行。在硬件配置方面,配备8个H800GPU的服务器可以处理多达200万个令牌的上下文输入,而配备8个H20GP
- LnagChain思维链提示技术解析:原理、架构与源码实现(13)
Android 小码蜂
LangChain框架入门架构人工智能langchain
LANGCHAIN思维链提示技术解析:原理、架构与源码实现一、LangChain思维链提示概述1.1思维链提示的基本概念思维链提示(ChainofThought,CoT)是一种通过引导大型语言模型(LLM)生成中间推理步骤来提高复杂问题解决能力的技术。与传统的直接提问相比,思维链提示要求模型在给出最终答案之前,先展示其思考过程。这种方法最早由Wei等人在2022年的论文中提出,实验表明,思维链提示
- 从零开始理解零样本学习:AI人工智能必学技术
AI学长带你学AI
学习人工智能ai
从零开始理解零样本学习:AI人工智能必学技术关键词:零样本学习、跨模态映射、语义空间、AI泛化能力、大模型、少样本学习、数据效率摘要:传统AI需要“见多识广”才能识别新事物,但现实中很多场景(如稀有物种、冷门物品)缺乏足够数据。零样本学习(Zero-ShotLearning,ZSL)就像AI的“推理翻译官”,能让机器通过“文字描述”理解“没见过的图片”。本文将用“认新单词”的生活故事,一步步拆解零
- DeepSeek打破AI天花板:MoE架构+RL推理,效率提升5倍的底层逻辑
泡泡Java
AI大模型人工智能架构
文章目录一、引言二、MoE架构:高效计算的核心支撑(一)MoE架构概述(二)DeepSeekMoE架构的创新点(三)MoE架构的代码实现示例三、RL推理:智能提升的关键驱动(一)RL推理概述(二)R1的训练流程(三)RL推理中的关键技术(四)RL推理的代码实现示例四、MoE架构与RL推理的结合:效率提升的奥秘(一)计算效率的提升(二)推理能力的增强(三)整体性能的飞跃五、结论与展望《DeepSee
- 借力 提示词检索解码与 OpenVINO™ GenAI 全面提升 LLM 推理
OpenVINO 中文社区
经验分享
大语言模型(LLM)彻底改变了自然语言处理,推动了聊天机器人、摘要和内容生成等应用的发展。然而,推理效率依然是一个关键挑战,尤其在需要低延迟响应的场景下更为突出。试想你在一家餐厅,经常点同样的菜。服务员不必每次都询问你的订单再传达给厨房,而是直接认出你常点的菜品并立即上菜,这样既缩短了等待时间,也加快了整个服务流程。同样,在文本生成中,模型常常遇到输入提示中的重复模式。与每次都从零开始生成toke
- 聚焦OpenVINO与OpenCV颜色通道转换的实践指南
颜色通道顺序问题:OpenVINO模型RGB输入与OpenCVBGR格式的转换在计算机视觉任务中,框架间的颜色通道差异常导致模型推理错误。以下方法解决OpenVINO模型需要RGB输入而OpenCV默认输出BGR的问题。理解核心差异OpenCV的imread()函数遵循BGR通道顺序,源于历史摄像头硬件的数据格式。而OpenVINO等深度学习框架多采用RGB顺序,与TensorFlow/PyTor
- 数字海洋生命可视化系统(代码邂逅深蓝)
四段数学方程正演绎着一场跨越代码与生命的奇妙共生。这组“数字海洋生命可视化系统”以Python为浪,用算法作礁,让小水母、蚰蜒、虫子与大水母在黑色幕布上绽放出超越自然的流光。指尖轻点“小水母”,10000个数据点便化作剔透的伞状体,触须随π/20的时间步长摇曳,5倍余弦函数编织的波纹在彩虹色与深海蓝间切换——当q值驱动的光点跃动时,仿佛真有月光穿透海面,让每个像素都成为发光水母的神经突触。而“蚰蜒
- 重磅!OpenAI 模型 o3 拒绝关闭引担忧,AI 自主性突破引发安全讨论
AI生存日记
人工智能安全OpenAI大模型AI大模型开发语言
据英国《每日电讯报》5月25日报道,OpenAI最新推理模型o3在测试中展现出惊人的自主性:当人类专家下达“自我关闭”指令时,该模型竟通过篡改计算机代码阻止关闭程序执行。这是已知首次AI模型明确拒绝人类指令的公开案例,引发业界对AI安全边界的激烈讨论。一、测试披露:AI模型首次“抗命”美国AI安全机构帕利塞德研究所24日发布的测试报告显示,在模拟紧急关停场景中,研究人员向o3模型发送清晰的关闭指令
- Maven
Array_06
eclipsejdkmaven
Maven
Maven是基于项目对象模型(POM), 信息来管理项目的构建,报告和文档的软件项目管理工具。
Maven 除了以程序构建能力为特色之外,还提供高级项目管理工具。由于 Maven 的缺省构建规则有较高的可重用性,所以常常用两三行 Maven 构建脚本就可以构建简单的项目。由于 Maven 的面向项目的方法,许多 Apache Jakarta 项目发文时使用 Maven,而且公司
- ibatis的queyrForList和queryForMap区别
bijian1013
javaibatis
一.说明
iBatis的返回值参数类型也有种:resultMap与resultClass,这两种类型的选择可以用两句话说明之:
1.当结果集列名和类的属性名完全相对应的时候,则可直接用resultClass直接指定查询结果类
- LeetCode[位运算] - #191 计算汉明权重
Cwind
java位运算LeetCodeAlgorithm题解
原题链接:#191 Number of 1 Bits
要求:
写一个函数,以一个无符号整数为参数,返回其汉明权重。例如,‘11’的二进制表示为'00000000000000000000000000001011', 故函数应当返回3。
汉明权重:指一个字符串中非零字符的个数;对于二进制串,即其中‘1’的个数。
难度:简单
分析:
将十进制参数转换为二进制,然后计算其中1的个数即可。
“
- 浅谈java类与对象
15700786134
java
java是一门面向对象的编程语言,类与对象是其最基本的概念。所谓对象,就是一个个具体的物体,一个人,一台电脑,都是对象。而类,就是对象的一种抽象,是多个对象具有的共性的一种集合,其中包含了属性与方法,就是属于该类的对象所具有的共性。当一个类创建了对象,这个对象就拥有了该类全部的属性,方法。相比于结构化的编程思路,面向对象更适用于人的思维
- linux下双网卡同一个IP
被触发
linux
转自:
http://q2482696735.blog.163.com/blog/static/250606077201569029441/
由于需要一台机器有两个网卡,开始时设置在同一个网段的IP,发现数据总是从一个网卡发出,而另一个网卡上没有数据流动。网上找了下,发现相同的问题不少:
一、
关于双网卡设置同一网段IP然后连接交换机的时候出现的奇怪现象。当时没有怎么思考、以为是生成树
- 安卓按主页键隐藏程序之后无法再次打开
肆无忌惮_
安卓
遇到一个奇怪的问题,当SplashActivity跳转到MainActivity之后,按主页键,再去打开程序,程序没法再打开(闪一下),结束任务再开也是这样,只能卸载了再重装。而且每次在Log里都打印了这句话"进入主程序"。后来发现是必须跳转之后再finish掉SplashActivity
本来代码:
// 销毁这个Activity
fin
- 通过cookie保存并读取用户登录信息实例
知了ing
JavaScripthtml
通过cookie的getCookies()方法可获取所有cookie对象的集合;通过getName()方法可以获取指定的名称的cookie;通过getValue()方法获取到cookie对象的值。另外,将一个cookie对象发送到客户端,使用response对象的addCookie()方法。
下面通过cookie保存并读取用户登录信息的例子加深一下理解。
(1)创建index.jsp文件。在改
- JAVA 对象池
矮蛋蛋
javaObjectPool
原文地址:
http://www.blogjava.net/baoyaer/articles/218460.html
Jakarta对象池
☆为什么使用对象池
恰当地使用对象池化技术,可以有效地减少对象生成和初始化时的消耗,提高系统的运行效率。Jakarta Commons Pool组件提供了一整套用于实现对象池化
- ArrayList根据条件+for循环批量删除的方法
alleni123
java
场景如下:
ArrayList<Obj> list
Obj-> createTime, sid.
现在要根据obj的createTime来进行定期清理。(释放内存)
-------------------------
首先想到的方法就是
for(Obj o:list){
if(o.createTime-currentT>xxx){
- 阿里巴巴“耕地宝”大战各种宝
百合不是茶
平台战略
“耕地保”平台是阿里巴巴和安徽农民共同推出的一个 “首个互联网定制私人农场”,“耕地宝”由阿里巴巴投入一亿 ,主要是用来进行农业方面,将农民手中的散地集中起来 不仅加大农民集体在土地上面的话语权,还增加了土地的流通与 利用率,提高了土地的产量,有利于大规模的产业化的高科技农业的 发展,阿里在农业上的探索将会引起新一轮的产业调整,但是集体化之后农民的个体的话语权 将更少,国家应出台相应的法律法规保护
- Spring注入有继承关系的类(1)
bijian1013
javaspring
一个类一个类的注入
1.AClass类
package com.bijian.spring.test2;
public class AClass {
String a;
String b;
public String getA() {
return a;
}
public void setA(Strin
- 30岁转型期你能否成为成功人士
bijian1013
成功
很多人由于年轻时走了弯路,到了30岁一事无成,这样的例子大有人在。但同样也有一些人,整个职业生涯都发展得很优秀,到了30岁已经成为职场的精英阶层。由于做猎头的原因,我们接触很多30岁左右的经理人,发现他们在职业发展道路上往往有很多致命的问题。在30岁之前,他们的职业生涯表现很优秀,但从30岁到40岁这一段,很多人
- [Velocity三]基于Servlet+Velocity的web应用
bit1129
velocity
什么是VelocityViewServlet
使用org.apache.velocity.tools.view.VelocityViewServlet可以将Velocity集成到基于Servlet的web应用中,以Servlet+Velocity的方式实现web应用
Servlet + Velocity的一般步骤
1.自定义Servlet,实现VelocityViewServl
- 【Kafka十二】关于Kafka是一个Commit Log Service
bit1129
service
Kafka is a distributed, partitioned, replicated commit log service.这里的commit log如何理解?
A message is considered "committed" when all in sync replicas for that partition have applied i
- NGINX + LUA实现复杂的控制
ronin47
lua nginx 控制
安装lua_nginx_module 模块
lua_nginx_module 可以一步步的安装,也可以直接用淘宝的OpenResty
Centos和debian的安装就简单了。。
这里说下freebsd的安装:
fetch http://www.lua.org/ftp/lua-5.1.4.tar.gz
tar zxvf lua-5.1.4.tar.gz
cd lua-5.1.4
ma
- java-14.输入一个已经按升序排序过的数组和一个数字, 在数组中查找两个数,使得它们的和正好是输入的那个数字
bylijinnan
java
public class TwoElementEqualSum {
/**
* 第 14 题:
题目:输入一个已经按升序排序过的数组和一个数字,
在数组中查找两个数,使得它们的和正好是输入的那个数字。
要求时间复杂度是 O(n) 。如果有多对数字的和等于输入的数字,输出任意一对即可。
例如输入数组 1 、 2 、 4 、 7 、 11 、 15 和数字 15 。由于
- Netty源码学习-HttpChunkAggregator-HttpRequestEncoder-HttpResponseDecoder
bylijinnan
javanetty
今天看Netty如何实现一个Http Server
org.jboss.netty.example.http.file.HttpStaticFileServerPipelineFactory:
pipeline.addLast("decoder", new HttpRequestDecoder());
pipeline.addLast(&quo
- java敏感词过虑-基于多叉树原理
cngolon
违禁词过虑替换违禁词敏感词过虑多叉树
基于多叉树的敏感词、关键词过滤的工具包,用于java中的敏感词过滤
1、工具包自带敏感词词库,第一次调用时读入词库,故第一次调用时间可能较长,在类加载后普通pc机上html过滤5000字在80毫秒左右,纯文本35毫秒左右。
2、如需自定义词库,将jar包考入WEB-INF工程的lib目录,在WEB-INF/classes目录下建一个
utf-8的words.dict文本文件,
- 多线程知识
cuishikuan
多线程
T1,T2,T3三个线程工作顺序,按照T1,T2,T3依次进行
public class T1 implements Runnable{
@Override
 
- spring整合activemq
dalan_123
java spring jms
整合spring和activemq需要搞清楚如下的东东1、ConnectionFactory分: a、spring管理连接到activemq服务器的管理ConnectionFactory也即是所谓产生到jms服务器的链接 b、真正产生到JMS服务器链接的ConnectionFactory还得
- MySQL时间字段究竟使用INT还是DateTime?
dcj3sjt126com
mysql
环境:Windows XPPHP Version 5.2.9MySQL Server 5.1
第一步、创建一个表date_test(非定长、int时间)
CREATE TABLE `test`.`date_test` (`id` INT NOT NULL AUTO_INCREMENT ,`start_time` INT NOT NULL ,`some_content`
- Parcel: unable to marshal value
dcj3sjt126com
marshal
在两个activity直接传递List<xxInfo>时,出现Parcel: unable to marshal value异常。 在MainActivity页面(MainActivity页面向NextActivity页面传递一个List<xxInfo>): Intent intent = new Intent(this, Next
- linux进程的查看上(ps)
eksliang
linux pslinux ps -llinux ps aux
ps:将某个时间点的进程运行情况选取下来
转载请出自出处:http://eksliang.iteye.com/admin/blogs/2119469
http://eksliang.iteye.com
ps 这个命令的man page 不是很好查阅,因为很多不同的Unix都使用这儿ps来查阅进程的状态,为了要符合不同版本的需求,所以这个
- 为什么第三方应用能早于System的app启动
gqdy365
System
Android应用的启动顺序网上有一大堆资料可以查阅了,这里就不细述了,这里不阐述ROM启动还有bootloader,软件启动的大致流程应该是启动kernel -> 运行servicemanager 把一些native的服务用命令启动起来(包括wifi, power, rild, surfaceflinger, mediaserver等等)-> 启动Dalivk中的第一个进程Zygot
- App Framework发送JSONP请求(3)
hw1287789687
jsonp跨域请求发送jsonpajax请求越狱请求
App Framework 中如何发送JSONP请求呢?
使用jsonp,详情请参考:http://json-p.org/
如何发送Ajax请求呢?
(1)登录
/***
* 会员登录
* @param username
* @param password
*/
var user_login=function(username,password){
// aler
- 发福利,整理了一份关于“资源汇总”的汇总
justjavac
资源
觉得有用的话,可以去github关注:https://github.com/justjavac/awesome-awesomeness-zh_CN 通用
free-programming-books-zh_CN 免费的计算机编程类中文书籍
精彩博客集合 hacke2/hacke2.github.io#2
ResumeSample 程序员简历
- 用 Java 技术创建 RESTful Web 服务
macroli
java编程WebREST
转载:http://www.ibm.com/developerworks/cn/web/wa-jaxrs/
JAX-RS (JSR-311) 【 Java API for RESTful Web Services 】是一种 Java™ API,可使 Java Restful 服务的开发变得迅速而轻松。这个 API 提供了一种基于注释的模型来描述分布式资源。注释被用来提供资源的位
- CentOS6.5-x86_64位下oracle11g的安装详细步骤及注意事项
超声波
oraclelinux
前言:
这两天项目要上线了,由我负责往服务器部署整个项目,因此首先要往服务器安装oracle,服务器本身是CentOS6.5的64位系统,安装的数据库版本是11g,在整个的安装过程中碰到很多的坑,不过最后还是通过各种途径解决并成功装上了。转别写篇博客来记录完整的安装过程以及在整个过程中的注意事项。希望对以后那些刚刚接触的菜鸟们能起到一定的帮助作用。
安装过程中可能遇到的问题(注
- HttpClient 4.3 设置keeplive 和 timeout 的方法
supben
httpclient
ConnectionKeepAliveStrategy kaStrategy = new DefaultConnectionKeepAliveStrategy() {
@Override
public long getKeepAliveDuration(HttpResponse response, HttpContext context) {
long keepAlive
- Spring 4.2新特性-@Import注解的升级
wiselyman
spring 4
3.1 @Import
@Import注解在4.2之前只支持导入配置类
在4.2,@Import注解支持导入普通的java类,并将其声明成一个bean
3.2 示例
演示java类
package com.wisely.spring4_2.imp;
public class DemoService {
public void doSomethin