- 2025年最新在线模型转换工具优化模型ncnn,mnn,tengine,onnx
我的青春不太冷
mnn人工智能深度学习ncnn在线模型转换网址
文章目录引言最新网址地点一、模型转换1.框架转换全景图2.安全的模型转换3.网站全景图二、转换说明三、模型转换流程图四、感谢引言在yolov5,yolov8,yolov11等等模型转换的领域中,时间成本常常是开发者头疼的问题。最近发现一个超棒的网站工具,简直是模型转换的神器。它最大的亮点就是省去编译转换工具的时间,开箱即用,一键转换。对于目标格式,提供了tengine、ncnn、mnn、onnx等
- AI大模型部署:Ollama与vLLM部署对比:哪个更合适?
大模型部署
langchain人工智能dockerllamaLLM程序员Ollama
前言近年来,大语言模型(LLM)的应用日益广泛,而高效的部署方案至关重要。Ollama和vLLM作为两种流行的LLM部署工具,各有优劣。本文将深入比较Ollama和vLLM的部署方式,帮助选择最合适的方案。Ollama:简单易用的LLM部署工具Ollama以其简洁的安装和易于使用的特性而闻名。其官方文档清晰易懂,即使是新手也能快速上手。Ollama支持多种LLM模型,并提供便捷的命令行界面进行管理
- ONNX推理warning: TensorRT does not natively support INT64. Attempting to cast down to INT32.
paradoxjun
人工智能
只想用ONNX进行模型推理,加载时报Warning,加载模型时间也特别长。加载模型的代码:self.session=onnxruntime.InferenceSession(model_path,providers=onnxruntime.get_available_providers())修改为:self.session=onnxruntime.InferenceSession(model_pa
- DeepSeek R1 Ollama本地化部署全攻略:三步实现企业级私有化大模型部署
Coderabo
DeepSeekR1Ollama
前言Ollama作为当前最受欢迎的本地大模型运行框架,为DeepSeekR1的私有化部署提供了便捷高效的解决方案。本文将深入讲解如何将HuggingFace格式的DeepSeekR1模型转换为Ollama支持的GGUF格式,并实现企业级的高可用部署方案。文章包含完整的量化配置、API服务集成和性能优化技巧。—一、基础环境搭建1.1系统环境要求操作系统:Ubuntu22.04LTS或CentOS8+
- 使用Ollama本地化部署DeepSeek
大模型llm人工智能
1、Ollama简介Ollama是一个开源的本地化大模型部署工具,旨在简化大型语言模型(LLM)的安装、运行和管理。它支持多种模型架构,并提供与OpenAI兼容的API接口,适合开发者和企业快速搭建私有化AI服务。Ollama的主要特点包括:轻量化部署:支持在本地设备上运行模型,无需依赖云端服务。多模型支持:兼容多种开源模型,如LLaMA、DeepSeek等。高效管理:提供命令行工具,方便用户下载
- 简述Caffe、TensorFlow、TensorFlow Lite、ONNX、DarkNet、PyTorch 等模型
科学的发展-只不过是读大自然写的代码
断纱检测caffetensorflowpytorch
以下是对Caffe、TensorFlow、TensorFlowLite、ONNX、DarkNet和PyTorch等模型的简述:Caffe:Caffe(ConvolutionArchitectureForFeatureExtraction)是一个用于特征抽取的卷积框架,它是一个清晰、可读性高且快速的深度学习框架。Caffe由加州伯克利大学的贾扬清开发,起初是一个用于深度卷积网络的Python框架(无
- 书生浦语第五期
晴斋1216
语言模型
基础作业完成以下任务,并将实现过程记录截图:配置lmdeploy运行环境下载internlm-chat-1.8b模型以命令行方式与模型对话视频链接文档链接基础知识学习模型部署在软件工程中,部署通常指的是将开发完毕的软件投入使用的过程。在人工智能领域,模型部署是实现深度学习算法落地应用的关键步骤。简单来说,模型部署就是将训练好的深度学习模型在特定环境中运行的过程。目前大模型部署面临的挑战计算量巨大内
- LLM模型部署经验分享
lewis_kai
阿里云语言模型
LLM模型部署经验分享作者:大连理工大学李凯首先,你需要选择一个合适的部署平台,这可以是本地服务器、云服务提供商(如AWS、Azure、GoogleCloud等)、边缘设备或者特定的部署服务(如HuggingFaceHub)。在这里我使用的是魔搭平台的云服务器。然后下载你要部署的模型,这里下载的是通义千问。下载并部署玩模型后,我们还可以对模型转换和优化,该文会介绍基于OpenVINO的模型量化实践
- Lite.Ai.ToolKit - 一个轻量级的 C++ 工具包
小众AI
AI开源开源人工智能AI编程算法
**Lite.Ai.ToolKit**:一个轻量级的C++工具包,包含100+个很棒的AI模型,例如对象检测、人脸检测、人脸识别、分割、遮罩等。请参阅ModelZoo和ONNXHub、MNNHub、TNNHub、NCNNHub。3700Stars711Forks0Issues6贡献者GPL-3.0LicenseC语言代码:https://github.com/DefTruth/lite.ai.to
- Ubuntu交叉编译 arm板子上的TVM
陈有爱
TVMubuntu人工智能
目录X86Ubuntu的TVM安装LLVM下载tvm配置config.cmake编译源码python安装测试是否安装成功可以在安装一些库,用于RPCTracker和auto-tuning交叉编译801arm的TVM交叉编译链下载配置config.cmake编译源码编译的时候可能会遇到错误ONNX模型转换为TVM模型创建pre.py,将onnx模型编译成tvm.so文件测试TVM模型修改demo程序
- Torchserve服务开发
qq_27844739
AI工程化运维人工智能pytorch服务器
Torchserve服务开发文章目录Torchserve服务开发0.Torchserve介绍0.1.背景0.2.API类型1.开发使用1.0.环境部署1.1.handler开发1.1.1.context参数1.1.2.data参数1.2.handler调试2.配置文件3.batch推理0.Torchserve介绍0.1.背景TorchServe是PyTorch中推荐的模型部署解决方案,通过它可以将
- 大模型部署工具 llama.cpp 介绍与安装使用
大模型柳儿
llama服务器人工智能web安全linux安全
1.大模型部署工具llama.cpp大模型的研究分为训练和推理两个部分。训练的过程,实际上就是在寻找模型参数,使得模型的损失函数最小化,推理结果最优化的过程。训练完成之后,模型的参数就固定了,这时候就可以使用模型进行推理,对外提供服务。llama.cpp(https://github.com/ggerganov/llama.cpp)主要解决的是推理过程中的性能问题。主要有两点优化:llama.cp
- LLM架构与优化:从理论到实践的关键技术
XianxinMao
人工智能
标题:“LLM架构与优化:从理论到实践的关键技术”文章信息摘要:文章探讨了大型语言模型(LLM)开发与应用中的关键技术,包括Transformer架构、注意力机制、采样技术、Tokenization等基础理论,以及模型部署、应用开发、优化等实践技能。重点分析了预训练、后训练、监督微调(SFT)和偏好对齐(PreferenceAlignment)在提升模型性能中的作用,并对比了直接偏好优化(DPO)
- 使用onnxruntime-web 运行yolov8-nano推理
CHEN_RUI_2200
机器学习YOLO
ONNX(OpenNeuralNetworkExchange)模型具有以下两个特点促成了我们可以使用onnxruntime-web直接在web端上运行推理模型,为了让这个推理更直观,我选择了试验下yolov8识别预览图片:1.跨平台兼容性ONNX是一种开放的格式,可以在不同的深度学习框架之间共享模型,如PyTorch、TensorFlow、MXNet和Caffe2。这使得用户可以在一个框架中训练模
- InternLM: LMDeploy 量化部署进阶实践
dilvx
机器学习
LMDeploy部署模型模型部署是将训练好的深度学习模型在特定环境中运行。欢迎使用LMDeploy,支持市面上主流的格式和算法。大模型缓存推理本章的前半部分主要讲量化,包括KV-Cache量化、权重量化、激活值量化。量化主要是为了节省存储空间,用int4,int8来重新表示fp16,将模型的显存占用控制在200G可接受的范围下。值得注意的是,在transformer架构下,计算的瓶颈主要在显存带宽
- 导出 YOLOv11 模型的详细步骤和说明
old_power
计算机视觉YOLO人工智能计算机视觉
以下是关于如何导出YOLOv11模型的详细步骤和说明:1.导出YOLOv11模型的基本步骤YOLOv11模型可以通过Ultralytics提供的接口轻松导出为多种格式,如ONNX、TensorRT、CoreML等。以下是导出模型的基本步骤:1.1安装Ultralytics库首先,确保已安装Ultralytics库:pipinstallultralytics1.2加载模型并导出使用Python代码加
- SGLang安装教程,部署你的大模型,性能比vllm好,实现张量并行,数据并行,加快推理速度,亲测效果好。
张登杰踩
人工智能结对编程python
目前大模型部署工具主要是vllm,最近出现了SGLang,很多新开源大模型都支持SGLang的部署推理,例如deepseek-R1,Qwen2.5,Mistral,GLM-4,MiniCPM3,InternLM2,Llama3.2等。代码:GitHub-sgl-project/sglang:SGLangisafastservingframeworkforlargelanguagemodelsand
- LLM大模型部署实战指南:部署简化流程
汀、人工智能
AIAgentLLM工业级落地实践人工智能
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发1.Ollama部署的本地模型()Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。,这是Ollama的官网地址:https://ollama.com/以下是其主要特点和功能概述:简化部署:Ollama目标在于简化在Docker容器中部署大型语言
- YOLOv11目标检测模型部署到微信小程序上
小阿技术
YOLO目标跟踪人工智能微信小程序目标检测计算机视觉python
1.效果YOLOv11目标检测模型部署到微信小程序上2.后端主要代码importosimporttimeimportnumpyasnpimporttorchfromflaskimportFlask,request,send_fileimportcv2fromultralyticsimportYOLO#导入YOLOv11模型,需要提前安装ultralytics库#初始化Flask应用app=Flas
- 深度学习模型开发文档
Ares代码行者
深度学习
深度学习模型开发文档1.简介2.深度学习模型开发流程3.数据准备3.1数据加载3.2数据可视化4.构建卷积神经网络(CNN)5.模型训练5.1定义损失函数和优化器5.2训练过程6.模型评估与优化6.1模型评估6.2超参数调优7.模型部署8.总结参考资料1.简介深度学习是人工智能的一个分支,利用多层神经网络从数据中提取特征并进行学习。它被广泛应用于图像识别、自然语言处理、语音识别等领域。本文将以构建
- 基于C++和ONNX Runtime的YOLOv5目标检测实战
浪浪山小白兔
c++YOLO目标检测
1.前言在计算机视觉领域,目标检测是一项关键任务,其应用广泛,涵盖了安防监控、自动驾驶、工业检测等众多领域。YOLOv5作为一种先进的目标检测算法,以其速度快、精度高的特点备受关注。本文将详细介绍如何使用C++结合ONNXRuntime推理引擎来部署YOLOv5模型,实现高效的目标检测。2.ONNX与YOLOv52.1ONNX简介ONNX(OpenNeuralNetworkExchange)是一种
- 清华和哈工大把大模型量化做到了1比特,把世界顶尖多模态大模型开源大模型量化个人电脑运行!机器人领域首个开源视觉-语言操作大模型,激发开源VLMs更大潜能,视 Mamba速度提升2.8倍,内存能省87%
代码讲故事
机器人智慧之心Mamba机器人量化大模型开源视觉VLMs
清华和哈工大把大模型量化做到了1比特,把世界顶尖多模态大模型开源大模型量化个人电脑运行!机器人领域首个开源视觉-语言操作大模型,激发开源VLMs更大潜能,视Mamba速度提升2.8倍,内存能省87%。清华和哈工大把大模型量化做到了1比特。在追求更高效的机器学习模型部署时,模型量化技术应运而生,它通过降低权重矩阵的位宽来显著减少大型语言模型的存储和计算需求。我们一般的双精度浮点型double是64位
- 模型部署工具01:Docker || 用Docker打包模型 Build Once Run Anywhere
Tiandaren
模型部署dockerjava容器服务器深度学习人工智能linux
Docker是一个开源的容器化平台,可以让开发者和运维人员轻松构建、发布和运行应用程序。Docker的核心概念是通过容器技术隔离应用及其依赖项,使得软件在不同的环境中运行时具有一致性。无论是开发环境、测试环境,还是生产环境,Docker都能够提供高效、可靠的解决方案。在本教程中,我们将详细介绍Docker的核心概念、安装方法,以及如何使用Docker进行容器化操作。Docker是什么?为什么值得学
- 深入解析框架适配开发:基于CANN平台的自定义算子开发与第三方框架适配全流程详解
快撑死的鱼
华为昇腾AscendC的算子开发系统学习人工智能
深入解析框架适配开发:基于CANN平台的自定义算子开发与第三方框架适配全流程详解随着深度学习的发展,不同的深度学习框架如TensorFlow、PyTorch、ONNX等在AI开发者社区中占据了重要地位。然而,针对某些硬件平台(如华为昇腾AI处理器),算子库中的算子并非都已经适配了所有主流框架。为了解决这一问题,框架适配开发应运而生,它允许开发者将已存在于算子库中的算子适配到其他未支持的第三方框架上
- 基于 Python 的机器学习模型部署到 Flask Web 应用:从训练到部署的完整指南
m0_74825223
python机器学习flask
目录引言技术栈步骤一:数据预处理步骤二:训练机器学习模型步骤三:创建FlaskWeb应用步骤四:测试Web应用步骤五:模型的保存与加载保存模型加载模型并在Flask中使用步骤六:Web应用的安全性考量示例:简单的输入验证示例:自定义错误处理示例:使用Flask-JWT-Extended进行认证结论参考资料引言在当今数据驱动的时代,机器学习模型已经广泛应用于各行各业,从金融、医疗到教育等领域。然而,
- 大模型推理:vllm多机多卡分布式本地部署
m0_74824755
面试学习路线阿里巴巴分布式
文章目录1、vLLM分布式部署docker镜像构建通信环境配置2、其他大模型部署工具3、问题记录参考文献单台机器GPU资源不足以执行推理任务时,一个方法是模型蒸馏量化,结果就是会牺牲些效果。另一种方式是采用多台机器多个GPU进行推理,资源不足就堆机器虽然暴力但也是个不错的解决方法。值得注意的是多机多卡部署的推理框架,也适用于单机多卡,单机单卡,这里不过多赘述。1、vLLM分布式部署我的需求是Ubu
- 深度学习笔记——模型部署
好评笔记
深度学习笔记深度学习笔记人工智能transformer模型部署大模型部署大模型
大家好,这里是好评笔记,公主号:Goodnote,专栏文章私信限时Free。本文简要概括模型部署的知识点,包括步骤和部署方式。文章目录模型部署模型部署的关键步骤常见的模型部署方式优势与挑战总结边缘端部署方案总结历史文章机器学习深度学习模型部署模型部署是指将训练好的机器学习或深度学习模型集成到生产环境中,使其能够在实际应用中处理实时数据和提供预测服务。模型部署的流程涉及模型的封装、部署环境的选择、部
- 加速AI模型部署:深入探索Banana的无服务架构
afTFODguAKBF
人工智能架构python
加速AI模型部署:深入探索Banana的无服务架构引言在AI模型的构建与部署中,无服务架构(ServerlessArchitecture)正逐渐成为开发者的首选方案。这种架构可以简化部署流程,提高扩展性,并降低成本。在本文中,我们将探讨如何利用Banana提供的无服务GPU推理来部署AI模型,并结合LangChain实现高效的模型推理。主要内容1.Banana生态系统的优势Banana提供了一套完
- python安装包提示Requirement already satisfied
可爱的的编辑人员
配置pythonnumpy开发语言
python安装cnocr提示Requirementalreadysatisfied错误信息如下:Requirementalreadysatisfied:pyreadline3inc:\python310\lib\site-packages(fromhumanfriendly>=9.1->coloredlogs->onnxruntime->cnocr)(3.4.1)Installingcollec
- Jetson Nano部署TensorRT加速的YOLO V8
Hylan_J
学习项目YOLOgithubarm开发
JetsonNano部署YOLOV8刷JetPack镜像Step1:格式化SD卡Step2:下载镜像文件Step3:烧录镜像文件Python环境配置Solution1:更改默认的Python环境Solution2:使用conda管理Python环境YOLOV8部署Step1:源码下载Step2:trtexec环境变量设置Step3:pt权重文件导出为ONNX格式Step4:ONNX文件生成engi
- SAX解析xml文件
小猪猪08
xml
1.创建SAXParserFactory实例
2.通过SAXParserFactory对象获取SAXParser实例
3.创建一个类SAXParserHander继续DefaultHandler,并且实例化这个类
4.SAXParser实例的parse来获取文件
public static void main(String[] args) {
//
- 为什么mysql里的ibdata1文件不断的增长?
brotherlamp
linuxlinux运维linux资料linux视频linux运维自学
我们在 Percona 支持栏目经常收到关于 MySQL 的 ibdata1 文件的这个问题。
当监控服务器发送一个关于 MySQL 服务器存储的报警时,恐慌就开始了 —— 就是说磁盘快要满了。
一番调查后你意识到大多数地盘空间被 InnoDB 的共享表空间 ibdata1 使用。而你已经启用了 innodbfileper_table,所以问题是:
ibdata1存了什么?
当你启用了 i
- Quartz-quartz.properties配置
eksliang
quartz
其实Quartz JAR文件的org.quartz包下就包含了一个quartz.properties属性配置文件并提供了默认设置。如果需要调整默认配置,可以在类路径下建立一个新的quartz.properties,它将自动被Quartz加载并覆盖默认的设置。
下面是这些默认值的解释
#-----集群的配置
org.quartz.scheduler.instanceName =
- informatica session的使用
18289753290
workflowsessionlogInformatica
如果希望workflow存储最近20次的log,在session里的Config Object设置,log options做配置,save session log :sessions run ;savesessio log for these runs:20
session下面的source 里面有个tracing 
- Scrapy抓取网页时出现CRC check failed 0x471e6e9a != 0x7c07b839L的错误
酷的飞上天空
scrapy
Scrapy版本0.14.4
出现问题现象:
ERROR: Error downloading <GET http://xxxxx CRC check failed
解决方法
1.设置网络请求时的header中的属性'Accept-Encoding': '*;q=0'
明确表示不支持任何形式的压缩格式,避免程序的解压
- java Swing小集锦
永夜-极光
java swing
1.关闭窗体弹出确认对话框
1.1 this.setDefaultCloseOperation (JFrame.DO_NOTHING_ON_CLOSE);
1.2
this.addWindowListener (
new WindowAdapter () {
public void windo
- 强制删除.svn文件夹
随便小屋
java
在windows上,从别处复制的项目中可能带有.svn文件夹,手动删除太麻烦,并且每个文件夹下都有。所以写了个程序进行删除。因为.svn文件夹在windows上是只读的,所以用File中的delete()和deleteOnExist()方法都不能将其删除,所以只能采用windows命令方式进行删除
- GET和POST有什么区别?及为什么网上的多数答案都是错的。
aijuans
get post
如果有人问你,GET和POST,有什么区别?你会如何回答? 我的经历
前几天有人问我这个问题。我说GET是用于获取数据的,POST,一般用于将数据发给服务器之用。
这个答案好像并不是他想要的。于是他继续追问有没有别的区别?我说这就是个名字而已,如果服务器支持,他完全可以把G
- 谈谈新浪微博背后的那些算法
aoyouzi
谈谈新浪微博背后的那些算法
本文对微博中常见的问题的对应算法进行了简单的介绍,在实际应用中的算法比介绍的要复杂的多。当然,本文覆盖的主题并不全,比如好友推荐、热点跟踪等就没有涉及到。但古人云“窥一斑而见全豹”,希望本文的介绍能帮助大家更好的理解微博这样的社交网络应用。
微博是一个很多人都在用的社交应用。天天刷微博的人每天都会进行着这样几个操作:原创、转发、回复、阅读、关注、@等。其中,前四个是针对短博文,最后的关注和@则针
- Connection reset 连接被重置的解决方法
百合不是茶
java字符流连接被重置
流是java的核心部分,,昨天在做android服务器连接服务器的时候出了问题,就将代码放到java中执行,结果还是一样连接被重置
被重置的代码如下;
客户端代码;
package 通信软件服务器;
import java.io.BufferedWriter;
import java.io.OutputStream;
import java.io.O
- web.xml配置详解之filter
bijian1013
javaweb.xmlfilter
一.定义
<filter>
<filter-name>encodingfilter</filter-name>
<filter-class>com.my.app.EncodingFilter</filter-class>
<init-param>
<param-name>encoding<
- Heritrix
Bill_chen
多线程xml算法制造配置管理
作为纯Java语言开发的、功能强大的网络爬虫Heritrix,其功能极其强大,且扩展性良好,深受热爱搜索技术的盆友们的喜爱,但它配置较为复杂,且源码不好理解,最近又使劲看了下,结合自己的学习和理解,跟大家分享Heritrix的点点滴滴。
Heritrix的下载(http://sourceforge.net/projects/archive-crawler/)安装、配置,就不罗嗦了,可以自己找找资
- 【Zookeeper】FAQ
bit1129
zookeeper
1.脱离IDE,运行简单的Java客户端程序
#ZkClient是简单的Zookeeper~$ java -cp "./:zookeeper-3.4.6.jar:./lib/*" ZKClient
1. Zookeeper是的Watcher回调是同步操作,需要添加异步处理的代码
2. 如果Zookeeper集群跨越多个机房,那么Leader/
- The user specified as a definer ('aaa'@'localhost') does not exist
白糖_
localhost
今天遇到一个客户BUG,当前的jdbc连接用户是root,然后部分删除操作都会报下面这个错误:The user specified as a definer ('aaa'@'localhost') does not exist
最后找原因发现删除操作做了触发器,而触发器里面有这样一句
/*!50017 DEFINER = ''aaa@'localhost' */
原来最初
- javascript中showModelDialog刷新父页面
bozch
JavaScript刷新父页面showModalDialog
在页面中使用showModalDialog打开模式子页面窗口的时候,如果想在子页面中操作父页面中的某个节点,可以通过如下的进行:
window.showModalDialog('url',self,‘status...’); // 首先中间参数使用self
在子页面使用w
- 编程之美-买书折扣
bylijinnan
编程之美
import java.util.Arrays;
public class BookDiscount {
/**编程之美 买书折扣
书上的贪心算法的分析很有意思,我看了半天看不懂,结果作者说,贪心算法在这个问题上是不适用的。。
下面用动态规划实现。
哈利波特这本书一共有五卷,每卷都是8欧元,如果读者一次购买不同的两卷可扣除5%的折扣,三卷10%,四卷20%,五卷
- 关于struts2.3.4项目跨站执行脚本以及远程执行漏洞修复概要
chenbowen00
strutsWEB安全
因为近期负责的几个银行系统软件,需要交付客户,因此客户专门请了安全公司对系统进行了安全评测,结果发现了诸如跨站执行脚本,远程执行漏洞以及弱口令等问题。
下面记录下本次解决的过程以便后续
1、首先从最简单的开始处理,服务器的弱口令问题,首先根据安全工具提供的测试描述中发现应用服务器中存在一个匿名用户,默认是不需要密码的,经过分析发现服务器使用了FTP协议,
而使用ftp协议默认会产生一个匿名用
- [电力与暖气]煤炭燃烧与电力加温
comsci
在宇宙中,用贝塔射线观测地球某个部分,看上去,好像一个个马蜂窝,又像珊瑚礁一样,原来是某个国家的采煤区.....
不过,这个采煤区的煤炭看来是要用完了.....那么依赖将起燃烧并取暖的城市,在极度严寒的季节中...该怎么办呢?
&nbs
- oracle O7_DICTIONARY_ACCESSIBILITY参数
daizj
oracle
O7_DICTIONARY_ACCESSIBILITY参数控制对数据字典的访问.设置为true,如果用户被授予了如select any table等any table权限,用户即使不是dba或sysdba用户也可以访问数据字典.在9i及以上版本默认为false,8i及以前版本默认为true.如果设置为true就可能会带来安全上的一些问题.这也就为什么O7_DICTIONARY_ACCESSIBIL
- 比较全面的MySQL优化参考
dengkane
mysql
本文整理了一些MySQL的通用优化方法,做个简单的总结分享,旨在帮助那些没有专职MySQL DBA的企业做好基本的优化工作,至于具体的SQL优化,大部分通过加适当的索引即可达到效果,更复杂的就需要具体分析了,可以参考本站的一些优化案例或者联系我,下方有我的联系方式。这是上篇。
1、硬件层相关优化
1.1、CPU相关
在服务器的BIOS设置中,可
- C语言homework2,有一个逆序打印数字的小算法
dcj3sjt126com
c
#h1#
0、完成课堂例子
1、将一个四位数逆序打印
1234 ==> 4321
实现方法一:
# include <stdio.h>
int main(void)
{
int i = 1234;
int one = i%10;
int two = i / 10 % 10;
int three = i / 100 % 10;
- apacheBench对网站进行压力测试
dcj3sjt126com
apachebench
ab 的全称是 ApacheBench , 是 Apache 附带的一个小工具 , 专门用于 HTTP Server 的 benchmark testing , 可以同时模拟多个并发请求。前段时间看到公司的开发人员也在用它作一些测试,看起来也不错,很简单,也很容易使用,所以今天花一点时间看了一下。
通过下面的一个简单的例子和注释,相信大家可以更容易理解这个工具的使用。
- 2种办法让HashMap线程安全
flyfoxs
javajdkjni
多线程之--2种办法让HashMap线程安全
多线程之--synchronized 和reentrantlock的优缺点
多线程之--2种JAVA乐观锁的比较( NonfairSync VS. FairSync)
HashMap不是线程安全的,往往在写程序时需要通过一些方法来回避.其实JDK原生的提供了2种方法让HashMap支持线程安全.
- Spring Security(04)——认证简介
234390216
Spring Security认证过程
认证简介
目录
1.1 认证过程
1.2 Web应用的认证过程
1.2.1 ExceptionTranslationFilter
1.2.2 在request之间共享SecurityContext
1
- Java 位运算
Javahuhui
java位运算
// 左移( << ) 低位补0
// 0000 0000 0000 0000 0000 0000 0000 0110 然后左移2位后,低位补0:
// 0000 0000 0000 0000 0000 0000 0001 1000
System.out.println(6 << 2);// 运行结果是24
// 右移( >> ) 高位补"
- mysql免安装版配置
ldzyz007
mysql
1、my-small.ini是为了小型数据库而设计的。不应该把这个模型用于含有一些常用项目的数据库。
2、my-medium.ini是为中等规模的数据库而设计的。如果你正在企业中使用RHEL,可能会比这个操作系统的最小RAM需求(256MB)明显多得多的物理内存。由此可见,如果有那么多RAM内存可以使用,自然可以在同一台机器上运行其它服务。
3、my-large.ini是为专用于一个SQL数据
- MFC和ado数据库使用时遇到的问题
你不认识的休道人
sqlC++mfc
===================================================================
第一个
===================================================================
try{
CString sql;
sql.Format("select * from p
- 表单重复提交Double Submits
rensanning
double
可能发生的场景:
*多次点击提交按钮
*刷新页面
*点击浏览器回退按钮
*直接访问收藏夹中的地址
*重复发送HTTP请求(Ajax)
(1)点击按钮后disable该按钮一会儿,这样能避免急躁的用户频繁点击按钮。
这种方法确实有些粗暴,友好一点的可以把按钮的文字变一下做个提示,比如Bootstrap的做法:
http://getbootstrap.co
- Java String 十大常见问题
tomcat_oracle
java正则表达式
1.字符串比较,使用“==”还是equals()? "=="判断两个引用的是不是同一个内存地址(同一个物理对象)。 equals()判断两个字符串的值是否相等。 除非你想判断两个string引用是否同一个对象,否则应该总是使用equals()方法。 如果你了解字符串的驻留(String Interning)则会更好地理解这个问题。
- SpringMVC 登陆拦截器实现登陆控制
xp9802
springMVC
思路,先登陆后,将登陆信息存储在session中,然后通过拦截器,对系统中的页面和资源进行访问拦截,同时对于登陆本身相关的页面和资源不拦截。
实现方法:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23