- Linux|ubuntu22.04安装CUDA最新完整教程
文章目录一、安装前准备工作查看GPU和型号查看GCC版本*下载gcc12*检查驱动二、安装CUDAToolkit*安装驱动三、安装后的工作必要操作推荐的操作开启守护进程模式删除本地下载安装包四、验证删除CUDA常见问题及解决方案还需要安装cuDNN吗?nvcc:Nosuchfileordirectory“errorwhileloadingsharedlibraries::cannotopensha
- Ubuntu22.04安装CUDA12.1 cuDNN8.9.7 pytorch2.2.2
快乐的笨笨
linux
当前安装的电脑配置:电脑名称:暗影精灵5系统名称:Ubuntu22.04.4LTS操作系统类型:64位内存:8.0Gib处理器:Intel®Core™
[email protected]显卡:NVIDIACorporationTU117M[GeForceGTX1650Mobile/Max-Q]MesaI...安装前准备:需要安装对应的NVIDIA驱动程序、配置CUDA依赖环境g++gccm
- Deep Global Registration 代码环境配置(rtx3090+python3.8+cuda11.1+pytorch1.7+MinkowskiEngine0.5.1)
JPy646
pytorch深度学习神经网络
前言踩过的坑:因为rtx3090最低算力是8.6,似乎不支持过低版本的cuda。试过pytorch1.7.0+cuda11.0,但会报错,由于cuda11.0支持的最高算力达不到rtx最低的要求。但配置pytorch1.8时DGR的代码运行时会报错。对于没有这个烦恼的还是推荐安装python3.6+cuda10.2+pytorch1.6+MinkowskiEngine0.4.3,这个配置无需改动代
- RTX50系显卡+CUDA+torch+python对应关系
前言本人的显卡是RTX5070,使用时发现它对CUDA、torch和python版本有要求,试图按照老项目的依赖文件进行安装发现安不了,因此记录一下(截至2025年6月)。提示:以下是本篇文章正文内容,下面案例可供参考一、RTX50系显卡只能使用CUDA12.8二、目前只支持torch2.7.0和2.7.11.去pytorch官网的https://download.pytorch.org/whl/
- LoRA微调详解:如何为AIGC模型节省90%显存
SuperAGI2025
AI大模型应用开发宝典AIGCai
LoRA微调详解:如何为AIGC模型节省90%显存关键词:LoRA、低秩适应、AIGC模型、参数高效微调、显存优化摘要:在AIGC(人工智能生成内容)领域,大模型(如GPT-3、LLaMA、StableDiffusion)的微调需要消耗海量显存,普通用户或企业难以负担。本文将深入解析LoRA(Low-RankAdaptation,低秩适应)这一参数高效微调技术,通过生活类比、数学原理、代码实战和应
- ReBEL模型的本地部署与运行,用于三元组抽取任务(事件抽取、知识抽取)
1.服务器CUDA11.72.依赖condacreate-nrebel_envpython=3.10-ycondaactivaterebel_env#安装PyTorch(建议与CUDA11.7配合)pipinstalltorchtorchvisiontorchaudio--index-urlhttps://download.pytorch.org/whl/cu117#安装Transformers和
- 大模型-FlashAttention 算法分析
清风lsq
大模型推理算法算法大模型推理LLMflashattention
一、FlashAttention的概述FlashAttention是一种IO感知精确注意力算法。通过感知显存读取/写入,FlashAttention的运行速度比PyTorch标准Attention快了2-4倍,所需内存也仅是其5%-20%。随着Transformer变得越来越大、越来越深,但它在长序列上仍然处理的很慢、且耗费内存。(自注意力时间和显存复杂度与序列长度成二次方),现有近似注意力方法,
- 【模型部署】如何在Linux中通过脚本文件部署模型
满怀1015
人工智能linux网络人工只能模型部署
在Linux中,你可以将部署命令保存为可执行脚本文件,并通过终端直接调用。以下是几种常见且实用的方法:方法1:Shell脚本(推荐)步骤创建一个.sh文件(例如start_vllm.sh):#!/bin/bashCUDA_VISIBLE_DEVICES=7\python-mvllm.entrypoints.openai.api_server\--served-model-nameQwen2-7B-
- 使用GPU进行机器学习训练时,如果GPU-Util计算核心满载工作但是显存占用较少,应该如何优化?
十子木
机器学习深度学习人工智能
是否需要优化?如果任务运行正常:无需干预(GPU设计本就是优先榨干计算性能)。如果出现卡顿或效率低下:增大batch_size:提升显存占用,减少数据搬运次数(但需避免OOM)。启用混合精度:torch.cuda.amp可减少显存占用并加速计算。检查CPU到GPU的数据流:避免频繁的小数据拷贝(如DataLoader的num_workers设置)。
- 机器学习中为什么要用混合精度训练
十子木
机器学习机器学习人工智能
目录FP16与显存占用关系机器学习中一般使用混合精度训练:FP16计算+FP32存储关键变量。FP16与显存占用关系显存(VideoRAM,简称VRAM)是显卡(GPU)专用的内存。FP32(单精度浮点):传统深度学习默认使用32位浮点数每个参数占用`4字节`例如:1亿参数的模型→约400MB显存FP16(半精度浮点):每个参数占用`2字节`(直接减半)相同模型→约200MB显存双精度浮点(FP6
- 使用虚幻引擎5(UE5)开发游戏的最低配置推荐
知1而N
UE5-游戏引擎虚幻5最佳实践ue5游戏
一、最低系统配置(可运行引擎)组件要求说明来源操作系统Windows1064位(版本20H2或更高)处理器4核CPU(如Inteli5-4590或AMDRyzen51600),主频≥3.0GHz内存8GBRAM(推荐32GB以上,复杂场景需64GB)显卡NVIDIAGTX970(4GB显存)或AMDRadeonR9290(4GB显存)存储100GBSSD(项目文件占用空间随复杂度增长)Direct
- pytorch底层原理学习--PyTorch 架构梳理
xinxiangwangzhi_
深度学习pytorch架构人工智能
文章目录PyTorch完整架构流程图关键组件详解完整执行流程示例PyTorch架构梳理PyTorch完整架构流程图硬件层后端层C++部署层核心引擎(libtorchC++)绑定层Python层加载调用训练模式编译模式推理模式生成CPUGPUCPUKernelsCUDAKernelsC++代码torch::jit::load('model.pt')module.forward(inputs)libt
- OpenCV CUDA模块设备层-----双曲正切函数tanh()
村北头的码农
OpenCVopencv人工智能计算机视觉
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述OpenCV的CUDA模块(cudev)中的一个设备函数,用于在GPU上对uchar4类型的向量(如RGBA像素)进行双曲正切(hyperbolictangent)运算,并返回一个float4类型的结果。函数原型__device____forceinline__f
- OpenCV CUDA模块设备层-----二值化阈值操作函数thresh_binary_func()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述OpenCV的CUDA模块(cudev)中的一个设备和主机通用函数(host/devicefunction),用于创建一个二值化阈值操作函数对象(functor)。这个函数返回一个仿函数(functor),用于在GPU上执行二值化阈值处理(ThresholdBin
- 从源码编译 ONNX Runtime GPU 1.18.2 并验证 CUDA 推理成功
草莓奶忻
SLAM基础Deep+SLAMubuntu
文章目录从源码编译ONNXRuntimeGPU1.18.2并验证CUDA推理成功【实测环境+完整步骤】✅环境信息(实测成功)第一步:获取源码️第二步:编译命令参数说明(重点)第三步:安装构建好的`.whl`✅第四步:验证是否成功启用GPU方法1:命令行快速验证方法2:加载模型并查看执行设备⚠️常见警告说明(可忽略)✅总结从源码编译ONNXRuntimeGPU1.18.2并验证CUDA推理成功【实测
- FP16、BF16、INT8、INT4精度模型加载所需显存以及硬件适配的分析
herosunly
大模型精度BF16硬件适配
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。 本文主要介绍了FP16、INT8、INT4精度模型加载占用显存大小的分析,希望对学习大
- 【机器学习&深度学习】适合微调的模型选型指南
一叶千舟
深度学习【应用必备常识】深度学习人工智能
目录一、不同规模模型微调适用性二、微调技术类型对显存的影响三、选择建议(根据你的硬件)四、实际模型推荐五、不同模型适合人群六、推荐几个“非常适合微调”的模型七、推荐使用的微调技术八、场景选择示例场景1:智能客服(中文)场景2:法律问答(中文RAG)场景3:医学问答/健康咨询场景4:AI写作助手(中英文)场景5:代码补全/AI编程助手对比总结表九、不同参数模型特点9.1参数规模vs能力9.2微型模型
- 【机器学习&深度学习】本地部署 vs API调用:关键看显存!
一叶千舟
深度学习【应用必备常识】深度学习人工智能
目录一、本地部署VSAPI调用1.模型运行方式2.性能与速度3.成本4.隐私与安全5.何时选择哪种方式?二、为什么推荐本地部署?1️⃣零依赖网络和外部服务,更可靠稳定2️⃣无调用次数限制,更适合高频或批量推理3️⃣避免长期API费用,节省成本4️⃣保护用户隐私和数据安全5️⃣可自定义、深度优化6️⃣加载一次即可复用,低延迟高性能7️⃣离线可用(重要!)三、适合本地部署的情况四、本地部署条件4.1模
- Ubuntu 22.04 庙算平台训练环境搭建指南
笑衬人心。
ubuntulinux深度学习
本文记录了基于Ubuntu22.04.3LTS的训练环境搭建过程,适用于需要部署庙算推演离线平台的用户,支持GPU(可选)。一、训练环境搭建●硬件要求操作系统:Linux(推荐Ubuntu22.04.3LTS)可选配置:NVIDIAGPU(CUDA支持)1.Linux环境搭建建议双系统安装Ubuntu,具体参考如下教程:参考教程:Windows和Ubuntu双系统的安装和卸载(哔哩哔哩)2.GPU
- YOLOv12_ultralytics-8.3.145_2025_5_27部分代码阅读笔记-torch_utils.py
红色的山茶花
YOLO笔记深度学习
torch_utils.pyultralytics\utils\torch_utils.py目录torch_utils.py1.所需的库和模块2.defsmart_inference_mode():3.defautocast(enabled:bool,device:str="cuda"):4.deftime_sync():5.deffuse_conv_and_bn(conv,bn):6.deffu
- 本地部署Qwen3小参数版本实测:并非鸡肋
程序员寒山
qwen3模型测试本地部署大模型
大家好,我是程序员寒山。都说本地部署大模型是鸡肋,真的是这样吗?今天,咱们就来实际测试一下,看看Qwen3小参数版本在本地部署后的表现究竟如何。为什么有人觉得本地部署大模型是鸡肋?一方面,本地部署需要一定的技术门槛,从环境配置到模型安装,每一步都有可能出现问题。另一方面,大模型对硬件要求较高,尤其是对GPU的性能和显存容量有一定要求。如果硬件不达标,模型运行起来可能会很慢,甚至根本无法运行。而且,
- YOLOV10的tensorrt C++部署
dddccc1234
YOLO
根据博客进行python版本安装YOLOv10最全使用教程(含ONNX和TensorRT推理)-CSDN博客并将pt转为onnx:yoloexportmodel=yolov10s.ptformat=onnxopset=13simplify然后采用:https://github.com/hamdiboukamcha/yolov10-tensorrt.git进行c++编译配置好cuda11.7tens
- CARLsim开源程序 是一个高效、易用、GPU 加速的软件框架,用于模拟具有高度生物细节的大规模脉冲神经网络 (SNN) 模型。
struggle2025
神经网络人工智能深度学习
一、软件介绍文末提供程序和源码下载CARLsim是一个高效、易用的GPU加速库,用于模拟具有高度生物学细节的大规模脉冲神经网络(SNN)模型。CARLsim允许在通用x86CPU和标准现成GPU上以逼真的突触动力学执行Izhikevich脉冲神经元网络。该模拟器在C/C++中提供了一个类似PyNN的编程接口,允许在突触、神经元和网络级别指定详细信息和参数。二、CARLsim6的新功能包括:CUDA
- 遥感影像数据处理-大图滑窗切分为小图
GIS潮流
遥感语义分割
功能需求据所周知,遥感影像的尺寸有大有小,大的达到几万x几万像素,而图像分割算法模型在训练中尺寸适中,比如256x256,512x512,1024x1024等等,如果直接将遥感影像的原图输入模型中进行训练,大概率会提示内存和显存不足,因此针对遥感影像的模型训练,一般都需要将影像裁剪为小图。裁剪后的效果图如下:解决思路基于上面的需求,写了一套裁剪算法流程。主要考虑的是在裁剪过程中,从左往右、从上到下
- Deepfacelive安装报错解决记录
matouxiao
conda
去c盘:windows/system32目录下面找不能load的文件比如kernel132.dll,然后copy到.\DeepFaceLive_NVIDIA\_internal\CUDA\bin目录下就能运行
- 使用 Xinference 命令行工具(xinference launch)部署 Nanonets-OCR-s
没刮胡子
Linux服务器技术人工智能AI软件开发技术实战专栏ocr
使用Xinference命令行工具(xinferencelaunch)部署Nanonets-OCR-s一、核心优势与适用场景通过xinferencelaunch命令可直接在命令行完成模型部署,无需编写Python代码,适合快速验证或生产环境批量部署。二、部署步骤:从命令行启动模型1.确认环境与依赖已安装Xinference:pipinstall"xinference[all]"GPU显存≥9GB(
- tensorRT 与 torchserve-GPU性能对比
joker-G
计算机视觉pytorchpython
实验对比前端时间搭建了TensorRT、Torchserve-GPU,最近抽时间将这两种方案做一个简单的实验对比。实验数据Cuda11.0、Xeon®62423.1*80、RTX309024G、Resnet50TensorRT、Torchserve-GPU各自一张卡搭建10进程接口,感兴趣的可以查看我个人其他文章。30进程并发、2000张1200*720像素图像的总量数据TensorRT的部署使用
- 141G显存H20单机DeepSeek-R1满血FP8版性能测试
#环境参数#H20141G单机8卡,CUDA12.4,vLLMv0.8.3,flashinferv0.2.2#服务化命令#基于知乎大神的推荐出装与前期H800双机生产环境测试,在H20上开启EP、MLA等核心优化参数,实现推理吞吐性能最优吞吐量破10000tokens/s,VLLM0.8.1版本驱动下的Deepseek-r1671Bhttps://zhuanlan.zhihu.com/p/1887
- 随机存储器有哪些,只读存储器又有哪些
我推是大富翁
计算机组成原理计算机组成原理
一、随机存储器(RAM,易失性,断电数据丢失)1.静态RAM(SRAM)特点:用触发器存储数据,无需刷新,速度极快(纳秒级),但容量小、成本高。用途:CPU缓存(如L1/L2/L3Cache)。2.动态RAM(DRAM)特点:用电容存储,需定期刷新,速度较慢(微秒级),容量大、成本低。变种:SDRAM:同步DRAM(如DDR3/DDR4/DDR5,电脑内存条)。VRAM:显卡专用显存,支持高速图像
- AI算力综述和资料整理
木鱼时刻
人工智能
目录总体介绍计算精度传输协议GPU池化资源调度CUDA技术GPU硬件参考链接总体介绍AI算力是人工智能系统的核心基础设施,涵盖了从计算精度、传输协议到硬件架构的完整技术栈。计算精度混合精度训练原生满血版DeepSeek671B是FP8精度。FP16在训练计算力占比有80-90%,FP32占比10%-20%。大模型训练中通常会用到FP16(半精度浮点数),但并不是只使用FP16,而是采用**混合精度
- java封装继承多态等
麦田的设计者
javaeclipsejvmcencapsulatopn
最近一段时间看了很多的视频却忘记总结了,现在只能想到什么写什么了,希望能起到一个回忆巩固的作用。
1、final关键字
译为:最终的
&
- F5与集群的区别
bijian1013
weblogic集群F5
http请求配置不是通过集群,而是F5;集群是weblogic容器的,如果是ejb接口是通过集群。
F5同集群的差别,主要还是会话复制的问题,F5一把是分发http请求用的,因为http都是无状态的服务,无需关注会话问题,类似
- LeetCode[Math] - #7 Reverse Integer
Cwind
java题解MathLeetCodeAlgorithm
原题链接:#7 Reverse Integer
要求:
按位反转输入的数字
例1: 输入 x = 123, 返回 321
例2: 输入 x = -123, 返回 -321
难度:简单
分析:
对于一般情况,首先保存输入数字的符号,然后每次取输入的末位(x%10)作为输出的高位(result = result*10 + x%10)即可。但
- BufferedOutputStream
周凡杨
首先说一下这个大批量,是指有上千万的数据量。
例子:
有一张短信历史表,其数据有上千万条数据,要进行数据备份到文本文件,就是执行如下SQL然后将结果集写入到文件中!
select t.msisd
- linux下模拟按键输入和鼠标
被触发
linux
查看/dev/input/eventX是什么类型的事件, cat /proc/bus/input/devices
设备有着自己特殊的按键键码,我需要将一些标准的按键,比如0-9,X-Z等模拟成标准按键,比如KEY_0,KEY-Z等,所以需要用到按键 模拟,具体方法就是操作/dev/input/event1文件,向它写入个input_event结构体就可以模拟按键的输入了。
linux/in
- ContentProvider初体验
肆无忌惮_
ContentProvider
ContentProvider在安卓开发中非常重要。与Activity,Service,BroadcastReceiver并称安卓组件四大天王。
在android中的作用是用来对外共享数据。因为安卓程序的数据库文件存放在data/data/packagename里面,这里面的文件默认都是私有的,别的程序无法访问。
如果QQ游戏想访问手机QQ的帐号信息一键登录,那么就需要使用内容提供者COnte
- 关于Spring MVC项目(maven)中通过fileupload上传文件
843977358
mybatisspring mvc修改头像上传文件upload
Spring MVC 中通过fileupload上传文件,其中项目使用maven管理。
1.上传文件首先需要的是导入相关支持jar包:commons-fileupload.jar,commons-io.jar
因为我是用的maven管理项目,所以要在pom文件中配置(每个人的jar包位置根据实际情况定)
<!-- 文件上传 start by zhangyd-c --&g
- 使用svnkit api,纯java操作svn,实现svn提交,更新等操作
aigo
svnkit
原文:http://blog.csdn.net/hardwin/article/details/7963318
import java.io.File;
import org.apache.log4j.Logger;
import org.tmatesoft.svn.core.SVNCommitInfo;
import org.tmateso
- 对比浏览器,casperjs,httpclient的Header信息
alleni123
爬虫crawlerheader
@Override
protected void doGet(HttpServletRequest req, HttpServletResponse res) throws ServletException, IOException
{
String type=req.getParameter("type");
Enumeration es=re
- java.io操作 DataInputStream和DataOutputStream基本数据流
百合不是茶
java流
1,java中如果不保存整个对象,只保存类中的属性,那么我们可以使用本篇文章中的方法,如果要保存整个对象 先将类实例化 后面的文章将详细写到
2,DataInputStream 是java.io包中一个数据输入流允许应用程序以与机器无关方式从底层输入流中读取基本 Java 数据类型。应用程序可以使用数据输出流写入稍后由数据输入流读取的数据。
- 车辆保险理赔案例
bijian1013
车险
理赔案例:
一货运车,运输公司为车辆购买了机动车商业险和交强险,也买了安全生产责任险,运输一车烟花爆竹,在行驶途中发生爆炸,出现车毁、货损、司机亡、炸死一路人、炸毁一间民宅等惨剧,针对这几种情况,该如何赔付。
赔付建议和方案:
客户所买交强险在这里不起作用,因为交强险的赔付前提是:“机动车发生道路交通意外事故”;
如果是交通意外事故引发的爆炸,则优先适用交强险条款进行赔付,不足的部分由商业
- 学习Spring必学的Java基础知识(5)—注解
bijian1013
javaspring
文章来源:http://www.iteye.com/topic/1123823,整理在我的博客有两个目的:一个是原文确实很不错,通俗易懂,督促自已将博主的这一系列关于Spring文章都学完;另一个原因是为免原文被博主删除,在此记录,方便以后查找阅读。
有必要对
- 【Struts2一】Struts2 Hello World
bit1129
Hello world
Struts2 Hello World应用的基本步骤
创建Struts2的Hello World应用,包括如下几步:
1.配置web.xml
2.创建Action
3.创建struts.xml,配置Action
4.启动web server,通过浏览器访问
配置web.xml
<?xml version="1.0" encoding="
- 【Avro二】Avro RPC框架
bit1129
rpc
1. Avro RPC简介 1.1. RPC
RPC逻辑上分为二层,一是传输层,负责网络通信;二是协议层,将数据按照一定协议格式打包和解包
从序列化方式来看,Apache Thrift 和Google的Protocol Buffers和Avro应该是属于同一个级别的框架,都能跨语言,性能优秀,数据精简,但是Avro的动态模式(不用生成代码,而且性能很好)这个特点让人非常喜欢,比较适合R
- lua set get cookie
ronin47
lua cookie
lua:
local access_token = ngx.var.cookie_SGAccessToken
if access_token then
ngx.header["Set-Cookie"] = "SGAccessToken="..access_token.."; path=/;Max-Age=3000"
end
- java-打印不大于N的质数
bylijinnan
java
public class PrimeNumber {
/**
* 寻找不大于N的质数
*/
public static void main(String[] args) {
int n=100;
PrimeNumber pn=new PrimeNumber();
pn.printPrimeNumber(n);
System.out.print
- Spring源码学习-PropertyPlaceholderHelper
bylijinnan
javaspring
今天在看Spring 3.0.0.RELEASE的源码,发现PropertyPlaceholderHelper的一个bug
当时觉得奇怪,上网一搜,果然是个bug,不过早就有人发现了,且已经修复:
详见:
http://forum.spring.io/forum/spring-projects/container/88107-propertyplaceholderhelper-bug
- [逻辑与拓扑]布尔逻辑与拓扑结构的结合会产生什么?
comsci
拓扑
如果我们已经在一个工作流的节点中嵌入了可以进行逻辑推理的代码,那么成百上千个这样的节点如果组成一个拓扑网络,而这个网络是可以自动遍历的,非线性的拓扑计算模型和节点内部的布尔逻辑处理的结合,会产生什么样的结果呢?
是否可以形成一种新的模糊语言识别和处理模型呢? 大家有兴趣可以试试,用软件搞这些有个好处,就是花钱比较少,就算不成
- ITEYE 都换百度推广了
cuisuqiang
GoogleAdSense百度推广广告外快
以前ITEYE的广告都是谷歌的Google AdSense,现在都换成百度推广了。
为什么个人博客设置里面还是Google AdSense呢?
都知道Google AdSense不好申请,这在ITEYE上也不是讨论了一两天了,强烈建议ITEYE换掉Google AdSense。至少,用一个好申请的吧。
什么时候能从ITEYE上来点外快,哪怕少点
- 新浪微博技术架构分析
dalan_123
新浪微博架构
新浪微博在短短一年时间内从零发展到五千万用户,我们的基层架构也发展了几个版本。第一版就是是非常快的,我们可以非常快的实现我们的模块。我们看一下技术特点,微博这个产品从架构上来分析,它需要解决的是发表和订阅的问题。我们第一版采用的是推的消息模式,假如说我们一个明星用户他有10万个粉丝,那就是说用户发表一条微博的时候,我们把这个微博消息攒成10万份,这样就是很简单了,第一版的架构实际上就是这两行字。第
- 玩转ARP攻击
dcj3sjt126com
r
我写这片文章只是想让你明白深刻理解某一协议的好处。高手免看。如果有人利用这片文章所做的一切事情,盖不负责。 网上关于ARP的资料已经很多了,就不用我都说了。 用某一位高手的话来说,“我们能做的事情很多,唯一受限制的是我们的创造力和想象力”。 ARP也是如此。 以下讨论的机子有 一个要攻击的机子:10.5.4.178 硬件地址:52:54:4C:98
- PHP编码规范
dcj3sjt126com
编码规范
一、文件格式
1. 对于只含有 php 代码的文件,我们将在文件结尾处忽略掉 "?>" 。这是为了防止多余的空格或者其它字符影响到代码。例如:<?php$foo = 'foo';2. 缩进应该能够反映出代码的逻辑结果,尽量使用四个空格,禁止使用制表符TAB,因为这样能够保证有跨客户端编程器软件的灵活性。例
- linux 脱机管理(nohup)
eksliang
linux nohupnohup
脱机管理 nohup
转载请出自出处:http://eksliang.iteye.com/blog/2166699
nohup可以让你在脱机或者注销系统后,还能够让工作继续进行。他的语法如下
nohup [命令与参数] --在终端机前台工作
nohup [命令与参数] & --在终端机后台工作
但是这个命令需要注意的是,nohup并不支持bash的内置命令,所
- BusinessObjects Enterprise Java SDK
greemranqq
javaBOSAPCrystal Reports
最近项目用到oracle_ADF 从SAP/BO 上调用 水晶报表,资料比较少,我做一个简单的分享,给和我一样的新手 提供更多的便利。
首先,我是尝试用JAVA JSP 去访问的。
官方API:http://devlibrary.businessobjects.com/BusinessObjectsxi/en/en/BOE_SDK/boesdk_ja
- 系统负载剧变下的管控策略
iamzhongyong
高并发
假如目前的系统有100台机器,能够支撑每天1亿的点击量(这个就简单比喻一下),然后系统流量剧变了要,我如何应对,系统有那些策略可以处理,这里总结了一下之前的一些做法。
1、水平扩展
这个最容易理解,加机器,这样的话对于系统刚刚开始的伸缩性设计要求比较高,能够非常灵活的添加机器,来应对流量的变化。
2、系统分组
假如系统服务的业务不同,有优先级高的,有优先级低的,那就让不同的业务调用提前分组
- BitTorrent DHT 协议中文翻译
justjavac
bit
前言
做了一个磁力链接和BT种子的搜索引擎 {Magnet & Torrent},因此把 DHT 协议重新看了一遍。
BEP: 5Title: DHT ProtocolVersion: 3dec52cb3ae103ce22358e3894b31cad47a6f22bLast-Modified: Tue Apr 2 16:51:45 2013 -070
- Ubuntu下Java环境的搭建
macroli
java工作ubuntu
配置命令:
$sudo apt-get install ubuntu-restricted-extras
再运行如下命令:
$sudo apt-get install sun-java6-jdk
待安装完毕后选择默认Java.
$sudo update- alternatives --config java
安装过程提示选择,输入“2”即可,然后按回车键确定。
- js字符串转日期(兼容IE所有版本)
qiaolevip
TODateStringIE
/**
* 字符串转时间(yyyy-MM-dd HH:mm:ss)
* result (分钟)
*/
stringToDate : function(fDate){
var fullDate = fDate.split(" ")[0].split("-");
var fullTime = fDate.split("
- 【数据挖掘学习】关联规则算法Apriori的学习与SQL简单实现购物篮分析
superlxw1234
sql数据挖掘关联规则
关联规则挖掘用于寻找给定数据集中项之间的有趣的关联或相关关系。
关联规则揭示了数据项间的未知的依赖关系,根据所挖掘的关联关系,可以从一个数据对象的信息来推断另一个数据对象的信息。
例如购物篮分析。牛奶 ⇒ 面包 [支持度:3%,置信度:40%] 支持度3%:意味3%顾客同时购买牛奶和面包。 置信度40%:意味购买牛奶的顾客40%也购买面包。 规则的支持度和置信度是两个规则兴
- Spring 5.0 的系统需求,期待你的反馈
wiselyman
spring
Spring 5.0将在2016年发布。Spring5.0将支持JDK 9。
Spring 5.0的特性计划还在工作中,请保持关注,所以作者希望从使用者得到关于Spring 5.0系统需求方面的反馈。