- 已解决:python多线程使用TensorRT输出为零?附tensorrt推理代码
李卓璐
算法实战python开发语言
我是多个不同类型的模型多线程调用报错。设备:cuda12.1,cudnn8.9.2,tensorrt8.6.11.问题tensorrt的推理没输出???有输入:想要的输出:原因:多进程时,每进程应单独调用importpycuda.driverascuda和cuda.init(),完成初始化CUDA驱动,并需要使用self.cfx.push()和self.cfx.pop()管理CUDA上下文,以保证
- Ubuntu20.04 RTX4060 AI环境搭建
stxinu
人工智能人工智能
下面记录在Ubuntu20.04环境下,使用ASUSATS-RTX4060-O8G-V2显卡,搭建NvidiaTensorRT开发环境。1.安装步骤0)准备工作使用如下命令创建我们的工作目录:mkdir~/nvidia再使用如下命令进入到上面的目录(接下来的步骤,如无特殊说明,均在该目录下进行):cd~/nvidia1)安装CUDA下载并安装NVIDIACUDAToolkit:wgethttps:
- CMake Error at myplugins_generated_yololayer.cu.o.Debug,tensorrtx编译失败解决
雪可问春风
BUG人工智能
system:ubuntu1804gpu:3060cuda:cuda11.4tensorrt:8.4使用项目tensorrtx进行yolov5的engine生成,之前在编译成功的配置为system:ubuntu1804gpu:2060cuda:cuda10.2tensorrt:7.2.3.4换到3060后,make失败,报错错误:/home/yfzx/work/vs-work/tensorrt-y
- TensorRT-LLM保姆级教程-快速入门
大模型八哥
笔记agiai大模型ai大模型LLMTransformer
随着大模型的爆火,投入到生产环境的模型参数量规模也变得越来越大(从数十亿参数到千亿参数规模),从而导致大模型的推理成本急剧增加。因此,市面上也出现了很多的推理框架,用于降低模型推理延迟以及提升模型吞吐量。本系列将针对TensorRT-LLM推理进行讲解。本文为该系列第一篇,将简要概述TensorRT-LLM的基本特性。另外,我撰写的大模型相关的博客及配套代码均整理放置在Github,有需要的朋友自
- 本地部署时,如何通过硬件加速(如 CUDA、TensorRT)提升 DeepSeek 的推理性能?不同显卡型号的兼容性如何测试?
百态老人
人工智能科技算法vscode
本地部署DeepSeek模型的硬件加速优化与显卡兼容性测试指南一、硬件加速技术实现路径CUDA基础环境搭建版本匹配原则:根据显卡架构选择CUDA版本(如NVIDIARTX50系列需CUDA12+,V100需CUDA11.x),并通过nvcc--version验证安装。GPU加速验证:运行以下代码检查硬件加速状态:importtensorflowastfprint("可用GPU数量:",len(tf
- 人工智能 - TensorRT与DeepDP终极指南:释放GPU潜能的深度学习推理优化之道
天机️灵韵
具身智能VLA人工智能人工智能算法深度学习pytorch
TensorRTTensorRT(TensorRuntime)是英伟达(NVIDIA)推出的高性能深度学习推理(Inference)优化器和运行时库,专为在NVIDIAGPU上高效部署深度学习模型而设计。它通过模型压缩、计算图优化、硬件级加速等技术,显著提升推理速度并降低资源消耗,广泛应用于自动驾驶、工业检测、实时视频分析等对延迟敏感的领域。一、TensorRT的核心功能模型优化与加速层融合(La
- onnx处理和TensorRT量化推理相关代码工具
天亮换季
人工智能算法深度学习
一.说明 在模型量化过程中,经常要使用一些工具对onnx或者量化后的模型(这里以TensorRT为例)进行推理,往往需要一些处理工具,比如:拆分或者合并onnx;修改onnx中的量算子QuantizeLinear的scale值;以及使用onnxruntime进行推理;TensorRT的序列化文件的inference;隐式量化生成量化校准表…现提供一些封装好的工具,作为记录,方便日后查阅使用"
- CUDA12.1 cudnn9.0.1 python3.10.12配置TensorRT8.6.1,完成yolov12tensorRT推理完整过程
李卓璐
算法实战YOLO
一、配置TensorRT8.6.11.下载TensorRT8.6.1包TensorRT完全依赖CUDA,因此下载其版本时一定要考虑CUDA的版本。具体应该下载哪一版本的TensorRT呢,这里我问的秘塔AI,你们也可以问问它。官网地址-tensorRT8.6.1安装包下载2.解压安装包这里要注意,如果你和我一样是给win下的但是要在Linux服务器上使用。千万不要在win的环境下进行安装包的解压操
- ONNX GraphSurgeon详细介绍
Lntano__y
模型部署算法
ONNXGraphSurgeon(ONNX-GS)是一个用于操作和修改ONNX(OpenNeuralNetworkExchange)模型图的Python库。它允许开发者在ONNX模型的图结构中进行修改、优化、插入节点、删除节点以及其他图结构操作,是在深度学习推理部署过程中非常有用的工具。ONNXGraphSurgeon常用于TensorRT中,用来优化和调整ONNX模型,以便于模型可以高效地在GP
- Jetson系列: tensorrt-python推理yolov5(一)
weixin_55083979
jetson系列YOLOpytorch深度学习
目录一.onnx模型导出二.TensorRT模型本地序列化三.算法整体Pipline架构四.算法整体Pipline实现一.onnx模型导出在使用tensorrt进行加速之前需要将自己的torch模型转为onnx格式的,这个操作很基础就不赘述了,自己根据自己的任务、部署设备选择合适的batch/infersize/opsetyolov5官方导出onnx脚本Example:```pythonfromp
- 【深度学习模型高效部署】tensorRT_Pro深度解读:部署深度学习模型的高效方案
云博士的AI课堂
深度学习哈佛博后带你玩转机器学习深度学习人工智能tensorRT_ProTensorRT高性能推理机器学习模型部署
以下内容将对tensorRT_Pro项目做一个系统的介绍,包括其核心价值、主要功能、应用案例以及关键的示例代码(附详细解释),帮助你快速了解并上手如何基于TensorRT在NVIDIAGPU上实现高性能推理。一、项目概述GitHub-shouxieai/tensorRT_Pro:C++librarybasedontensorrtintegrationtensorRT_Pro是由开发者shouxie
- 【yolov8】模型导出----pytorch导出为onnx模型
栗子风暴
YOLOpytorch人工智能深度学习
【yolov8】模型导出一、为什么要使用yolo的导出模式二、确保安装必要的库:三、yolov8模型导出3.1不同格式配置参数3.2导出格式四、导出模型性能优化4.1使用TensorRT导出模型有什么好处?4.2导出YOLOv8模型时,如何启用INT8量化?4.3为什么输出模型时动态输入尺寸很重要?4.4优化模型性能需要考虑哪些关键的导出参数?五、问题六、疑问训练模型的最终目标是将其部署到实际应用
- C++使用Onnxruntime/TensorRT模型推理
奇华智能
AIc++开发语言人工智能AI计算机视觉
onnxruntime和tensorrt是我们常用的两种推理方式,下面整理了两个推理示例,仅供参考。步骤流程模型训练,python下生成pytorch的模型.pth,并基于.pth模型进行推理python下依据模型推理实现从.pth转向.onnxpython下基于.onnx进行推理,与后续两种推理方式种的推理结果进行比较环境windows10+RTX308015GB显存cuda11.3onnxru
- NVIDIA jetson查看资源占用情况,打印/保存资源使用情况日志
低配加班人
jetson日志工具测试工具
1.jtopjtop这个一般都有安装,只能实时查看安装方式为sudo-Hpipinstalljetson-stats运行就是直接jtop即可2.tegrastats这个是jetson自带的工具,可以保存日志到文件,用于测试资源占用有无异常比较好用,如果资源有异常,但是不知道具体现象,可以打开日志功能,再打开异常程序,放在一边跑就行。tegrastats在目录/usr/bin/下使用tegrasta
- cap4:YoloV5的TensorRT部署指南(python版)
我是一个对称矩阵
TensorRT全流程部署指南YOLOpython人工智能TensorRT模型部署
《TensorRT全流程部署指南》专栏文章目录:《TensorRT全流程部署指南》专栏主页cap1:TensorRT介绍及CUDA环境安装cap2:1000分类的ResNet的TensorRT部署指南(python版)cap3:自定义数据集训练ResNet的TensorRT部署指南(python版)cap4:YoloV5目标检测任务的TensorRT部署指南(python版)cap5:YoloV5
- PyTorch `.pth` 转 ONNX:从模型训练到跨平台部署
MO__YE
人工智能
PyTorch.pth转ONNX:从模型训练到跨平台部署在深度学习里,模型的格式决定了它的可用性。如果你是PyTorch用户,你可能熟悉.pth文件,它用于存储训练好的模型。但当你想在不同的环境(如TensorRT、OpenVINO、ONNXRuntime)部署模型时,.pth可能并不适用。这时,ONNX(OpenNeuralNetworkExchange)就必不可少。本文目录:什么是.pth文件
- PyTorch `.pth` 转 ONNX:从模型训练到跨平台部署
MO__YE
pytorch人工智能python
PyTorch.pth转ONNX:从模型训练到跨平台部署在深度学习里,模型的格式决定了它的可用性。如果你是PyTorch用户,你可能熟悉.pth文件,它用于存储训练好的模型。但当你想在不同的环境(如TensorRT、OpenVINO、ONNXRuntime)部署模型时,.pth可能并不适用。这时,ONNX(OpenNeuralNetworkExchange)就必不可少。本文目录:什么是.pth文件
- [C#]C#使用yolov8的目标检测tensorrt模型+bytetrack实现目标追踪
FL1623863129
深度学习c#YOLO目标检测
【测试通过环境】win10x64vs2019cuda11.7+cudnn8.8.0TensorRT-8.6.1.6opencvsharp==4.9.0.NETFramework4.7.2NVIDIAGeForceRTX2070Super版本和上述环境版本不一样的需要重新编译TensorRtExtern.dll,TensorRtExtern源码地址:TensorRT-CSharp-API/src/T
- c++加载TensorRT调用深度学习模型方法
feibaoqq
深度学习深度学习YOLO
使用TensorRT来调用训练好的模型并输出结果是一个高效的推理过程,特别是在需要低延迟和高吞吐量的应用场景中。以下是一个基本的步骤指南,展示了如何在C++中使用TensorRT进行推理。步骤1:准备环境安装TensorRT:确保你已经安装了NVIDIATensorRT库。准备模型:确保你的训练好的模型已经转换为TensorRT支持的格式,通常是一个.engine文件。你可以使用onnx-tens
- tensorrt推理 onxx转engine代码(python),cyclegan网络推理(python、C++)
maobin_1
pythonc++
将onnx文件导出为engine,FP16格式importtensorrtastrtimportpycuda.driverascudaimportpycuda.autoinit#加载ONNX文件onnx_file_path='model.onnx'engine_file_path='model_tesfp16.trt'TRT_LOGGER=trt.Logger(trt.Logger.WARNI
- 模型实战(19)之 从头搭建yolov9环境+tensorrt部署+CUDA前处理 -> 实现目标检测
明月醉窗台
#深度学习实战例程目标检测人工智能计算机视觉图像处理YOLO
从头搭建yolov9环境+tensorrt部署实现目标检测yolov9虚拟环境搭建实现训练、推理与导出导出onnx并转为tensorrt模型Python\C++-trt实现推理,CUDA实现图像前处理文中将给出详细实现源码python、C++效果如下:output_video_11.搭建环境拉下官方代码根据配置下载虚拟环境所需包详细步骤如下:
- pytorch深度学习模型推理和部署、pytorch&ONNX&tensorRT模型转换以及python和C++版本部署
机械心
深度学习pythonpytorch
目录1.采用pytorch进行推理2.采用onnx进行推理2.1pytorch转换为onnx2.2onnx推理3.采用tensorrt进行推理(python环境)3.1onnx转engine文件3.2tensorrt推理4.采用tensorrt进行推理(c++环境)5.采用torch2trt进行推理(python环境)在pytorch框架下,可以很方便进行深度学习模型的搭建、训练和保存。当模型训练
- 【Windows/C++/yolo开发部署03】将实例分割模型ONNX导出为 TensorRT 引擎:完整记录
认识祂
CV计算机视觉Ultralyticsyolo实例分割模型部署
【完整项目下载地址】:【TensorRT部署YOLO项目:实例分割+目标检测】+【C++和python两种方式】+【支持linux和windows】资源-CSDN文库目录写在前面环境准备1.使用trtexec将ONNX模型转换为TensorRT引擎2.验证TensorRT引擎2.1TensorRT版本2.2GPU信息2.3TensorRT引擎信息2.4推理请求2.5推理性能2.6警告信息2.7其他
- TensorRT-LLM保姆级教程(一)-快速入门
大模型部署
人工智能transformer产品经理自然语言处理kubernetes大模型LLM
随着大模型的爆火,投入到生产环境的模型参数量规模也变得越来越大(从数十亿参数到千亿参数规模),从而导致大模型的推理成本急剧增加。因此,市面上也出现了很多的推理框架,用于降低模型推理延迟以及提升模型吞吐量。本系列将针对TensorRT-LLM推理进行讲解。本文为该系列第一篇,将简要概述TensorRT-LLM的基本特性。另外,我撰写的大模型相关的博客及配套代码均整理放置在Github:llm-act
- ONNX推理warning: TensorRT does not natively support INT64. Attempting to cast down to INT32.
paradoxjun
人工智能
只想用ONNX进行模型推理,加载时报Warning,加载模型时间也特别长。加载模型的代码:self.session=onnxruntime.InferenceSession(model_path,providers=onnxruntime.get_available_providers())修改为:self.session=onnxruntime.InferenceSession(model_pa
- 通过TenSorRT转换后的engine引擎文件进行验证的脚本
薇憨
深度学习-硬件篇嵌入式硬件mcupython
YOLOv8算法验证pt文件的精度脚本一般都很常见,工程项目里面一般会有importwarningswarnings.filterwarnings('ignore')fromultralyticsimportYOLOif__name__=='__main__':model=YOLO('/best.pt')#权重文件路径model.val(data='/data.yaml',#yaml文件路径spl
- 【TensorRT】引用了NvInferRuntimeCommon.h仍然报找不到ILogger
TechBoL
人工智能
如果编译遇到error:‘ILogger’innamespace‘nvinfer1’doesnotnameatype或者error:‘nvinfer1::ILogger’hasnotbeendeclared可能需要显式的添加#include"NvInfer.h"即只includeNvInferRuntimeCommon.h是不够的。
- nvdia triton server运行pt文件
滑稽的柴犬
神经网络机器学习python
tritonserver默认都是tensorrt推理。但也会出现有操作不支持,导致无法转模型为engine的情况。可以选择直接运行pytorch的pt文件,以下为操作步骤。1.pytorch后端环境编译步骤原理是使用pytorchC++API运行pt文件模型。安装依赖项apt-getinstallpatchelfrapidjson-devpython3-dev构建NGC的PyTorch容器。例如,
- NVIDIA-TensorRT-Python推理
呆呆珝
推理框架python人工智能开发语言
1,前言NVIDIATensorRT进行模型推理的Python实现。TensorRT是一个高性能的深度学习推理优化器和运行时,它能够为深度学习模型提供低延迟和高吞吐量的推理能力。(由于官方文档的使用还是比较简单,也可能自己很菜,参考了别人的文档和自己摸索,写出来这个可以使用的API)2.Python-API推理step1:导入基本库(环境自行配置)#导入TensorRT库importtensorr
- 导出 YOLOv11 模型的详细步骤和说明
old_power
计算机视觉YOLO人工智能计算机视觉
以下是关于如何导出YOLOv11模型的详细步骤和说明:1.导出YOLOv11模型的基本步骤YOLOv11模型可以通过Ultralytics提供的接口轻松导出为多种格式,如ONNX、TensorRT、CoreML等。以下是导出模型的基本步骤:1.1安装Ultralytics库首先,确保已安装Ultralytics库:pipinstallultralytics1.2加载模型并导出使用Python代码加
- js动画html标签(持续更新中)
843977358
htmljs动画mediaopacity
1.jQuery 效果 - animate() 方法 改变 "div" 元素的高度: $(".btn1").click(function(){ $("#box").animate({height:"300px
- springMVC学习笔记
caoyong
springMVC
1、搭建开发环境
a>、添加jar文件,在ioc所需jar包的基础上添加spring-web.jar,spring-webmvc.jar
b>、在web.xml中配置前端控制器
<servlet>
&nbs
- POI中设置Excel单元格格式
107x
poistyle列宽合并单元格自动换行
引用:http://apps.hi.baidu.com/share/detail/17249059
POI中可能会用到一些需要设置EXCEL单元格格式的操作小结:
先获取工作薄对象:
HSSFWorkbook wb = new HSSFWorkbook();
HSSFSheet sheet = wb.createSheet();
HSSFCellStyle setBorder = wb.
- jquery 获取A href 触发js方法的this参数 无效的情况
一炮送你回车库
jquery
html如下:
<td class=\"bord-r-n bord-l-n c-333\">
<a class=\"table-icon edit\" onclick=\"editTrValues(this);\">修改</a>
</td>"
j
- md5
3213213333332132
MD5
import java.security.MessageDigest;
import java.security.NoSuchAlgorithmException;
public class MDFive {
public static void main(String[] args) {
String md5Str = "cq
- 完全卸载干净Oracle11g
sophia天雪
orale数据库卸载干净清理注册表
完全卸载干净Oracle11g
A、存在OUI卸载工具的情况下:
第一步:停用所有Oracle相关的已启动的服务;
第二步:找到OUI卸载工具:在“开始”菜单中找到“oracle_OraDb11g_home”文件夹中
&
- apache 的access.log 日志文件太大如何解决
darkranger
apache
CustomLog logs/access.log common 此写法导致日志数据一致自增变大。
直接注释上面的语法
#CustomLog logs/access.log common
增加:
CustomLog "|bin/rotatelogs.exe -l logs/access-%Y-%m-d.log 
- Hadoop单机模式环境搭建关键步骤
aijuans
分布式
Hadoop环境需要sshd服务一直开启,故,在服务器上需要按照ssh服务,以Ubuntu Linux为例,按照ssh服务如下:
sudo apt-get install ssh
sudo apt-get install rsync
编辑HADOOP_HOME/conf/hadoop-env.sh文件,将JAVA_HOME设置为Java
- PL/SQL DEVELOPER 使用的一些技巧
atongyeye
javasql
1 记住密码
这是个有争议的功能,因为记住密码会给带来数据安全的问题。 但假如是开发用的库,密码甚至可以和用户名相同,每次输入密码实在没什么意义,可以考虑让PLSQL Developer记住密码。 位置:Tools菜单--Preferences--Oracle--Logon HIstory--Store with password
2 特殊Copy
在SQL Window
- PHP:在对象上动态添加一个新的方法
bardo
方法动态添加闭包
有关在一个对象上动态添加方法,如果你来自Ruby语言或您熟悉这门语言,你已经知道它是什么...... Ruby提供给你一种方式来获得一个instancied对象,并给这个对象添加一个额外的方法。
好!不说Ruby了,让我们来谈谈PHP
PHP未提供一个“标准的方式”做这样的事情,这也是没有核心的一部分...
但无论如何,它并没有说我们不能做这样
- ThreadLocal与线程安全
bijian1013
javajava多线程threadLocal
首先来看一下线程安全问题产生的两个前提条件:
1.数据共享,多个线程访问同样的数据。
2.共享数据是可变的,多个线程对访问的共享数据作出了修改。
实例:
定义一个共享数据:
public static int a = 0;
- Tomcat 架包冲突解决
征客丶
tomcatWeb
环境:
Tomcat 7.0.6
win7 x64
错误表象:【我的冲突的架包是:catalina.jar 与 tomcat-catalina-7.0.61.jar 冲突,不知道其他架包冲突时是不是也报这个错误】
严重: End event threw exception
java.lang.NoSuchMethodException: org.apache.catalina.dep
- 【Scala三】分析Spark源代码总结的Scala语法一
bit1129
scala
Scala语法 1. classOf运算符
Scala中的classOf[T]是一个class对象,等价于Java的T.class,比如classOf[TextInputFormat]等价于TextInputFormat.class
2. 方法默认值
defaultMinPartitions就是一个默认值,类似C++的方法默认值
- java 线程池管理机制
BlueSkator
java线程池管理机制
编辑
Add
Tools
jdk线程池
一、引言
第一:降低资源消耗。通过重复利用已创建的线程降低线程创建和销毁造成的消耗。第二:提高响应速度。当任务到达时,任务可以不需要等到线程创建就能立即执行。第三:提高线程的可管理性。线程是稀缺资源,如果无限制的创建,不仅会消耗系统资源,还会降低系统的稳定性,使用线程池可以进行统一的分配,调优和监控。
- 关于hql中使用本地sql函数的问题(问-答)
BreakingBad
HQL存储函数
转自于:http://www.iteye.com/problems/23775
问:
我在开发过程中,使用hql进行查询(mysql5)使用到了mysql自带的函数find_in_set()这个函数作为匹配字符串的来讲效率非常好,但是我直接把它写在hql语句里面(from ForumMemberInfo fm,ForumArea fa where find_in_set(fm.userId,f
- 读《研磨设计模式》-代码笔记-迭代器模式-Iterator
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.util.Arrays;
import java.util.List;
/**
* Iterator模式提供一种方法顺序访问一个聚合对象中各个元素,而又不暴露该对象内部表示
*
* 个人觉得,为了不暴露该
- 常用SQL
chenjunt3
oraclesqlC++cC#
--NC建库
CREATE TABLESPACE NNC_DATA01 DATAFILE 'E:\oracle\product\10.2.0\oradata\orcl\nnc_data01.dbf' SIZE 500M AUTOEXTEND ON NEXT 50M EXTENT MANAGEMENT LOCAL UNIFORM SIZE 256K ;
CREATE TABLESPA
- 数学是科学技术的语言
comsci
工作活动领域模型
从小学到大学都在学习数学,从小学开始了解数字的概念和背诵九九表到大学学习复变函数和离散数学,看起来好像掌握了这些数学知识,但是在工作中却很少真正用到这些知识,为什么?
最近在研究一种开源软件-CARROT2的源代码的时候,又一次感觉到数学在计算机技术中的不可动摇的基础作用,CARROT2是一种用于自动语言分类(聚类)的工具性软件,用JAVA语言编写,它
- Linux系统手动安装rzsz 软件包
daizj
linuxszrz
1、下载软件 rzsz-3.34.tar.gz。登录linux,用命令
wget http://freeware.sgi.com/source/rzsz/rzsz-3.48.tar.gz下载。
2、解压 tar zxvf rzsz-3.34.tar.gz
3、安装 cd rzsz-3.34 ; make posix 。注意:这个软件安装与常规的GNU软件不
- 读源码之:ArrayBlockingQueue
dieslrae
java
ArrayBlockingQueue是concurrent包提供的一个线程安全的队列,由一个数组来保存队列元素.通过
takeIndex和
putIndex来分别记录出队列和入队列的下标,以保证在出队列时
不进行元素移动.
//在出队列或者入队列的时候对takeIndex或者putIndex进行累加,如果已经到了数组末尾就又从0开始,保证数
- C语言学习九枚举的定义和应用
dcj3sjt126com
c
枚举的定义
# include <stdio.h>
enum WeekDay
{
MonDay, TuesDay, WednesDay, ThursDay, FriDay, SaturDay, SunDay
};
int main(void)
{
//int day; //day定义成int类型不合适
enum WeekDay day = Wedne
- Vagrant 三种网络配置详解
dcj3sjt126com
vagrant
Forwarded port
Private network
Public network
Vagrant 中一共有三种网络配置,下面我们将会详解三种网络配置各自优缺点。
端口映射(Forwarded port),顾名思义是指把宿主计算机的端口映射到虚拟机的某一个端口上,访问宿主计算机端口时,请求实际是被转发到虚拟机上指定端口的。Vagrantfile中设定语法为:
c
- 16.性能优化-完结
frank1234
性能优化
性能调优是一个宏大的工程,需要从宏观架构(比如拆分,冗余,读写分离,集群,缓存等), 软件设计(比如多线程并行化,选择合适的数据结构), 数据库设计层面(合理的表设计,汇总表,索引,分区,拆分,冗余等) 以及微观(软件的配置,SQL语句的编写,操作系统配置等)根据软件的应用场景做综合的考虑和权衡,并经验实际测试验证才能达到最优。
性能水很深, 笔者经验尚浅 ,赶脚也就了解了点皮毛而已,我觉得
- Word Search
hcx2013
search
Given a 2D board and a word, find if the word exists in the grid.
The word can be constructed from letters of sequentially adjacent cell, where "adjacent" cells are those horizontally or ve
- Spring4新特性——Web开发的增强
jinnianshilongnian
springspring mvcspring4
Spring4新特性——泛型限定式依赖注入
Spring4新特性——核心容器的其他改进
Spring4新特性——Web开发的增强
Spring4新特性——集成Bean Validation 1.1(JSR-349)到SpringMVC
Spring4新特性——Groovy Bean定义DSL
Spring4新特性——更好的Java泛型操作API
Spring4新
- CentOS安装配置tengine并设置开机启动
liuxingguome
centos
yum install gcc-c++
yum install pcre pcre-devel
yum install zlib zlib-devel
yum install openssl openssl-devel
Ubuntu上可以这样安装
sudo aptitude install libdmalloc-dev libcurl4-opens
- 第14章 工具函数(上)
onestopweb
函数
index.html
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/
- Xelsius 2008 and SAP BW at a glance
blueoxygen
BOXelsius
Xelsius提供了丰富多样的数据连接方式,其中为SAP BW专属提供的是BICS。那么Xelsius的各种连接的优缺点比较以及Xelsius是如何直接连接到BEx Query的呢? 以下Wiki文章应该提供了全面的概览。
http://wiki.sdn.sap.com/wiki/display/BOBJ/Xcelsius+2008+and+SAP+NetWeaver+BW+Co
- oracle表空间相关
tongsh6
oracle
在oracle数据库中,一个用户对应一个表空间,当表空间不足时,可以采用增加表空间的数据文件容量,也可以增加数据文件,方法有如下几种:
1.给表空间增加数据文件
ALTER TABLESPACE "表空间的名字" ADD DATAFILE
'表空间的数据文件路径' SIZE 50M;
&nb
- .Net framework4.0安装失败
yangjuanjava
.netwindows
上午的.net framework 4.0,各种失败,查了好多答案,各种不靠谱,最后终于找到答案了
和Windows Update有关系,给目录名重命名一下再次安装,即安装成功了!
下载地址:http://www.microsoft.com/en-us/download/details.aspx?id=17113
方法:
1.运行cmd,输入net stop WuAuServ
2.点击开