- vllm本地部署bge-reranker-v2-m3模型API服务实战教程
雷 电法王
大模型部署linuxpythonvscodelanguagemodel
文章目录一、说明二、配置环境2.1安装虚拟环境2.2安装vllm2.3对应版本的pytorch安装2.4安装flash_attn2.5下载模型三、运行代码3.1启动服务3.2调用代码验证一、说明本文主要介绍vllm本地部署BAAI/bge-reranker-v2-m3模型API服务实战教程本文是在Ubuntu24.04+CUDA12.8+Python3.12环境下复现成功的二、配置环境2.1安装虚
- 【医学影像】无痛安装mamba
周树皮
医学影像python
去年编辑的一个帖子。摆了一段时间后重新回归,发送一下作为状态分界线。很癫狂的体验,man,whatcanisay!issue查看我的狗急跳墙状态1.确定版本cudanvcc-Vpythonpython--versiontorchpipshowtorch2.下载对应版本wheelcausal-conv1d:https://github.com/Dao-AILab/causal-conv1d/rele
- jetson agx orin 刷机、cuda、pytorch配置指南【亲测有效】
jetsonagxorin刷机指南注意事项刷机具体指南cuda环境配置指南Anconda、Pytorch配置注意事项1.使用设备自带usbtoc的传输线时,注意c口插到orin左侧的口,右侧的口不支持数据传输;2.刷机时需准备ubuntu系统,可以是虚拟机,注意安装SDKManager刷机时,JetPack版本要选对,JetPack6.0的对应ubuntu22,cuda12版本,对应pytorch
- Yolov5-obb(旋转目标poly_nms_cuda.cu编译bug记录及解决方案)
关于在执行pythonsetup.pydevelop#or"pipinstall-v-e."时poly_nms_cuda.cu报错问题。前面步骤严格按照install.md环境1.pytorch版本较低时(我的是1.10):poly_nms_cuda.cu文件添加”#defineeps1e-8“,删除“constdoubleeps=1E-8;”这句2.pytorch版本较高时(我用的是1.27)h
- 使用 Docker 搭建 Python(Flask/CUDA AI)开发环境——AI教你学Docker
使用Docker搭建Python(Flask/CUDAAI)开发环境及常用中间件配置详解本指南适用于用Docker快速搭建Python(FlaskWeb应用或包含CUDA的AI开发环境)开发环境,并集成常用中间件服务如MySQL、Redis、Kafka。适合个人开发、本地测试和小团队协作。一、项目目录结构建议project-root/├──app/#Python应用源码目录│├──Dockerfi
- jetson orin nano安装GPU版本的pytorch过程
小鲈鱼-
pytorch人工智能python
一、安装jetpack组件和安装CUDA/cuDNN可以参考下面这个博客「解析」JetsonOrinNX安装CUDA/cuDNN_jetsoncuda-CSDN博客二、安装Pytorch和torchaudio可以直接看官方给的步骤https://pytorch.org/audio/main/build.jetson.html
- NVIDIA GeForce RTX 3090显卡详细介绍
山顶望月川
人工智能
一、详细参数(一)核心参数芯片厂商:NVIDIA显卡芯片:GeForceRTX3090显示芯片系列:NVIDIARTX30系列制作工艺:8纳米核心代号:GA102-300核心频率:基础频率1400MHz,加速频率1700MHzCUDA核心:10496个(二)显存规格显存频率:19500MHz显存类型:GDDR6X显存容量:24GB显存位宽:384bit最大分辨率:7680×4320(三)显卡接口接
- 【华为昇腾|CUDA】服务器A6000显卡部署LLM实战记录
刘阿宾
技能备忘服务器语言模型华为gpu算力kylin
安装驱动https://www.nvidia.cn/drivers/lookup/搜索对应gpu的kylin版本即可先使用wget下载rpm包rpm-i安装最后使用dnfinstallnvidia-driver即可上面安装的是驱动仓库安装CUDAkylin服务器参考配置同上,先wget,后rpm-i,最后dnfinstallcuda即可安装Ollamaollama官方提供aarch64docker
- 英伟达终为 CUDA 添加原生 Python 支持,他有什么目的?
朱卫军 AI
python开发语言
CUDA原来只支持C/C++/Fortran,在2025的CES上宣布支持原生Python其实是不得已而为之,一方面现在Python的AI开发者数量过于庞大,达到数千万级别,而CUDA仅几百万,CUDA想扩大自己的用户圈子,只能拉Python入伙。另一方面,Python生态的计算库实在太强大,比如numpy,几乎垄断了数组计算,还有像scipy、keras等,已经成为机器学习的主流工具,CUDA必
- Jetson Orin NX Super安装TensorRT-LLM
u013250861
#LLM/部署&推理elasticsearch大数据搜索引擎
根据图片中显示的JetsonOrinNXSuper系统环境(JetPack6.2+CUDA12.6+TensorRT10.7),以下是针对该平台的TensorRT-LLM安装优化方案:一、环境适配调整基于你的实际配置:JetPack6.2(含CUDA12.6,TensorRT10.7)Python3.10.12aarch64架构需选择适配的TensorRT-LLM版本。由于官方预编译包可能未覆盖此
- 在 WSL2 中配置 CUDA 环境变量的两种方法(含多版本支持)
新子y
python人工智能linux
通过编辑~/.bashrc文件添加export语句来配置CUDA环境变量,然后用source~/.bashrc刷新环境。✅一:更完整的环境变量设置exportPATH=/home/yyf/.local/bin:$PATHexportCUDA_HOME=/usr/local/cuda-12.6exportPATH=$CUDA_HOME/bin:$PATHexportLD_LIBRARY_PATH=$
- 服务器无对应cuda版本安装pytorch-gpu[自用]
片月斜生梦泽南
pytorch
服务器无对应cuda版本安装pytorch-gpu服务器无对应cuda版本安装pytorch-gpu网址下载非root用户安装tmux查看服务器ubuntu版本conda安装tensorflow-gpu安装1.x版本服务器无对应cuda版本安装pytorch-gpu网址GPU版本的pytorch、pytorchvision的下载链接https://download.pytorch.org/whl/
- OpenCV CUDA模块设备层-----高效地计算两个 uint 类型值的带权重平均值
村北头的码农
OpenCVopencv人工智能计算机视觉
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述OpenCV的CUDA模块(cudev)中的一个设备端内联函数,用于高效地计算两个uint类型值的带权重平均值。该函数返回两个无符号整数a和b的加权平均值,权重为:return(a*3+b)/4;函数原型__device____forceinline__uintc
- Ubuntu下安装多版本CUDA及灵活切换全攻略
芯作者
D2:ubuntulinuxubuntu
——释放深度学习潜能,告别版本依赖的烦恼!**为什么需要多版本CUDA?在深度学习、科学计算等领域,不同框架(TensorFlow、PyTorch等)对CUDA版本的要求各异。同时升级框架或维护旧项目时,版本冲突频发。多版本CUDA共存+一键切换是高效开发的刚需!本文将手把手教你实现这一能力,并分享独创的“动态软链接+环境隔离”技巧,让版本管理行云流水!环境准备硬件要求NVIDIA显卡(支持CUD
- DeepSeek 部署中的常见问题及解决方案
tonngw
后端
技术文章大纲:DeepSeek部署中的常见问题及解决方案引言简要介绍DeepSeek及其应用场景,说明部署过程中可能遇到的挑战。环境配置问题硬件兼容性问题:GPU型号、驱动版本不匹配的解决方案。依赖库冲突:Python版本、CUDA/cuDNN不兼容的排查方法。虚拟环境配置:Anaconda或Docker环境的最佳实践。模型加载与初始化问题预训练模型下载失败:网络代理设置、手动下载替代方案。显存不
- PyTorch安装总失败?看完这篇保姆级教程,从0到1轻松搞定!
喜欢编程就关注我
pytorch人工智能python
引言:为什么你装不好PyTorch?“CUDA版本不匹配?pip安装超时?conda环境冲突?”新手安装PyTorch的坑比代码bug还多!这篇博客整合CSDN高赞实战技巧,手把手教你绕过10大安装陷阱,附赠代码级验证指南!一、安装前必看:环境检查清单检查项操作方法Python版本python--version(推荐3.8-3.11)CUDA驱动nvidia-smi(仅NVIDIA显卡需要)con
- ubuntu22.04从新系统到tensorflow GPU支持
澍龑
tensorflow人工智能
ubuntu22.04CUDA从驱动到tensorflow安装0系统常规设置和软件安装0.1挂载第二硬盘默认Home0.2软件安装0.3安装指定版本的python0.4python虚拟环境设置1直接安装1.1配置信息1.2驱动安装1.3集显显示,独显运算(其它debug用)1.4卸载驱动(备用,未试)日常使用ssh后台运行(断联不中断)0系统常规设置和软件安装0.1挂载第二硬盘默认Homesudo
- 深度学习Pytorch(一)
Bgemini
深度学习pytorch深度学习python
深度学习Pytorch(一)前言:必须使用英伟达显卡才能使用cuda(显卡加速)!移除环境:condaremove-npytorch--all一、安装Pytorch下载Anaconda打开AnacondaPrompt创建一个Pytorch环境:condacreate-npytorchpython=3.9激活Pytorch环境:condaactivatepytorch查看当前包:piplist安装P
- The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_70.
weixin_66009678
pytorch人工智能python
出现如下报错:NVIDIAGeForceRTX3090withCUDAcapabilitysm_86isnotcompatiblewiththecurrentPyTorchinstallation.ThecurrentPyTorchinstallsupportsCUDAcapabilitiessm_37sm_50sm_60sm_70.IfyouwanttousetheNVIDIAGeForceRT
- 【CMake】CMake简介及使用示例
晴雨日记
CMakec++
CMake简介CMake是一个跨平台的开源构建系统生成器,用于管理软件构建过程。它不直接编译代码,而是根据CMakeLists.txt文件生成标准构建文件(如Makefile、VisualStudio项目等),再调用底层工具(如gcc、MSVC)编译。核心优势:跨平台:支持Windows、Linux、macOS可扩展:支持C/C++/CUDA/Fortran等多种语言模块化:提供find_pack
- 开源 vGPU 方案 HAMi: core&memory 隔离测试
探索云原生
AIkubernetes容器云原生gpu算力人工智能开源
本文主要对开源的vGPU方案HAMi的GPUCore&Memory隔离功能进行测试。省流:HAMivGPU方案提供的Core&Memory隔离基本符合预期:Core隔离:Pod能使用的算力会围绕设定值波动,但是一段时间内平均下来和申请的gpucores基本一致Memory隔离:Pod中申请的GPU内存超过设定值时会直接提示CUDAOOM1.环境准备简单说一下测试环境GPU:A40*2K8s:v1.
- llama-cpp-python使用教程
try2find
llamapython开发语言
以下是llama-cpp-python的完整使用教程,涵盖安装、基础用法、高级功能(如GPU加速、多模态等)和常见问题解决。1.安装1.1基础安装(CPU版)pipinstallllama-cpp-python-ihttps://pypi.tuna.tsinghua.edu.cn/simple1.2启用GPU加速(CUDA)CMAKE_ARGS="-DGGML_CUDA=ON"pipinstall
- error -- unsupported GNU version gcc later than 10 are not supported;(gcc、g++)
众人(某音、某书同名)
服务器linux运维
服务器跑dit时编译flash-atten以及pytorch的cuda版本检查出错,分别报错题目以及如下:想了下是系统找不到编译器subprocess.CalledProcessError:Command'['which','c++']'returnednon-zeroexitstatus1.备案,以后有人要用12我还得换回来方案一:更改gcc和gcc+的版本没有合适的版本的话需要root权限指定
- 一文详解显卡(GPU)驱动(Driver)CUDA、PyTorch 四者之间的关系、依赖性、版本兼容性,以及如何通过命令查询各自版本等方面进行系统性总结
番知了
pytorch人工智能python
目录一、四者的依赖关系概览简单理解:二、依赖链详细解释1.显卡(GPU)2.NVIDIA显卡驱动3.CUDAToolkit4.PyTorch三、版本兼容查询PyTorch与CUDA的兼容表四、版本查询命令(Linux/Windows)五、安装建议(实用路线)一、四者的依赖关系概览组件作用与其它组件的关系GPU(显卡)提供物理硬件(如NVIDIARTX4060)驱动必须支持你的显卡型号驱动Drive
- VScode 里面使用 python 去直接调用 CUDA
NeRF_er
pythonvscodepytorch
上一个帖子主要分享了如何去将C++程序打包成一个package。我们最后的目的实际上是想把CUDA的程序打包成一个Package,C++程序只是起到了桥梁的作用:首先:CUDA程序和C++的程序一样,都有一个.cu的源文件和一个.h的头文件。我们的文件包含Cpp文件组成,负责当作CUDA和Python的桥梁。还有对应的CUDA的源代码文件和头文件。将这个cpp文件命名成ext.cpp.#inclu
- 查看电脑显卡(NVIDIA)应该匹配什么版本的CUDA Toolkit
发光的小豆芽
CUDA电脑
被串行计算逼到要吐时,决定重拾CUDa了,想想那光速般的处理感觉(夸张了)不要太爽,记下我的闯关记录。正好我的电脑配了NVIDIA独显,GTX1650,有菜可以炒呀,没有英伟达的要绕道了。回到正题,查看自己的显卡应该装什么版本的Cuda驱动,具体如下:(1)在桌面空白处右键选中NVIDIA控制面(2)查看系统信息适配的CUDA版本说明显卡支持的cuda版本不能超过12.2.79。或者cmd进入窗口
- 疏锦行Python打卡 DAY 33 MLP神经网络的训练
importtorchtorch.cudaimporttorch#检查CUDA是否可用iftorch.cuda.is_available():print("CUDA可用!")#获取可用的CUDA设备数量device_count=torch.cuda.device_count()print(f"可用的CUDA设备数量:{device_count}")#获取当前使用的CUDA设备索引current_d
- 【Python训练营打卡】day33 @浙大疏锦行
2301_77865880
MyPython训练营打卡python
DAY33简单的神经网络知识点回顾:1.PyTorch和cuda的安装2.查看显卡信息的命令行命令(cmd中使用)3.cuda的检查4.简单神经网络的流程a.数据预处理(归一化、转换成张量)b.模型的定义i.继承nn.Module类ii.定义每一个层iii.定义前向传播流程c.定义损失函数和优化器d.定义训练流程e.可视化loss过程预处理补充:注意事项:1.分类任务中,若标签是整数(如0/1/2
- python打卡day52@浙大疏锦行
风逸hhh
python打卡60天行动python深度学习机器学习
知识点回顾:随机种子内参的初始化神经网络调参指南参数的分类调参的顺序各部分参数的调整心得神经网络调参核心实践一、全局随机种子设置(修改src/models/train.py)defset_seed(seed=42):torch.manual_seed(seed)torch.cuda.manual_seed_all(seed)np.random.seed(seed)random.seed(seed)
- OpenCV CUDA模块设备层-----在GPU 上高效地执行两个 uint 类型值的最大值比较函数vmax2()
村北头的码农
OpenCVopencv人工智能计算机视觉
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述OpenCV的CUDA模块(cudev)中的一个设备端内联函数,用于在GPU上高效地执行两个uint类型值的最大值比较。该函数返回两个无符号整数a和b中的较大值:return(a>b)?a:b;函数原型__device____forceinline__uintcv
- java数字签名三种方式
知了ing
javajdk
以下3钟数字签名都是基于jdk7的
1,RSA
String password="test";
// 1.初始化密钥
KeyPairGenerator keyPairGenerator = KeyPairGenerator.getInstance("RSA");
keyPairGenerator.initialize(51
- Hibernate学习笔记
caoyong
Hibernate
1>、Hibernate是数据访问层框架,是一个ORM(Object Relation Mapping)框架,作者为:Gavin King
2>、搭建Hibernate的开发环境
a>、添加jar包:
aa>、hibernatte开发包中/lib/required/所
- 设计模式之装饰器模式Decorator(结构型)
漂泊一剑客
Decorator
1. 概述
若你从事过面向对象开发,实现给一个类或对象增加行为,使用继承机制,这是所有面向对象语言的一个基本特性。如果已经存在的一个类缺少某些方法,或者须要给方法添加更多的功能(魅力),你也许会仅仅继承这个类来产生一个新类—这建立在额外的代码上。
- 读取磁盘文件txt,并输入String
一炮送你回车库
String
public static void main(String[] args) throws IOException {
String fileContent = readFileContent("d:/aaa.txt");
System.out.println(fileContent);
- js三级联动下拉框
3213213333332132
三级联动
//三级联动
省/直辖市<select id="province"></select>
市/省直辖<select id="city"></select>
县/区 <select id="area"></select>
- erlang之parse_transform编译选项的应用
616050468
parse_transform游戏服务器属性同步abstract_code
最近使用erlang重构了游戏服务器的所有代码,之前看过C++/lua写的服务器引擎代码,引擎实现了玩家属性自动同步给前端和增量更新玩家数据到数据库的功能,这也是现在很多游戏服务器的优化方向,在引擎层面去解决数据同步和数据持久化,数据发生变化了业务层不需要关心怎么去同步给前端。由于游戏过程中玩家每个业务中玩家数据更改的量其实是很少
- JAVA JSON的解析
darkranger
java
// {
// “Total”:“条数”,
// Code: 1,
//
// “PaymentItems”:[
// {
// “PaymentItemID”:”支款单ID”,
// “PaymentCode”:”支款单编号”,
// “PaymentTime”:”支款日期”,
// ”ContractNo”:”合同号”,
//
- POJ-1273-Drainage Ditches
aijuans
ACM_POJ
POJ-1273-Drainage Ditches
http://poj.org/problem?id=1273
基本的最大流,按LRJ的白书写的
#include<iostream>
#include<cstring>
#include<queue>
using namespace std;
#define INF 0x7fffffff
int ma
- 工作流Activiti5表的命名及含义
atongyeye
工作流Activiti
activiti5 - http://activiti.org/designer/update在线插件安装
activiti5一共23张表
Activiti的表都以ACT_开头。 第二部分是表示表的用途的两个字母标识。 用途也和服务的API对应。
ACT_RE_*: 'RE'表示repository。 这个前缀的表包含了流程定义和流程静态资源 (图片,规则,等等)。
A
- android的广播机制和广播的简单使用
百合不是茶
android广播机制广播的注册
Android广播机制简介 在Android中,有一些操作完成以后,会发送广播,比如说发出一条短信,或打出一个电话,如果某个程序接收了这个广播,就会做相应的处理。这个广播跟我们传统意义中的电台广播有些相似之处。之所以叫做广播,就是因为它只负责“说”而不管你“听不听”,也就是不管你接收方如何处理。另外,广播可以被不只一个应用程序所接收,当然也可能不被任何应
- Spring事务传播行为详解
bijian1013
javaspring事务传播行为
在service类前加上@Transactional,声明这个service所有方法需要事务管理。每一个业务方法开始时都会打开一个事务。
Spring默认情况下会对运行期例外(RunTimeException)进行事务回滚。这
- eidtplus operate
征客丶
eidtplus
开启列模式: Alt+C 鼠标选择 OR Alt+鼠标左键拖动
列模式替换或复制内容(多行):
右键-->格式-->填充所选内容-->选择相应操作
OR
Ctrl+Shift+V(复制多行数据,必须行数一致)
-------------------------------------------------------
- 【Kafka一】Kafka入门
bit1129
kafka
这篇文章来自Spark集成Kafka(http://bit1129.iteye.com/blog/2174765),这里把它单独取出来,作为Kafka的入门吧
下载Kafka
http://mirror.bit.edu.cn/apache/kafka/0.8.1.1/kafka_2.10-0.8.1.1.tgz
2.10表示Scala的版本,而0.8.1.1表示Kafka
- Spring 事务实现机制
BlueSkator
spring代理事务
Spring是以代理的方式实现对事务的管理。我们在Action中所使用的Service对象,其实是代理对象的实例,并不是我们所写的Service对象实例。既然是两个不同的对象,那为什么我们在Action中可以象使用Service对象一样的使用代理对象呢?为了说明问题,假设有个Service类叫AService,它的Spring事务代理类为AProxyService,AService实现了一个接口
- bootstrap源码学习与示例:bootstrap-dropdown(转帖)
BreakingBad
bootstrapdropdown
bootstrap-dropdown组件是个烂东西,我读后的整体感觉。
一个下拉开菜单的设计:
<ul class="nav pull-right">
<li id="fat-menu" class="dropdown">
- 读《研磨设计模式》-代码笔记-中介者模式-Mediator
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
/*
* 中介者模式(Mediator):用一个中介对象来封装一系列的对象交互。
* 中介者使各对象不需要显式地相互引用,从而使其耦合松散,而且可以独立地改变它们之间的交互。
*
* 在我看来,Mediator模式是把多个对象(
- 常用代码记录
chenjunt3
UIExcelJ#
1、单据设置某行或某字段不能修改
//i是行号,"cash"是字段名称
getBillCardPanelWrapper().getBillCardPanel().getBillModel().setCellEditable(i, "cash", false);
//取得单据表体所有项用以上语句做循环就能设置整行了
getBillC
- 搜索引擎与工作流引擎
comsci
算法工作搜索引擎网络应用
最近在公司做和搜索有关的工作,(只是简单的应用开源工具集成到自己的产品中)工作流系统的进一步设计暂时放在一边了,偶然看到谷歌的研究员吴军写的数学之美系列中的搜索引擎与图论这篇文章中的介绍,我发现这样一个关系(仅仅是猜想)
-----搜索引擎和流程引擎的基础--都是图论,至少像在我在JWFD中引擎算法中用到的是自定义的广度优先
- oracle Health Monitor
daizj
oracleHealth Monitor
About Health Monitor
Beginning with Release 11g, Oracle Database includes a framework called Health Monitor for running diagnostic checks on the database.
About Health Monitor Checks
Health M
- JSON字符串转换为对象
dieslrae
javajson
作为前言,首先是要吐槽一下公司的脑残编译部署方式,web和core分开部署本来没什么问题,但是这丫居然不把json的包作为基础包而作为web的包,导致了core端不能使用,而且我们的core是可以当web来用的(不要在意这些细节),所以在core中处理json串就是个问题.没办法,跟编译那帮人也扯不清楚,只有自己写json的解析了.
- C语言学习八结构体,综合应用,学生管理系统
dcj3sjt126com
C语言
实现功能的代码:
# include <stdio.h>
# include <malloc.h>
struct Student
{
int age;
float score;
char name[100];
};
int main(void)
{
int len;
struct Student * pArr;
int i,
- vagrant学习笔记
dcj3sjt126com
vagrant
想了解多主机是如何定义和使用的, 所以又学习了一遍vagrant
1. vagrant virtualbox 下载安装
https://www.vagrantup.com/downloads.html
https://www.virtualbox.org/wiki/Downloads
查看安装在命令行输入vagrant
2.
- 14.性能优化-优化-软件配置优化
frank1234
软件配置性能优化
1.Tomcat线程池
修改tomcat的server.xml文件:
<Connector port="8080" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="8443" maxThreads="1200" m
- 一个不错的shell 脚本教程 入门级
HarborChung
linuxshell
一个不错的shell 脚本教程 入门级
建立一个脚本 Linux中有好多中不同的shell,但是通常我们使用bash (bourne again shell) 进行shell编程,因为bash是免费的并且很容易使用。所以在本文中笔者所提供的脚本都是使用bash(但是在大多数情况下,这些脚本同样可以在 bash的大姐,bourne shell中运行)。 如同其他语言一样
- Spring4新特性——核心容器的其他改进
jinnianshilongnian
spring动态代理spring4依赖注入
Spring4新特性——泛型限定式依赖注入
Spring4新特性——核心容器的其他改进
Spring4新特性——Web开发的增强
Spring4新特性——集成Bean Validation 1.1(JSR-349)到SpringMVC
Spring4新特性——Groovy Bean定义DSL
Spring4新特性——更好的Java泛型操作API
Spring4新
- Linux设置tomcat开机启动
liuxingguome
tomcatlinux开机自启动
执行命令sudo gedit /etc/init.d/tomcat6
然后把以下英文部分复制过去。(注意第一句#!/bin/sh如果不写,就不是一个shell文件。然后将对应的jdk和tomcat换成你自己的目录就行了。
#!/bin/bash
#
# /etc/rc.d/init.d/tomcat
# init script for tomcat precesses
- 第13章 Ajax进阶(下)
onestopweb
Ajax
index.html
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/
- Troubleshooting Crystal Reports off BW
blueoxygen
BO
http://wiki.sdn.sap.com/wiki/display/BOBJ/Troubleshooting+Crystal+Reports+off+BW#TroubleshootingCrystalReportsoffBW-TracingBOE
Quite useful, especially this part:
SAP BW connectivity
For t
- Java开发熟手该当心的11个错误
tomcat_oracle
javajvm多线程单元测试
#1、不在属性文件或XML文件中外化配置属性。比如,没有把批处理使用的线程数设置成可在属性文件中配置。你的批处理程序无论在DEV环境中,还是UAT(用户验收
测试)环境中,都可以顺畅无阻地运行,但是一旦部署在PROD 上,把它作为多线程程序处理更大的数据集时,就会抛出IOException,原因可能是JDBC驱动版本不同,也可能是#2中讨论的问题。如果线程数目 可以在属性文件中配置,那么使它成为
- 正则表达式大全
yang852220741
html编程正则表达式
今天向大家分享正则表达式大全,它可以大提高你的工作效率
正则表达式也可以被当作是一门语言,当你学习一门新的编程语言的时候,他们是一个小的子语言。初看时觉得它没有任何的意义,但是很多时候,你不得不阅读一些教程,或文章来理解这些简单的描述模式。
一、校验数字的表达式
数字:^[0-9]*$
n位的数字:^\d{n}$
至少n位的数字:^\d{n,}$
m-n位的数字:^\d{m,n}$