- Docker安装分布式vLLM
MasonYyp
docker分布式容器
Docker安装分布式vLLM1介绍vLLM是一个快速且易于使用的LLM推理和服务库,适合用于生产环境。单主机部署会遇到显存不足的问题,因此需要分布式部署。分布式安装方法https://docs.vllm.ai/en/latest/serving/distributed_serving.html2安装方法⚠️注意:前期一定要把docker环境、运行时和GPU安装好。CUDAVersion:12.4
- 判断是否安装了cuda和cuDNN
幽殇默
pytorch深度学习人工智能
#判断是否安装了cudaimporttorchprint(torch.cuda.is_available())#返回True则说明已经安装了cuda#判断是否安装了cuDNNfromtorch.backendsimportcudnnprint(cudnn.is_available())#返回True则说明已经安装了cuDNN
- [C#]C#使用yolov8的目标检测tensorrt模型+bytetrack实现目标追踪
FL1623863129
深度学习c#YOLO目标检测
【测试通过环境】win10x64vs2019cuda11.7+cudnn8.8.0TensorRT-8.6.1.6opencvsharp==4.9.0.NETFramework4.7.2NVIDIAGeForceRTX2070Super版本和上述环境版本不一样的需要重新编译TensorRtExtern.dll,TensorRtExtern源码地址:TensorRT-CSharp-API/src/T
- 【Stable Diffusion部署至GNU/Linux】安装流程
星星点点洲
stablediffusion
以下是安装StableDiffusion的步骤,以Ubuntu22.04LTS为例子。显卡与计算架构介绍CUDA是NVIDIAGPU的专用并行计算架构技术层级说明CUDAToolkit提供GPU编译器(nvcc)、数学库(cuBLAS)等开发工具cuDNN深度神经网络加速库(需单独下载)GPU驱动包含CUDADriver(需与CUDAToolkit版本匹配)CUDA与NIDIA:硬件指令集绑定:N
- 【vLLM 学习】安装
vLLM是一款专为大语言模型推理加速而设计的框架,实现了KV缓存内存几乎零浪费,解决了内存管理瓶颈问题。更多vLLM中文文档及教程可访问→https://vllm.hyper.ai/vLLM是一个Python库,包含预编译的C++和CUDA(12.1)二进制文件。依赖环境操作系统:LinuxPython:3.8-3.12GPU:计算能力7.0或更高(例如V100、T4、RTX20xx、A100、L
- ubuntu完全卸载cuda(备忘)
fengsongdehappy
ubuntulinux运维
cuda的卸载方法网上都有很多,这些方法大同小异,几乎都是错的,我在卸载cuda时基本试了个遍,各种踩坑。能查到的方法一般都是从官方文档搬过来的,然而这种使用apt-get--purgeremove命令的方法并不能将cuda完全卸掉。这里把官方文档的方法贴出来:sudoapt-get--purgeremove"*cublas*""*cufft*""*curand*"\"*cusolver*""*c
- DeepSeek 大模型离线 Docker 部署技术指南
容器的搬运工
dockereureka容器
一、部署架构概述DeepSeek离线部署采用容器化微服务架构,核心组件包括:模型服务层:基于TritonInferenceServer的模型推理容器API网关层:FastAPI实现的REST/gRPC接口服务资源管理层:CUDA-awareDocker运行时+NVIDIAGPU资源调度持久化存储:模型参数与配置文件的Volume挂载方案二、系统环境要求2.1硬件规格组件最低要求推荐配置CPUX86
- 【服务器】ubuntu20.04安装cuda12.01(使用runfile安装)
弹伦琴的雷登
服务器相关知识linux相关知识服务器运维linux
【服务器】ubuntu20.04安装cuda12.01(使用runfile安装)包教包会【创作不易,求关注收藏点赞】商业合作请私聊,有问题可以评论或者私聊!1、进入cuda官网先登录,登录好之后选择对应的版本按下面选项进行选择2、终端运行安装在终端进入管理员模式,这里我是通过SSH远程连接,先进入管理员模式su</
- 深度学习基础知识
namelijink
深度学习人工智能
cuda简介:CUDA(ComputeUnifiedDeviceArchitecture)是由NVIDIA开发的一种并行计算平台和应用程序编程接口(API)。它允许开发人员利用NVIDIA的GPU(图形处理器)来加速各种计算任务,包括科学计算、机器学习、深度学习、数据分析等。NVIDIA是一个全球领先的计算技术公司,专注于设计和制造高性能计算设备。除了生产强大的GPU,NVIDIA还提供与其GPU
- 如何在我的电脑上查看是否安装cuda12?我现在在我的VS中新建项目时,里面多出来一个CUDA12.4 runtime,这是什么?是不是使用CUDA cpp进行编程?
吃榴莲的小鳄鱼
电脑
在你的电脑上检查是否安装了CUDA12,可以通过以下几种方法:1.检查CUDAToolkit安装目录查看CUDA安装目录:-默认情况下,CUDAToolkit安装在C:\ProgramFiles\NVIDIAGPUComputingToolkit\CUDA\目录下。打开这个目录,你应该能看到类似v12.0或v12.4的子目录,这表示已安装的CUDA版本。查看CUDA版本:-打开命令提示符(cmd)
- windows 安装nvidaia驱动和cuda
njl_0114
配置环境windows
安装nvidaia驱动和cuda官网搜索下载驱动https://www.nvidia.cn/drivers/lookup/这里查出来的都是最高支持什么版本的cuda安装时候都默认精简就行官网下载所需版本的cuda包https://developer.nvidia.com/cuda-toolkit-archive安装成功但是nvcc-V失败,除了安装时候默认的加入的环境变量外。添加环境变量C:\Pr
- tensorrt推理 onxx转engine代码(python),cyclegan网络推理(python、C++)
maobin_1
pythonc++
将onnx文件导出为engine,FP16格式importtensorrtastrtimportpycuda.driverascudaimportpycuda.autoinit#加载ONNX文件onnx_file_path='model.onnx'engine_file_path='model_tesfp16.trt'TRT_LOGGER=trt.Logger(trt.Logger.WARNI
- 模型实战(19)之 从头搭建yolov9环境+tensorrt部署+CUDA前处理 -> 实现目标检测
明月醉窗台
#深度学习实战例程目标检测人工智能计算机视觉图像处理YOLO
从头搭建yolov9环境+tensorrt部署实现目标检测yolov9虚拟环境搭建实现训练、推理与导出导出onnx并转为tensorrt模型Python\C++-trt实现推理,CUDA实现图像前处理文中将给出详细实现源码python、C++效果如下:output_video_11.搭建环境拉下官方代码根据配置下载虚拟环境所需包详细步骤如下:
- GPU(Graphics Processing Unit)详解
美好的事情总会发生
AI人工智能嵌入式硬件硬件工程ai
GPU(GraphicsProcessingUnit)详解1.GPU的定义与核心特性GPU(图形处理器)是一种专为并行计算和图形渲染优化的处理器。与CPU(中央处理器)不同,GPU通过大规模并行架构实现高效处理海量数据,尤其在处理规则化、高并发任务时性能显著优于CPU。关键特性:高并行度:现代GPU包含数千个计算核心(如NVIDIAH100拥有18,432个CUDA核心)。专用内存系统:配备高带宽
- 用Llama Factory单机多卡微调Qwen2.5时报torch.OutOfMemoryError: CUDA out of memory的解决办法
蛐蛐蛐
大模型科研工具Python技巧llama人工智能大模型
接着上一篇博客:在Ubuntu上用LlamaFactory命令行微调Qwen2.5的简单过程_llamafactory微调qwen2.5-CSDN博客如果需要微调比较大的模型,例如Qwen2.5-32B,那么在两个3090上可能不够用,这里我用A6000×4的服务器。但如果仿照上篇博客,直接运行:llamafactory-clitrainexamples/train_qlora/qwen_lora
- CUDA与CUDPP源码解析及实战应用
昊叔Crescdim
本文还有配套的精品资源,点击获取简介:CUDA是NVIDIA推出的并行计算平台,CUDPP是一个提供GPU优化算法的开源库。本课程将深入解析CUDPP的核心组件,包括基数排序、扫描操作、动态并行性、随机数生成、缓存机制、矩阵乘法和基准测试等。通过学习CUDPP源码,开发者可以掌握GPU并行计算的优化技巧,提升应用程序性能。同时,本课程也会介绍如何在具备CUDASDK和NVIDIA驱动的系统上安装和
- 【ai】李沐 动手深度学学v2 环境安装:anaconda3、pycharm、d2
等风来不如迎风去
AI入门与实战人工智能
cuda-toolkitcuda_12.5.0_windows_network.exe官方课程网站第二版资源下载release版本pycharm版本李沐【动手学深度学习v2PyTorch版】课程笔记CUDA选择11,实际下载12.5.0
- llama-cpp-python CUDA error问题
0语1言
python人工智能llamalinux
安装完cuBLAS(CUDA)版本的llama-cpp-pythonCMAKE_ARGS="-DLLAMA_CUBLAS=on"pipinstallllama-cpp-python跑模型,指定n_gpu_layers=-1出现CUDAerrorCUDAerror:theprovidedPTXwascompiledwithanunsupportedtoolchain.一个解决办法拉取llama.cp
- 报错:检测不到cuda解决方案
H_Shelly
pytorch
1.nvidia-smi查看:NVIDIA-SMIhasfailedbecauseitcouldn’tcommunicatewiththeNVIDIAdriver.MakesurethatthelatestNVIDIAdriverisinstalledandrunning.2.nvcc-V看了一下驱动是否还在?存在nvcc:NVIDIA®CudacompilerdriverCopyright©20
- CUDA检测失败的解决方案
HackDashX
Python
CUDA检测失败的解决方案在使用Python进行CUDA编程时,有时候会遇到"CUDAdetectionfailed"的错误信息。这个错误通常表示CUDA驱动程序无法正确地检测到CUDA设备。在本文中,我将为您提供一些解决这个问题的方法。以下是一些可能的原因和相应的解决方案:CUDA驱动程序未正确安装:首先,请确保您已正确安装了与您的CUDA版本相匹配的CUDA驱动程序。您可以从NVIDIA官方网
- Transformer 的辉煌与大模型方向确立,点燃AGI之火把
dingcb168
搜索引擎自然语言处理
GPT3,指明大模型发展方向,点燃大模型软件行业繁荣之火,目前大模型有100万个。DeepSeek-V3,指明下一个阶段大模型发张方向,破壁:资金壁垒:训练成本降低,适配丰富硬件,总过进一步降低资金需求。技术壁垒:模型,技术,开源CUDA壁垒:PTX编程更加底层,大量中国硬件公司,可以适配Transformer架构的奠基2017年,Vaswani等人发表了开创性论文《AttentionisAllY
- 【ubuntu24.04】GTX4700 配置安装cuda
等风来不如迎风去
AI入门与实战cudaubuntu24.04显卡深度学习
筛选显卡驱动显卡驱动NVIDIA-Linux-x86_64-550.135.run而后重启:最新的是12.6用于ubuntu24.04,但是我的4700的显卡驱动要求12.4cuda
- DeepSpeed 在三台T4卡上部署deepseek-r1:32b
MonkeyKing.sun
deepspeed模型
如果你只需要使用DeepSpeed在三台T4卡上部署deepseek-r1:32b模型进行推理,而不进行训练,可以按照以下步骤进行部署。推理部署的重点是利用多台机器和多块GPU来加速模型的推理过程。1.环境准备首先,确保每台机器上都安装了正确的依赖项。步骤:安装CUDA和cuDNN:确保你在每台机器上安装了与T4GPU兼容的CUDA和cuDNN版本,通常CUDA11.0或更高版本。安装CUDA:N
- 【深度学习】无Linux管理员权限,照样可以安装CUDA
土豆炒马铃薯。
LinuxCUDA深度学习linux服务器深度学习pytorch
以下演示内容使用CUDA版本为CUDA11.71、官网官网:CUDA官网下载地址这里会列出所有的CUDA版本,选择需要的版本即可。2、查看系统信息这里分享三个命令,可以查看Linux系统的配置信息,方便下一步下载合适的CUDA版本。可以根据这些命令输出的系统配置信息选择相应的CUDA版本。uname-alsb_release-acat/etc/*release我觉得第三个最好用,输出的信息比较全面
- 解决Pytorch的cuDNN error: CUDNN_STATUS_NOT_INITIALIZED
Jurio.21
Python科研经验Pytorchpytorch人工智能pythonGPUCUDAcuDNN
目录1.问题报错2.可能原因2.1GPU内存不足2.2缓存问题2.3CUDA和Pytorch版本不兼容2.4CUDA和cuDNN版本不兼容3.验证CUDA是否可用4.参考1.问题报错在使用GPU加速模型训练的过程中经常会遇到这样的错误:RuntimeError:cuDNNerror:CUDNN_STATUS_NOT_INITIALIZED这个错误通常表示cuDNN库未能正确初始化。2.可能原因2.
- CUDA环境配置
波小澜
CUDAcudaubuntu环境配置
本文介绍Ubuntu14.04下CUDA环境的安装过程标签高性能计算(HPC)并行化加速学习CUDA最好的去处还是NVIDIA官网,上面许多文档写的都相当不错,比如CUDA编程指南、如何使用cuRand生成随机数等。环境配置博主主要在Linux下进行CUDA程序的开发,包括Ubuntu14.04、CentOS6等以在Ubuntu下安装CUDA为例:首先,在命令行中执行nvidia-smi指令,查看
- 【PyTorch 】【CUDA】深入了解 PyTorch 中的 CUDA 和 cuDNN 版本及 GPU 信息
丶2136
#cudaAI#pytorchpytorch人工智能gpu算力
目录引言一、环境准备1.1重要的环境依赖1.2安装CUDA和cuDNN1.3示例安装步骤1.4PyTorch、CUDA和cuDNN版本兼容性表二、检查CUDA和cuDNN版本三、检查GPU可用性四、测试PyTorch是否正常工作五、PyTorch中的GPU工作流程五、常见问题解答5.1如何更新CUDA和cuDNN?5.2如何在PyTorch中选择特定的GPU?5.3如何解决CUDA内存不足的问题?
- CUDA 学习笔记之程序栈
cs199503
pythonruntime
程序栈驱动是直接操纵设备的,而运行时是立足于驱动之上的,库是建立在驱动和运行时上的。驱动api和运行api是互斥的,不能够同时使用,一般优先使用运行时api,并且runtimeapi无需手工初始化。而driver要求手工初始化。但是driverapi是独立于语言的。runtimeapi使用cudart动态库,以cuda为前缀。而driverapi使用cuda动态库,在使用前要包含相应的库文件,以c
- 【CUDA】 GPU与CPU体系结构对比
WHAT816
CUDA学习分享c语言
1.GPU与CPU运算性能对比在面对并行任务处理时,CPU与GPU的体系结构在设计理念上有着根本的区别。CPU注重通用性来处理各种不同的数据类型,同时支持复杂的控制指令,比如条件转移、分支、循环、逻辑判断及子程序调用等,因此CPU微架构的复杂性高,是面向指令执行的高效率而设计的。GPU最初是针对图形处理领域而设计的。图形运算的特点是大量同类型数据的密集运算,因此GPU微架构是面向这种特点的计算而设
- ext的cuda
rdman84
EXT
EXT做为与用户交互的前端,其功能可以概括为:生成用户界面,与用户实现交互,并与程序(PHP,.NET等)后台通信来完成与用户的交互。生成用户界面:EXT被广泛接受认可的原因之一便是他拥有良好的用户外观。一个系统中最主要的功能便是实现CRUD(新增,读取,更新,删除),同时还有查询。为了将这些功能集中在一起,特意封装了一个EXT的CRUD面板,将这些常用的功能封装成一个类,以便创建易用性良好的界面
- Nginx负载均衡
510888780
nginx应用服务器
Nginx负载均衡一些基础知识:
nginx 的 upstream目前支持 4 种方式的分配
1)、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
2)、weight
指定轮询几率,weight和访问比率成正比
- RedHat 6.4 安装 rabbitmq
bylijinnan
erlangrabbitmqredhat
在 linux 下安装软件就是折腾,首先是测试机不能上外网要找运维开通,开通后发现测试机的 yum 不能使用于是又要配置 yum 源,最后安装 rabbitmq 时也尝试了两种方法最后才安装成功
机器版本:
[root@redhat1 rabbitmq]# lsb_release
LSB Version: :base-4.0-amd64:base-4.0-noarch:core
- FilenameUtils工具类
eksliang
FilenameUtilscommon-io
转载请出自出处:http://eksliang.iteye.com/blog/2217081 一、概述
这是一个Java操作文件的常用库,是Apache对java的IO包的封装,这里面有两个非常核心的类FilenameUtils跟FileUtils,其中FilenameUtils是对文件名操作的封装;FileUtils是文件封装,开发中对文件的操作,几乎都可以在这个框架里面找到。 非常的好用。
- xml文件解析SAX
不懂事的小屁孩
xml
xml文件解析:xml文件解析有四种方式,
1.DOM生成和解析XML文档(SAX是基于事件流的解析)
2.SAX生成和解析XML文档(基于XML文档树结构的解析)
3.DOM4J生成和解析XML文档
4.JDOM生成和解析XML
本文章用第一种方法进行解析,使用android常用的DefaultHandler
import org.xml.sax.Attributes;
- 通过定时任务执行mysql的定期删除和新建分区,此处是按日分区
酷的飞上天空
mysql
使用python脚本作为命令脚本,linux的定时任务来每天定时执行
#!/usr/bin/python
# -*- coding: utf8 -*-
import pymysql
import datetime
import calendar
#要分区的表
table_name = 'my_table'
#连接数据库的信息
host,user,passwd,db =
- 如何搭建数据湖架构?听听专家的意见
蓝儿唯美
架构
Edo Interactive在几年前遇到一个大问题:公司使用交易数据来帮助零售商和餐馆进行个性化促销,但其数据仓库没有足够时间去处理所有的信用卡和借记卡交易数据
“我们要花费27小时来处理每日的数据量,”Edo主管基础设施和信息系统的高级副总裁Tim Garnto说道:“所以在2013年,我们放弃了现有的基于PostgreSQL的关系型数据库系统,使用了Hadoop集群作为公司的数
- spring学习——控制反转与依赖注入
a-john
spring
控制反转(Inversion of Control,英文缩写为IoC)是一个重要的面向对象编程的法则来削减计算机程序的耦合问题,也是轻量级的Spring框架的核心。 控制反转一般分为两种类型,依赖注入(Dependency Injection,简称DI)和依赖查找(Dependency Lookup)。依赖注入应用比较广泛。
- 用spool+unixshell生成文本文件的方法
aijuans
xshell
例如我们把scott.dept表生成文本文件的语句写成dept.sql,内容如下:
set pages 50000;
set lines 200;
set trims on;
set heading off;
spool /oracle_backup/log/test/dept.lst;
select deptno||','||dname||','||loc
- 1、基础--名词解析(OOA/OOD/OOP)
asia007
学习基础知识
OOA:Object-Oriented Analysis(面向对象分析方法)
是在一个系统的开发过程中进行了系统业务调查以后,按照面向对象的思想来分析问题。OOA与结构化分析有较大的区别。OOA所强调的是在系统调查资料的基础上,针对OO方法所需要的素材进行的归类分析和整理,而不是对管理业务现状和方法的分析。
OOA(面向对象的分析)模型由5个层次(主题层、对象类层、结构层、属性层和服务层)
- 浅谈java转成json编码格式技术
百合不是茶
json编码java转成json编码
json编码;是一个轻量级的数据存储和传输的语言
在java中需要引入json相关的包,引包方式在工程的lib下就可以了
JSON与JAVA数据的转换(JSON 即 JavaScript Object Natation,它是一种轻量级的数据交换格式,非
常适合于服务器与 JavaScript 之间的数据的交
- web.xml之Spring配置(基于Spring+Struts+Ibatis)
bijian1013
javaweb.xmlSSIspring配置
指定Spring配置文件位置
<context-param>
<param-name>contextConfigLocation</param-name>
<param-value>
/WEB-INF/spring-dao-bean.xml,/WEB-INF/spring-resources.xml,
/WEB-INF/
- Installing SonarQube(Fail to download libraries from server)
sunjing
InstallSonar
1. Download and unzip the SonarQube distribution
2. Starting the Web Server
The default port is "9000" and the context path is "/". These values can be changed in &l
- 【MongoDB学习笔记十一】Mongo副本集基本的增删查
bit1129
mongodb
一、创建复本集
假设mongod,mongo已经配置在系统路径变量上,启动三个命令行窗口,分别执行如下命令:
mongod --port 27017 --dbpath data1 --replSet rs0
mongod --port 27018 --dbpath data2 --replSet rs0
mongod --port 27019 -
- Anychart图表系列二之执行Flash和HTML5渲染
白糖_
Flash
今天介绍Anychart的Flash和HTML5渲染功能
HTML5
Anychart从6.0第一个版本起,已经逐渐开始支持各种图的HTML5渲染效果了,也就是说即使你没有安装Flash插件,只要浏览器支持HTML5,也能看到Anychart的图形(不过这些是需要做一些配置的)。
这里要提醒下大家,Anychart6.0版本对HTML5的支持还不算很成熟,目前还处于
- Laravel版本更新异常4.2.8-> 4.2.9 Declaration of ... CompilerEngine ... should be compa
bozch
laravel
昨天在为了把laravel升级到最新的版本,突然之间就出现了如下错误:
ErrorException thrown with message "Declaration of Illuminate\View\Engines\CompilerEngine::handleViewException() should be compatible with Illuminate\View\Eng
- 编程之美-NIM游戏分析-石头总数为奇数时如何保证先动手者必胜
bylijinnan
编程之美
import java.util.Arrays;
import java.util.Random;
public class Nim {
/**编程之美 NIM游戏分析
问题:
有N块石头和两个玩家A和B,玩家A先将石头随机分成若干堆,然后按照BABA...的顺序不断轮流取石头,
能将剩下的石头一次取光的玩家获胜,每次取石头时,每个玩家只能从若干堆石头中任选一堆,
- lunce创建索引及简单查询
chengxuyuancsdn
查询创建索引lunce
import java.io.File;
import java.io.IOException;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Docume
- [IT与投资]坚持独立自主的研究核心技术
comsci
it
和别人合作开发某项产品....如果互相之间的技术水平不同,那么这种合作很难进行,一般都会成为强者控制弱者的方法和手段.....
所以弱者,在遇到技术难题的时候,最好不要一开始就去寻求强者的帮助,因为在我们这颗星球上,生物都有一种控制其
- flashback transaction闪回事务查询
daizj
oraclesql闪回事务
闪回事务查询有别于闪回查询的特点有以下3个:
(1)其正常工作不但需要利用撤销数据,还需要事先启用最小补充日志。
(2)返回的结果不是以前的“旧”数据,而是能够将当前数据修改为以前的样子的撤销SQL(Undo SQL)语句。
(3)集中地在名为flashback_transaction_query表上查询,而不是在各个表上通过“as of”或“vers
- Java I/O之FilenameFilter类列举出指定路径下某个扩展名的文件
游其是你
FilenameFilter
这是一个FilenameFilter类用法的例子,实现的列举出“c:\\folder“路径下所有以“.jpg”扩展名的文件。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
- C语言学习五函数,函数的前置声明以及如何在软件开发中合理的设计函数来解决实际问题
dcj3sjt126com
c
# include <stdio.h>
int f(void) //括号中的void表示该函数不能接受数据,int表示返回的类型为int类型
{
return 10; //向主调函数返回10
}
void g(void) //函数名前面的void表示该函数没有返回值
{
//return 10; //error 与第8行行首的void相矛盾
}
in
- 今天在测试环境使用yum安装,遇到一个问题: Error: Cannot retrieve metalink for repository: epel. Pl
dcj3sjt126com
centos
今天在测试环境使用yum安装,遇到一个问题:
Error: Cannot retrieve metalink for repository: epel. Please verify its path and try again
处理很简单,修改文件“/etc/yum.repos.d/epel.repo”, 将baseurl的注释取消, mirrorlist注释掉。即可。
&n
- 单例模式
shuizhaosi888
单例模式
单例模式 懒汉式
public class RunMain {
/**
* 私有构造
*/
private RunMain() {
}
/**
* 内部类,用于占位,只有
*/
private static class SingletonRunMain {
priv
- Spring Security(09)——Filter
234390216
Spring Security
Filter
目录
1.1 Filter顺序
1.2 添加Filter到FilterChain
1.3 DelegatingFilterProxy
1.4 FilterChainProxy
1.5
- 公司项目NODEJS实践0.1
逐行分析JS源代码
mongodbnginxubuntunodejs
一、前言
前端如何独立用nodeJs实现一个简单的注册、登录功能,是不是只用nodejs+sql就可以了?其实是可以实现,但离实际应用还有距离,那要怎么做才是实际可用的。
网上有很多nod
- java.lang.Math
liuhaibo_ljf
javaMathlang
System.out.println(Math.PI);
System.out.println(Math.abs(1.2));
System.out.println(Math.abs(1.2));
System.out.println(Math.abs(1));
System.out.println(Math.abs(111111111));
System.out.println(Mat
- linux下时间同步
nonobaba
ntp
今天在linux下做hbase集群的时候,发现hmaster启动成功了,但是用hbase命令进入shell的时候报了一个错误 PleaseHoldException: Master is initializing,查看了日志,大致意思是说master和slave时间不同步,没办法,只好找一种手动同步一下,后来发现一共部署了10来台机器,手动同步偏差又比较大,所以还是从网上找现成的解决方
- ZooKeeper3.4.6的集群部署
roadrunners
zookeeper集群部署
ZooKeeper是Apache的一个开源项目,在分布式服务中应用比较广泛。它主要用来解决分布式应用中经常遇到的一些数据管理问题,如:统一命名服务、状态同步、集群管理、配置文件管理、同步锁、队列等。这里主要讲集群中ZooKeeper的部署。
1、准备工作
我们准备3台机器做ZooKeeper集群,分别在3台机器上创建ZooKeeper需要的目录。
数据存储目录
- Java高效读取大文件
tomcat_oracle
java
读取文件行的标准方式是在内存中读取,Guava 和Apache Commons IO都提供了如下所示快速读取文件行的方法: Files.readLines(new File(path), Charsets.UTF_8); FileUtils.readLines(new File(path)); 这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致
- 微信支付api返回的xml转换为Map的方法
xu3508620
xmlmap微信api
举例如下:
<xml>
<return_code><![CDATA[SUCCESS]]></return_code>
<return_msg><![CDATA[OK]]></return_msg>
<appid><