- 显卡各种参数
iteye_17699
显卡各种参数2011年04月10日常见的显卡参数分为以下三部分:一、显示核心(芯片厂商、代号、型号、架构、频率、象素渲染管线、顶点着色引擎数、3DAPI、RAMDAC频率及支持MAX分辨率等)。二、显存颗粒(类型、封装类型、位宽、容量、速度、频率)三、PCB板(PCB层数、接口、供电位、散热器)一、显示核心显示核心就是所说的GPU,它在显卡中的作用,就像电脑整机中CPU的一样,GPU主要负责处理视
- 神经网络的通俗介绍
courniche
神经网络人工智能算法
人工神经网络,是一种模仿人类大脑工作原理的数学模型。人类的大脑是由无数的小“工作站”组成的,每个工作站叫做“神经元”。这些神经元通过“电线”互相连接,负责接收、处理和传递信息。一、人类大脑神经网络人类大脑的神经网络大概长这个样子:人类大脑的神经网络包括神经元和连接神经元的突触组成,大脑神经电信号在网络中传递实现信息的处理和分析。二、人工神经网络人工神经网络(简称:神经网络),是一种模仿人类大脑工作
- P5学习笔记
无涯学徒1998
pythonpytorch
本文为365天深度学习训练营中的学习记录博客原作者:K同学啊运动鞋品牌识别设置GPU导入数据构建CNN模型编写训练函数编写测试函数设置动态学习率等间隔动态调整自定义调整多间隔调整余弦退火正式训练结果可视化使用模型进行预测个人总结设置GPUimporttorchimporttorch.nnasnnimporttorchvision.transformsastransformsimporttorchv
- 大模型项目落地时,该如何估算模型所需GPU算力资源
kcarly
大模型知识乱炖认识系列gpu算力深度学习自然语言处理AIGC
近期公司有大模型项目落地。在前期沟通时,对于算力估算和采购方案许多小伙伴不太了解,在此对相关的算力估算和选择进行一些总结。不喜欢过程的可以直接跳到HF上提供的模型计算器要估算大模型的所需的显卡算力,首先要了解大模型的参数基础知识。大模型的规模、参数的理解模型参数单位我们的项目中客户之前测试过Qwen1.5-110B的模型,效果还比较满意。(Qwen还是国产模型中比较稳定的也是很多项目的首选)模型中
- 第38周:猫狗识别 (Tensorflow实战第八周)
weixin_46620278
tensorflow人工智能python
目录前言一、前期工作1.1设置GPU1.2导入数据输出二、数据预处理2.1加载数据2.2再次检查数据2.3配置数据集2.4可视化数据三、构建VGG-16网络3.1VGG-16网络介绍3.2搭建VGG-16模型四、编译五、训练模型六、模型评估七、预测总结前言本文为中的学习记录博客原作者:说在前面1)本周任务:了解model.train_on_batch()并运用;了解tqdm,并使用tqdm实现可视
- 运行虚幻引擎UE设置Visual Studio
yblackd
虚幻visualstudioc++
运行虚幻引擎UE设置VisualStudio1.枚举转换为字符串2.修改解决方案配置下拉框宽度3.调试较慢4.如何修复GPU驱动程序崩溃1.枚举转换为字符串-Desc:从静态Uenum调用GetNameStringByValue并为其提供你要获取其名称的值,可以将枚举转换为字符串。初始化Uenum时使用的StaticEnum与传入其数值的枚举,两者的类型必须相同。EMyEnum::TypeMyVa
- PyTorch 实战教程:从模型搭建到训练的每一步
AI_小站
pytorch人工智能pythontransformer深度学习大模型LLM
用深度学习搞事情,模型搭建和训练是绕不开的两步。而PyTorch,作为一个“又灵活又好用”的深度学习框架,简直就是写代码的快乐源泉。今天我们就从0到1,实战PyTorch的模型搭建和训练流程。说白了,看完你就能自己搭个神经网络,喂点数据进去,再让它干点活。安装PyTorch要用PyTorch,得先装上它。PyTorch的安装稍微有点讲究,主要是要根据你的硬件选择CPU版本还是GPU版本。基本安装命
- NVIDIA L40s、A10、A40、A100、A6000横评,哪个GPU 更适合 AI 推理任务?
DO_Community
技术科普商业建议人工智能gpu算力DigitalOceanaiAIGC
近年来,随着人工智能技术的发展,特别是深度学习模型的广泛应用,GPU(图形处理单元)作为加速计算的重要硬件,在AI领域扮演着越来越重要的角色。AI推理是指已经训练好的模型对新数据进行预测的过程。与训练阶段相比,推理通常对GPU的要求有所不同,更注重于能效比、延迟以及并发处理能力。本文将从这些角度出发,对比分析NVIDIA的L40s、A10、A40、A100、A6000五款GPU在AI推理任务中的表
- springboot+vue项目实战2024第四集修改文章信息
java后端
1.添加文章信息@PostMappingpublicResultadd(@RequestBody@ValidatedArticlearticle){articleService.add(article);returnResult.success();}voidadd(Articlearticle);@Overridepublicvoidadd(Articlearticle){article.set
- 如何训练Stable Diffusion 模型
俊偉
AGIstablediffusion扩散模型训练AI炼丹
训练StableDiffusion模型是一个复杂且资源密集的过程,通常需要大量的计算资源(如GPU或TPU)和时间。StableDiffusion是一种基于扩散模型的生成式AI,能够根据文本提示生成高质量的图像。它的训练过程涉及多个步骤,包括数据准备、模型配置、训练参数调整等。以下是训练StableDiffusion模型的基本步骤和注意事项:1.环境准备1.1安装依赖项首先,确保你有一个适合深度学
- FPGA在空间领域应用的权衡之道
forgeda
EDA硬件辅助验证fpga开发硬件架构嵌入式硬件EDA硬件辅助验证故障注入测试SEUEmulation商业航天
新官上任,干货较多。去年10月30日,紫光国微在投资者关系活动中表示,对FPGA产品的国产化率以及未来价格压力趋势的答复是,除了个别品类外,FPGA领域已基本完成国产化替代。价格竞争激烈,现有存量市场需求不足,导致产品价格成为重要竞争手段等。价格是市场新进入者的唯一机会,FPGA行业自然也不例外。当下火热的“智算概念”,如果说GPU在数据中心堆算力的方式有多风光,那么在追求性能之外,必须权衡SWa
- # AI计算模式 神经网络模型 深度神经网络 多层感知机 卷积神经网络 循环神经网络 长短期记忆网络 图像识别、语音识别、自然语言 轻量化模型和模型压缩 大模型分布式并行
EwenWanW
AGI人工智能神经网络dnn
AI计算模式AI技术发展至今,主流的模型是深度神经网络模型。近20年来,神经网络模型经过多样化的发展,模型总体变得越来越复杂和庞大,对硬件设备的计算速度、存储能力、通信速度的要求越来越高。尽管学者已经提出了许多方法优化模型结构,降低模型的参数量,但是伴随着人们对AI能力的要求越来越高,模型变得更大是不可避免的。原先单CPU可进行模型的训练与推理,如今需要使用GPU、TPU等设备,并通过分布式并行的
- CSGHub 快速部署指南
算法llm
CSGHub快速部署指南OmnibusCSGHub是OpenCSG推出的使用Docker快速部署CSGHub的一种方式,主要用于快速功能体验和测试。Docker部署方式允许用户以较低成本在本地计算机部署CSGHub。此种部署方法非常适合概念验证和测试,使用户能够立即访问CSGHub的核心功能(包括模型,数据集管理、Space应用创建以及模型的推理和微调(需要GPU))。本文将带您一步步完成部署。什
- 详细介绍 NVIDIA GeForce RTX 系列,各显卡配置参数(长期更新 - 2024.12)
JiaWen技术圈
人工智能深度学习机器学习gpu算力AIGC人工智能图形渲染
NVIDIAGeForceRTX系列是NVIDIA面向消费级市场的高性能GPU产品线,注重提供高性能的图形处理能力和游戏特性。主要面向游戏玩家和普通用户,同时也被广泛用于深度学习推理和训练等计算密集型任务。主要GPU产品有:50Series、40Series、30Series、20Series、10Series。其主要参数如下:NVIDIAGeForceRTX50Series规格架构:Blackw
- 对本地部署的ChatGLM模型进行API调用
BBluster
LLMpython开发语言语言模型
ChatGLM作为一个小参数模型,给予了我们在本地部署LLM的条件,接下来我将展示如何使用python对本地部署的ChatGLM模型进行API调用对于如何部署本地ChatGLM模型我们可以访问本地化部署大语言模型ChatGLM接下来我首先分享api调用的测试代码:importtimeimportrequests#测试GPU运行是否成功deftest_function_1():importtorch
- NVIDIA GPU架构
gy笨瓜
NVIDIAGPU
本文主要为1.NVIDIAGeForce800系列GPU架构2.GTX1050TiGPU架构NVIDIAGeForce800系列型号芯片代号架构GeForce800MGF117FermiGeForce810M(GF117)GF117FermiGeForce810M(GK107)GK107KeplerGeForce820M(GF117)GF117FermiGeForce820M(GK107)GK10
- GPU 集群和分布式计算
AI天才研究院
计算AI大模型企业级应用开发实战大数据AI人工智能javapythonjavascriptkotlingolang架构人工智能大厂程序员硅基计算碳基计算认知计算生物计算深度学习神经网络大数据AIGCAGILLM系统架构设计软件哲学Agent程序员实现财富自由
《GPU集群和分布式计算》关键词:GPU集群、分布式计算、CUDA、OpenACC、OpenMP、性能优化、故障处理、案例分析摘要:本文详细探讨了GPU集群和分布式计算的基本概念、架构、编程模型以及应用场景。通过剖析GPU集群在多个领域的实际应用,探讨了性能优化和故障处理的方法,并提供了若干案例以加深理解。文章旨在为读者提供一个全面而深入的GPU集群和分布式计算的知识框架。《GPU集群和分布式计算
- 360智算中心万卡GPU集群架构分析
科技互联人生
科技数码人工智能硬件架构系统架构人工智能
360智算中心:万卡GPU集群落地实践 360智算中心是一个融合了人工智能、异构计算、大数据、高性能网络、AI平台等多种技术的综合计算设施,旨在为各类复杂的AI计算任务提供高效、智能化的算力支持。360智算中心不仅具备强大的计算和数据处理能力,还结合了AI开发平台,使得计算资源的使用更加高效和智能化。360内部对于智算中心的核心诉求是性能和稳定性,本文将深入探讨3
- 3D高斯泼溅原理及实践【3DGS】
新缸中之脑
3d
人工智能可能是我们这个时代的主要领域之一,它几乎可以用于从驾驶汽车到医疗保健甚至能够预防失明等所有领域,最近提出了一种新的3D重建方法。SNGULAR及其人工智能团队希望了解有关3D重建技术的最新更新的更多信息。目前可用于3D重建的许多SOTA方法需要大量CPU/GPU使用率来处理场景或渲染场景,其中一些甚至需要两者兼而有之。SIGGRAPH2023GaussianSplatting上提出的新方法
- python 随机数 随机种子
AI算法网奇
python宝典python开发语言后端
目录神经网络推理随机种子gpu新版:神经网络推理随机种子gpu:神经网络推理随机种子含npu:numpy.full创建相同矩阵python生成n个随机整数python随机数种子,每次获取相同的随机数随机在区间M内取不重复的N个随机数取一个范围内均匀不重复的随机数神经网络推理随机种子gpu新版:defset_random_seed(seed):"""Setrandomseeds."""random.
- 利用jieba库和wordcloud库绘制词云图像
baichui
python学习python
目录jieba库的使用利用jieba库获取红楼梦中人物名字的出现频次wordcloud库的使用根据红楼梦中人物出现频次,制作词云图jieba库的使用jieba库是优秀的中文分词工具,能对文本进行分词处理常用函数:lcut与cutlcut函数接受一个中文文本字符串,对该文本进行分词处理,返回一个分词列表(推荐使用)而jieba.cut生成的是一个生成器,generator,可以通过for循环来取里面
- RocketMQ源码之消息刷盘分析
小虾米 ~
RocketMQrocketmq
前言刷盘是将内存中的消息写入磁盘,分为同步刷盘和异步刷盘。同步刷盘指一条消息写入磁盘才返回成功,异步刷盘指写入内存就返回成功,稍后异步线程刷盘。在创建CommitLog对象的时候,会初始化刷盘服务://代码位置:org.apache.rocketmq.store.CommitLogpublicCommitLog(finalDefaultMessageStoredefaultMessageStore
- 几个导致DeepFaceLab训练速度较慢的原因
AlphaFinance
多媒体AI技术人工智能python机器学习
可能有几个原因导致DeepFaceLab训练速度较慢:复杂度:DeepFaceLab的算法和模型较为复杂,需要处理大量数据和计算复杂的数学运算,这可能导致训练速度较慢。硬件配置:DeepFaceLab需要较高的计算机配置才能运行,包括较大的内存、高性能的GPU、快速的存储器等。如果你的计算机配置不够高,可能会导致训练速度较慢。数据量:DeepFaceLab需要大量的训练数据来训练模型,如果你的数据
- Vulkan研究一:概述Vulkan的使用流程
MeepoNJ
Vulkanc++图形渲染
1.创建Vulkan句柄设备Vulkan的初始化过程始于创建一个Vulkan实例(VkInstance)。每个Vulkan实例是相互独立的,彼此之间没有影响。在创建实例时,需要指定所需的层(layer)和扩展(extension)。若不确定可用的层或扩展,可以通过查询函数枚举它们。在获得VkInstance后,可以检测可用的GPU设备。每个GPU设备对应一个VkPhysicalDevice类型的句
- GPUStack使用
James506
AIServer人工智能GPULLMBGEGPU监控
1.概述官网:https://github.com/gpustackOpen-sourceGPUclustermanagerforrunninglargelanguagemodels(LLMs)https://github.com/gpustack/gpustack,ManageGPUclustersforrunningAImodelsGPUStack是一个用于运行AI模型的开源GPU集群管理器。
- 增强大型语言模型(LLM)可访问性:深入探究在单块AMD GPU上通过QLoRA微调Llama 2的过程
109702008
人工智能#ROCm#python语言模型llama人工智能
EnhancingLLMAccessibility:ADeepDiveintoQLoRAThroughFine-tuningLlama2onasingleAMDGPU—ROCmBlogs基于之前的博客《使用LoRA微调Llama2》的内容,我们深入研究了一种称为量化低秩调整(QLoRA)的参数高效微调(PEFT)方法。本次重点是利用QLoRA技术在单块AMDGPU上,使用ROCm微调Llama-2
- 小土堆学习笔记10(利用GPU训练于模型验证)
干啥都是小小白
pytorch学习——小土堆学习笔记深度学习
1.利用GPU训练GPU可优化操作如下操作方法1方法2数据获取判断是否可以使用GPU,如果可以直接model.cuda()先设定device,用的时候直接model.to(“device”)损失函数1.1利用以前实战模型训练(经过完整测试最高到70%左右的正确率)实战模型如下:小土堆学习笔记5(sequential与小实战)-CSDN博客具体代码如下:classmymodel(Module):de
- 前端开发之性能优化
水煮白菜王
前端前端面试性能优化前端javascript
本文章对各大学习技术论坛知识点,进行总结、归纳自用学习,共勉文章目录1.[CDN](https://www.bootcdn.cn/)2.懒加载3.缓存4.图片压缩5.图片分割6.sprite7.CodeSplitting8.gzip9.GPU加速10.Ajax11.TreeShaking12.ResourceHints技术或策略描述CDN(内容分发网络)提高网站访问速度和可靠性,通过全球分布的节点
- 安装CUDA Cudnn Pytorch(GPU版本)步骤
学乐乐
pytorch人工智能python
一.先看自己的电脑NVIDIA支持CUDA版本是多少?1.打开NVIDIA控制面板2.点击帮助---系统信息--组件我的支持CUDA11.6二.再看支持Pytorch的CUDA版本三.打开CUDA官网下载CUDA11.6下载好后,安装选择自定义然后安装位置(先去F盘建个CUDA-manger文件夹然后在里面建个CUDA11.6文件夹再在里面建立CUDA1CUDA2这两个文件夹前两个位置选到CUDA
- 如何有效控制 KV 缓存的内存占用,优化推理速度?
m0_70960708
笔记缓存
使用KV缓存技术的目的是在生成过程中计算过去tokens的键和值张量时,将这些张量存储(“缓存”)在GPU内存中,从而避免在每个生成步骤中重新计算这些tokens的键和值张量。KV缓存是一种妥协:我们以内存的消耗换取计算量的减少。在这篇文章中,我们将了解KV缓存的容量有多大、会带来哪些挑战,以及面对这些挑战最常用的应对策略是什么。01KV缓存的容量有多大?这相当简单:对于每个batch中每个序列的
- Nginx负载均衡
510888780
nginx应用服务器
Nginx负载均衡一些基础知识:
nginx 的 upstream目前支持 4 种方式的分配
1)、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
2)、weight
指定轮询几率,weight和访问比率成正比
- RedHat 6.4 安装 rabbitmq
bylijinnan
erlangrabbitmqredhat
在 linux 下安装软件就是折腾,首先是测试机不能上外网要找运维开通,开通后发现测试机的 yum 不能使用于是又要配置 yum 源,最后安装 rabbitmq 时也尝试了两种方法最后才安装成功
机器版本:
[root@redhat1 rabbitmq]# lsb_release
LSB Version: :base-4.0-amd64:base-4.0-noarch:core
- FilenameUtils工具类
eksliang
FilenameUtilscommon-io
转载请出自出处:http://eksliang.iteye.com/blog/2217081 一、概述
这是一个Java操作文件的常用库,是Apache对java的IO包的封装,这里面有两个非常核心的类FilenameUtils跟FileUtils,其中FilenameUtils是对文件名操作的封装;FileUtils是文件封装,开发中对文件的操作,几乎都可以在这个框架里面找到。 非常的好用。
- xml文件解析SAX
不懂事的小屁孩
xml
xml文件解析:xml文件解析有四种方式,
1.DOM生成和解析XML文档(SAX是基于事件流的解析)
2.SAX生成和解析XML文档(基于XML文档树结构的解析)
3.DOM4J生成和解析XML文档
4.JDOM生成和解析XML
本文章用第一种方法进行解析,使用android常用的DefaultHandler
import org.xml.sax.Attributes;
- 通过定时任务执行mysql的定期删除和新建分区,此处是按日分区
酷的飞上天空
mysql
使用python脚本作为命令脚本,linux的定时任务来每天定时执行
#!/usr/bin/python
# -*- coding: utf8 -*-
import pymysql
import datetime
import calendar
#要分区的表
table_name = 'my_table'
#连接数据库的信息
host,user,passwd,db =
- 如何搭建数据湖架构?听听专家的意见
蓝儿唯美
架构
Edo Interactive在几年前遇到一个大问题:公司使用交易数据来帮助零售商和餐馆进行个性化促销,但其数据仓库没有足够时间去处理所有的信用卡和借记卡交易数据
“我们要花费27小时来处理每日的数据量,”Edo主管基础设施和信息系统的高级副总裁Tim Garnto说道:“所以在2013年,我们放弃了现有的基于PostgreSQL的关系型数据库系统,使用了Hadoop集群作为公司的数
- spring学习——控制反转与依赖注入
a-john
spring
控制反转(Inversion of Control,英文缩写为IoC)是一个重要的面向对象编程的法则来削减计算机程序的耦合问题,也是轻量级的Spring框架的核心。 控制反转一般分为两种类型,依赖注入(Dependency Injection,简称DI)和依赖查找(Dependency Lookup)。依赖注入应用比较广泛。
- 用spool+unixshell生成文本文件的方法
aijuans
xshell
例如我们把scott.dept表生成文本文件的语句写成dept.sql,内容如下:
set pages 50000;
set lines 200;
set trims on;
set heading off;
spool /oracle_backup/log/test/dept.lst;
select deptno||','||dname||','||loc
- 1、基础--名词解析(OOA/OOD/OOP)
asia007
学习基础知识
OOA:Object-Oriented Analysis(面向对象分析方法)
是在一个系统的开发过程中进行了系统业务调查以后,按照面向对象的思想来分析问题。OOA与结构化分析有较大的区别。OOA所强调的是在系统调查资料的基础上,针对OO方法所需要的素材进行的归类分析和整理,而不是对管理业务现状和方法的分析。
OOA(面向对象的分析)模型由5个层次(主题层、对象类层、结构层、属性层和服务层)
- 浅谈java转成json编码格式技术
百合不是茶
json编码java转成json编码
json编码;是一个轻量级的数据存储和传输的语言
在java中需要引入json相关的包,引包方式在工程的lib下就可以了
JSON与JAVA数据的转换(JSON 即 JavaScript Object Natation,它是一种轻量级的数据交换格式,非
常适合于服务器与 JavaScript 之间的数据的交
- web.xml之Spring配置(基于Spring+Struts+Ibatis)
bijian1013
javaweb.xmlSSIspring配置
指定Spring配置文件位置
<context-param>
<param-name>contextConfigLocation</param-name>
<param-value>
/WEB-INF/spring-dao-bean.xml,/WEB-INF/spring-resources.xml,
/WEB-INF/
- Installing SonarQube(Fail to download libraries from server)
sunjing
InstallSonar
1. Download and unzip the SonarQube distribution
2. Starting the Web Server
The default port is "9000" and the context path is "/". These values can be changed in &l
- 【MongoDB学习笔记十一】Mongo副本集基本的增删查
bit1129
mongodb
一、创建复本集
假设mongod,mongo已经配置在系统路径变量上,启动三个命令行窗口,分别执行如下命令:
mongod --port 27017 --dbpath data1 --replSet rs0
mongod --port 27018 --dbpath data2 --replSet rs0
mongod --port 27019 -
- Anychart图表系列二之执行Flash和HTML5渲染
白糖_
Flash
今天介绍Anychart的Flash和HTML5渲染功能
HTML5
Anychart从6.0第一个版本起,已经逐渐开始支持各种图的HTML5渲染效果了,也就是说即使你没有安装Flash插件,只要浏览器支持HTML5,也能看到Anychart的图形(不过这些是需要做一些配置的)。
这里要提醒下大家,Anychart6.0版本对HTML5的支持还不算很成熟,目前还处于
- Laravel版本更新异常4.2.8-> 4.2.9 Declaration of ... CompilerEngine ... should be compa
bozch
laravel
昨天在为了把laravel升级到最新的版本,突然之间就出现了如下错误:
ErrorException thrown with message "Declaration of Illuminate\View\Engines\CompilerEngine::handleViewException() should be compatible with Illuminate\View\Eng
- 编程之美-NIM游戏分析-石头总数为奇数时如何保证先动手者必胜
bylijinnan
编程之美
import java.util.Arrays;
import java.util.Random;
public class Nim {
/**编程之美 NIM游戏分析
问题:
有N块石头和两个玩家A和B,玩家A先将石头随机分成若干堆,然后按照BABA...的顺序不断轮流取石头,
能将剩下的石头一次取光的玩家获胜,每次取石头时,每个玩家只能从若干堆石头中任选一堆,
- lunce创建索引及简单查询
chengxuyuancsdn
查询创建索引lunce
import java.io.File;
import java.io.IOException;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Docume
- [IT与投资]坚持独立自主的研究核心技术
comsci
it
和别人合作开发某项产品....如果互相之间的技术水平不同,那么这种合作很难进行,一般都会成为强者控制弱者的方法和手段.....
所以弱者,在遇到技术难题的时候,最好不要一开始就去寻求强者的帮助,因为在我们这颗星球上,生物都有一种控制其
- flashback transaction闪回事务查询
daizj
oraclesql闪回事务
闪回事务查询有别于闪回查询的特点有以下3个:
(1)其正常工作不但需要利用撤销数据,还需要事先启用最小补充日志。
(2)返回的结果不是以前的“旧”数据,而是能够将当前数据修改为以前的样子的撤销SQL(Undo SQL)语句。
(3)集中地在名为flashback_transaction_query表上查询,而不是在各个表上通过“as of”或“vers
- Java I/O之FilenameFilter类列举出指定路径下某个扩展名的文件
游其是你
FilenameFilter
这是一个FilenameFilter类用法的例子,实现的列举出“c:\\folder“路径下所有以“.jpg”扩展名的文件。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
- C语言学习五函数,函数的前置声明以及如何在软件开发中合理的设计函数来解决实际问题
dcj3sjt126com
c
# include <stdio.h>
int f(void) //括号中的void表示该函数不能接受数据,int表示返回的类型为int类型
{
return 10; //向主调函数返回10
}
void g(void) //函数名前面的void表示该函数没有返回值
{
//return 10; //error 与第8行行首的void相矛盾
}
in
- 今天在测试环境使用yum安装,遇到一个问题: Error: Cannot retrieve metalink for repository: epel. Pl
dcj3sjt126com
centos
今天在测试环境使用yum安装,遇到一个问题:
Error: Cannot retrieve metalink for repository: epel. Please verify its path and try again
处理很简单,修改文件“/etc/yum.repos.d/epel.repo”, 将baseurl的注释取消, mirrorlist注释掉。即可。
&n
- 单例模式
shuizhaosi888
单例模式
单例模式 懒汉式
public class RunMain {
/**
* 私有构造
*/
private RunMain() {
}
/**
* 内部类,用于占位,只有
*/
private static class SingletonRunMain {
priv
- Spring Security(09)——Filter
234390216
Spring Security
Filter
目录
1.1 Filter顺序
1.2 添加Filter到FilterChain
1.3 DelegatingFilterProxy
1.4 FilterChainProxy
1.5
- 公司项目NODEJS实践0.1
逐行分析JS源代码
mongodbnginxubuntunodejs
一、前言
前端如何独立用nodeJs实现一个简单的注册、登录功能,是不是只用nodejs+sql就可以了?其实是可以实现,但离实际应用还有距离,那要怎么做才是实际可用的。
网上有很多nod
- java.lang.Math
liuhaibo_ljf
javaMathlang
System.out.println(Math.PI);
System.out.println(Math.abs(1.2));
System.out.println(Math.abs(1.2));
System.out.println(Math.abs(1));
System.out.println(Math.abs(111111111));
System.out.println(Mat
- linux下时间同步
nonobaba
ntp
今天在linux下做hbase集群的时候,发现hmaster启动成功了,但是用hbase命令进入shell的时候报了一个错误 PleaseHoldException: Master is initializing,查看了日志,大致意思是说master和slave时间不同步,没办法,只好找一种手动同步一下,后来发现一共部署了10来台机器,手动同步偏差又比较大,所以还是从网上找现成的解决方
- ZooKeeper3.4.6的集群部署
roadrunners
zookeeper集群部署
ZooKeeper是Apache的一个开源项目,在分布式服务中应用比较广泛。它主要用来解决分布式应用中经常遇到的一些数据管理问题,如:统一命名服务、状态同步、集群管理、配置文件管理、同步锁、队列等。这里主要讲集群中ZooKeeper的部署。
1、准备工作
我们准备3台机器做ZooKeeper集群,分别在3台机器上创建ZooKeeper需要的目录。
数据存储目录
- Java高效读取大文件
tomcat_oracle
java
读取文件行的标准方式是在内存中读取,Guava 和Apache Commons IO都提供了如下所示快速读取文件行的方法: Files.readLines(new File(path), Charsets.UTF_8); FileUtils.readLines(new File(path)); 这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致
- 微信支付api返回的xml转换为Map的方法
xu3508620
xmlmap微信api
举例如下:
<xml>
<return_code><![CDATA[SUCCESS]]></return_code>
<return_msg><![CDATA[OK]]></return_msg>
<appid><