- 【模型部署】大模型部署工具对比:SGLang, Ollama, VLLM, LLaMA.cpp如何选择?
深度求索者
llama人工智能
在选择大模型部署工具时,需要考虑多个因素,包括性能、支持的语言和模型、硬件支持、易用性以及社区支持等。以下是对比分析:性能VLLM(VirtualTensorLanguage):VLLM是一个高性能的推理库,特别适用于长序列任务。它通过虚拟张量技术优化了内存使用,并支持多GPU加速,适合需要高性能推理的场景。LLaMA.cpp:这是一个针对C++优化的LLaMA模型实现,特别适合在资源受限的环境中
- 一文搞懂最新NVIDIA GPU满血版和阉割版芯片:A100、H100、A800、H800、H20的差异
神马行空
GPU芯片AI编程gpu算力
目录一、NVIDIAGPU架构1、Blackwell架构2、Hopper架构3、Ampere架构4、Turing架构5、Volta架构二、A100、H100、A800、H800、H20差异对比1.A100:数据中心AI计算的奠基石2.H100:性能提升的算力王者3.A800&H800:中国市场专供版4.H20:新一代受限算力GPU一、NVIDIAGPU架构1、Blackwell架构Blackwel
- Python vLLM 实战应用指南
ghostwritten
pythonpython开发语言
文章目录1.vLLM简介2.安装vLLM3.快速开始3.1加载模型并生成文本3.2参数说明4.实战应用场景4.1构建聊天机器人示例对话:4.2文本补全输出示例:4.3自定义模型服务启动服务调用服务5.性能优化5.1GPU加速5.2动态批处理6.总结vLLM是一种高性能的开源深度学习推理引擎,专注于高效的生成式模型推理任务。它通过动态批处理和内存优化技术大幅提高了大模型(如GPT系列)的推理性能,非
- DPU:数据中心与计算架构的革新引擎
wljslmz
网络技术DPU
你好,这里是网络技术联盟站,我是瑞哥。随着计算领域的蓬勃发展,数据处理单元(DPU)正崭露头角,成为重新定义数据中心和计算架构未来的关键元素。在这个数字化潮流中,DPU作为一种全新的数据处理方式,引领着计算技术的进步,为各行各业带来了前所未有的机遇。DPU的出现并非偶然,而是对日益增长的数据处理需求的有力回应。在传统计算架构中,中央处理单元(CPU)和图形处理单元(GPU)扮演着重要的角色,但随着
- 云服务器部署DeepSeek Janus-Pro生成图片实战
deepseek
序本文主要研究一下如何在腾讯云HAI-GPU服务器上部署DeepSeekJanus-Pro来进行文本生成图片步骤选择带GPU的服务器到deepseek2025试用一下带GPU的服务器下载Janusgitclonehttps://github.com/deepseek-ai/Janus.git安装依赖cdJanuspipinstall-e.安装gradiopipinstallgradio安装torc
- 【学习】电脑上有多个GPU,命令行指定GPU进行训练。
超好的小白
学习人工智能深度学习
使用如下指令可以指定使用的GPU。CUDA_VISIBLE_DEVICES=1假设要使用第二个GPU进行训练。CUDA_VISIBLE_DEVICES=1pythontrain.py
- k8s之pod的调度之污点与容忍污点,什么是污点? 如何容忍污点
终端行者
Kuberneteskubernetes容器云原生
在Kubernetes中,污点(Taint)和容忍(Toleration)是用于控制Pod调度到特定节点的重要机制。污点允许节点拒绝某些Pod的调度,而容忍则允许Pod忽略节点的污点,从而调度到特定节点上。1.污点(Taint)1.1.污点的作用污点是节点上的一个标记,用于限制哪些Pod可以调度到该节点。通常用于以下场景:专用节点:某些节点专门用于运行特定类型的Pod(如GPU节点)。节点维护:标
- 单卡挑战千亿模型!深度求索MoE架构实战指南:从理论到开源工具全解析
小诸葛IT课堂
架构
引言:为什么需要单GPU训练千亿参数模型?随着大模型参数规模突破千亿级别,训练成本与算力需求呈指数级增长。传统密集架构(DenseModel)在单卡训练中面临显存不足、计算效率低等问题。**混合专家模型(MixtureofExperts,MoE)**通过稀疏激活机制,成为突破单卡训练瓶颈的关键技术。本文将结合深度求索(DeepSeek)的MoE架构实战经验,详解如何用单个GPU训练千亿参数模型,并
- 苹果AI功能,GPU内存瓶颈,大气预测模型,Chrome内置Gemini
一支烟一朵花
人工智能ai业界资讯神经网络
智源社区刚刚!苹果发布AppleIntelligence,官宣免费接入ChatGPT,Siri迎来重磅更新大模型竞速赛鸣枪开跑后,苹果似乎已经脱离了第一梯队,曾经的行业风向标并没有像其他大厂那样频繁地宣讲AI,加之缺乏能够参与竞争的「明星产品」,其一度被贴上了「落后」的标签。但其实熟悉苹果的网友都知道,这是一家「重落地」的公司,更加擅长的是把创新技术工程化,实现「工程创新」。也正因如此,在生成式A
- Ubuntu+GPU+python编程环境
liwenkaitop
工程实践总结linuxpythonanacondatensorflow
本文安装之前,参考了如下链接的大体思路:https://blog.csdn.net/rogerchen1983/article/details/90272877不过中间还是遇到一些小问题,花了点时间都解决掉了。(1)Ubuntu系统这次安装Ubuntu的时候,最新版本是20.04,当然要安装最新的了,不过由于要对双系统作出分区安排,还是花了一些时间整理windows下的资料,腾出干净的空间出来。然
- DeepSeek入门:安装与配置
梦落青云
deepseek
3.1系统要求硬件要求DeepSeek的硬件要求因模型版本而异,以下是不同版本的硬件要求:DeepSeek-R1-1.5B:CPU:最低4核(推荐Intel/AMD多核处理器)内存:8GB+硬盘:3GB+存储空间(模型文件约1.5-2GB)显卡:非必需(纯CPU推理),若GPU加速可选4GB+显存(如GTX1650)DeepSeek-R1-7B:CPU:8核以上(推荐现代多核CPU)内存:16GB
- DeepSeek 最新发布 DeepEP:一款用于 MoE 模型训练和推理的开源 EP 通信库
强哥之神
人工智能LLM机器学习LatentSpace语言模型deepseek
采用Mixture-of-Experts(MoE)架构的大型语言模型在没有相应计算量增加的情况下显著提升了模型容量。然而,这种方法也引入了一些挑战,尤其是在GPU之间的通信方面。在MoE模型中,对于任何给定的token,只有一部分专家是活跃的,因此在设备之间高效地交换数据至关重要。传统的全对全(all-to-all)通信方法可能会造成瓶颈,增加延迟,并导致GPU资源利用不足。在对延迟敏感的场景中,
- 谈谈DeepSeek-v3在算力约束下的出色工作
强化学习曾小健
Deepseek原理与使用人工智能
谈谈DeepSeek-v3在算力约束下的出色工作原创渣Bzartbot2024年12月28日22:52上海寒冷的周末,加完班挤点时间读个论文吧.Deepseek-v3仅用了2048块H800GPU就超越了Llama3405B模型,要知道Meta训练Llama3可是用了16384块H100,而DSv3的训练成本非常低在所有人追求更大规模集群的时候,Deepseek这样的工作只有一个词评价:Respe
- Anaconda配置tensorflow-gpu教程
rubisco214
tensorflow人工智能python
最近在入门tensorflow深度学习,配置环境吃了不少苦头,写个完整的教程首先得在自己主机上装cuda(我之前就是主机上没装cuda,只在虚拟环境里面装了,结果jupyter里面怎么调都识别不到GPU)打开Nvidia控制面板,左上角帮助-系统信息-组件NVCUDA64.DLL后面的NVIDIACUDA12.1就是你的显卡支持的CUDA版本,去CUDA官网CUDAToolkitArchive|N
- AI基建狂魔!DeepSeek五天开源5大杀器实测:训练成本砍半+推理速度起飞,算法圈已疯(附删库跑路教程)
AI仙人掌
人工智能深度学习人工智能大模型算法开源
DeepSeek开源周「王炸」连发!FlashMLA让推理速度飙升40%,DeepEP根治MoE通信癌,FP8核弹库DeepGEMM暴力提效,DualPipe+EPLB把GPU榨到一滴不剩,3FS化身数据闪电侠!算法圈惊呼:训练成本腰斩,AGI进度条拉爆!根本学不完,学不完速删祖传代码,GitHub星链已就位:https://github.com/deepseek-aiDay1:FlashMLA(
- DeepSeek开源周Day1:FlashMLA引爆AI推理性能革命!
歌刎
每周追踪AI框架新动态最前沿的大模型训练部署实践手册DeepSeek人工智能深度学习AIGCNLPDeepSeek
项目地址:GitHub-deepseek-ai/FlashMLA开源日历:2025-02-24起每日9AM(北京时间)更新,持续五天!一、开源周震撼启幕继上周预告后,DeepSeek于北京时间今晨9点准时开源「FlashMLA」,打响开源周五连发第一枪!作为专为Hopper架构GPU(H800/H100)优化的高效解码内核,该项目一经发布便引爆社区:上线45分钟斩获400+Star,3小时突破2.
- 开源文生视频模型:通义万相2.1-文生视频-14B 详情介绍与使用
zhangjiaofa
DeepSeekR1&AI人工智能大模型开源音视频通义万相Wan2.1文生视频
目录Wan2.1简介关键特性SOTA性能支持消费级GPU多任务处理视觉文本生成强大的视频VAE最新消息
- Android性能测试总结
软件测试android
1.性能测试目的优化应用程序,提高用户使用体验2.性能测试指标CPU主要关注CPU使用率,CPU使用率过高会导致ANR、Crash、设备发热等问题长时间情况下,CPU占有率应≤85%GPU主要关注GPU是否过度绘制,通常有如下情况:一个像素点绘制了多次,过度绘制会影响动画性能,使其不流畅主线程中执行了太多任务,UI渲染跟不上Sync信号而导致掉帧、卡顿App响应时间常见指标如下:优秀:0~0.4s
- 【有啥问啥】深入了解 FlashMLA:Hopper GPU 的高效 MLA 解码内核
有啥问啥
大模型行业调研科普算法语言模型
深入了解FlashMLA:HopperGPU的高效MLA解码内核简介在人工智能(AI)领域,特别是大型语言模型(LLM)领域,对计算效率和速度的需求持续增长。为了应对这些挑战,DeepSeek推出了FlashMLA,这是一种专为NVIDIAHopperGPU架构优化的高效MLA(Multi-LayerAttention)解码内核。FlashMLA旨在加速LLM的解码过程,从而显著提高模型的响应速度
- Llama.cpp 服务器安装指南(使用 Docker,GPU 专用)
田猿笔记
AI高级应用llama服务器dockerllama.cpp
前置条件在开始之前,请确保你的系统满足以下要求:操作系统:Ubuntu20.04/22.04(或支持Docker的Linux系统)。硬件:NVIDIAGPU(例如RTX4090)。内存:16GB+系统内存,GPU需12GB+显存(RTX4090有24GB)。存储:15GB+可用空间(用于源码、镜像和模型文件)。网络:需要互联网连接以下载源码和依赖。软件:已安装并运行Docker。已安装NVIDIA
- 驱动开发系列39 - Linux Graphics 3D 绘制流程(二)- 设置渲染管线
黑不溜秋的
GPU驱动专栏驱动开发
一:概述Intel的Iris驱动是Mesa中的Gallium驱动,主要用于IntelGen8+GPU(Broadwell及更新架构)。它负责与i915内核DRM驱动交互,并通过Vulkan(ANV)、OpenGL(IrisGallium)、或OpenCL(Clover)来提供3D加速。在Iris驱动中,GPUPipeline设置涉及多个部分,包括编译和上传着色器、设置渲染目标、绑定缓冲区、配置固定
- H100生成式AI效能跃升指南
智能计算研究中心
其他
内容概要作为NVIDIAHopper架构的旗舰产品,H100GPU通过革命性的硬件设计与计算范式重构,为生成式AI工作负载提供了前所未有的加速能力。本文将从芯片架构创新出发,首先解析第四代TensorCore如何通过FP8精度支持与动态指令调度机制,实现矩阵运算效率的指数级提升;继而探讨显存子系统在带宽扩容与智能缓存分配上的突破,揭示其突破生成式AI内存墙的关键路径。在技术实践层面,文章系统梳理了
- A100高效架构深度解析
智能计算研究中心
其他
内容概要NVIDIAA100GPU作为面向人工智能与高性能计算的关键硬件载体,其架构创新标志着计算范式的重要演进。本文通过系统性拆解A100的核心技术模块,重点探讨其在计算密度、互联效率与资源利用率三个维度的突破性设计。在计算架构层面,第三代TensorCore通过引入细粒度结构化稀疏支持与新型数据格式,显著提升矩阵运算效率;多实例GPU(MIG)技术则通过物理级硬件隔离实现单卡多任务并行处理,为
- 算力革新引领数字中国智能跃迁
智能计算研究中心
其他
内容概要算力作为数字经济的核心驱动力,正通过架构创新与场景融合加速重构技术生态。当前算力体系呈现三大演进方向:异构计算突破传统芯片性能瓶颈,实现CPU、GPU、FPGA等多元架构的协同调度;边缘计算推动工业设备、物联网终端等场景的实时响应能力提升,形成“云-边-端”三级计算网络;量子计算则在加密通信、药物研发等领域展现颠覆性潜力,其物理比特操控精度已达实用化临界点。技术方向核心特征典型应用场景异构
- nvidia docker, nvidia docker2, nvidia container toolkits区别
coco_1998_2
#CUDA#Dockerdocker容器
背景在docker容器中用GPU时,查阅了网上许多教程,教程之间概念模糊不清,相互矛盾,过时的教程和新的教程混杂在一起。主要原因是Nvidia为docker容器的支持发生了好几代变更,api发生了不少变化。下面来总结一下各代支持发展历程。省流版总结凡是使用了命令nvidiadocker或者在docker中引入了--runtime=nvidia参数的都是过时教程,最新方法只需要下载nvidia-co
- 通过vLLM部署LLM模型到生产环境中
MichaelIp
人工智能实验室大语言模型人工智能pythonAIGC自然语言处理语言模型promptllama
文章目录1使用vLLM部署模型2部署过程2.1准备GPU环境2.2安装vLLM依赖项3使用vLLM部署模型并启动服务3.1部署开源模型3.2部署微调模型4测试服务是否正常运行5评估服务性能1使用vLLM部署模型本地部署模型主要包含下载模型、编写模型加载代码和发布为支持API访问的应用服务这三个步骤。这个过程通常伴随较高的人工部署成本,vLLM可以用来简化这一流程。它是一个专为大模型推理设计的开源框
- 阿里云服务器的作用
腾云服务器
阿里云服务器云计算
使用阿里云服务器能做什么?大家都知道可以用来搭建网站、数据库、机器学习、Python爬虫、大数据分析等应用,阿里云服务器网来详细说下使用阿里云服务器常见的玩法以及企业或个人用户常见的使用场景:玩转阿里云服务器使用阿里云服务器最常见的应用就是用来搭建网站,例如个人博客、企业网站等;除了搭建网站还可以利用阿里云GPU服务器搭建机器学习和深度学习等AI应用;使用阿里云大数据类型云服务器做数据分析;利用云
- Unity3D 实现骨骼动画的 GPU Skinning 详解
Thomas_YXQ
nginx运维游戏开发Unity3D3d架构ui
引言在游戏开发中,骨骼动画是一种常见的动画技术,它通过骨骼的变换来驱动模型的顶点变化,从而实现角色的动画效果。传统的骨骼动画通常在CPU上进行计算,但随着硬件的发展,GPU的计算能力越来越强,GPUSkinning技术逐渐成为优化骨骼动画性能的重要手段。本文将详细介绍如何在Unity3D中实现GPUSkinning,并提供相关的代码实现。对惹,这里有一个游戏开发交流小组,希望大家可以点击进来一起交
- docker部署GPU环境
atom goper
grudocker
使用Docker部署GPU环境涉及到几个关键步骤,以下是详细步骤:1.安装NVIDIA驱动程序确保你的系统已经安装了NVIDIAGPU驱动。这是使用GPU的前提条件。2.安装Docker和nvidia-container-toolkit首先,确保你已经安装了Docker。然后,安装NVIDIAContainerToolkit,它允许Docker容器访问宿主机上的GPU资源。对于Ubuntu系统,安
- 浅析 DeepSeek 开源的 FlashMLA 项目
X.Cristiano
FlashMLADeepSeek深度学习
浅析DeepSeek开源的FlashMLA项目DeepSeek开源周Day1(2025年2月24日)放出的开源项目——FlashMLA,是一款针对Hopper架构GPU高效多层级注意力(Multi-LevelAttention,MLA)解码内核,专门为处理变长序列问题而设计。趁热浏览一下:GitHub-deepseek-ai/FlashMLA一、概述传统的注意力计算方法在面对变长序列或长序列推理时
- tomcat基础与部署发布
暗黑小菠萝
Tomcat java web
从51cto搬家了,以后会更新在这里方便自己查看。
做项目一直用tomcat,都是配置到eclipse中使用,这几天有时间整理一下使用心得,有一些自己配置遇到的细节问题。
Tomcat:一个Servlets和JSP页面的容器,以提供网站服务。
一、Tomcat安装
安装方式:①运行.exe安装包
&n
- 网站架构发展的过程
ayaoxinchao
数据库应用服务器网站架构
1.初始阶段网站架构:应用程序、数据库、文件等资源在同一个服务器上
2.应用服务和数据服务分离:应用服务器、数据库服务器、文件服务器
3.使用缓存改善网站性能:为应用服务器提供本地缓存,但受限于应用服务器的内存容量,可以使用专门的缓存服务器,提供分布式缓存服务器架构
4.使用应用服务器集群改善网站的并发处理能力:使用负载均衡调度服务器,将来自客户端浏览器的访问请求分发到应用服务器集群中的任何
- [信息与安全]数据库的备份问题
comsci
数据库
如果你们建设的信息系统是采用中心-分支的模式,那么这里有一个问题
如果你的数据来自中心数据库,那么中心数据库如果出现故障,你的分支机构的数据如何保证安全呢?
是否应该在这种信息系统结构的基础上进行改造,容许分支机构的信息系统也备份一个中心数据库的文件呢?
&n
- 使用maven tomcat plugin插件debug关联源代码
商人shang
mavendebug查看源码tomcat-plugin
*首先需要配置好'''maven-tomcat7-plugin''',参见[[Maven开发Web项目]]的'''Tomcat'''部分。
*配置好后,在[[Eclipse]]中打开'''Debug Configurations'''界面,在'''Maven Build'''项下新建当前工程的调试。在'''Main'''选项卡中点击'''Browse Workspace...'''选择需要开发的
- 大访问量高并发
oloz
大访问量高并发
大访问量高并发的网站主要压力还是在于数据库的操作上,尽量避免频繁的请求数据库。下面简
要列出几点解决方案:
01、优化你的代码和查询语句,合理使用索引
02、使用缓存技术例如memcache、ecache将不经常变化的数据放入缓存之中
03、采用服务器集群、负载均衡分担大访问量高并发压力
04、数据读写分离
05、合理选用框架,合理架构(推荐分布式架构)。
- cache 服务器
小猪猪08
cache
Cache 即高速缓存.那么cache是怎么样提高系统性能与运行速度呢?是不是在任何情况下用cache都能提高性能?是不是cache用的越多就越好呢?我在近期开发的项目中有所体会,写下来当作总结也希望能跟大家一起探讨探讨,有错误的地方希望大家批评指正。
1.Cache 是怎么样工作的?
Cache 是分配在服务器上
- mysql存储过程
香水浓
mysql
Description:插入大量测试数据
use xmpl;
drop procedure if exists mockup_test_data_sp;
create procedure mockup_test_data_sp(
in number_of_records int
)
begin
declare cnt int;
declare name varch
- CSS的class、id、css文件名的常用命名规则
agevs
JavaScriptUI框架Ajaxcss
CSS的class、id、css文件名的常用命名规则
(一)常用的CSS命名规则
头:header
内容:content/container
尾:footer
导航:nav
侧栏:sidebar
栏目:column
页面外围控制整体布局宽度:wrapper
左右中:left right
- 全局数据源
AILIKES
javatomcatmysqljdbcJNDI
实验目的:为了研究两个项目同时访问一个全局数据源的时候是创建了一个数据源对象,还是创建了两个数据源对象。
1:将diuid和mysql驱动包(druid-1.0.2.jar和mysql-connector-java-5.1.15.jar)copy至%TOMCAT_HOME%/lib下;2:配置数据源,将JNDI在%TOMCAT_HOME%/conf/context.xml中配置好,格式如下:&l
- MYSQL的随机查询的实现方法
baalwolf
mysql
MYSQL的随机抽取实现方法。举个例子,要从tablename表中随机提取一条记录,大家一般的写法就是:SELECT * FROM tablename ORDER BY RAND() LIMIT 1。但是,后来我查了一下MYSQL的官方手册,里面针对RAND()的提示大概意思就是,在ORDER BY从句里面不能使用RAND()函数,因为这样会导致数据列被多次扫描。但是在MYSQL 3.23版本中,
- JAVA的getBytes()方法
bijian1013
javaeclipseunixOS
在Java中,String的getBytes()方法是得到一个操作系统默认的编码格式的字节数组。这个表示在不同OS下,返回的东西不一样!
String.getBytes(String decode)方法会根据指定的decode编码返回某字符串在该编码下的byte数组表示,如:
byte[] b_gbk = "
- AngularJS中操作Cookies
bijian1013
JavaScriptAngularJSCookies
如果你的应用足够大、足够复杂,那么你很快就会遇到这样一咱种情况:你需要在客户端存储一些状态信息,这些状态信息是跨session(会话)的。你可能还记得利用document.cookie接口直接操作纯文本cookie的痛苦经历。
幸运的是,这种方式已经一去不复返了,在所有现代浏览器中几乎
- [Maven学习笔记五]Maven聚合和继承特性
bit1129
maven
Maven聚合
在实际的项目中,一个项目通常会划分为多个模块,为了说明问题,以用户登陆这个小web应用为例。通常一个web应用分为三个模块:
1. 模型和数据持久化层user-core,
2. 业务逻辑层user-service以
3. web展现层user-web,
user-service依赖于user-core
user-web依赖于user-core和use
- 【JVM七】JVM知识点总结
bit1129
jvm
1. JVM运行模式
1.1 JVM运行时分为-server和-client两种模式,在32位机器上只有client模式的JVM。通常,64位的JVM默认都是使用server模式,因为server模式的JVM虽然启动慢点,但是,在运行过程,JVM会尽可能的进行优化
1.2 JVM分为三种字节码解释执行方式:mixed mode, interpret mode以及compiler
- linux下查看nginx、apache、mysql、php的编译参数
ronin47
在linux平台下的应用,最流行的莫过于nginx、apache、mysql、php几个。而这几个常用的应用,在手工编译完以后,在其他一些情况下(如:新增模块),往往想要查看当初都使用了那些参数进行的编译。这时候就可以利用以下方法查看。
1、nginx
[root@361way ~]# /App/nginx/sbin/nginx -V
nginx: nginx version: nginx/
- unity中运用Resources.Load的方法?
brotherlamp
unity视频unity资料unity自学unityunity教程
问:unity中运用Resources.Load的方法?
答:Resources.Load是unity本地动态加载资本所用的方法,也即是你想动态加载的时分才用到它,比方枪弹,特效,某些实时替换的图像什么的,主张此文件夹不要放太多东西,在打包的时分,它会独自把里边的一切东西都会集打包到一同,不论里边有没有你用的东西,所以大多数资本应该是自个建文件放置
1、unity实时替换的物体即是依据环境条件
- 线段树-入门
bylijinnan
java算法线段树
/**
* 线段树入门
* 问题:已知线段[2,5] [4,6] [0,7];求点2,4,7分别出现了多少次
* 以下代码建立的线段树用链表来保存,且树的叶子结点类似[i,i]
*
* 参考链接:http://hi.baidu.com/semluhiigubbqvq/item/be736a33a8864789f4e4ad18
* @author lijinna
- 全选与反选
chicony
全选
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd">
<html>
<head>
<title>全选与反选</title>
- vim一些简单记录
chenchao051
vim
mac在/usr/share/vim/vimrc linux在/etc/vimrc
1、问:后退键不能删除数据,不能往后退怎么办?
答:在vimrc中加入set backspace=2
2、问:如何控制tab键的缩进?
答:在vimrc中加入set tabstop=4 (任何
- Sublime Text 快捷键
daizj
快捷键sublime
[size=large][/size]Sublime Text快捷键:Ctrl+Shift+P:打开命令面板Ctrl+P:搜索项目中的文件Ctrl+G:跳转到第几行Ctrl+W:关闭当前打开文件Ctrl+Shift+W:关闭所有打开文件Ctrl+Shift+V:粘贴并格式化Ctrl+D:选择单词,重复可增加选择下一个相同的单词Ctrl+L:选择行,重复可依次增加选择下一行Ctrl+Shift+L:
- php 引用(&)详解
dcj3sjt126com
PHP
在PHP 中引用的意思是:不同的名字访问同一个变量内容. 与C语言中的指针是有差别的.C语言中的指针里面存储的是变量的内容在内存中存放的地址 变量的引用 PHP 的引用允许你用两个变量来指向同一个内容 复制代码代码如下:
<?
$a="ABC";
$b =&$a;
echo
- SVN中trunk,branches,tags用法详解
dcj3sjt126com
SVN
Subversion有一个很标准的目录结构,是这样的。比如项目是proj,svn地址为svn://proj/,那么标准的svn布局是svn://proj/|+-trunk+-branches+-tags这是一个标准的布局,trunk为主开发目录,branches为分支开发目录,tags为tag存档目录(不允许修改)。但是具体这几个目录应该如何使用,svn并没有明确的规范,更多的还是用户自己的习惯。
- 对软件设计的思考
e200702084
设计模式数据结构算法ssh活动
软件设计的宏观与微观
软件开发是一种高智商的开发活动。一个优秀的软件设计人员不仅要从宏观上把握软件之间的开发,也要从微观上把握软件之间的开发。宏观上,可以应用面向对象设计,采用流行的SSH架构,采用web层,业务逻辑层,持久层分层架构。采用设计模式提供系统的健壮性和可维护性。微观上,对于一个类,甚至方法的调用,从计算机的角度模拟程序的运行情况。了解内存分配,参数传
- 同步、异步、阻塞、非阻塞
geeksun
非阻塞
同步、异步、阻塞、非阻塞这几个概念有时有点混淆,在此文试图解释一下。
同步:发出方法调用后,当没有返回结果,当前线程会一直在等待(阻塞)状态。
场景:打电话,营业厅窗口办业务、B/S架构的http请求-响应模式。
异步:方法调用后不立即返回结果,调用结果通过状态、通知或回调通知方法调用者或接收者。异步方法调用后,当前线程不会阻塞,会继续执行其他任务。
实现:
- Reverse SSH Tunnel 反向打洞實錄
hongtoushizi
ssh
實際的操作步驟:
# 首先,在客戶那理的機器下指令連回我們自己的 Server,並設定自己 Server 上的 12345 port 會對應到幾器上的 SSH port
ssh -NfR 12345:localhost:22
[email protected]
# 然後在 myhost 的機器上連自己的 12345 port,就可以連回在客戶那的機器
ssh localhost -p 1
- Hibernate中的缓存
Josh_Persistence
一级缓存Hiberante缓存查询缓存二级缓存
Hibernate中的缓存
一、Hiberante中常见的三大缓存:一级缓存,二级缓存和查询缓存。
Hibernate中提供了两级Cache,第一级别的缓存是Session级别的缓存,它是属于事务范围的缓存。这一级别的缓存是由hibernate管理的,一般情况下无需进行干预;第二级别的缓存是SessionFactory级别的缓存,它是属于进程范围或群集范围的缓存。这一级别的缓存
- 对象关系行为模式之延迟加载
home198979
PHP架构延迟加载
形象化设计模式实战 HELLO!架构
一、概念
Lazy Load:一个对象,它虽然不包含所需要的所有数据,但是知道怎么获取这些数据。
延迟加载貌似很简单,就是在数据需要时再从数据库获取,减少数据库的消耗。但这其中还是有不少技巧的。
二、实现延迟加载
实现Lazy Load主要有四种方法:延迟初始化、虚
- xml 验证
pengfeicao521
xmlxml解析
有些字符,xml不能识别,用jdom或者dom4j解析的时候就报错
public static void testPattern() {
// 含有非法字符的串
String str = "Jamey친ÑԂ
- div设置半透明效果
spjich
css半透明
为div设置如下样式:
div{filter:alpha(Opacity=80);-moz-opacity:0.5;opacity: 0.5;}
说明:
1、filter:对win IE设置半透明滤镜效果,filter:alpha(Opacity=80)代表该对象80%半透明,火狐浏览器不认2、-moz-opaci
- 你真的了解单例模式么?
w574240966
java单例设计模式jvm
单例模式,很多初学者认为单例模式很简单,并且认为自己已经掌握了这种设计模式。但事实上,你真的了解单例模式了么。
一,单例模式的5中写法。(回字的四种写法,哈哈。)
1,懒汉式
(1)线程不安全的懒汉式
public cla