- transformers.deepspeed
icesord
人工智能python
报错:nomodulenamedtransformers.deepspeed原因:版本更新后,已取消transformers.deepspeed新版本中更改为transformers.integrations.deepspeed解决方案:根据trace信息,将原先的importtransformers.deepspeedfromtransformers.deepspeedimport......全
- 【AI大模型】Transformers大模型库(九):大模型微调之计算微调参数占比
LDG_AGI
人工智能
目录一、引言二、计算微调参数占比2.1概述2.2模型参数结构一览2.3微调参数占比计算三、总结一、引言这里的Transformers指的是huggingface开发的大模型库,为huggingface上数以万计的预训练大模型提供预测、训练等服务。Transformers提供了数以千计的预训练模型,支持100多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的NLP技术人人
- 大模型微调入门(Transformers + Pytorch)
昵称不能为null
pythonllm机器学习人工智能
目标输入:你是谁?输出:我们预训练的名字。训练为了性能好下载小参数模型,普通机器都能运行。下载模型#方式1:使用魔搭社区SDK下载#down_deepseek.pyfrommodelscopeimportsnapshot_downloadmodel_dir=snapshot_download('deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B')#方式2:gitl
- 大语言模型技术专栏(三):Attention机制——从RNN到Transformer的惊世一跃!
北海yy
大语言模型技术专栏语言模型rnntransformer
文章目录概要一、Attention机制:让AI学会「划重点」二、Attention机制的核心原理三、Self-Attention:Transformer的核心四、代码实战:用PyTorch实现Attention五、Attention的进化:从Transformer到GPT概要大家好,我是北海yy,继续带来大语言模型技术专栏的深度解析!在上一期《RNN语言模型——让AI真正「记住」上下文的秘密武器》
- Transformer 代码剖析7 - 词元嵌入(TokenEmbedding) (pytorch实现)
lczdyx
Transformer代码剖析transformerpytorch深度学习人工智能python
一、类定义与继承关系剖析1.1代码结构图示神经网络基础模块词嵌入基类自定义词元嵌入构造函数定义基类初始化词汇量参数维度参数填充标识参数1.2代码实现精讲"""@author:Hyunwoong@when:2019-10-22@homepage:https://github.com/gusdnd852"""fromtorchimportnnclassTokenEmbedding(nn.Embeddi
- Transformer模型详解
Yuki-^_^
Transformer模型详解人工智能transformer深度学习人工智能
导读Transformer在许多的人工智能领域,如自然语言处理(NaturalLanguageProcessing,NLP)、计算机视觉(ComputerVision,CV)和语音处理(SpeechProcessing,SP)取得了巨大的成功。因此,自然而然的也吸引了许多工业界和学术界的研究人员的兴趣。到目前为止,已经提出了大量基于Transformer的相关工作和综述。本文基于邱锡鹏[1]老师近
- Transformer架构深度研究报告(二、分层原理)
jiaojieran
transformer深度学习人工智能
一、Transformer不同层作用剖析1.1低层作用在Transformer架构中,低层(1-3层)主要承担着局部语法建模的关键任务,其对语言基础结构的理解和处理为后续高层语义分析奠定了坚实基础。在词性标注(POStagging)任务中,低层通过对相邻词之间关系的细致捕捉,能够精准判断每个词的词性。例如在句子“Thedogrunsfast”中,对于“runs”这个词,低层模型会关注其与相邻词“d
- 1.7 Kaggle大白话:Eedi竞赛Transformer框架解决方案07-调用AI模型输出结果
AI量金术师
Kaggle竞赛人工智能transformer深度学习python算法
目录0.本栏目竞赛汇总表1.本文主旨2.调用AI模型输出结果架构3.模型准备3.1代码实现3.2大白话模型准备4.数据处理4.1代码实现4.2大白话数据处理5.特征提取5.1代码实现5.2大白话特征提取6.相似度匹配6.1代码实现6.2大白话相似度匹配7.系列总结7.1章节回顾7.2竞赛排名7.3其他优秀项目(皆为竞赛金牌)0.本栏目竞赛汇总表Kaggle竞赛汇总1.本文主旨大白话:上一篇文章中,
- 深度学习五大模型:CNN、Transformer、BERT、RNN、GAN解析
大模型_学习路线
深度学习cnntransformer人工智能AI大模型大模型LLM
今天探讨它们各自适用的场景,让您知道在何种情况下选择何种模型;同时分析它们的优势与局限,助您全面评估这些模型的性能。一、卷积神经网络(ConvolutionalNeuralNetwork,CNN)原理:CNN主要由卷积层、池化层和全连接层组成。卷积层通过卷积核在输入数据上进行卷积运算,提取局部特征;池化层则对特征图进行下采样,降低特征维度,同时保留主要特征;全连接层将特征图展开为一维向量,并进行分
- Llama 2架构深度解析:Meta开源的70B参数大模型设计哲学
AI时代已来!
llama架构
一、架构设计理念Llama2作为Meta开源的商用级大语言模型,其架构设计体现了三大核心原则:效率优先:在7B/13B/70B参数规模下保持线性计算复杂度扩展性强化:通过改进注意力机制支持4k上下文长度安全性内嵌:在预训练阶段融入5%安全语料,降低有害输出概率(较前代下降34%)二、核心模块创新1.改进型Transformer架构标准化方案:采用RMSNorm替代LayerNorm,计算效率提升1
- 自然语言处理之语法解析:BERT:自然语言处理基础理论
zhubeibei168
自然语言处理1024程序员节自然语言处理bert语音识别人工智能
自然语言处理之语法解析:BERT:自然语言处理基础理论自然语言处理基础自然语言处理的定义与应用自然语言处理(NaturalLanguageProcessing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究如何处理和运用自然语言;自然语言认知则是指让计算机“懂”人类的语言。NLP建立于20世纪50年代,随着计算机技术的飞速发展,NLP技术在信息检索、文本挖掘、语音识别、机器翻译、情
- 【Pytorch】基于LSTM-KAN、BiLSTM-KAN、GRU-KAN、TCN-KAN、Transformer-KAN(各种KAN修改一行代码搞定)的共享单车租赁预测研究(数据可换)Python
冒泡芳
pythonpytorchlstm
欢迎来到本博客❤️❤️博主优势:博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。⛳️座右铭:行百里者,半于九十。本文目录如下:目录⛳️赠与读者1概述一、研究背景与意义二、TCN与KAN简介三、基于TCN-KAN的共享单车租赁预测模型四、研究挑战与展望基于LSTM-KAN、BiLSTM-KAN、GRU-KAN、TCN-KAN、Transformer-KAN的共享单车租赁预测研究1.引言2.模型介绍
- Transformer 代码剖析9 - 解码器模块Decoder (pytorch实现)
lczdyx
Transformer代码剖析transformerpytorch深度学习人工智能python
一、模块架构全景图1.1核心功能定位Transformer解码器是序列生成任务的核心组件,负责根据编码器输出和已生成序列预测下一个目标符号。其独特的三级注意力机制架构使其在机器翻译、文本生成等任务中表现出色。下面是解码器在Transformer架构中的定位示意图:解码器层组件解码器内部结构Transformer自注意力交叉注意力前馈网络残差连接+层归一化嵌入层位置编码解码器层1解码器层2...解码
- Transformer预测 | 基于TCN-Transformer的股票价格预测(Pytorch)
机器学习之心
#Transformer模型transformerpytorch深度学习TCN-Transformer股票价格预测
文章目录预测效果文章概述程序设计参考资料预测效果文章概述Transformer预测|基于TCN-Transformer的股票价格预测(Python)Transformer模型本质上都是预训练语言模型,大都采用自监督学习(Self-supervisedlearning)的方式在大量生语料上进行训练,也就是说,训练这些Transformer模型完全不需要人工标注数据。Transformer模型的标志就
- 如何用AI写程序
Honmaple
人工智能
一、AI写程序之工具选择(一)主流AI编程工具介绍如今市面上有诸多AI编程工具可供选择,以下为大家介绍几种常见且实用的工具:ChatGPT:由OpenAI开发的一款基于Transformer架构的预训练模型,它的自然语言处理能力十分强大,能够理解和生成人类语言,并进行文本分类、情感分析、机器翻译等自然语言处理任务。它经过大量的训练和优化,可以准确地理解用户的意图和需求,从大量文本数据中提取有用信息
- 解决问题:cannot import name ‘layers‘ from ‘paddle.fluid.和No module named ‘paddle.fluid.dataloader‘
halonaQZ
paddle深度学习人工智能
问题描述1:问题解决1:将frompaddle.fluid.dygraphimportlayers改成frompaddle.nn.layerimportlayers即可;问题描述2:问题解决2:将frompaddle.fluid.dataloader.collateimportdefault_collate_fn改成frompaddle.io.dataloader.collateimportdef
- paddlepaddle(飞浆)报错name ‘libpaddle‘ is not defined及paddle.fluid.core_noavx
管春
数据分析paddlepaddlepaddle人工智能
最近有一个OCR中文识别的需求,用到paddleocr,但服务器死活装不上paddlepaddle(python3.10.4,win8环境)先装了2.6.0的paddele,报name‘libpaddle’isnotdefined,然后降版本(2.4的某个版本,忘了),paddle.fluid.core_noavximport失败,发现服务器没有avx,这个版本不支持noavx的,去paddlep
- 基于 BERT 的自定义中文命名实体识别实现
风清扬【coder】
自然语言分析处理自然语言处理bertnlptransformer
基于BERT的自定义中文命名实体识别实现在自然语言处理中,命名实体识别(NamedEntityRecognition,NER)是一项重要的任务,旨在识别文本中的特定实体,如人名、地名、组织机构名等。本文将介绍如何使用BERT模型实现自定义中文命名实体识别,并提供详细的代码分析和解读。一、项目背景命名实体识别在许多领域都有广泛的应用,如信息提取、问答系统、机器翻译等。传统的命名实体识别方法通常基于规
- 实体识别处理--在给定的文本中识别特定类型的实体
风清扬【coder】
自然语言分析处理算法深度学习人工智能nlp自然语言处理
整体功能概述这个算法实现了一个实体识别系统,主要用于在给定的文本中识别特定类型的实体。它结合了字典匹配和向量相似度匹配两种方法,利用预训练的BERT模型来获取实体的嵌入表示,通过构建Trie树来提高字典匹配的效率。代码结构和模块分析1.导入必要的库importtorchfromtorchimportnnfromtransformersimportBertTokenizer,BertModelfro
- 【大模型】大模型分类
IT古董
人工智能人工智能大模型
大模型(LargeModels)通常指参数量巨大、计算能力强大的机器学习模型,尤其在自然语言处理(NLP)、计算机视觉(CV)等领域表现突出。以下是大模型的常见分类方式:1.按应用领域分类自然语言处理(NLP)模型如GPT-3、BERT、T5等,主要用于文本生成、翻译、问答等任务。计算机视觉(CV)模型如ResNet、EfficientNet、VisionTransformer(ViT)等,用于图
- 全方位解析:大语言模型评测方法的综合指南
大模型玩家
语言模型人工智能自然语言处理深度学习agi大模型搜索引擎
自2017年Transformer模型提出以来,自然语言处理研究逐步转向基于该框架的预训练模型,如BERT、GPT、BART和T5等。这些预训练模型与下游任务适配后,持续刷新最优结果。然而,现有评测方法存在广度和深度不足、数据偏差、忽视模型其他能力或属性评估等问题。因此,需要全面评测和深入研究模型的各项能力、属性、应用局限性、潜在风险及其可控性等。本文回顾了自然语言处理中的评测基准与指标,将大语言
- Transformer 代码剖析1 - 数据处理 (pytorch实现)
lczdyx
Transformer代码剖析人工智能transformer深度学习pytorchpython
引言Transformer架构自《AttentionIsAllYouNeed》论文发表以来,在自然语言处理领域引起了巨大的变革。它摒弃了传统的循环结构,完全基于注意力机制,显著提高了处理序列数据的效率和性能。本文将通过对一个具体的项目代码结构进行详细分析,带领大家深入了解Transformer模型的数据处理部分。项目结构概述首先,让我们来看看项目的整体结构:(参考项目代码)transformer-
- BERT模型深入理解——自然语言处理的里程碑
cufewxy2018
自然语言处理bert人工智能
1BERT的诞生背景2018年谷歌团队发布了BERT(BidirectionalEncoderRepresentationsfromTransformers)模型,在自然语言处理领域引领了技术性的革命。BERT创新性地使用预训练+微调模式,先用预训练在大量无标注的语料中进行自监督学习,学习到语言的通用规律,然后在少量有标注的数据中进行有监督学习,适配更精细化的任务。这种模式一直影响到最新的大模型结
- 大模型技术在电商平台商品评价分析中的应用
AI天才研究院
计算DeepSeekR1&大数据AI人工智能大模型AI大模型企业级应用开发实战javapythonjavascriptkotlingolang架构人工智能大厂程序员硅基计算碳基计算认知计算生物计算深度学习神经网络大数据AIGCAGILLM系统架构设计软件哲学Agent程序员实现财富自由
大模型技术在电商平台商品评价分析中的应用关键词:大模型技术电商平台商品评价分析情感分析商品推荐Transformer模型BERT模型摘要:本文详细探讨了大模型技术在电商平台商品评价分析中的应用。首先,我们介绍了大模型技术的基本概念、发展背景及其在商品评价分析中的应用前景。随后,我们阐述了电商平台商品评价分析的基本概念、挑战及目标指标。接着,本文重点分析了大模型技术在情感分析和商品推荐中的具体应用,
- Transformer 代码剖析8 - 编码器模块Encoder (pytorch实现)
lczdyx
Transformer代码剖析transformerpytorch深度学习人工智能python
一、代码结构总览TransformerEncoder__init__初始化Encoder类forward前向传播super()父类初始化构建词嵌入层self.emb=TransformerEmbedding参数:d_model/max_len/vocab_size/drop_prob/device构建编码层堆栈self.layers=nn.ModuleList循环创建n_layers个Encode
- Transformer 代码剖析4 - 编码器层实现 (pytorch实现)
lczdyx
Transformer代码剖析transformerpytorch深度学习人工智能python
一、EncoderLayer-类结构定义参考:项目代码classEncoderLayer(nn.Module):def__init__(self,d_model,ffn_hidden,n_head,drop_prob):super(EncoderLayer,self).__init__()self.attention=MultiHeadAttention(d_model=d_model,n_hea
- 【AI论文】SongGen:用于文本到歌曲生成的单阶段自回归Transformer模型
东临碣石82
人工智能回归transformer
摘要:文本到歌曲生成任务,即根据文本输入创作歌词和伴奏,由于领域复杂性和数据稀缺性,面临着重大挑战。现有方法通常采用多阶段生成流程,导致训练和推理过程繁琐。在本文中,我们提出了SongGen,一个完全开源的单阶段自回归Transformer模型,专为可控歌曲生成而设计。该模型能够对多种音乐属性进行细粒度控制,包括歌词、乐器描述、流派、情绪和音色等文本信息,同时还提供可选的三秒参考片段用于声音克隆。
- 自然语言处理入门:从基础概念到实战项目
范范0825
自然语言处理人工智能
自然语言处理入门:从基础概念到实战项目一、引言自然语言处理(NaturalLanguageProcessing,简称NLP)是人工智能的重要分支,旨在让计算机能够理解、生成和处理人类语言。随着大数据和深度学习的发展,NLP技术在文本分类、机器翻译、问答系统、情感分析等领域得到了广泛应用。本文将从NLP的基础概念入手,逐步介绍关键技术,最终通过一个完整的实战项目帮助读者掌握如何在实际应用中使用NLP
- transformer中seq_len参数的设置
yuweififi
transformer深度学习人工智能
在Transformer模型中,seq_len(序列长度)是一个关键的超参数,下面从不同方面详细介绍它的具体含义和作用:一、基本定义seq_len表示输入到Transformer模型中的序列所允许的最大长度。在自然语言处理任务里,文本会被拆分成一个个的单词、子词或者字符,这些元素构成了一个序列。seq_len就是对这个序列中元素数量的上限规定,它决定了模型输入和输出的维度。二、具体使用输入处理文本
- pytorch基础 nn.embedding
yuweififi
pytorch人工智能nlp
nn.Embedding是PyTorch中的一个模块,用于创建嵌入层(embeddinglayer),它将离散的索引(例如词汇表中的单词索引)映射为固定大小的稠密向量。这是许多NLP模型(包括Transformer)中的基本组件。示例用法:importtorchimporttorch.nnasnn#定义一个嵌入层vocab_size=10000#词汇表大小embedding_dim=512#嵌入向
- Hadoop(一)
朱辉辉33
hadooplinux
今天在诺基亚第一天开始培训大数据,因为之前没接触过Linux,所以这次一起学了,任务量还是蛮大的。
首先下载安装了Xshell软件,然后公司给了账号密码连接上了河南郑州那边的服务器,接下来开始按照给的资料学习,全英文的,头也不讲解,说锻炼我们的学习能力,然后就开始跌跌撞撞的自学。这里写部分已经运行成功的代码吧.
在hdfs下,运行hadoop fs -mkdir /u
- maven An error occurred while filtering resources
blackproof
maven报错
转:http://stackoverflow.com/questions/18145774/eclipse-an-error-occurred-while-filtering-resources
maven报错:
maven An error occurred while filtering resources
Maven -> Update Proje
- jdk常用故障排查命令
daysinsun
jvm
linux下常见定位命令:
1、jps 输出Java进程
-q 只输出进程ID的名称,省略主类的名称;
-m 输出进程启动时传递给main函数的参数;
&nb
- java 位移运算与乘法运算
周凡杨
java位移运算乘法
对于 JAVA 编程中,适当的采用位移运算,会减少代码的运行时间,提高项目的运行效率。这个可以从一道面试题说起:
问题:
用最有效率的方法算出2 乘以8 等於几?”
答案:2 << 3
由此就引发了我的思考,为什么位移运算会比乘法运算更快呢?其实简单的想想,计算机的内存是用由 0 和 1 组成的二
- java中的枚举(enmu)
g21121
java
从jdk1.5开始,java增加了enum(枚举)这个类型,但是大家在平时运用中还是比较少用到枚举的,而且很多人和我一样对枚举一知半解,下面就跟大家一起学习下enmu枚举。先看一个最简单的枚举类型,一个返回类型的枚举:
public enum ResultType {
/**
* 成功
*/
SUCCESS,
/**
* 失败
*/
FAIL,
- MQ初级学习
510888780
activemq
1.下载ActiveMQ
去官方网站下载:http://activemq.apache.org/
2.运行ActiveMQ
解压缩apache-activemq-5.9.0-bin.zip到C盘,然后双击apache-activemq-5.9.0-\bin\activemq-admin.bat运行ActiveMQ程序。
启动ActiveMQ以后,登陆:http://localhos
- Spring_Transactional_Propagation
布衣凌宇
springtransactional
//事务传播属性
@Transactional(propagation=Propagation.REQUIRED)//如果有事务,那么加入事务,没有的话新创建一个
@Transactional(propagation=Propagation.NOT_SUPPORTED)//这个方法不开启事务
@Transactional(propagation=Propagation.REQUIREDS_N
- 我的spring学习笔记12-idref与ref的区别
aijuans
spring
idref用来将容器内其他bean的id传给<constructor-arg>/<property>元素,同时提供错误验证功能。例如:
<bean id ="theTargetBean" class="..." />
<bean id ="theClientBean" class=&quo
- Jqplot之折线图
antlove
jsjqueryWebtimeseriesjqplot
timeseriesChart.html
<script type="text/javascript" src="jslib/jquery.min.js"></script>
<script type="text/javascript" src="jslib/excanvas.min.js&
- JDBC中事务处理应用
百合不是茶
javaJDBC编程事务控制语句
解释事务的概念; 事务控制是sql语句中的核心之一;事务控制的作用就是保证数据的正常执行与异常之后可以恢复
事务常用命令:
Commit提交
- [转]ConcurrentHashMap Collections.synchronizedMap和Hashtable讨论
bijian1013
java多线程线程安全HashMap
在Java类库中出现的第一个关联的集合类是Hashtable,它是JDK1.0的一部分。 Hashtable提供了一种易于使用的、线程安全的、关联的map功能,这当然也是方便的。然而,线程安全性是凭代价换来的――Hashtable的所有方法都是同步的。此时,无竞争的同步会导致可观的性能代价。Hashtable的后继者HashMap是作为JDK1.2中的集合框架的一部分出现的,它通过提供一个不同步的
- ng-if与ng-show、ng-hide指令的区别和注意事项
bijian1013
JavaScriptAngularJS
angularJS中的ng-show、ng-hide、ng-if指令都可以用来控制dom元素的显示或隐藏。ng-show和ng-hide根据所给表达式的值来显示或隐藏HTML元素。当赋值给ng-show指令的值为false时元素会被隐藏,值为true时元素会显示。ng-hide功能类似,使用方式相反。元素的显示或
- 【持久化框架MyBatis3七】MyBatis3定义typeHandler
bit1129
TypeHandler
什么是typeHandler?
typeHandler用于将某个类型的数据映射到表的某一列上,以完成MyBatis列跟某个属性的映射
内置typeHandler
MyBatis内置了很多typeHandler,这写typeHandler通过org.apache.ibatis.type.TypeHandlerRegistry进行注册,比如对于日期型数据的typeHandler,
- 上传下载文件rz,sz命令
bitcarter
linux命令rz
刚开始使用rz上传和sz下载命令:
因为我们是通过secureCRT终端工具进行使用的所以会有上传下载这样的需求:
我遇到的问题:
sz下载A文件10M左右,没有问题
但是将这个文件A再传到另一天服务器上时就出现传不上去,甚至出现乱码,死掉现象,具体问题
解决方法:
上传命令改为;rz -ybe
下载命令改为:sz -be filename
如果还是有问题:
那就是文
- 通过ngx-lua来统计nginx上的虚拟主机性能数据
ronin47
ngx-lua 统计 解禁ip
介绍
以前我们为nginx做统计,都是通过对日志的分析来完成.比较麻烦,现在基于ngx_lua插件,开发了实时统计站点状态的脚本,解放生产力.项目主页: https://github.com/skyeydemon/ngx-lua-stats 功能
支持分不同虚拟主机统计, 同一个虚拟主机下可以分不同的location统计.
可以统计与query-times request-time
- java-68-把数组排成最小的数。一个正整数数组,将它们连接起来排成一个数,输出能排出的所有数字中最小的。例如输入数组{32, 321},则输出32132
bylijinnan
java
import java.util.Arrays;
import java.util.Comparator;
public class MinNumFromIntArray {
/**
* Q68输入一个正整数数组,将它们连接起来排成一个数,输出能排出的所有数字中最小的一个。
* 例如输入数组{32, 321},则输出这两个能排成的最小数字32132。请给出解决问题
- Oracle基本操作
ccii
Oracle SQL总结Oracle SQL语法Oracle基本操作Oracle SQL
一、表操作
1. 常用数据类型
NUMBER(p,s):可变长度的数字。p表示整数加小数的最大位数,s为最大小数位数。支持最大精度为38位
NVARCHAR2(size):变长字符串,最大长度为4000字节(以字符数为单位)
VARCHAR2(size):变长字符串,最大长度为4000字节(以字节数为单位)
CHAR(size):定长字符串,最大长度为2000字节,最小为1字节,默认
- [强人工智能]实现强人工智能的路线图
comsci
人工智能
1:创建一个用于记录拓扑网络连接的矩阵数据表
2:自动构造或者人工复制一个包含10万个连接(1000*1000)的流程图
3:将这个流程图导入到矩阵数据表中
4:在矩阵的每个有意义的节点中嵌入一段简单的
- 给Tomcat,Apache配置gzip压缩(HTTP压缩)功能
cwqcwqmax9
apache
背景:
HTTP 压缩可以大大提高浏览网站的速度,它的原理是,在客户端请求网页后,从服务器端将网页文件压缩,再下载到客户端,由客户端的浏览器负责解压缩并浏览。相对于普通的浏览过程HTML ,CSS,Javascript , Text ,它可以节省40%左右的流量。更为重要的是,它可以对动态生成的,包括CGI、PHP , JSP , ASP , Servlet,SHTML等输出的网页也能进行压缩,
- SpringMVC and Struts2
dashuaifu
struts2springMVC
SpringMVC VS Struts2
1:
spring3开发效率高于struts
2:
spring3 mvc可以认为已经100%零配置
3:
struts2是类级别的拦截, 一个类对应一个request上下文,
springmvc是方法级别的拦截,一个方法对应一个request上下文,而方法同时又跟一个url对应
所以说从架构本身上 spring3 mvc就容易实现r
- windows常用命令行命令
dcj3sjt126com
windowscmdcommand
在windows系统中,点击开始-运行,可以直接输入命令行,快速打开一些原本需要多次点击图标才能打开的界面,如常用的输入cmd打开dos命令行,输入taskmgr打开任务管理器。此处列出了网上搜集到的一些常用命令。winver 检查windows版本 wmimgmt.msc 打开windows管理体系结构(wmi) wupdmgr windows更新程序 wscrip
- 再看知名应用背后的第三方开源项目
dcj3sjt126com
ios
知名应用程序的设计和技术一直都是开发者需要学习的,同样这些应用所使用的开源框架也是不可忽视的一部分。此前《
iOS第三方开源库的吐槽和备忘》中作者ibireme列举了国内多款知名应用所使用的开源框架,并对其中一些框架进行了分析,同样国外开发者
@iOSCowboy也在博客中给我们列出了国外多款知名应用使用的开源框架。另外txx's blog中详细介绍了
Facebook Paper使用的第三
- Objective-c单例模式的正确写法
jsntghf
单例iosiPhone
一般情况下,可能我们写的单例模式是这样的:
#import <Foundation/Foundation.h>
@interface Downloader : NSObject
+ (instancetype)sharedDownloader;
@end
#import "Downloader.h"
@implementation
- jquery easyui datagrid 加载成功,选中某一行
hae
jqueryeasyuidatagrid数据加载
1.首先你需要设置datagrid的onLoadSuccess
$(
'#dg'
).datagrid({onLoadSuccess :
function
(data){
$(
'#dg'
).datagrid(
'selectRow'
,3);
}});
2.onL
- jQuery用户数字打分评价效果
ini
JavaScripthtmljqueryWebcss
效果体验:http://hovertree.com/texiao/jquery/5.htmHTML文件代码:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title>jQuery用户数字打分评分代码 - HoverTree</
- mybatis的paramType
kerryg
DAOsql
MyBatis传多个参数:
1、采用#{0},#{1}获得参数:
Dao层函数方法:
public User selectUser(String name,String area);
对应的Mapper.xml
<select id="selectUser" result
- centos 7安装mysql5.5
MrLee23
centos
首先centos7 已经不支持mysql,因为收费了你懂得,所以内部集成了mariadb,而安装mysql的话会和mariadb的文件冲突,所以需要先卸载掉mariadb,以下为卸载mariadb,安装mysql的步骤。
#列出所有被安装的rpm package rpm -qa | grep mariadb
#卸载
rpm -e mariadb-libs-5.
- 利用thrift来实现消息群发
qifeifei
thrift
Thrift项目一般用来做内部项目接偶用的,还有能跨不同语言的功能,非常方便,一般前端系统和后台server线上都是3个节点,然后前端通过获取client来访问后台server,那么如果是多太server,就是有一个负载均衡的方法,然后最后访问其中一个节点。那么换个思路,能不能发送给所有节点的server呢,如果能就
- 实现一个sizeof获取Java对象大小
teasp
javaHotSpot内存对象大小sizeof
由于Java的设计者不想让程序员管理和了解内存的使用,我们想要知道一个对象在内存中的大小变得比较困难了。本文提供了可以获取对象的大小的方法,但是由于各个虚拟机在内存使用上可能存在不同,因此该方法不能在各虚拟机上都适用,而是仅在hotspot 32位虚拟机上,或者其它内存管理方式与hotspot 32位虚拟机相同的虚拟机上 适用。
- SVN错误及处理
xiangqian0505
SVN提交文件时服务器强行关闭
在SVN服务控制台打开资源库“SVN无法读取current” ---摘自网络 写道 SVN无法读取current修复方法 Can't read file : End of file found
文件:repository/db/txn_current、repository/db/current
其中current记录当前最新版本号,txn_current记录版本库中版本