- Day44
1.预训练概念:在大规模数据上训练模型学习通用知识,再迁移到下游任务微调2.常见模型:图像有AlexNet、ResNet、ViT;NLP有BERT、GPT3.图像模型发展:从手工特征到深度学习,从CNN到Transformer、多模态4.预训练策略:数据增强、自监督/监督训练、模型微调、多模态学习作业1.importtorchimporttorch.nnasnnimporttorch.optima
- Spark从入门到熟悉(篇二)
本文介绍Spark的RDD编程,并进行实战演练,加强对编程的理解,实现快速入手知识脉络包含如下8部分内容:创建RDD常用Action操作常用Transformation操作针对PairRDD的常用操作缓存操作共享变量分区操作编程实战创建RDD实现方式有如下两种方式实现:textFile加载本地或者集群文件系统中的数据用parallelize方法将Driver中的数据结构并行化成RDD示例"""te
- Qwen3 Embedding 结构-加载-训练 看透模型设计哲学
看透一个顶级AI句向量模型的设计秘密,从文件结构到加载原理,再到其背后的训练哲学。1Qwen3-Embedding模型结构拆解说明:目录包含了运行一个基于Transformer的句向量模型所需的所有组件文件类别核心文件作用核心模型model.safetensors,config.jsonmodel.safetensors存储了模型所有训练好的权重分词器tokenizer.json,vocab.js
- 实现边框设置0.5px
岁月如歌_
前端
border-top:1pxsolid#ededed; 显示太粗或者不满足UI设计稿显示修改position:relative;&::after{content:"";position:absolute;top:0;left:0;box-sizing:border-box;width:200%;height:2px;border-top:1pxsolid#ededed;transform-orig
- Llama改进之——RoPE旋转位置编码
愤怒的可乐
NLP项目实战#LLaMARoPE旋转位置编码
引言旋转位置编码(RotaryPositionEmbedding,RoPE)将绝对相对位置依赖纳入自注意力机制中,以增强Transformer架构的性能。目前很火的大模型LLaMA、QWen等都应用了旋转位置编码。之前在[论文笔记]ROFORMER中对旋转位置编码的原始论文进行了解析,重点推导了旋转位置编码的公式,本文侧重实现,同时尽量简化数学上的推理,详细推理可见最后的参考文章。复数与极坐标复数
- Llama改进之——分组查询注意力
愤怒的可乐
#NLP项目实战自然语言处理llama深度学习人工智能分组查询注意力旋转位置编码
引言今天介绍LLAMA2模型引入的关于注意力的改进——分组查询注意力(Grouped-queryattention,GQA)1。Transformer中的多头注意力在解码阶段来说是一个性能瓶颈。多查询注意力2通过共享单个key和value头,同时不减少query头来提升性能。多查询注意力可能导致质量下降和训练不稳定,因此常用的是分组查询注意力。然后我们结合上篇文章3探讨的旋转位置编码,将选择位置编
- Llama改进之——均方根层归一化RMSNorm
愤怒的可乐
NLP项目实战#llama
引言在学习完GPT2之后,从本文开始进入Llama模型系列。本文介绍Llama模型的改进之RMSNorm(均方根层归一化)。它是由RootMeanSquareLayerNormalization论文提出来的,可以参阅其论文笔记1。LayerNorm层归一化(LayerNorm)对Transformer等模型来说非常重要,它可以帮助稳定训练并提升模型收敛性。LayerNorm针对一个样本所有特征计算
- 强人工智能是否会诞生于现在的AI之中
一花·一叶
人工智能语言模型
为什么我认为当前AI方法无法实现真正的人工智能?随着大模型的发展日新月异,越来越多的人开始相信我们正在接近通用人工智能(AGI)。然而,作为一名人工智能领域的算法工程师,我反而越来越确信:现有的技术路径——以Transformer为核心的深度神经网络,可能已经达到了它的能力上限。我们或许正站在一个新时代的门槛上:真正的强人工智能将不会诞生于现有的范式中,而需要一条全新的算法路径。Transform
- 从零实现Llama3:深入解析Transformer架构与实现细节
祁婉菲Flora
从零实现Llama3:深入解析Transformer架构与实现细节llama3-from-scratchllama3一次实现一个矩阵乘法。项目地址:https://gitcode.com/gh_mirrors/ll/llama3-from-scratch引言本文将深入探讨如何从零开始实现Llama3语言模型。我们将从最基本的张量操作开始,逐步构建完整的Transformer架构。通过这个过程,读者
- 解密GPT工作原理:Transformer架构详解与自注意力机制剖析
AI智能应用
gpttransformer架构ai
解密GPT工作原理:Transformer架构详解与自注意力机制剖析关键词:GPT、Transformer、自注意力机制、神经网络、语言模型、深度学习、人工智能摘要:本文将深入浅出地解析GPT模型的核心架构——Transformer,重点剖析其革命性的自注意力机制。我们将从基本概念出发,通过生活化的比喻解释复杂的技术原理,并用Python代码示例展示实现细节,最后探讨这一技术的应用场景和未来发展方
- 讯飞星火深度推理模型X1,为教育医疗带来革新
在科技飞速发展的今天,人工智能大模型已经成为推动各行业变革的重要力量。科大讯飞作为人工智能领域的佼佼者,其研发的星火深度推理模型X1,凭借独特的技术优势和强大的功能,为教育和医疗两大关乎国计民生的领域带来了前所未有的革新。技术原理与创新讯飞星火深度推理模型X1基于Transformer架构,并在此基础上进行了一系列创新。它通过大规模多阶段强化学习训练方法,在复杂推理、数学、代码、语言理解等场景全面
- Hamiltonian Transformer理论:融合哈密顿力学与Transformer架构的新范式
墨顿
transformer架构深度学习
HamiltonianTransformer理论是一种将经典哈密顿力学原理与现代Transformer架构相结合的新型神经网络范式。这一理论框架试图解决当前深度学习模型在效率、动态系统建模和长期依赖处理等方面的核心挑战。本文将系统梳理HamiltonianTransformer的理论基础、关键创新点、实现方法以及应用前景,并分析其相对于传统Transformer架构的优势与潜在限制。哈密顿力学与T
- Spring AI ETL Pipeline使用指南
超级小忍
SpringAIspring人工智能
前言(Introduction)版本声明:本文基于SpringAI1.0.0版本编写。由于SpringAI目前仍处于活跃开发阶段,API和组件可能在后续版本中发生变化,请注意及时关注官方文档更新以保持兼容性。在当今大数据和人工智能快速发展的背景下,ETL(Extract,Transform,Load)系统已经不再只是简单的数据搬运工。ETL是数据仓库和数据分析流程中的核心环节,它负责将分散的数据从
- html5 原生 弹窗,HTML5 Popmotion.js实现的弹窗控件
weixin_39564527
html5原生弹窗
JavaScript语言:JaveScriptBabelCoffeeScript确定const{css,transform,chain,delay,tween,easing,parallel}=window.popmotion;const{interpolate}=transform;lettrigger;letisClosing=false;//SelectDOMconstmodalTrigge
- 结合LangGraph、DeepSeek-R1和Qdrant 的混合 RAG 技术实践
大模型之路
RAGrag
一、引言:混合RAG技术的发展与挑战在人工智能领域,检索增强生成(RAG)技术正成为构建智能问答系统的核心方案。传统RAG通过向量数据库存储文档嵌入并检索相关内容,结合大语言模型(LLM)生成回答,有效缓解了LLM的“幻觉”问题。然而,单一的稠密向量检索(如基于Transformer的嵌入模型)在处理关键词匹配和多义词歧义时存在局限性,而稀疏向量检索(如BM25)虽擅长精确关键词匹配,却缺乏语义理
- YOLOv12_ultralytics-8.3.145_2025_5_27部分代码阅读笔记-augment.py
augment.pyultralytics\data\augment.py目录augment.py1.所需的库和模块2.classBaseTransform:3.classCompose:4.classBaseMixTransform:5.classCutMix(BaseMixTransform):6.classCopyPaste(BaseMixTransform):7.defv8_transfo
- 解释LLM怎么预测下一个词语的
ZhangJiQun&MXP
教学2024大模型以及算力2021AIpython语言模型python深度学习人工智能机器学习
解释LLM怎么预测下一个词语的通过上文词的向量进行映射在Transformer架构的大语言模型(如GPT系列、BERT等)中,词语会先被转化为词向量。在预测下一个词时,模型会基于之前所有词的向量表示(并非仅仅上一个词,但上一个词的向量是重要信息来源之一)进行计算。以GPT-2为例,在生成文本时,它会将输入文本中每个词对应的词向量依次输入到模型的多层Transformer编码器-解码器结构中。每一层
- 【人工智能】 AI的进化之路:大模型如何重塑技术格局
蒙娜丽宁
Python杂谈人工智能人工智能python
《PythonOpenCV从菜鸟到高手》带你进入图像处理与计算机视觉的大门!解锁Python编程的无限可能:《奇妙的Python》带你漫游代码世界本文深入探讨了人工智能大模型的进化历程及其对技术格局的深远影响。从早期神经网络到现代大模型的突破,文章分析了关键技术进步,如Transformer架构、预训练机制和分布式计算。结合数学公式和代码示例,详细阐述了大模型的训练原理、优化方法及实际应用场景。文
- ReBEL模型的本地部署与运行,用于三元组抽取任务(事件抽取、知识抽取)
1.服务器CUDA11.72.依赖condacreate-nrebel_envpython=3.10-ycondaactivaterebel_env#安装PyTorch(建议与CUDA11.7配合)pipinstalltorchtorchvisiontorchaudio--index-urlhttps://download.pytorch.org/whl/cu117#安装Transformers和
- 大模型-FlashAttention 算法分析
清风lsq
大模型推理算法算法大模型推理LLMflashattention
一、FlashAttention的概述FlashAttention是一种IO感知精确注意力算法。通过感知显存读取/写入,FlashAttention的运行速度比PyTorch标准Attention快了2-4倍,所需内存也仅是其5%-20%。随着Transformer变得越来越大、越来越深,但它在长序列上仍然处理的很慢、且耗费内存。(自注意力时间和显存复杂度与序列长度成二次方),现有近似注意力方法,
- 变幻莫测:CoreData 中 Transformable 类型面面俱到(八)
大熊猫侯佩
Apple开发入门CoreDataTransformableDataSwiftData类型转换CodableSwift
概述各位似秃似不秃小码农们都知道,在苹果众多开发平台中CoreData无疑是那个最简洁、拥有“官方认证”且最具兼容性的数据库框架。使用它可以让我们非常方便的搭建出App所需要的持久存储体系。不过,大家是否知道在CoreData中还存在一个Transformable类型,它到底是个啥?应用场景有哪些?在最新的SwiftData中有没有对应物?对于开发者又有哪些“见雀张罗”的撸码陷阱和最佳实践呢?在本
- 大模型学习 (Datawhale_Happy-LLM)笔记7: Encoder-Decoder PLM
lxltom
学习笔记languagemodel自然语言处理神经网络人工智能深度学习
大模型学习(Datawhale_Happy-LLM)笔记7:Encoder-DecoderPLM1.Encoder-Decoder架构概述1.1架构基础Encoder-DecoderPLM是基于原始Transformer架构的完整实现,它同时保留了编码器(Encoder)和解码器(Decoder)两个核心组件。这种设计使得模型能够兼具文本理解和生成的双重能力,特别适合处理序列到序列(Seq2Seq
- SOTA是什么意思?
有奇妙能力吗
AI知识分享自然语言处理人工智能ai
最近看到一篇关于Transformer模型的论文,谷歌推出的BERT模型在11项NLP(naturallanguageprocessing)任务中夺得SOTA结果,引爆了整个NLP界。而Transformer是BERT取得成功的一个关键因素。谷歌的Transformer模型最早用于机器翻译任务,当时达到了SOTA效果。那么文中的SOTA效果,SOTA结果是什么意思呢?这里就来简单介绍一下定义:SO
- AI人工智能领域深度学习的跨模态检索技术
AI学长带你学AI
AI人工智能与大数据应用开发AI应用开发高级指南人工智能深度学习ai
AI人工智能领域深度学习的跨模态检索技术关键词:跨模态检索、深度学习、多模态学习、特征提取、相似度计算、注意力机制、Transformer摘要:本文深入探讨了AI领域中基于深度学习的跨模态检索技术。我们将从基础概念出发,详细分析跨模态检索的核心算法原理、数学模型和实际应用。文章包含完整的Python实现示例,展示如何构建一个跨模态检索系统,并讨论当前的技术挑战和未来发展方向。通过本文,读者将全面理
- LeetCode423. Reconstruct Original Digits from English
tigerhuli
LeetCode
Givenanon-emptystringcontaininganout-of-orderEnglishrepresentationofdigits0-9,outputthedigitsinascendingorder.Note:InputcontainsonlylowercaseEnglishletters.Inputisguaranteedtobevalidandcanbetransforme
- Dimba: Transformer-Mamba Diffusion Models————3 Methodology
图解图片中的每个模块详解1.文本输入(Text)描述:输入的文本描述了一个具有具体特征的场景。功能:提供关于要生成图像的详细信息。2.T5模型(TexttoFeature)描述:使用T5模型将文本转换为特征向量。功能:提取文本中的语义信息,为后续的图像生成提供条件。3.图像输入(Image)描述:输入图像通过变分自编码器(VAE)编码器处理。功能:将图像转换为潜在表示,用于添加噪声并进行扩散过程。
- 从零开始理解Transformer模型:架构与应用
淮橘√
transformer深度学习人工智能
引言近年来,Transformer模型席卷了自然语言处理(NLP)领域,成为了深度学习中的明星架构。从Google提出的《AttentionisAllYouNeed》论文到ChatGPT、BERT等模型的广泛应用,Transformer以其强大的性能和灵活性改变了我们对序列建模的认知。本文将从零开始,深入浅出地解析Transformer的架构原理、核心组件以及实际应用场景,并提供一个简单的代码示例
- 『大模型笔记』KV缓存:Transformer中的内存使用!
AI大模型前沿研究
大模型笔记缓存transformerKVcache大模型LLM
『大模型笔记』KV缓存:Transformer中的内存使用!文章目录一.KV缓存:Transformer中的内存使用!1.1.介绍1.2.自注意力机制回顾1.3.KV缓存的工作原理1.4.内存使用和示例1.4.1.存储键值缓存需要多少内存1.4.2.Example:OPT-30B(300亿参数)四.参考文献进一步阅读:加速GPT-KV缓存:https://www.dipkumar.dev/beco
- 大语言模型(LLM)笔记
笑衬人心。
大模型学习语言模型笔记人工智能
一、什么是大语言模型(LLM)?LLM(LargeLanguageModel)是基于Transformer架构构建,并在海量文本语料上训练出的具备自然语言理解和生成能力的深度神经网络模型。其本质任务是**预测下一个token(词/字/符号)**的概率分布,但通过大规模参数和数据的支持,表现出类人智能的行为。二、核心架构:Transformer由Google在2017年提出,是目前LLM的主流架构。
- AI编程实战:Cursor黑科技全解析
ithadoop
python开发语言
Cursor黑科技:AI编程实战核心技术解析2025年智能编程工具效能革命白皮书一、核心功能架构语义驱动开发基于CodeGraph技术构建跨文件语义图谱,实现类/函数级上下文感知实时生成UML时序图辅助架构设计(快捷键Ctrl+Alt+U)多模态编程#输入:"PyTorch实现ResNet50猫狗分类,带数据增强"@AI生成代码transform=transforms.Compose([trans
- Spring4.1新特性——Spring MVC增强
jinnianshilongnian
spring 4.1
目录
Spring4.1新特性——综述
Spring4.1新特性——Spring核心部分及其他
Spring4.1新特性——Spring缓存框架增强
Spring4.1新特性——异步调用和事件机制的异常处理
Spring4.1新特性——数据库集成测试脚本初始化
Spring4.1新特性——Spring MVC增强
Spring4.1新特性——页面自动化测试框架Spring MVC T
- mysql 性能查询优化
annan211
javasql优化mysql应用服务器
1 时间到底花在哪了?
mysql在执行查询的时候需要执行一系列的子任务,这些子任务包含了整个查询周期最重要的阶段,这其中包含了大量为了
检索数据列到存储引擎的调用以及调用后的数据处理,包括排序、分组等。在完成这些任务的时候,查询需要在不同的地方
花费时间,包括网络、cpu计算、生成统计信息和执行计划、锁等待等。尤其是向底层存储引擎检索数据的调用操作。这些调用需要在内存操
- windows系统配置
cherishLC
windows
删除Hiberfil.sys :使用命令powercfg -h off 关闭休眠功能即可:
http://jingyan.baidu.com/article/f3ad7d0fc0992e09c2345b51.html
类似的还有pagefile.sys
msconfig 配置启动项
shutdown 定时关机
ipconfig 查看网络配置
ipconfig /flushdns
- 人体的排毒时间
Array_06
工作
========================
|| 人体的排毒时间是什么时候?||
========================
转载于:
http://zhidao.baidu.com/link?url=ibaGlicVslAQhVdWWVevU4TMjhiKaNBWCpZ1NS6igCQ78EkNJZFsEjCjl3T5EdXU9SaPg04bh8MbY1bR
- ZooKeeper
cugfy
zookeeper
Zookeeper是一个高性能,分布式的,开源分布式应用协调服务。它提供了简单原始的功能,分布式应用可以基于它实现更高级的服务,比如同步, 配置管理,集群管理,名空间。它被设计为易于编程,使用文件系统目录树作为数据模型。服务端跑在java上,提供java和C的客户端API。 Zookeeper是Google的Chubby一个开源的实现,是高有效和可靠的协同工作系统,Zookeeper能够用来lea
- 网络爬虫的乱码处理
随意而生
爬虫网络
下边简单总结下关于网络爬虫的乱码处理。注意,这里不仅是中文乱码,还包括一些如日文、韩文 、俄文、藏文之类的乱码处理,因为他们的解决方式 是一致的,故在此统一说明。 网络爬虫,有两种选择,一是选择nutch、hetriex,二是自写爬虫,两者在处理乱码时,原理是一致的,但前者处理乱码时,要看懂源码后进行修改才可以,所以要废劲一些;而后者更自由方便,可以在编码处理
- Xcode常用快捷键
张亚雄
xcode
一、总结的常用命令:
隐藏xcode command+h
退出xcode command+q
关闭窗口 command+w
关闭所有窗口 command+option+w
关闭当前
- mongoDB索引操作
adminjun
mongodb索引
一、索引基础: MongoDB的索引几乎与传统的关系型数据库一模一样,这其中也包括一些基本的优化技巧。下面是创建索引的命令: > db.test.ensureIndex({"username":1}) 可以通过下面的名称查看索引是否已经成功建立: &nbs
- 成都软件园实习那些话
aijuans
成都 软件园 实习
无聊之中,翻了一下日志,发现上一篇经历是很久以前的事了,悔过~~
断断续续离开了学校快一年了,习惯了那里一天天的幼稚、成长的环境,到这里有点与世隔绝的感觉。不过还好,那是刚到这里时的想法,现在感觉在这挺好,不管怎么样,最要感谢的还是老师能给这么好的一次催化成长的机会,在这里确实看到了好多好多能想到或想不到的东西。
都说在外面和学校相比最明显的差距就是与人相处比较困难,因为在外面每个人都
- Linux下FTP服务器安装及配置
ayaoxinchao
linuxFTP服务器vsftp
检测是否安装了FTP
[root@localhost ~]# rpm -q vsftpd
如果未安装:package vsftpd is not installed 安装了则显示:vsftpd-2.0.5-28.el5累死的版本信息
安装FTP
运行yum install vsftpd命令,如[root@localhost ~]# yum install vsf
- 使用mongo-java-driver获取文档id和查找文档
BigBird2012
driver
注:本文所有代码都使用的mongo-java-driver实现。
在MongoDB中,一个集合(collection)在概念上就类似我们SQL数据库中的表(Table),这个集合包含了一系列文档(document)。一个DBObject对象表示我们想添加到集合(collection)中的一个文档(document),MongoDB会自动为我们创建的每个文档添加一个id,这个id在
- JSONObject以及json串
bijian1013
jsonJSONObject
一.JAR包简介
要使程序可以运行必须引入JSON-lib包,JSON-lib包同时依赖于以下的JAR包:
1.commons-lang-2.0.jar
2.commons-beanutils-1.7.0.jar
3.commons-collections-3.1.jar
&n
- [Zookeeper学习笔记之三]Zookeeper实例创建和会话建立的异步特性
bit1129
zookeeper
为了说明问题,看个简单的代码,
import org.apache.zookeeper.*;
import java.io.IOException;
import java.util.concurrent.CountDownLatch;
import java.util.concurrent.ThreadLocal
- 【Scala十二】Scala核心六:Trait
bit1129
scala
Traits are a fundamental unit of code reuse in Scala. A trait encapsulates method and field definitions, which can then be reused by mixing them into classes. Unlike class inheritance, in which each c
- weblogic version 10.3破解
ronin47
weblogic
版本:WebLogic Server 10.3
说明:%DOMAIN_HOME%:指WebLogic Server 域(Domain)目录
例如我的做测试的域的根目录 DOMAIN_HOME=D:/Weblogic/Middleware/user_projects/domains/base_domain
1.为了保证操作安全,备份%DOMAIN_HOME%/security/Defa
- 求第n个斐波那契数
BrokenDreams
今天看到群友发的一个问题:写一个小程序打印第n个斐波那契数。
自己试了下,搞了好久。。。基础要加强了。
&nbs
- 读《研磨设计模式》-代码笔记-访问者模式-Visitor
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.util.ArrayList;
import java.util.List;
interface IVisitor {
//第二次分派,Visitor调用Element
void visitConcret
- MatConvNet的excise 3改为网络配置文件形式
cherishLC
matlab
MatConvNet为vlFeat作者写的matlab下的卷积神经网络工具包,可以使用GPU。
主页:
http://www.vlfeat.org/matconvnet/
教程:
http://www.robots.ox.ac.uk/~vgg/practicals/cnn/index.html
注意:需要下载新版的MatConvNet替换掉教程中工具包中的matconvnet:
http
- ZK Timeout再讨论
chenchao051
zookeepertimeouthbase
http://crazyjvm.iteye.com/blog/1693757 文中提到相关超时问题,但是又出现了一个问题,我把min和max都设置成了180000,但是仍然出现了以下的异常信息:
Client session timed out, have not heard from server in 154339ms for sessionid 0x13a3f7732340003
- CASE WHEN 用法介绍
daizj
sqlgroup bycase when
CASE WHEN 用法介绍
1. CASE WHEN 表达式有两种形式
--简单Case函数
CASE sex
WHEN '1' THEN '男'
WHEN '2' THEN '女'
ELSE '其他' END
--Case搜索函数
CASE
WHEN sex = '1' THEN
- PHP技巧汇总:提高PHP性能的53个技巧
dcj3sjt126com
PHP
PHP技巧汇总:提高PHP性能的53个技巧 用单引号代替双引号来包含字符串,这样做会更快一些。因为PHP会在双引号包围的字符串中搜寻变量, 单引号则不会,注意:只有echo能这么做,它是一种可以把多个字符串当作参数的函数译注: PHP手册中说echo是语言结构,不是真正的函数,故把函数加上了双引号)。 1、如果能将类的方法定义成static,就尽量定义成static,它的速度会提升将近4倍
- Yii框架中CGridView的使用方法以及详细示例
dcj3sjt126com
yii
CGridView显示一个数据项的列表中的一个表。
表中的每一行代表一个数据项的数据,和一个列通常代表一个属性的物品(一些列可能对应于复杂的表达式的属性或静态文本)。 CGridView既支持排序和分页的数据项。排序和分页可以在AJAX模式或正常的页面请求。使用CGridView的一个好处是,当用户浏览器禁用JavaScript,排序和分页自动退化普通页面请求和仍然正常运行。
实例代码如下:
- Maven项目打包成可执行Jar文件
dyy_gusi
assembly
Maven项目打包成可执行Jar文件
在使用Maven完成项目以后,如果是需要打包成可执行的Jar文件,我们通过eclipse的导出很麻烦,还得指定入口文件的位置,还得说明依赖的jar包,既然都使用Maven了,很重要的一个目的就是让这些繁琐的操作简单。我们可以通过插件完成这项工作,使用assembly插件。具体使用方式如下:
1、在项目中加入插件的依赖:
<plugin>
- php常见错误
geeksun
PHP
1. kevent() reported that connect() failed (61: Connection refused) while connecting to upstream, client: 127.0.0.1, server: localhost, request: "GET / HTTP/1.1", upstream: "fastc
- 修改linux的用户名
hongtoushizi
linuxchange password
Change Linux Username
更改Linux用户名,需要修改4个系统的文件:
/etc/passwd
/etc/shadow
/etc/group
/etc/gshadow
古老/传统的方法是使用vi去直接修改,但是这有安全隐患(具体可自己搜一下),所以后来改成使用这些命令去代替:
vipw
vipw -s
vigr
vigr -s
具体的操作顺
- 第五章 常用Lua开发库1-redis、mysql、http客户端
jinnianshilongnian
nginxlua
对于开发来说需要有好的生态开发库来辅助我们快速开发,而Lua中也有大多数我们需要的第三方开发库如Redis、Memcached、Mysql、Http客户端、JSON、模板引擎等。
一些常见的Lua库可以在github上搜索,https://github.com/search?utf8=%E2%9C%93&q=lua+resty。
Redis客户端
lua-resty-r
- zkClient 监控机制实现
liyonghui160com
zkClient 监控机制实现
直接使用zk的api实现业务功能比较繁琐。因为要处理session loss,session expire等异常,在发生这些异常后进行重连。又因为ZK的watcher是一次性的,如果要基于wather实现发布/订阅模式,还要自己包装一下,将一次性订阅包装成持久订阅。另外如果要使用抽象级别更高的功能,比如分布式锁,leader选举
- 在Mysql 众多表中查找一个表名或者字段名的 SQL 语句
pda158
mysql
在Mysql 众多表中查找一个表名或者字段名的 SQL 语句:
方法一:SELECT table_name, column_name from information_schema.columns WHERE column_name LIKE 'Name';
方法二:SELECT column_name from information_schema.colum
- 程序员对英语的依赖
Smile.zeng
英语程序猿
1、程序员最基本的技能,至少要能写得出代码,当我们还在为建立类的时候思考用什么单词发牢骚的时候,英语与别人的差距就直接表现出来咯。
2、程序员最起码能认识开发工具里的英语单词,不然怎么知道使用这些开发工具。
3、进阶一点,就是能读懂别人的代码,有利于我们学习人家的思路和技术。
4、写的程序至少能有一定的可读性,至少要人别人能懂吧...
以上一些问题,充分说明了英语对程序猿的重要性。骚年
- Oracle学习笔记(8) 使用PLSQL编写触发器
vipbooks
oraclesql编程活动Access
时间过得真快啊,转眼就到了Oracle学习笔记的最后个章节了,通过前面七章的学习大家应该对Oracle编程有了一定了了解了吧,这东东如果一段时间不用很快就会忘记了,所以我会把自己学习过的东西做好详细的笔记,用到的时候可以随时查找,马上上手!希望这些笔记能对大家有些帮助!
这是第八章的学习笔记,学习完第七章的子程序和包之后