E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LLM微调
全世界 LoRA 训练脚本,联合起来!
来自社区的SD-XLDreamboothLoRA
微调
最佳实践指南太长不看版我们把Replicate在SDXLCog训练器中使用的枢轴
微调
(PivotalTuning)技术与Kohya训练器中使用的Prodigy
·
2024-02-11 18:48
人工智能
InternLM大模型实战-1.书生浦语大模型全链路开源体系
文章目录前言笔记正文大模型成为热门关键词书生·浦语开源历程从模型到应用书生·浦语全链条开源开放体系数据预训练
微调
评测部署部署智能体LagentAgentLego总结前言本系列文章是参与书生浦语全链路开源体系学习的笔记文章
早上真好
·
2024-02-11 18:26
InternLM大模型实战
大数据
语言模型
【书生浦语大模型全链路开源体系】
浦语大模型的发展2.1、书生·浦语大模型的开源历程2.2、书生·浦语大模型的系列三、从模型到应用四、书生·浦语全链条开源开放体系4.1、数据(书生·万卷)4.2、预训练(InternLM-Train)4.3、
微调
G_Sheep
·
2024-02-11 18:54
InternLM学习
语言模型
人工智能
浮木云随笔小记(5)---代码导出
之前刚介绍浮木云的时候,发现这个小众平台具有导出源代码的功能,开发人员可以将平台上的功能代码导出到自己的工作环境中进行二次开发和定制,无需从头开始编写,根据项目需要,进行一些
微调
和优化,以满足特定的业务需求
·
2024-02-11 18:38
基于OpenIM 实现聊天机器人功能
开发者可以替换此逻辑,在LangChain框架上调用
LLM
接口(包括gpt3.5或其他开源本地模型),以实现智能客服功能。
·
2024-02-11 18:11
github
2023 re:Invent AI生成产品体验,从 Bedrock 到 Amazon Q
引如果你也有如下问题,那么接下来的文字会一一为你解答一套数据集,如何
微调
不同类型的开源大模型?——Bedrock如何只有产品说明书,如何构建一个智能问答机器人?
·
2024-02-11 17:43
【论文精读】GPT2
目前在语言任务上表现最佳的多任务学习系统,利用了预训练和监督
微调
的结合,通用的预训练系统可以在
微调
后在多个任务上表现良好,但
微调
仍需要监督数据。故本文做出证明
None-D
·
2024-02-11 15:43
文本生成
gpt
深度学习
人工智能
nlp
自然语言处理
语言模型
【论文精读】GPT1
针对这些问题,本文提出一种无监督预训练和有监督
微调
的组合的半监督方法,具体为:采用两阶段训练过程,首先使用语言建模目标在大量未标注数据上学习模型的初始参数,随后使用有监督目标
微调
预训练模型以适应目标任务模型架构使用
None-D
·
2024-02-11 15:42
文本生成
深度学习
人工智能
nlp
算法
gpt
chatgpt
零基础无实物一步一步学PLCS7-1200仿真(五)-四路简易抢答器控制
本次项目为四路抢答器,通过本次项目了解项目开发流程,未来扩展多路抢答器只需要对程序进行
微调
即可。项目要求:1.有4组进行抢答,抢答按钮为SB1~SB4,对应4个抢答指示灯为L1~L4。
永远都是新手
·
2024-02-11 14:27
PLC自学教程
单片机
嵌入式硬件
请立即收藏!春节必备AI工具盘点:一键拜年短信、海报!AI全家福!
春节对于
LLM
大模
木易AI信息差
·
2024-02-11 13:49
人工智能
ai
gpt
chatgpt
ChatGPT高效提问—prompt常见用法(续篇八)
ChatGPT高效提问—prompt常见用法(续篇八)1.1对抗对抗是一个重要主题,深入探讨了大型语言模型(
LLM
)的安全风险。
Bruce_Liuxiaowei
·
2024-02-11 12:34
笔记
总结经验
chatgpt
prompt
人工智能
LLM
应用开发报错与解决:langchain_Core not installed, pydev debugger: CRITICAL WARNING: This version of python
已经安装了langChain_core后,仍有以上报错,解决如下,首先升级了pycharm(网上有人说是pycahrm版本低导致不兼容,出现debug错误)但这个方法,没有用,仍有报错。有效解决办法,直接去interpreteroption输入:-Xfrozen_modules=off
德国Viviane
·
2024-02-11 10:30
langchain
LLM
之RAG实战(二十五)| 使用LlamaIndex和BM25重排序实践
本文,我们将研究高级RAG方法的中的重排序优化方法以及其与普通RAG相比的关键差异。一、什么是RAG?检索增强生成(RAG)是一种复杂的自然语言处理方法,它包括两个不同的步骤:信息检索和生成语言建模。这种方法旨在为语言模型提供访问外部数据源,来提高其在生成响应时的准确性和相关性,从而增强语言模型的能力。1.1检索组件:目的:检索组件的主要功能是响应查询或提示,从大型数据库或语料库中提取相关文档或信
wshzd
·
2024-02-11 06:03
RAG
笔记
easyui
前端
javascript
LLM
之RAG实战(二十四)| LlamaIndex高级检索(三):句子窗口检索
一、语句窗口检索介绍在句子窗口检索中,我们对文档的片段进行检索,然后返回检索到的相关句子的多个句子,然后根据该相关句子及其上下的句子窗口生成
LLM
的合成。如下图所示
wshzd
·
2024-02-11 06:02
RAG
笔记
人工智能
LLM
之RAG实战(二十六)| 使用llamaindex-cli无需一行代码即可实现RAG
本文将介绍一个无需一行代码即可实现RAG的开源工具:llamaindex-cli,该工具是基于llama-index实现的,并采用默认向量数据库Chroma,因此首先需要进行如下安装:pipinstallllama-indexpipinstallchromadbStep1:设置OpenAIAPIKey环境变量该工具默认采用OpenAI的API,因此需要配置OpenAIAPIKey,命令如下所示:$
wshzd
·
2024-02-11 06:32
RAG
笔记
数据库
LLM
之LangChain(七)| 使用LangChain,LangSmith实现Prompt工程ToT
如下图所示,
LLM
仍然是自治代理的backbone,可以通过给
LLM
增加以下模块来增强
LLM
功能:PrompterAgentCheckerModuleMemorymoduleToTcontroller当解决具体问题时
wshzd
·
2024-02-11 06:01
LangChain
笔记
langchain
prompt
微软 & CMU - Tag-
LLM
:将通用大语言模型改用于专业领域
yetingyun.blog.csdn.net/一、前言论文地址:https://arxiv.org/abs/2402.05140Github地址:https://github.com/sjunhongshen/Tag-
LLM
叶庭云
·
2024-02-11 05:33
ChatGPT
实践
大语言模型
领域适应
专业大模型
专业领域
AI
for
Science
周月计划
p4程度最差,表示连辅助都不会p2半辅助p1辅助可以完成打勾能独立完成计划可以根据孩子程度
微调
,不一定每个孩子是一样的,下个月的计划可以有一些上个月计划的复习或者延伸情绪行为可以多样的,一般随便写就可以
蔡君琳
·
2024-02-11 04:36
(2023,ControlNet,CFGRW,diffusion,控制组合)向文本到图像扩散模型添加条件控制
AddingConditionalControltoText-to-ImageDiffusionModels公众号:EDPJ(添加VX:CV_EDPJ或直接进Q交流群:922230617获取资料)目录0.摘要1.简介2.相关工作2.1.
微调
神经网络
EDPJ
·
2024-02-11 04:46
论文笔记
人工智能
深度学习
LangGraph基础理解
AgentExecutorChatAgentExecutorModifications本文对LangGraph博客内容做下简单总结,详细内容请查看langchain博客https://blog.langchain.dev/langgraph/动机Agent的实现基本上有两个步骤:调用
LLM
我只钓小鱼
·
2024-02-11 03:24
LLM
笔记
langchain
LLM
之LangChain(六)| 使用LangGraph创建一个超级AI Agent
几天前,LangChain正式宣布了名为LangGraph的新库,LangGraph建立在LangChain之上,简化了创建和管理Agent及其运行时的过程。在这篇文章中,我们将全面介绍langGraph,什么是代理和代理运行时?Langgraph的特点是什么,以及如何在Langgraph中构建一个代理执行器,我们将探讨Langgraph中的聊天代理执行器以及如何在人类循环和聊天中修改Langgr
wshzd
·
2024-02-11 03:24
LangChain
笔记
langchain
人工智能
langgraph学习--创建基本的agent执行器
本文介绍如何使用langgraph创建一个基本的Agent执行器,主要包括下面几个步骤:1、定义工具2、创建langchainAgent(由
LLM
、tools、prompt三部分组成)3、定义图形状态传统的
我只钓小鱼
·
2024-02-11 03:22
LLM
笔记
langchain
langgraph
AI新工具(20240210) Osam - Osam是一个启用本地运行的开源
llm
;Whishper - Whishper是一个开源的语音工具
Osam-Osam是一个启用本地运行的开源“一切分割”模型工具,支持多种接口和自定义视觉模型。Osam是一个开源工具,它允许本地运行“可对任何内容进行分割”的模型(Segment-AnythingModels),灵感来源于Ollama。使用Osam,用户可以在本地环境中,而不是依赖于云服务,对图片进行内容分割。这种方法有助于保护数据隐私,同时也减少了因网络延迟可能产生的处理时间。https://g
go2coding
·
2024-02-10 23:10
AI智能工具
人工智能
[算法前沿]--061-生成式 AI 的发展方向,是 Chat 还是 Agent?
它使用大型语言模型(
LLM
)作为其核心计算引擎,使其能够进行对话、执行任务、推理并展现一定程度的自主性。简而言之,Agent是一个具有复杂推理能力、记忆和执行任务手段的系统。
三更科技公社
·
2024-02-10 17:38
人工智能
大模型基础架构的变革:剖析Transformer的挑战者(上)
有在原Transformer架构基础上
微调
改良的,也有采用传统RNN模型的思想的架构,还有以CNN为基础模型的架构,更有将Transformer和其他RNN、CNN架构结合的混合架构模型。
深度人工智能
·
2024-02-10 15:09
技术趋势
科技畅想
语言模型
transformer
深度学习
人工智能
在Ubuntu上部署Stable Video Diffusion动画制作
其特点主要包括:1、
微调
优化:通过在特定条件下进行
微调
,提高了视频输出的一致性和质量。2、改进的生成性能:在生成视频的清晰度、分辨率以及帧数方面可能有
BBM的开源HUB
·
2024-02-10 15:08
ubuntu
linux
介绍个小工具 - ABAP Cleaner
也就是说,PrettyPrinter所能提供的仅仅是代码格式上的
微调
,并不能让我们的代码更加的clean。“Clean”是什么意思呢?这个就要说一说CleanCode的概念了,它从命名规范、格式、
SAP-nkGavin
·
2024-02-10 11:30
SAP
ABAP性能优化
SAP
ABAP
Clean
Code
ABAP
Cleaner
Go内存优化与垃圾收集
Go提供了自动化的内存管理机制,但在某些情况下需要更精细的
微调
从而避免发生OOM错误。本文介绍了如何通过
微调
GOGC和GOMEMLIMIT在性能和内存效率之间取得平衡,并尽量避免OOM的产生。
俞凡 DeepNoMind
·
2024-02-10 11:20
程序人生
【大模型】大语言模型前沿技术系列讲座-学习笔记1:人工智能发展史
最近参加了深蓝学院举办的《大型语言模型前沿技术系列分享》,该系列分享以大模型(
LLM
)为背景,以科普、启发为目的,从最基本的Transformer开始讲起,逐步涉及一些更高阶更深入的课题,涵盖大模型基础
不雨_亦潇潇
·
2024-02-10 09:22
人工智能AI
#
自然语言处理NLP
#
大模型
人工智能
语言模型
自然语言处理
NLP
AI
ChatGPT
LLM
大模型基础理论学习笔记——大模型适配
本文目录7.大模型适配7.1大模型适配基础要素7.2当前主流大模型适配方法7.2.1探针方法(Probing)(1)探针方法介绍(2)基于probing的大模型适配7.2.2
微调
方法(Fine-tuning
maximejia
·
2024-02-10 09:51
人工智能
学习
笔记
人工智能
自然语言处理
语言模型
知识图谱与大模型双向驱动的关键问题和应用探索
本期邀请到蚂蚁集团知识引擎负责人梁磊分享“SPG与
LLM
双向驱动的关键问题和应用探索”,
金融机器智能官方
·
2024-02-10 08:35
知识图谱
知识图谱
人工智能
语言模型
生成式人工智能攻击的一年:2024
LLM
,即大
网络研究院
·
2024-02-10 07:57
网络研究院
人工智能
模型
安全
攻击
分析
大模型实践笔记(2)——Clip改进:通过文本检索视频帧
目录超参数设置配置
LLM
-clip的backbone文本编码抽取视频帧并编码视频帧匹配保存结果帧工程流全是干货超参数设置#超参数设置PARAMS={"clip_model":"openai/clip-vit-base-patch32
不会写代码!!
·
2024-02-10 07:46
人工智能
LLM
Python学习
深度学习
大数据
小巨人大爆发:紧凑型大型语言模型效率之谜揭晓!
订阅:https://rengongzhineng.io/在自然语言处理(NLP)这个飞速发展的领域里,大型语言模型(
LLM
)的出现无疑是一场革命
新加坡内哥谈技术
·
2024-02-10 07:41
语言模型
人工智能
自然语言处理
微调
LLM
或使用RAG,开发RAG管道的12个痛点
论文地址:archive.is/bNbZo·PainPoint1:MissingContent内容缺失·PainPoint2:MissedtheTopRankedDocuments错过排名靠前的文档·PainPoint3:NotinContext—ConsolidationStrategyLimitations不在上下文中—整合战略的局限性·PainPoint4:NotExtracted未提取·P
lichunericli
·
2024-02-10 05:37
RAG
人工智能
语言模型
从现在开始学会拒绝
昨天面临孩子的再次崩溃,我本以为自己坚持了一周能稍
微调
整不至于失控的时候再一次失败了。面对一个不能发火不能失控的孩子,我只能是控制调整。机体反应也跟着出现。而且我无法专注到跟着老师去调整,让我更沮丧。
MaggieZH
·
2024-02-09 23:16
阿松上师每日开示(1099)
特别说明:文章内容转自阿松上师微信号的每日开示,仅作尽少量的排版、错字、标点、配图等
微调
处理。若有钱财赞赏的,定会汇积后转奉阿松上师本人。此为个人承诺,无意号召鼓动。
曾路
·
2024-02-09 22:20
每日一看大模型新闻(2023.12.22)Privado推出开源
LLM
聊天应用MuroChat;百度:推出文字解谜AI游戏“模问题”;一文说尽「大模型推理」!12家高校机构联合发布150页报告
1.产品发布1.1Privado推出开源
LLM
聊天应用MuroChat发布日期:2023.12.22Privado推出开源
LLM
聊天应用MuroChat加强企业数据保护主要内容:Privado.ai推出开源的
超爱玩大模型
·
2024-02-09 22:19
人工智能
chatgpt
自然语言处理
prompt
数据分析
语言模型
embedding
每日一看大模型新闻(2023.12.21)用友大易:发布国内首个AI面试解决方案;智源开源新一代多模态基础模型Emu2;一位中国教授使用AI创作科幻小说,荣获全国大奖;
微调
?开源+共训
1.产品发布1.1奇域AI:符合中国宝宝审美的AI绘画平台发布日期:2023.12.21奇域AI:符合中国宝宝审美的AI绘画平台(chinaz.com)主要内容:奇域AI以中国文化元素为基础,呈现极具中式审美的绘画风格,为创作者提供独特创作空间。社区提供新手引导,汇聚顶尖AI绘画创作者,促进创作者学习和启发。创作者可通过分享邀请链接和作品赚取额度,同时提供商业用途的生成图片,助力个人IP知名度提升
超爱玩大模型
·
2024-02-09 22:17
人工智能
自然语言处理
prompt
数据分析
语言模型
chatgpt
embedding
从模型到前端,你应该知道的
LLM
生态系统指南
LLM
在在2023年发展的风生水起,一个围绕
LLM
的庞大生态系统正在形成,本文通过介绍这个生态系统的核心组成部分,来详细整理
LLM
的发展。
deephub
·
2024-02-09 21:25
人工智能
语言模型
深度学习
RAG
扩展说明: 指令
微调
Llama 2
这篇博客是一篇来自MetaAI,关于指令
微调
Llama2的扩展说明。旨在聚焦构建指令数据集,有了它,我们则可以使用自己的指令来
微调
Llama2基础模型。目标是构建一个能够基于输入内容来生成指令的模型。
Hugging Face
·
2024-02-09 19:50
llama
人工智能
[算法前沿]--059-大语言模型Fine-tuning踩坑经验之谈
当下开源的
LLM
(Largelanguagemodel)非常多,可谓是百模大战。面对诸多开源本地模型,根据自己的需求,选择适合自己的基座模型和参数量很重要。
三更科技公社
·
2024-02-09 17:20
AI前沿与LLM
chatGPT
人工智能
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)
为了答谢各位网友的支持,从今日起免费为300名读者提供订阅主题论文服务,只需VX关注公号并回复{邮箱+论文主题}(如:
[email protected]
+chatgpt@largelanguagemodel@
LLM
晓理紫
·
2024-02-09 14:15
每日论文
学习
机器人
深度学习
人工智能
大模型
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)
为了答谢各位网友的支持,从今日起免费为300名读者提供订阅主题论文服务,只需VX关注公号并回复{邮箱+论文主题}(如:
[email protected]
+chatgpt@largelanguagemodel@
LLM
晓理紫
·
2024-02-09 14:15
每日论文
机器人
深度学习
人工智能
大模型
使用阿里云通义千问14B(Qianwen-14B)模型自建问答系统
单卡显存需求:根据之前的信息,Qianwen-14B
微调
wangqiaowq
·
2024-02-09 12:20
人工智能
LLaMA 2 和 QianWen-14B
对于
微调
和推理,Llama-13B建议使用至少10GBVRAM(显存)的
wangqiaowq
·
2024-02-09 12:20
人工智能
深度学习
自然语言学习nlp 六
p=118DeltaTuning,尤其是在自然语言处理(NLP)和机器学习领域中,通常指的是对预训练模型进行
微调
的一种策略。
wangqiaowq
·
2024-02-09 12:46
学习
ChatGLM3
微调
遇到的坑
问题:
微调
的各种问题·THUDM/ChatGLM3·Discussion#253·GitHubshiTraceback(mostrecentcalllast):File"/opt/projects/chatglm3
才 神
·
2024-02-09 11:15
深度学习
人工智能
2019-5-29周三
一个人的力量有限,根据资料分类及分类后的数量,先易后难,先上架,大致顺序,再
微调
整。结果很成功。不足之处在于事件发生开始性格中的急躁暴露无遗,没有稳重。
荷妍
·
2024-02-09 11:01
2021-05-13
我刚开始写的文章真的很冗杂,杂乱无章,很少阅览,更没人赞,过了段时间我试着已经写了的文章进行更改了一些里面有些话稍
微调
整位置。
一百天后的我
·
2024-02-09 10:05
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他