E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
微调
大模型
微调
学习之旅① — 书生·浦语大模型全链路开源体系
大模型
微调
学习之旅的起点通过学长的推荐了解到了书生·浦语,现阶段大模型呈井喷式的发展,身为人工智能的学生,感觉不应该局限于简单的调用大模型,而是应该根据实际的需求
微调
出符合自己情况的大模型,所以就加入了书生
Hoo K
·
2024-01-10 03:08
学习
书生·浦语大模型全链路开源开放体系
浦语大模型系列轻量级:InternLM-7B中量级:InternLM-20B重量级:InternLM-123B从模型到应用书生·浦语大模型全链路开源开放体系数据:书生·万卷预训练:InternLM-Train
微调
canglangzhishuiV
·
2024-01-10 03:37
llama
大模型实战营Day1 书生·浦语大模型全链路开源体系
从模型到应用:智能客服、个人助手、行业应用5.书生浦语全链条开源开放体系6.数据书生万卷(文本、图像文本、视频)OpenDataLab(提供智能标注工具)7.预训练:InterLM-Train(全面)8.
微调
流浪德意志
·
2024-01-10 03:37
LLM
大模型
人工智能
01 书生·浦语大模型全链路开源体系
目录1InterLM简介2书生·浦语大模型开源历程3书生·浦语20B开源大模型性能4书生·浦语全链条开源开放体系4.1数据4.2预训练4.3
微调
4.4部署4.5评测4.6应用1InterLM简介InternLM
wangzixinxinxin
·
2024-01-10 03:07
书生·浦语大模型实战营
语言模型
自然语言处理
人工智能
gpt
书生大模型全链路开源体系
书生浦语大模型全链路开源体系开源了哪些东西数据书生万卷:一个2TB的涵盖多种模态与任务的数据集预训练InternLM-Train:
微调
XTuner:可供你低成本
微调
模型的工具箱部署LMDeploy:一个服务端场景下
攻城狮白玉
·
2024-01-10 03:32
LLM
学习
LLM
书生大模型
4S转型
必须管理到位责任制,有奖罚有荣誉3组建优质的销售现场支持专家队伍,老人精英骨干组成在销售关键点予以现场后台互动等曲线支持4录音笔专家组每日复盘总结,日周月季计划必须经团队商议讨论执行,过程组成精干小组随时
微调
4fc89188a803
·
2024-01-10 00:09
大模型日报-20240109
V228WbPr3WKhBtIs7icZQ如今的大语言模型(LLM)仿佛一个全能战士,能进行常识和事实推理、懂得世界知识、生成连贯的文本……在这些基础功能的底座上,研究者们又进行了一系列努力对这些模型进行
微调
程序无涯海
·
2024-01-09 23:51
大模型篇
大模型
日报
AIGC
论坛
AI
人工智能
七九班第十三周工作总结
与刚刚期末考试完相比,状态稍
微调
整。但还存在一些问题。本周主要抓纪律,课堂说话现象。进行了批评,针对个人谈话,整改。关于课堂吃零食问题,与家长进行了沟通,帮助学生改正不好的习惯。
45560c6d9191
·
2024-01-09 17:39
微软最新研究成果:使用GPT-4合成数据来训练AI模型,实现SOTA!
现有的大部分方法通常采用复杂的多阶段训练流程,先在大规模数据上训练,再在小规模标注数据上
微调
。此过程依赖于手动收集数据制作正负样本对,缺乏任务的多样性和语言多样性。
夕小瑶
·
2024-01-09 16:02
人工智能
37.乔舒亚极简主义
目录介绍01.前沿简单的介绍02.这本书写的故事03.作者写书的缘由04.工作什么是快乐05.幸福并非是倍增06.转身成生活先锋07.能否复制其幸福09.极简主义的误解10.极简只需
微调
整11.极简可以这样做
杨充0211
·
2024-01-09 15:37
六、计算机视觉相关内容
文章目录前言一、图像增广1.1常用的图像增广1.1.1翻转和裁剪1.1.2变换颜色1.1.3结合多种图像增广方法二、
微调
2.1
微调
的步骤2.2具体案例三、目标检测和边界框3.1边界框四、锚框五、多尺度目标检测六
穆_清
·
2024-01-09 12:59
深度学习
计算机视觉
人工智能
UCLA提出自我博弈
微调
:无需额外
微调
数据,左右互搏即可大幅提升LLM能力
©作者|机器之心编辑部来源|机器之心金庸武侠小说中有一门武学绝技:左右互搏;乃是周伯通在桃花岛的地洞里苦练十余年所创武功,初期想法在于左手与右手打架,以自娱自乐。而这种想法不仅能用来练武功,也能用来训练机器学习模型,比如前些年风靡一时的生成对抗网络(GAN)。进入现今的大模型(LLM)时代,又有研究者发现了左右互搏的精妙用法!近日,加利福尼亚大学洛杉矶分校的顾全全团队提出了一种新方法SPIN(Se
PaperWeekly
·
2024-01-09 11:48
【深度学习:评估指标】如何在计算机视觉中测量模型性能:综合指南
通过使用正确的评估指标,机器学习工程师可以更深入地了解模型的优势和劣势,帮助他们不断
微调
和提高模型质量。此外,更好地了解评估指标有助于比较不同的模型,以确定最适合给定业务案例的模型。
jcfszxc
·
2024-01-09 09:19
深度学习知识专栏
深度学习
计算机视觉
人工智能
【深度学习每日小知识】Transfer Learning 迁移学习
然后,可以在较小的相关数据集上对该模型进行
微调
,以执行特定任务。通过重用在预训练阶段获得的知识,迁移学习可以减少训练模型所需的数据量并提高其性能。迁移
jcfszxc
·
2024-01-09 09:17
深度学习术语表专栏
深度学习
迁移学习
人工智能
潘利华:
微调
改变世界
以下是节选自得到0期学员潘利华“
微调
改变世界”演讲文字稿再高大上的研究,要想归结到具体行动,都得落实为一个全世界的销售员都能执行和做到的很微小的调整才行。在每家店,每个人,每天,都去做很微小的调整。
胡滔的自留地
·
2024-01-09 08:00
【书生·浦语大模型实战营01】《书生·浦语大模型全链路开源体系》
《书生·浦语大模型全链路开源体系》1.大模型成为热门关键词LLM发展时间轴2.书生·浦语全链条开源开放体系
微调
:XTuner支持全参数
微调
支持LoRA等低成本
微调
评测:OpenCompass全方位评测,
songyuc
·
2024-01-09 05:16
LLM
【书生·浦语大模型实战营03】《基于 InternLM 和 LangChain 搭建你的知识库》学习笔记
LangChain搭建你的知识库·文档》常见术语RAG:RetrievalAugmentedGeneration,检索增强生成1.大模型开发范式1.1RAGVSFinetuneRAGFinetune低成本可个性化
微调
可实时更新知识覆盖面广受基座模型影响大成本高昂单次回答知识有限无法实时更新
songyuc
·
2024-01-09 05:16
langchain
学习
笔记
关于生成式语言大模型的一些工程思考 paddlenlp & chatglm & llama
更新了以下特性:全面支持主流开源大模型Bloom,ChatGLM,GLM,Llama,OPT的训练和推理;TrainerAPI新增张量训练能力,简单配置即可开启分布式训练;新增低参数
微调
能力PEFT,助力大模型高效
微调
路人与大师
·
2024-01-09 02:57
llama
发现一个开源的Chatgpt-web应用,前端使用vue编写,后端也是nodejs代码编写的。
Chanzhaoyu/chatgpt-webChatGPTAPI使用gpt-3.5-turbo-0301通过官方OpenAI补全API模拟ChatGPT(最稳健的方法,但它不是免费的,并且没有使用针对聊天进行
微调
的模型
fly-iot
·
2024-01-09 01:18
开源
chatgpt
大模型学习第一课
大模型简述大模型是发展通用人工智能的重要途经专用模型到通用大模型实验室开源历程,大模型系列7B-20B-123B大模型性能达到Llama2-70B大模型应用:智能客服,个人助手,行业应用从模型到应用:数据,预训练,
微调
敲键盘的喵桑
·
2024-01-09 01:14
大模型实战营笔记
学习
20240104书生·浦语大模型全链路开源体系
文章目录大模型开发流程上海人工智能实验室书生全链路开源数据-书生·万卷InternLM-Train
微调
XTuner评测工具OpenCompass部署LMDeploy智能体Lagent智能体工具箱AgentLego
爱科研的瞌睡虫
·
2024-01-09 00:58
学习过程
语言模型
人工智能
深度学习
llama
Premiere分屏特效图文内容幻灯片展示视频素材PR模板下载
只需替换图像或视频,编辑文本,添加音频,微
微调
整即可!来自PR模板网:https://prmuban.com/36965.html
动设
·
2024-01-08 18:02
pr模板
prmuban.com
pr分屏模板
视频模板
视频素材
反向传播与梯度下降
这样,我们可以知道如何
微调
每
人工智能教学实践
·
2024-01-08 14:17
教学改革
人工智能
神经网络
人工智能
深度学习
字节跳动机器人研究团队:用大规模视频数据训练GR-1,机器人轻松应对复杂任务
GPT模型首先在大规模的数据上预训练,然后在特定的下游任务的数据上
微调
。大规模的预训练能够帮助模型学习可泛化的特征,进而让其轻松迁移到下游的任务上。但相比自然语言数据,机器人数据是十分稀缺的。
xwz小王子
·
2024-01-08 12:03
LLM机器人
机器人
音视频
LLM
找准自己的缺点
第二场比赛,我稍
微调
整了一下战术,坚决打他的反手后场。他的失误逐渐增多,我一度看到胜利的希望,但还是被他的后场高远球击溃
金城_e0ea
·
2024-01-08 11:25
垂直领域大模型落地思考
本文将系统介绍如何做一个垂直领域的大模型,包括继续预训练,领域
微调
数据构建,减缓幻觉,知识召回多个方面。也会介绍整体的系统设计,并串讲一系列相关的论文和产品。
Python算法实战
·
2024-01-08 11:53
大模型理论与实战
大模型
人工智能
langchain
大模型
语言模型
检索
垂直大模型
用通俗易懂的方式讲解:万字长文带你入门大模型
本篇文章将特别针对入门新手,以浅显易懂的方式梳理大模型的发展历程、核心网络结构以及数据
微调
等关键技术。
Python算法实战
·
2024-01-08 11:52
大模型理论与实战
大模型
语言模型
多模态
人工智能
大模型
正确的发音姿势--“提、打、挺、松”
提——“提颧肌”颧(音quan)是指人的眼睛下面,两腮上面突出的颜面骨,"提颧肌"指的是利用颧小肌、颧大肌、颊肌等向外上方提上唇的力量与上唇向中撮合力的拮抗以及控制唇形的细
微调
节。
观自在世界
·
2024-01-08 07:28
三维地下管线建模工具MagicPipe3D V3.3发布
MagicPipe3D宣传操作视频,2、发布MagicPipe3D数据规格说明,3、更新使用手册到3.3.0版本,4、增加支持属性字段中文,5、增加支持附属物方向字段配置和相对于管道角度的配置,同时支持角度
微调
MagicUrban
·
2024-01-08 07:21
地下管网
3d
建模
管线
3dtiles
obj
(2024,少样本
微调
自适应,泛化误差界限,减小泛化误差的措施)多模态基础模型的少样本自适应:综述
ASurvey公和众和号:EDPJ(添加VX:CV_EDPJ或直接进Q交流群:922230617获取资料)目录0.摘要1.简介2.多模态基础模型的预训练3.多模态基础模型的少样本适应方法A.基于提示的
微调
适应方法
EDPJ
·
2024-01-08 05:13
论文笔记
机器学习
人工智能
计算机视觉
(2023|NIPS,MUSE,掩蔽适配器,基于反馈的迭代训练)StyleDrop:任意风格的文本到图像生成
获取资料)目录0.摘要3.StyleDrop:文本到图像合成的风格调整3.1基础:Muse[4],用于文本到图像合成的掩蔽Transformer3.2文本到图像生成式视觉Transformer的参数高效
微调
EDPJ
·
2024-01-08 05:41
论文笔记
人工智能
计算机视觉
深度学习
使用keras-bert加载BERT模型的两种方法
创建的模型为BERT+Bi-LSTM+CRF,其中对BERT进行
微调
。方法1 方法1的完整代码如下:# -*- coding:
之乎者也·
·
2024-01-07 23:55
AI(人工智能)
内容分享
NLP(自然语言处理)内容分享
keras
bert
人工智能
ActionCLIP:A New Paradigm for Video Action Recognition
文章目录ActionCLIP:ANewParadigmforVideoActionRecognition动机创新点相关工作方法多模态框架新范式预训练提示
微调
实验实验细节消融实验关键代码总结相关参考ActionCLIP
卡拉比丘流形
·
2024-01-07 21:34
论文阅读
论文阅读
深度学习
人工智能
4.22 html/css
定位位置top上bottom下left左right右使用场合:位置
微调
position-fixed:固定定位脱离文档流。将元素固定在页面
小盖盖盖盖盖盖
·
2024-01-07 20:25
非工程师指南: 训练 LLaMA 2 聊天机器人
我们将以LLaMA2基础模型为例,在开源指令数据集上针对聊天场景对其进行
微调
,并将
微调
后的模型部署到一个可分享的聊天应用中。全程只需点击鼠标,即可轻松通往荣耀之路!为什么这很重要?
Hugging Face
·
2024-01-07 20:39
llama
机器人
交易三人行——趋势型ea,实际运行时盈损参数设置心得
在调试运行中还需要根据运行的时间周期,对盈损进行
微调
。而这个
微调
,对于整个ea能否赚钱有着巨大的影响。
8戏语8
·
2024-01-07 17:16
[书生·浦语大模型实战营]——书生·浦语大模型全链路开源体系
2.预训练工具3.
微调
大语言模型的下游应用中,增量续训和有监督
微调
是经常会用到的两种方式(1)增量续训使用场景:让基座模型学习到一些新知识,如某个垂类领域知识(垂类领域表示某个行业的某一部分,细分产业
不是吧这都有重名
·
2024-01-07 16:57
openmmlab系列
pytorch
python
人工智能
深度学习
自然语言处理
基于GPT-2的新闻文本生成——News Creator,使用MindSpore实现
的新闻本文生成——NewsCreator基于GPT-2的新闻本文生成项目——NewsCreator,是一个创新的自然语言处理项目,使用GPT-2作为核心模型,并结合专为新闻内容设计的AGnews数据集进行深度
微调
青云遮夜雨
·
2024-01-07 13:54
NLP
gpt
大模型的实践应用16-一种针对大型预训练模型的
微调
技巧:Adapter-Tuning方法的实战应用,原理详细介绍
大家好,我是微学AI,今天给大家介绍一下大模型的实践应用16-一种针对大型预训练模型的
微调
技巧:Adapter-Tuning方法的实战应用,原理详细介绍。
微学AI
·
2024-01-07 13:44
大模型的实践应用
Adapter
大模型
微调
自然语言处理24-T5模型的介绍与训练过程,利用简单构造数据训练
微调
该模型,体验整个过程
大家好,我是微学AI,今天给大家介绍一下自然语言处理24-T5模型的介绍与训练过程,利用简单构造数据训练
微调
该模型,体验整个过程。
微学AI
·
2024-01-07 13:42
自然语言处理实战
自然语言处理
人工智能
T5
transformer
大模型
大模型实战营第二期——1. 书生·浦语大模型全链路开源开放体系
文章目录1.实战营介绍2.书生·浦语大模型介绍2.1数据2.2预训练2.3
微调
2.4评测2.5部署2.6智能体(应用)1.实战营介绍github链接:https://github.com/internLM
吨吨不打野
·
2024-01-07 12:51
意外接触的一些知识
#
大模型实战营
大模型
RAG实战案例:如何基于 LangChain 实现智能检索生成系统
微调
(Fine-tuning)与检索增强生成(Retrieval-AugmentedGeneration,简称RAG)两种方法各有千秋,且都对此问题有着不可忽视的贡献。
技术狂潮AI
·
2024-01-07 12:38
AI应用实战
大模型企业实战
LLM应用实战
增强检索生成(RAG)
AI实战
LangChain
人工智能
2018年7月12日
一个白天都在抓紧时间建模写sql,最后先斩后奏决定用V2版本的评分卡并且不再
微调
了。最后调sql也算比较顺利,单机运行到生成input_values位置大概要半个小时。
真昼之月
·
2024-01-07 11:53
NLP论文阅读记录 - 2021 | RefSum:重构神经总结
Introduction1.1目标问题1.2相关的尝试1.3本文贡献二.前提堆叠重新排序三.本文方法3.1总结为两阶段学习3.1.1基础系统3.1.2元系统3.2重构文本摘要3.2.1重构3.2.2预训练重构3.2.3
微调
重构
yuyuyu_xxx
·
2024-01-07 11:05
NLP
自然语言处理
论文阅读
重构
PEFT: 在低资源硬件上对十亿规模模型进行参数高效
微调
1引言最近,深度学习的研究中出现了许多大型预训练模型,例如GPT-3、BERT等,这些模型可以在多种自然语言处理任务中取得优异的性能表现。而其中,ChatGPT模型因为在对话生成方面的表现而备受瞩目,成为了自然语言处理领域的热门研究方向。然而,这些大型预训练模型的训练成本非常高昂,需要庞大的计算资源和大量的数据,一般人难以承受。这也导致了一些研究人员难以重复和验证先前的研究成果。为了解决这个问题,
智慧医疗探索者
·
2024-01-07 10:06
深度学习模型
PETL
PETF
LORA
论文解读:P-Tuning v2: Prompt Tuning Can BeComparable to Fine-tuning Universally Across Scales and Tasks
它与
微调
的性能相匹配,同时只有0.
智慧医疗探索者
·
2024-01-07 10:35
深度学习模型
prompt
深度学习
人工智能
p-tuning
主流大语言模型从预训练到
微调
的技术原理
引言本文设计的内容主要包含以下几个方面:比较LLaMA、ChatGLM、Falcon等大语言模型的细节:tokenizer、位置编码、LayerNormalization、激活函数等。大语言模型的分布式训练技术:数据并行、张量模型并行、流水线并行、3D并行、零冗余优化器ZeRO、CPU卸载技术ZeRo-offload、混合精度训练、激活重计算技术、FlashAttention、PagedAtten
智慧医疗探索者
·
2024-01-07 10:32
人工智能初探
语言模型
人工智能
自然语言处理
栅格转ASCII
微调
整行列数
在进行影像重采样后,总会改变原有影像的像元个数。而像元个数的不匹配问题,会使得两幅影像无法一起逐像元计算,一般重采样是在影像背景值的边缘会多多少少一两行,本文介绍了删除这些多余行列的办法现有一幅做好重采样后的影像,行列数为21621470。而我另一幅影像行列数为21611470,该影像多出来一行。打开转换工具-由栅格转出-栅格转ASCII使用NOTEPAD打开该TXT,最上面为行列数信息总共有21
海绵波波107
·
2024-01-07 09:49
ArcGIS
arcgis
笔记
逃离互联网大厂
我不得不承认字里行间的无奈与自欺,在互联网大厂的这段日子,越来越迷失自己,却总在想放弃时因高薪而舍不得离开,给自己找各种理由和借口,自圆其说,却总也无法走出那个循环,安慰自己人生有些选择可以不必打破重塑,可以通过
微调
去不断接近梦想
柒舟说职场
·
2024-01-07 08:16
Transformer 的双向编码器表示 (BERT)
二、关于本文概述在我之前的博客中,我们研究了关于生成式预训练Transformer的完整概述,关于生成式预训练Transformer(GPT)的博客-预训练、
微调
和不同用例应用程序。
无水先生
·
2024-01-07 02:59
NLP高级和ChatGPT
人工智能
transformer
bert
深度学习
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他