E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
MOSS微调
【扩散模型】万字长文全面理解与应用Stable Diffusion
StableDiffusion1.StableDiffusion简介1.1基本概念1.2主体结构1.3训练细节1.4模型评测1.5模型应用1.6模型版本1.7其他类型的条件生成模型1.8使用DreamBooth进行
微调
镰刀韭菜
·
2023-11-14 04:44
生成式AI与扩散模型
stable
diffusion
DDPM
Img2Img
Depth2Image
Inpainting
无分类器引导
条件生成
未来之路:大模型技术在自动驾驶的应用与影响
接着,详细介绍了大模型的基本定义、基础功能和关键技术,特别是Transformer注意力机制和预训练-
微调
范式。文章还介绍了大模型在任务适配性、模型变革和应用前景方面的潜力。
一颗小树x
·
2023-11-13 18:03
感知算法学习
自动驾驶
大模型
Transformer
占用网络
应用
肠-肝轴:宿主-微生物群相互作用影响肝癌发生
前面的文章中,我们已经了解到,在肝病的发生发展中肠道菌群的变化,详见:深度解析|肠道菌群与慢性肝病,肝癌到目前为止,大多数研究都集中在细菌多样性及其代谢物与靶癌细胞表型的关联上,而没有考虑环境的
微调
。
谷禾牛博
·
2023-11-13 16:01
肠道菌群
人工智能
健康医疗
python
交互
产品运营
FD-Align论文阅读
:FeatureDiscriminationAlignmentforFine-tuningPre-TrainedModelsinFew-ShotLearning(NeurIPS2023)主要工作是针对
微调
的和之前的
B1CK
·
2023-11-13 14:50
论文阅读
Prompt 设计与大语言模型
微调
,没有比这篇更详细的了吧!
本文主要介绍了Prompt设计、大语言模型SFT和LLM在手机天猫AI导购助理项目应用。ChatGPT基本原理“会说话的AI”,“智能体”简单概括成以下几个步骤:预处理文本:ChatGPT的输入文本需要进行预处理。输入编码:ChatGPT将经过预处理的文本输入到神经网络中进行编码处理,使用的是多层transformer编码器结构。预测输出:ChatGPT通过对输入进行逐个token预测,输出下一个
Python算法实战
·
2023-11-13 13:05
大模型理论与实战
大模型
prompt
语言模型
人工智能
chatgpt
自然语言处理
GPT Store上线 OpenAI 的「iPhone时刻」这回真来了
有人创建了能
微调
X帖子的专用模型,精确定位全平台用户发帖的高峰时间;有人用GPT做了一个AI解说员,不仅能看懂足球赛,还会解说英雄
元宇宙日爆
·
2023-11-13 10:05
gpt
人工智能
ChatkBQA:一个基于大语言模型的知识库问题生成-检索框架11.13
ChatkBQA:一个基于大语言模型的知识库问题生成-检索框架摘要1引言3准备工作4方法4.1ChatKBQA概述4.2在LLMS上进行高效
微调
4.3用
微调
LLMS生成逻辑形式4.4实体和关系的非监督检索
露葵025
·
2023-11-13 10:49
论文
语言模型
人工智能
自然语言处理
Slurm集群上单节点8卡全量
微调
大模型笔记
大模型选择选用了近期刚发布的ChatGLM3-6b作为基座模型,考虑想利用模型进行Chat
微调
后的能力,没有使用ChatGLM3-6b-Base进行改进。
小怪兽会微笑
·
2023-11-13 09:12
笔记
chrome
前端
LLM
微调
过程中灾难性遗忘问题解决方法
灾难性遗忘是LLM
微调
过程中最常见的问题,下面是一些解决办法:将重要的权重冻结:像Lora就是采用的这种方案,只学习部分网络权重。
transformer_WSZ
·
2023-11-13 06:59
LLM
LLM
2020-08-31
神经网络的持续终身学习:回顾摘要人和动物有能力在其整个生命周期中不断获取,
微调
和转让知识和技能。
dm0mb--小牛牛
·
2023-11-13 05:41
Fine-Tuning Paradigm
Fine-TuningParadigm(
微调
范式)是指在深度学习模型中,训练一个已经预训练过的模型,通过对其进行
微调
以适应新的任务。
chunmiao3032
·
2023-11-13 03:18
人工智能
舍弃99%的参数,还能达到相同的性能!阿里团队发现大模型「合二为一」的黑魔法!而且不用GPU,不需重新训练
那么一种“奇思妙想”就是,在不同领域数据集上进行
微调
而获得如“数学”、“代码”、“翻译”等能力的不同大模型,能否通过“吸收同化
夕小瑶
·
2023-11-13 01:33
人工智能
半自动标注工具VoTT智能识别替换COCOSSD为自己的模型
半自动标注出来的结果一般都不准确,需要手动
微调
,但可以减少工作量。半自动标注工具还有:BreaverDam,基于多目标追踪的vatic等。
Dreaming_of_you
·
2023-11-12 23:28
Zephyr-7B论文解析及全量训练、Lora训练
DirectDistillationofLMAlignment1.1开发经过1.1.1Zephyr-7B-alpha1.1.2Zephyr-7B-beta1.2摘要1.3相关工作1.4算法1.4.1蒸馏监督
微调
神洛华
·
2023-11-12 13:38
LLMs
llm
nlp
魔搭社区LLM模型部署实践, 以ChatGLM3为例(一)
为例本文以ChatGLM3-6B为例,主要介绍在魔搭社区如何部署LLM,主要包括如下内容:●SwingDeploy-云端部署,实现零代码一键部署●多端部署-MAC个人笔记本,CPU服务器●定制化模型部署-
微调
后部署一
大模型Maynor
·
2023-11-12 05:53
#
GPT从零到精通
人工智能
AI编程
langchain
LoRAShear:微软在LLM修剪和知识恢复方面的最新研究
LoRAPrune将LoRA与迭代结构化修剪相结合,实现参数高效
微调
。在LLAMAv1上的实现即使进行了大量
deephub
·
2023-11-12 03:14
语言模型
人工智能
自然语言处理
python
深度学习
chatGLM2-6b问题, ValueError: expected sequence of length 87 at dim 1 (got 52)
遇到的问题:在训练
微调
完自己的数据集之后,运行evaluate.sh来测试评估,但是发现超过1000条数据之后,就会报错。
深度菜鸡-达闻西
·
2023-11-11 23:18
深度学习
人工智能
3DMAX汽车绑定动画模拟插件MadCar疯狂汽车使用教程
每个车轮和悬架都有简化的行为设置以及
微调
,这可以模拟赛车和重型卡车的运动。动画是在模拟过程中实时创建的。模拟可以通过键盘、操纵杆、游戏控制器或方向盘进行控制。还支持“跟随对象”模式。
沐风老师
·
2023-11-11 17:55
3DMAX
3dmax
3dmax插件
MadCar
Bard和ChatGPT的比较?
然而,Bard和ChatGPT也有一些区别:1.学习方式不同:Bard是一种基于迁移学习的预训练语言模型,它将已有的大规模语料库上进行预训练,然后通过
微调
和特定任务的训练来适应不同的应用场景。
百态老人
·
2023-11-11 12:07
chatgpt
关于神经网络中的30个超参数,你都懂了嘛?
因此,
微调
这些超参数可以提高模型性能并加速收敛。技术交流技术要学会分享、交流,不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。
Python数据挖掘
·
2023-11-11 11:20
python
机器学习
数据分析及可视化
神经网络
人工智能
深度学习
python
手写双向链表+反转单向链表
一些总结因为.next可以移动指针,所以某些for循环条件不需用index双向链表有双向指针,需要相互指定要巧用“假设索引为0”来进行
微调
代码因为LinkedList的设计是有first和last头尾节点
ZJH'blog
·
2023-11-11 08:22
链表
数据结构
c++
【大模型-第一篇】在阿里云上部署ChatGLM3
本篇文章参考了程序员树先生的“免费部署一个开源大模型
MOSS
”同时也参考了GLM3的github说明一、申请阿里云机器学习
cyber_1987
·
2023-11-11 08:43
阿里云
云计算
大模型
ChatGLM3
2022最新版-李宏毅机器学习深度学习课程-P50 BERT的预训练和
微调
模型输入无标签文本(Textwithoutannotation),通过消耗大量计算资源预训练(Pre-train)得到一个可以读懂文本的模型,在遇到有监督的任务是
微调
(Fine-tune)即可。
QwQllly
·
2023-11-11 07:54
李宏毅机器学习深度学习
深度学习
机器学习
bert
人工智能
自然语言处理
dxo photolab mac 破解版永久激活方法
DxOPhotoLabforMac可以说是目前Mac平台上的最好用的数码照片后期处理软件之一,DxOPhotoLab提供了一套完整的智能辅助修正功能,让您可以随时手动进行
微调
,包括噪点消除,摆脱光线限制
tzfabc123456789
·
2023-11-11 05:22
dxo
photolab
mac破解版
dxo
photolab破解版
dxo
photolab
for
mac
dxo
photolab永久激活
ChatGLM-6B 中文对话模型复现、调用模块、
微调
及部署实现(更新中)
ChatGLM-6B-PT一、前言近期,清华开源了其中文对话大模型的小参数量版本ChatGLM-6B(GitHub地址:https://github.com/THUDM/ChatGLM-6B)。其不仅可以单卡部署在个人电脑上,甚至INT4量化还可以最低部署到6G显存的电脑上,当然CPU也可以。随着大语言模型的通用对话热潮展开,庞大的参数量也使得这些模型只能在大公司自己平台上在线部署或者提供api接
故里_
·
2023-11-11 04:46
NLP
python
nlp
使用LLama和ChatGPT为多聊天后端构建微服务
然而,若要充分发挥微服务架构的潜力、特别是针对基于人工智能的聊天应用程序,需要与最新的大语言模型(LLM,比如MetaLLamaV2和OpenAI的ChatGPT)以及基于各种应用程序用例发布的其他经过
微调
的
这我可不懂
·
2023-11-11 03:01
chatgpt
人工智能
深度学习系列笔记08计算机视觉(上)
计算机视觉1图像增广1.1常用的图像增广方法1.1.1翻转和裁剪1.1.2改变颜色1.1.3结合多种图像增广方法1.2使用图像增广进行训练1.3小结2
微调
2.1步骤2.2.热狗识别2.2.1获取数据集os.path.join
三木今天学习了嘛
·
2023-11-10 23:41
深度学习
神经网络
目标检测
(动手学习深度学习)第13章 计算机视觉---图像增广与
微调
13.1图像增广总结数据增广通过变形数据来获取多样性从而使得模型泛化性能更好常见图片增广包裹翻转、切割、变色。图像增广代码实现
深度学习炼丹师-CXD
·
2023-11-10 23:02
动手学习深度学习
学习
深度学习
网络
cnn
计算机视觉
卷积神经网络
人工智能
【翻译】Introduction to Autoencoders
经过几周的
微调
和调整壁橱的布置,你和Alex建立了对其
李加号pluuuus
·
2023-11-10 22:08
CV基础
人工智能
如何使用Amazon SageMaker
微调
和部署ChatGLM模型?
如何使用AmazonSageMaker
微调
和部署ChatGLM模型?在当今快节奏的现代生活中,人们越来越依赖智能技术来解决问题。人工智能的发展已经带来了众多创新应用,其中之一就是ChatGLM模型。
aliyuncloud
·
2023-11-10 18:01
亚马逊云国际代理商
亚马逊云国际站
亚马逊云国际站充值
云计算
服务器
运维
数据库
linux
【AWS系列】使用 Amazon SageMaker
微调
和部署 ChatGLM 模型
通过预训练和
微调
的方式,大语言模型可以用于各种自然语言处理任务,例如文本生成、机器翻译、问答系统、对话系统等。它们在许多领域都展示出了令人印象深刻的性
颜淡慕潇
·
2023-11-10 18:00
AWS系列
aws
云计算
ChatGML
SageMaker
Amazon
虚拟双能量减影-实现骨肉分离
首先通过深度学习预测得到骨骼图像,然后对骨骼进行
微调
,最后把原始图像减去
微调
后的骨骼
佳昌
·
2023-11-10 16:32
人工智能(python
c++)
虚拟双能量减影
双能量减影
百川大模型
微调
模型下载https://huggingface.co/baichuan-inc
微调
框架https://github.com/hiyouga/LLaMA-Factory环境搭建gitclonehttps:
lanmengyiyu
·
2023-11-10 16:37
一点一滴NLP
百川
baichuan
大模型
nlp
微调
【2023.11.6】OpenAI发布会——近期chatgpt被攻击,不能使用
上下文函数调用更新改进了指令遵循和JSON模式可重现的输出和对数概率更新了GPT-3.5Turbo助手API、检索和代码解释器API中的新模式GPT-4Turbo带视觉DALL·E3文字转语音(TTS)收听语音样本模型定制GPT-4
微调
实验访问自定义模型更低的价格和更高的费率限制更低的价格更高的速率限制版权保护
是Yu欸
·
2023-11-10 16:57
chatgpt
人工智能
AIGC
gpt-3
语言模型
AI写作
gpt
垂直领域大模型落地思考
本文将系统介绍如何做一个垂直领域的大模型,包括继续预训练,领域
微调
数据构建,减缓幻觉,知识召回多个方面。也会介绍整体的系统设计,并串讲一系列相关的论文和产品。
机器学习社区
·
2023-11-10 15:11
机器学习
人工智能
语言模型
大模型
算法
langchain
微调
语言大模型选LoRA还是全参数?基于LLaMA 2深度分析
本文对比了全参数
微调
和LoRA,并分析了这两种技术各自的优势和劣势。作者使用了三个真实用例来训练LLaMA2模型,这提供了比较特定任务的性能、硬件要求和训练成本的基准。
OneFlow深度学习框架
·
2023-11-10 15:56
llama
开源语言大模型演进史:高质量基础模型竞赛
本文将研究目前可用的最受欢迎的开源基础模型(即已进行预训练但尚未
微调
或对齐的语言模型)。(本文作者为Rebuy公司AI总监、深度学习博士CameronR.Wolfe。
OneFlow深度学习框架
·
2023-11-10 15:26
全面对比GPT-3.5与LLaMA 2
微调
通用大模型虽好,但通过
微调
得到一个专属大模型不仅可以提高模型的可操控性、输出格式的可靠性和语气的一致性,还能让用户缩短提示长度,加速API调用,降低成本。
OneFlow深度学习框架
·
2023-11-10 15:55
前沿技术
gpt-3
llama
LoRA和QLoRA
微调
语言大模型:数百次实验后的见解
LoRA是用于训练自定义LLM的高效参数
微调
技术。本文作者SebastianRaschka通过成百上千次实验,他为使用LoRA和QLoRA对LLM进行
微调
提供了实用见解,包括节省内存、选择最佳配置等。
OneFlow深度学习框架
·
2023-11-10 15:55
前沿技术
lora
语言模型
llama
OpenAI
LLM
CSS实现进度条和订单进度条---竖向
之前做了一个横向订单进度条,手机访问显示很难兼容样式,下面做一个竖向的,再结合情况
微调
一下,方便去兼容手机。
淡若如初
·
2023-11-10 13:08
Html
css
前端
javascript
Huggingface--Quick tour
Quicktour下载所有相关的库AutoClassAutoTokenizerAutoModelSaveamodel自定义模型构建AutoConfigAutoModelTrainer--Pytorch优化的训练循环
微调
教程学习教程来自
尧景
·
2023-11-10 12:50
huggingface
python
自然语言处理
轻松连接电商平台:百川 Baichuan2-53B模型在无代码开发环境中的应用
它融合了意图理解、信息检索以及强化学习技术,结合有监督
微调
与人类意图对齐,表现突出。这款大模型可以通过集简云实现与各种系统的连接和集成,无需复杂的API开发,极大地优化了客服平台和OA系统的运行。
集简云-软件连接神器
·
2023-11-10 12:27
无代码
集成
技巧
低代码
集成
电商平台
营销系统
yolov8+动物+姿态识别(训练教程+代码)
在这篇博文中,我们将专门处理狗的关键点估计,并向您展示如何
微调
Ultralytics非常流行的
阿利同学
·
2023-11-10 12:44
YOLO
人工智能
深度学习
姿态估计
关键点检测
动物姿态估计
改进yolov8
Stable Diffusion读你大脑信号就能重现图像,研究还被CVPR接收了
作者写道,与之前的研究不同,他们不需要训练或
微调
人工智能模型来创建这些图像。论文地址:http
夕小瑶
·
2023-11-10 10:56
stable
diffusion
人工智能
计算机视觉
深度学习
机器学习
深度学习之基于YoloV5-Deepsort人物识别与追踪系统
它采用了轻量级网络结构,并通过从预训练模型中进行
微调
来提高检测精度。相比于之前的版本,YoloV5在保持准确
雅致教育
·
2023-11-10 08:15
深度学习
python
计算机毕业设计
深度学习
YOLO
人工智能
chatGPT培训老师AIGC培训讲师叶梓:大模型这么火,我们在使用时应该关注些什么?-6
以下为叶老师讲义分享:P25-P29提示工程的模式节省计算资源:在
微调
过程中,不需要重新训练整个模型,因此可以节省计算资源。
大数据AI人工智能培训专家培训讲师叶梓
·
2023-11-09 22:35
人工智能
深度学习
机器学习
不会写代码,也能部署一个独立ChatGPT?
(ChatGPT服务是基于GPT-3模型,经过大量的
微调
训练而来的,本教程暂时不包含训练内容,之后我们会讲如何进行二次训练)部署的本地api接口使用了node-chatgpt-api这个库,库基于Node.js
大鹏学开发
·
2023-11-09 19:29
chatgpt
Java-Spark系列10-Spark性能调优概述
文章目录一.Spark性能优化概述二.运行环境优化2.1数据本地性2.2数据存储格式三.RDD算子优化3.1尽可能复用同一个RDD3.2对多次使用的RDD进行持久化四.参数
微调
五.数据倾斜六.Spark
只是甲
·
2023-11-09 10:39
大数据和数据仓库
#
Spark
Spark优化
Spark数据倾斜
Spark参数调整
EMNLP2023 | 让模型学会将提示插入到合适的中间层
深度学习自然语言处理原创作者:cola现有的提示
微调
方法基本是人工选择提示层,而人工选择将提示插入到哪些层次并非一定合理,这导致了很大程度上限制提示
微调
发挥潜能。
zenRRan
·
2023-11-09 08:10
基于浪潮信息AIStation进行本地化部署:FlagAI可有效提高大模型开发效率
日前,浪潮信息AIStation与北京智源人工智能研究院大模型算法、模型及工具开源项目FlagAI完成了兼容性互相认证,将为各行业用户提供本地化的大模型快速训练与
微调
能力。
fanxiaohui12138
·
2023-11-09 06:17
人工智能
深度学习
机器学习
上一页
21
22
23
24
25
26
27
28
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他