E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LLM微调
SPOTTING LLMS WITH BINOCULARS: ZERO-SHOT DETECTION OF MACHINE-GENERATED TEXT
本文是
LLM
系列文章,针对《SPOTTINGLLMSWITHBINOCULARS:ZERO-SHOTDETECTIONOFMACHINE-GENERATEDTEXT》的翻译。
UnknownBody
·
2024-01-30 18:21
LLM
人工智能
语言模型
KnowledgeNavigator: Leveraging Large Language Models for Enhanced Reasoning over Knowledge Graph
本文是
LLM
系列文章,针对《KnowledgeNavigator:LeveragingLargeLanguageModelsforEnhancedReasoningoverKnowledgeGraph》
UnknownBody
·
2024-01-30 18:50
LLM
知识图谱
语言模型
知识图谱
人工智能
DarkMode(4):css滤镜 颜色反转实现深色模式
或者用js,给想要反转的,加上反转样式,再对其他的做
微调
。
zhoulujun
·
2024-01-30 17:50
UniAdapter: Unified Parameter-Efficient Transfer Learning for Cross-modal Modeling
UnifiedParameter-EfficientTransferLearningforCross-modalModeling论文链接:https://arxiv.org/pdf/2302.06605.pdf源码链接:https://hub.nuaa.cf/RERV/UniAdapter简介预训练-
微调
范式在自然语言处理
qgh1223
·
2024-01-30 15:41
有效参数迁移
人工智能
迁移学习
深度学习
2022-11-12【日精进第55天】
姓名:李庆单位:郑州鹿野苑餐饮管理有限公司(朵家甜品厨房)每日定课(根据实际情况,每十天
微调
一次):1,晨跑:5:20前,18分钟内跑完3公里;【完成】2,读书笔记:阅读30min+,笔记200字以上;
李庆是个做蛋糕的
·
2024-01-30 15:21
【书生·浦语大模型实战营】学习笔记目录
轻松玩转书生·浦语大模型趣味Demo》学习笔记【书生·浦语大模型实战营03】《基于InternLM和LangChain搭建你的知识库》学习笔记【书生·浦语大模型实战营04】《(4)XTuner大模型单卡低成本
微调
实战
songyuc
·
2024-01-30 14:33
学习
笔记
小数课程在路上•两位数减一位数算理(退位)
这节课,在上课的时候进行了
微调
,即加入了专门的“两位数拆分成整十数和十几”的教学。主要是在相关的数学实验室活动中,孩子们在两位数拆分上出现了不小的障碍,我预计班级里会有很多孩子在这块上出现问题。
温州王晓锋
·
2024-01-30 13:44
评估
LLM
在细胞数据上的实用性(4)-插补,模拟生成,涌现
目录定义插补模拟涌现能力细胞数据中的生成与涌现插补模拟生成涌现定义插补插补是一项与缺失数据相关的填充任务。一般来说,插补有两个目标:对scRNA-seq数据进行插补,以减少数据噪声,并用具有生物学意义的值填充技术导致的零值。由于看不见或无法测量的基因,对空间转录组数据进行插补。当前的空间插补方法在不同的数据集上没有表现出很强的性能(Optimizingxeniuminsitudatautility
tzc_fly
·
2024-01-30 13:27
单细胞多组学分析
人工智能
算法
机器学习
评估
LLM
在细胞数据上的实用性(3)-基因层面的评估
目录定义基因功能预测扰动预测基因网络分析基因层面的评估基因功能预测扰动预测基因网络分析定义基因功能预测基因功能预测对于识别基因在不同条件下的特性非常重要。因为人类大约有20,000个蛋白质编码基因,只有一些被标注了功能。对基因功能的准确预测可以帮助我们理解和推断基因在生物系统中的作用。这里考虑基因的三种功能。第一种是剂量敏感或不敏感(dosage-sensitiveornon-sensitive)
tzc_fly
·
2024-01-30 13:57
单细胞多组学分析
深度学习
人工智能
大语言模型(
LLM
)的进化树,学习
LLM
看明白这一张图就够了
近期大语言模型迅速发展,让大家看得眼花缭乱,感觉现在
LLM
的快速发展堪比寒武纪大爆炸,各个模型之间的关系也让人看的云里雾里。
才能我浪费
·
2024-01-30 12:21
语言模型
学习
人工智能
WhisperBot:整合了Mistral大型语言模型的实时语音转文本系统
WhisperBot基于WhisperLive和WhisperSpeech的功能而构建,在实时语音到文本管道之上集成了大型语言模型Mistral(
LLM
)。
语音之家
·
2024-01-30 10:14
智能语音
语言模型
人工智能
自然语言处理
自然语言nlp学习 三
4-8Prompt-Learning--应用_哔哩哔哩_bilibiliPromptLearning(提示学习)是近年来在自然语言处理领域中,特别是在预训练-
微调
范式下的一个热门研究方向。
wangqiaowq
·
2024-01-30 10:13
自然语言处理
学习
人工智能
大白话理解大型语言模型(
LLM
):预训练和
微调
引言:在人工智能的世界里,大型语言模型(
LLM
)已成为一种强大的工具,它们不仅能理解和生成自然语言,还能在各种复杂任务中表现出色。
E寻数据
·
2024-01-30 08:36
大模型
语言模型
人工智能
自然语言处理
大模型
微调
学习之旅③ — 基于 InternLM 和 LangChain 搭建你的知识库
目录一、大模型开发范式1、通用大模型的局限性:2、解决通用大模型范式的两种解决思路:①检索增强生成(RAG)②延呈传统自然语言处理算法
微调
(Finetune)二、LangChain简介①什么是LangChain②LangChain
Hoo K
·
2024-01-30 08:08
学习
动手学RAG:汽车知识问答
原文:动手学RAG:汽车知识问答-知乎Part1内容介绍在自然语言处理领域,大型语言模型(
LLM
)如GPT-3、BERT等已经取得了显著的进展,它们能够生成连贯、自然的文本,回答问题,并执行其他复杂的语言任务
javastart
·
2024-01-30 08:03
自然语言
大模型
aigc
汽车
chatgpt
AIGC
人工智能
机器学习.线性回归
1和2是权重项,0是偏置项,在训练过程中为了使得训练结果更加精确而做的
微调
,不是一个大范围的因素,核心影响因素是权重项为了完成矩阵的运算,在0后面乘x0,使得满足矩阵的转换,所以在处理数据时候会添加如有上图所示的
丰海洋
·
2024-01-30 07:28
机器学习
线性回归
人工智能
DB-GPT: Empowering Database Interactions with Private Large Language Models 导读
本文介绍了一种名为DB-GPT的新技术,它将大型语言模型(
LLM
)与传统数据库系统相结合,提高了用户使用数据库的体验和便利性。
一只特蕉
·
2024-01-30 06:04
大语言模型
大模型数据库
数据库
gpt
语言模型
大模型:合成数据、安全挑战与知识注入
在如今这个快速发展的AI时代,大语言模型(
LLM
)的研究论文数量呈指数级增长,几乎到了人力无法一一阅读和消化的地步。然而,对这些研究成果的归纳和总结至关重要,因为它们描绘了
LLM
领域的未来发展轮廓。
AI知识图谱大本营
·
2024-01-30 06:22
大模型
人工智能
深度学习
机器学习
在 Amazon EKS 上部署生成式 AI 模型
生成式AI技术包括
微调
和部署大型语言模型(
LLM
),并允许开发人员访问这些模型以执行提示和对话。负责在Kubernetes上制定标准的平台团队可以在AmazonEKS上
微调
和部署大语言模型。
亚马逊云开发者
·
2024-01-30 05:40
人工智能
20180815【晨间日记】
0815晨间日记【7/90】:1.早起5:10早睡11:252.昨日检视:①补充创业计划书后续表格,已完成;②微水汽车美容开班及现场总结规范
微调
,已完成;③扫盲培训教材装订及方案落实,没有完成;3.今日青蛙
六两在路上
·
2024-01-30 00:32
VLM 系列——Monkey——论文解读
ImageResolutionandTextLabelAreImportantThingsforLargeMulti-modalModels》,是一个多模态的视觉-文本模型,当前版本(20231130)为基于Qwen-vl的三阶段
微调
TigerZ*
·
2024-01-29 21:30
AIGC算法
人工智能
深度学习
python
AIGC
计算机视觉
transformer
UE4场景搭建小记
后期处理盒子场景搭建工作流整体布局+地形制作+模型摆放地形&模型材质制作或调整打光&后期:静态烘培+动态光照+阴影+后期盒子场景交互:可交互模型蓝图+关卡蓝图场景特效:粒子+后期材质场景物理:物理模拟+物理破碎整体布局
微调
Ctrlturtle
·
2024-01-29 21:19
UE
UE4
虚幻引擎
场景搭建
游戏开发
如何评估服务端压测指标
压测流程完整的压测流程一般包含下面几个步骤:1、压测目标的制定2、压测链路的梳理3、压测环境的准备4、压测数据的构造5、发压测试6、瓶颈定位及容量
微调
7、压测总结和报告压测指标列举一些常用指标,并不一定都需要关注
爱转角码农
·
2024-01-29 20:35
压测
压力测试
性能优化
基于BERT的文本分类——附-简单的示例代码
BERT通过在大规模文本语料上进行预训练,学习了深层次的语言表示,然后可以通过
微调
用于各种下游任务,包括文本分类。文本分类是一个常见的自然语言处理任务,它涉及将文本分为不同的类别或标签。
技术宅学长
·
2024-01-29 18:54
bert
分类
人工智能
datawhale 大模型学习 第十一章-大模型法律篇
简介新技术与法律关系:大型语言模型(
LLM
)的出现引发了对现有法律适用性的探讨,尤其是在版权、隐私和公平使用等方面。互联网法律挑战:互联网的匿名性和无国界特性对法律的管辖权提出了挑战。
fan_fan_feng
·
2024-01-29 18:25
学习
Google Gemini Pro 国内版 —— 碾压ChatGPT!
Google已经推出了其大型语言模型(
LLM
)Gemini的三个不同版本,共同构成了“Gemini1.0”,即该软件的首个版本。这些版本分别是:GeminiU
姗丽尔
·
2024-01-29 17:51
人工智能
实用工具
前沿科技
chatgpt
人工智能
python&anconda系列(亲测有效):ChatGLM:win11部署大模型实例并正常启动、ChatGLM2-6B 模型基于 P-Tuning v2 的
微调
ChatGLM:win11部署大模型实例并正常启动、ChatGLM2-6B模型基于P-Tuningv2的
微调
一.anconda1.anconda安装2.环境变量配置3.使用过程中的问题已经解决的问题环境方面
坦笑&&life
·
2024-01-29 15:20
大数据
python
dubbo
开发语言
LLM
大语言模型(五):用streamlit开发
LLM
应用
目录背景准备工作切记streamlit开发LLMdemo开一个新页面初始化session先渲染历史消息接收用户输入模拟调用
LLM
参考背景Streamlit是一个开源Python库,可以轻松创建和共享用于机器学习和数据科学的漂亮的自定义
Hugo Lei
·
2024-01-29 14:29
LLM工程
语言模型
人工智能
自然语言处理
streamlit
python
LLM
Matlab App Designer自学笔记(十四):分档旋钮控件、下拉菜单控件、
微调
控件
由于一些主观及客观的原因,博主已经放弃了在CSDN上更新文章,感兴趣的朋友可以去我的个人博客去浏览可能需要的文章。陶小桃Blog-无限进步的优质帅气大学生!热衷于分享技术和日常生活的机械专业小哥哥,捣鼓机械设计、计算机视觉和深度学习。网站还涉及到网页设计以及SEO相关地博文。https://www.52txr.cn/一、分档旋钮控件可以对档位进行设置,例如改为"off"、“low”、“medium
是刃小木啦~
·
2024-01-29 14:41
Matlab
APP
Designer教程
matlab
开发语言
LLM
排行榜更新!谷歌Bard超过GPT-4,中国玩家未进前十
今天谷歌Bard的排名在Imsys的LLMs排位赛上超过了GPT-4,直接跃居第二名(但没有超过OpenAI最新的GPT-4Turbo模型):遇到这好事,谷歌首席科学家JeffDean当然是第一时间前来“炫耀”,并给自家的GeminiPro模型带货。排行榜介绍这个LLMs排行榜(ChatbotArena基准平台)是由UC伯克利研究人员主导的LMSYS(LargeModelSystemsOrgani
夕小瑶
·
2024-01-29 12:52
bard
AI 也会戴有色眼镜?一文揭露图像生成中的刻板印象
在文本生成领域,大型语言模型(
LLM
)可能会生成涉及伦理道德方面的言论。而在图像生成领域,
LLM
的快速发展为文本到图像(Te
夕小瑶
·
2024-01-29 12:51
人工智能
谷歌发布West-of-N,利用合成数据,显著提升
LLM
奖励模型质量 | 今日Arxiv最热大模型论文
导语:论文提出了一种新的通过生成合成偏好数据来提升奖励模型质量的方法,引入了一种自我训练策略,通过筛选最优和最差候选来生成偏好对。实验证明,这种方法可以提高任何奖励模型的性能,效果类似于添加同等量的人类偏好数据。这为改善人类反馈强化学习(RLHF)在语言模型对齐上提供了新的研究方向。引言:人类反馈对语言模型的影响在人工智能领域,语言模型的发展已经达到了令人瞩目的水平,它们能够生成流畅、连贯且在很多
夕小瑶
·
2024-01-29 12:51
人工智能
清华大学让大语言模型自动并行自回归解码,速度提升高达4倍!
首先,自回归解码过程中,每一个新的词元都是基于之前生成的所有词元条件生成的,这种增量式解码导致生成速度不理想,因为每一步生成都需要访问
LLM
的大量参数。其次,Tr
夕小瑶
·
2024-01-29 12:20
语言模型
回归
人工智能
知识图谱KG+大模型
LLM
LLM
-basedKGKnowLMOpenSPGKG-basedRAG基本原理从query出发的语义解析pre-
LLM
方法思想:直接将问题解析为对应的逻辑表达式,然后到知识图谱中查询。
lichunericli
·
2024-01-29 11:32
LLM
人工智能
知识图谱
语言模型
LLM
中32种幻觉缓解技术的全面调查
论文地址:https://arxiv.org/pdf/2401.01313.pdf摘要随着大型语言模型(
LLM
)继续提高它们编写类人文本的能力,关键挑战仍然围绕着它们“幻觉”的倾向——生成看起来事实但不真实的内容
lichunericli
·
2024-01-29 11:01
LLM
人工智能
语言模型
基于OpenIM 实现聊天机器人功能
开发者可以替换此逻辑,在LangChain框架上调用
LLM
接口(包括gpt3.5或其他开源本地模型),以实现智能客服功能。
OpenIM
·
2024-01-29 11:27
机器人
TensorFlow2实战-系列教程6:迁移学习实战
中进行本篇文章配套的代码资源已经上传1、迁移学习用已经训练好模型的权重参数当做自己任务的模型权重初始化一般全连接层需要自己训练,可以选择是否训练已经训练好的特征提取层一般情况下根据自己的任务,选择对那些网络进行
微调
和重新训练
机器学习杨卓越
·
2024-01-29 09:10
TensorFlow
tensorflow
迁移学习
人工智能
keras
resnet
深度学习
数据科学与机器学习 — 神经网络(第 02 部分):前馈神经网络架构设计
有时,与您的问题最相合的网络可能是输入层中有10个节点,隐藏层中有13个节点/神经元,输出层中有大约四个节点/神经元,更不必提您将不得不
微调
整个网络中隐藏层的数量。我的观点是,我们需要一些动态的东西。
赫兹股票期货量化软件
·
2024-01-29 08:18
python
深度学习
开发语言
神经网络
人工智能
程序员福音,关于如何使用Markdown写出一份漂亮的简历 —— 程序员简历 | md文档简历制作教程
教程开始第一步:下载安装Typora第二步:写内容第三步:选主题第四步:
微调
导出为HTML预览PDF开始
微调
第五步:导出,大功告成!
阿杆.
·
2024-01-29 07:10
简历
html
css
大模型-迭代优化&&文本概括
迭代优化在编写Prompt以使用
LLM
开发应用程序时,首先要有关于要完成的任务的想法,可以尝试编写第一个Prompt,满足上一章说过的两个原则:清晰明确,并且给系统足够的时间思考。
没脑袋的喵
·
2024-01-29 06:42
大模型
nlp
基于PaddleDetection目标检测labelme标注自动获取
在百度的PaddleDetection项目的基础上实现目标检测labelme标注的自动获取,需要先训练一个模型,然后通过这个模型去标注,最后用labelme进行
微调
from__future__importabsolute_importfrom
Dandelion_2
·
2024-01-29 06:06
深度学习
目标检测
python
人工智能
LLM
(1): Exa,基于
LLM
的搜索
LLM
(1):Exa,基于
LLM
的搜索1.Exa是什么Exa指的是网站https://exa.ai,是一个基于
LLM
的搜索网站:exa以前叫Metaphor:!
baiyu33
·
2024-01-29 05:45
LLM
搜索引擎
transformer
Python
人工智能
【XTuner 大模型单卡低成本
微调
实战】学习笔记
参考学习教程【XTuner大模型单卡低成本
微调
实战】理论Finetune简介大语言模型
微调
模式增量预训练指令跟随
微调
LoRA和QLoRAXtuner介绍实战自定义
微调
用MedicationQA数据集进行
微调
将数据转为
尘汐筠竹
·
2024-01-29 05:46
学习
笔记
借助全球高校数据多维度分析案例,体验TableAgent如何助力用户轻松洞察数据,赋能企业高效数智化转型
1、会话式数据分析,所需即所得2、私有化部署,数据安全3、支持企业级数据分析,大规模,高性能4、支持领域
微调
,专业化5、透明化过程,审计部署二、使用TableAgent进行全球高校数据案例多维度数据分析
国服第二切图仔
·
2024-01-29 04:59
通往AIGC之路
搜索引擎
数据分析
人工智能
企业级
私有化部署
数据分析智能体
大模型进阶应用——检索增强生成
这种方法结合了
LLM
(如GPT-3或GPT-4)的生成能力和业务数据搜索机制,从而提供更准确、更符合业务要求的系统响应。本文概要探讨检索增强生成,给出详细步骤说明,以帮助您更好了解
LLM
实践应用。
梦想画家
·
2024-01-29 03:04
机器学习
机器学习
AIGC
大模型应用
代码增强
LLM
大模型时代的语言模型(
LLM
)不仅在尺寸上变得更大了,而且训练数据也同时包含了自然语言和形式语言(代码)。
AI知识图谱大本营
·
2024-01-29 01:07
AI
Agent
人工智能
【计划没有变化快】
但是没有按照计划完成应该进行的教学任务,所以接下来一周的课程安排就要进行
微调
。
裴玉老师
·
2024-01-29 00:58
玩转大模型!在GPU云平台部署ChatGLM-6B
ChatGLM-6B采用了全新的训练方法,在其开源的模型中已经在大规模数据集上进行了训练,用户可体验高质量的对话机器人,也可以对其在用户自有数据集上
微调
,得到自己专
我爱计算机视觉
·
2024-01-28 23:09
使用自有数据集
微调
ChatGLM2-6B
1ChatGLM2-6B介绍ChatGLM是清华技术成果转化的公司智谱AI研发的支持中英双语的对话机器人。ChatGLM基于GLM130B千亿基础模型训练,它具备多领域知识、代码能力、常识推理及运用能力;支持与用户通过自然语言对话进行交互,处理多种自然语言任务。比如:对话聊天、智能问答、创作文章、创作剧本、事件抽取、生成代码等等。代码地址:https://github.com/THUDM/Chat
智慧医疗探索者
·
2024-01-28 23:08
AIGC
人工智能
chatglm2
AIGC
LLM
[tensorflow] Tensorflow中learning rate 调整+ decay奇技淫巧
Note:如果是迁移学习,由于模型已在原始数据上收敛,此时应设置较小学习率(≤10−4≤10−4)在新数据上进行
微调
。
ASR_THU
·
2024-01-28 21:04
tensorflow
工具性知识点
上一页
11
12
13
14
15
16
17
18
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他