E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
闻达LLM
【AI学习】
LLM
的发展方向
Scalinglaw,以前主要集中在
LLM
的预训练方面。一段时间有个说法,
bylander
·
2025-02-11 03:47
AI学习
人工智能
学习
gpt
SEO友好架构提升
LLM
应用的可发现性
《SEO友好架构提升
LLM
应用的可发现性》文章关键词SEO友好架构语言模型(
LLM
)搜索引擎优化(SEO)可发现性内容优化技术优化用户体验优化信息组织关键词策略社交媒体推广摘要本文旨在探讨如何通过SEO
AI天才研究院
·
2025-02-10 17:00
计算机软件编程原理与应用实践
java
python
javascript
kotlin
golang
架构
人工智能
大厂程序员
硅基计算
碳基计算
认知计算
生物计算
深度学习
神经网络
大数据
AIGC
AGI
LLM
系统架构设计
软件哲学
Agent
程序员实现财富自由
【Neo4j 】学习笔记:GraphRAG 宣言:为 GenAI 添加知识
我们即将意识到,要想用GenAI做任何有意义的事情,你不能只依赖自回归
LLM
来做决定。我知道你在想什么:“RAG就是答案。”或者微调,或者GPT-5。是的。基于向量的RAG和微调等技术可以提供帮助。
等风来不如迎风去
·
2025-02-10 16:53
AI入门与实战
neo4j
AI系列:大语言模型的function calling(下)- 使用LangChain
LangChainTool/Functioncalling1.Tool/function加强功能LangChain的tool装饰器其他方式:Pydantic2.绑定tools/functions3.调用大模型(
LLM
liyane
·
2025-02-10 05:38
AI人工智能
人工智能
语言模型
langchain
LLM
中的 vocabulary 和 embedding vector
vocabulary将自然语言转换为tokenid是根据模型使用的词汇表(vocabulary)进行的。这个过程通常分为两个步骤:分词(Tokenization)将输入的自然语言文本按照某种规则分割成一系列的token,可以是单词、子词或者字符等。分词的规则需要事先定义好,通常使用诸如基于词典、基于规则、基于统计等方法。查表(Lookup)将分词得到的每个token在词汇表中查找对应的数值id。词
Overman..
·
2025-02-10 04:33
LLM
embedding
人工智能
LLM
大模型
GraphRAG如何使用ollama提供的
llm
model 和Embedding model服务构建本地知识库
使用GraphRAG踩坑无数在GraphRAG的使用过程中将需要踩的坑都踩了一遍(不得不吐槽下,官方代码有很多遗留问题,他们自己也承认工作重心在算法的优化而不是各种模型和框架的兼容性适配性上),经过了大量的查阅各种资料以及debug过程(Indexing的过程有点费机器),最终成功运行了GraphRAG项目。先后测试了两种方式,都成功了:使用ollama提供本地llmmodel和Embedding
m0_74824865
·
2025-02-10 03:58
面试
学习路线
阿里巴巴
embedding
flask
python
TC-LLaVA论文笔记
RoPE介绍理解
LLM
位置编码:RoPE|LinsightMotivation在基于视频的multimodallargelanguagemodel中,更好地利用视频提供的时序信息。
0yumiwawa0
·
2025-02-10 03:27
计算机视觉
论文阅读
大模型学习笔记 -
LLM
对齐优化算法 DPO
LLM
-DPOLLM-DPODPO概述DPO目标函数推导DPO目标函数梯度的推导DPO概述大模型预训练是从大量语料中进行无监督学习,语料库内容混杂,训练的目标是语言模型损失,任务是nexttokenprediction
JL_Jessie
·
2025-02-10 03:54
学习
笔记
算法
LLM
AI学习专题(一)
LLM
技术路线
阶段1:AI及大模型基础(1-2个月)数学基础线性代数(矩阵、特征值分解、SVD)概率论与统计(贝叶斯定理、极大似然估计)最优化方法(梯度下降、拉格朗日乘子法)编程&框架Python(NumPy、Pandas、Matplotlib)PyTorch&TensorFlow基础HuggingFaceTransformers入门深度学习基础机器学习基础(监督/无监督学习、正则化、过拟合)反向传播、优化器(
王钧石的技术博客
·
2025-02-10 01:39
大模型
人工智能
学习
ai
使用 llama-cpp-python 在 LangChain 中运行
LLM
模型
使用llama-cpp-python在LangChain中运行
LLM
模型引言在人工智能和自然语言处理领域,大型语言模型(LLMs)的应用越来越广泛。
qq_37836323
·
2025-02-10 01:37
llama
python
langchain
机器学习回归评估指标全解析:如何衡量模型的准确性?回归评估指标-MSE、MAE、RMSE、R²分数
阅读时长:25分钟发布时间:2025-02-09近日热文:全网最全的神经网络数学原理(代码和公式)直观解释欢迎关注知乎和公众号的专栏内容
LLM
架构专栏知乎
LLM
专栏知乎【柏企】公众号【柏企科技说】【柏企阅文
·
2025-02-09 22:18
人工智能
为什么要学习AI/机器学习
考虑到当前技术发展趋势和未来潜力,我建议重点学习AI/机器学习相关技术,特别是大语言模型(
LLM
)相关的技术栈。原因如下:1.为什么选择AI/
LLM
?
数字沉思
·
2025-02-09 21:09
人工智能
人工智能
学习
机器学习
重拾二进制之魂:大语言模型与逆向工程的奇幻旅程
逆向工程,这门解构编译产物、还原软件真貌的神秘艺术,正迎来了一场革命性的变革——由大语言模型赋能的
LLM
4Decompile系统。
步子哥
·
2025-02-09 18:50
AGI通用人工智能
语言模型
人工智能
自然语言处理
微软 LayoutLM:文档理解的强大工具
深入了解LayoutLM:文档理解的强大工具阅读时长:15分钟发布时间:2025-02-09近日热文:全网最全的神经网络数学原理(代码和公式)直观解释欢迎关注知乎和公众号的专栏内容
LLM
架构专栏知乎
LLM
·
2025-02-09 18:35
人工智能
探秘检索增强生成:上下文检索、混合搜索与密集检索全解析
探秘检索增强生成:上下文检索、混合搜索与密集检索全解析阅读时长:15分钟发布时间:2025-02-09近日热文:全网最全的神经网络数学原理(代码和公式)直观解释欢迎关注知乎和公众号的专栏内容
LLM
架构专栏知乎
·
2025-02-09 18:33
人工智能
从零开始构建一个大语言模型-第六章第一节
6.8将大语言模型用作垃圾邮件分类器本章内容涵盖介绍不同的大语言模型微调方法为文本分类准备数据集修改预训练大语言模型以进行微调使用微调后的大语言模型对新数据进行分类到目前为止,我们已经编写了大语言模型(
LLM
释迦呼呼
·
2025-02-09 18:17
从零开始构建一个大语言模型
语言模型
人工智能
自然语言处理
机器学习
python
大模型 RAG 知识总结
在
LLM
已经具备了较强能力的基础上,仍然存在以下问题:幻觉问题:
LLM
文本生成的底层原理是基于概率的tokenbytoken的形式,因此会不可避免地产生“一本正经的胡说八道”的情况;时效性问题:
LLM
的规模越大
da pai ge
·
2025-02-09 16:38
解决方法
prometheus
kubernetes
llama.cpp的C语言API使用
它的源代码直接在github上下载即可:GitHub-ggerganov/llama.cpp:
LLM
怎么这么多名字都被占了
·
2025-02-09 13:43
llama
c语言
人工智能
服务网格(Service Mesh)在
LLM
应用架构中的应用
文章关键词服务网格、
LLM
应用架构、微服务通信、控制平面、数据平面、性能优化、安全性摘要本文深入探讨了服务网格在大型语言模型(
LLM
)应用架构中的关键作用。
AI天才研究院
·
2025-02-09 11:32
ChatGPT
计算
DeepSeek
R1
&
大数据AI人工智能大模型
java
python
javascript
kotlin
golang
架构
人工智能
大厂程序员
硅基计算
碳基计算
认知计算
生物计算
深度学习
神经网络
大数据
AIGC
AGI
LLM
系统架构设计
软件哲学
Agent
程序员实现财富自由
走进
LLM
世界之
LLM
历史与发展
1.
LLM
的起源1.1NLP的早期研究自然语言处理(NLP)的历史可以追溯到20世纪50年代,当时科学家们开始尝试让计算机理解和生成人类语言。
我就是全世界
·
2025-02-09 11:26
大模型技术与应用
人工智能
DeepSeek-V3 Technical Report
本文是
LLM
系列文章,针对《DeepSeek-V3TechnicalReport》的翻译。
UnknownBody
·
2025-02-09 08:35
LLM
Daily
Technical
Report
人工智能
语言模型
自然语言处理
14.4K+ Star!GPT Researcher:一个基于AI的智能研究助手
GPTResearcher简介GPTResearcher[1]是一个基于大型语言模型(
LLM
)的自动化智能体,目标是对任何给定主题进行在线全面研究。
鱼满满记
·
2025-02-09 07:00
AI应用
Github项目
python
人工智能
ai
Langchain运行报错踩坑记录
fromlangchain_openaiimportChatOpenAIimportos#加载.env到环境变量fromdotenvimportload_dotenv,find_dotenv_=load_dotenv(find_dotenv())
llm
pumpkin84514
·
2025-02-09 04:36
AI相关学习
langchain
Deepseek成功启示:从 TRPO 到 GRPO训练
LLM
DeepSeek(DeepSeek-V3深度剖析:下一代AI模型的全面解读)最近在AI社区引起了不小的轰动,这要归功于它以相对较低的成本提供令人印象深刻的性能。这是深入了解大型语言模型LLMs如何训练的绝佳机会。本文将深入探讨LLMs的训练过程,特别是强化学习(ReinforcementLearning,RL)(深度解析DeepSeekR1:强化学习与知识蒸馏的协同力量)在这一领域的应用,从TRP
大模型之路
·
2025-02-08 20:03
强化学习
大模型(LLM)
人工智能
LLM
强化学习
deepseek
GRPO
TRPO
【DeepSeek】DeepSeek小模型蒸馏与本地部署深度解析DeepSeek小模型蒸馏与本地部署深度解析
一、引言与背景在人工智能领域,大型语言模型(
LLM
)如DeepSeek以其卓越的自然语言理解和生成能力,推动了众多应用场景的发展。
后端研发Marion
·
2025-02-08 14:24
AI大模型技术
机器学习
人工智能
深度学习
deepseek
本地部署
大语言模型应用指南:Gemini简介
1.背景介绍1.1大型语言模型的兴起近年来,随着计算能力的提升和数据量的爆炸式增长,大型语言模型(
LLM
)逐渐成为人工智能领域的研究热点。
AI天才研究院
·
2025-02-08 11:03
计算
AI大模型企业级应用开发实战
ChatGPT
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
大语言模型多token预测技术
近年来,大语言模型(
LLM
)在自然语言处理领域取得了突破性进展,凭借其强大的语言理解和生成能力,在各种NLP任务中展现出惊人的性能。
deepdata_cn
·
2025-02-08 09:21
NLP
语言模型
人工智能
自然语言处理
【RAG知识库】本地搭建chatgpt知识库
实现原理如下图所示,过程包括加载文件->读取文本->文本分割->文本向量化->问句向量化->在文本向量中匹配出与问句向量最相似的topk个->匹配出的文本作为上下文和问题一起添加到prompt中->提交给
LLM
LLM教程
·
2025-02-08 06:23
人工智能
本地化部署
深度学习
私有化部署
大模型
LLM
知识库
【Ollama+Deepseek】本地化部署运行Deepseek模型
它专注于简化
LLM
的本地运行流程,无需复杂的配置即可在个人设备(如
·
2025-02-08 06:32
DeepSeek-R1深度报告:基于Python强化学习的前沿长链推理模型揭秘与实战——兼谈SEO优化与实用经验分享
DeepSeek-R1深度报告——50道相关面试题——深刻理解相关概念(DeepSeek-R1大模型+强化学习(RL)+推理能力)一、前言与背景铺垫在当今人工智能与大语言模型(LargeLanguageModel,
LLM
快撑死的鱼
·
2025-02-08 05:19
算法工程师面试宝典(面试必备)
python
搜索引擎
开发语言
【Ollama+Deepseek】本地化部署运行Deepseek模型
它专注于简化
LLM
的本地运行流程,无需复杂的配置即可在个人设备(如
·
2025-02-08 02:59
Chapter4.1 Coding an
LLM
architecture
4ImplementingaGPTmodelfromScratchToGenerateText4.1CodinganLLMarchitecture4ImplementingaGPTmodelfromScratchToGenerateText本章节包含编写一个类似于GPT的大型语言模型(
LLM
亲持红叶
·
2025-02-08 01:53
构建大语言模型(从头开始)
gpt
python
人工智能
自然语言处理
transformer
大模型(
LLM
)微调并不复杂,数据才是关键:3个实例详解数据准备
今天咱们聊聊一个听起来很高大上的词——微调(Fine-Tuning)。听说过吗?别担心,今天我们不打算深挖那些复杂的技术细节,而是要告诉你们一个简单的事实:微调其实一点都不复杂,真正的关键在于——数据!前排提示,文末有大模型AGI-CSDN独家资料包哦!在这篇文章里,我们不仅会深入浅出地介绍什么是微调,还会通过三个具体的实例,教你们如何准备高质量的数据集,让你们的模型表现出色。准备好了吗?让我们一
程序员二飞
·
2025-02-08 01:21
深度学习
机器学习
人工智能
金融
学习
chatgpt
大数据
RAG和KAG:AI知识增强的两大“利器”
一文读懂RAG和KAG:AI知识增强的两大“利器”阅读时长:15分钟发布时间:2025-02-07近日热文:全网最全的神经网络数学原理(代码和公式)直观解释欢迎关注知乎和公众号的专栏内容
LLM
架构专栏知乎
·
2025-02-07 13:53
人工智能
LLM
速览篇【91-120】
概述文档:基于
LLM
的最新研究方向归纳这30篇内容可以发现当前LLMs在各个领域展现了强大的适应性和创新潜力,从医疗、教育、视觉任务到机器人控制、法律与政策、生成式AI、隐私保护和系统优化,LLMs的应用范围正在不断扩大
hjzhang75
·
2025-02-07 13:03
人工智能
nlp
Deep-Seek 开源项目教程
该项目利用大型语言模型(
LLM
)处理大量数据源,以收集全面的实体列表。Deep-Seek不仅支持文本生成,还特别擅长数学、代码和推理任务。项目快速启动环境准备在开始之前,请确保您
毛炎宝Gardener
·
2025-02-07 08:34
【
LLM
】Ollama:本地大模型 WebAPI 调用
Ollama快速部署安装Docker:从Docker官网下载并安装。部署Ollama:使用以下命令进行部署:dockerrun-d-p11434:11434--nameollama--restartalwaysollama/ollama:latest进入容器并下载qwen2.5:0.5b模型:进入Ollama容器:dockerexec-itollamabash在容器内下载模型:ollamapull
m0_74824496
·
2025-02-07 07:55
vip1024p
java
探秘 DeepSeek:AI 领域的创新力量
公司自2023年成立以来,便将目光聚焦于大语言模型(
LLM
)和相关技术的开发,致力于在人工智能领域开辟出一片新天地。
秉寒
·
2025-02-07 04:35
人工智能
专为RAG和AGENT而生的PDF解析新工具:PymuPDF4
LLM
利用大模型(
LLM
),结合本地知识,开发RAG或者AGENT的应用,解析PDF文档几乎是不可避免的事情。多数开发者可能习惯使用LlamaParse。这个工具虽然可以用,但总有不满意之处。
CS创新实验室
·
2025-02-07 03:56
AIGC
pdf
AIGC
Ollama安装部署deepseek
llama3模型(亲测垃圾机房都可以跑起来)下载DeepSeek-V3模型运行模型搭建Web环境OllamaOllama是一个开源的大型语言模型服务工具,旨在帮助用户在本地环境中部署和运行大规模预训练语言模型(
LLM
angel725
·
2025-02-07 02:53
llama
ai
使用DeepSeek-R1和Ollama构建RAG系统以进行本地部署
使用DeepSeek-R1和Ollama构建RAG系统以进行本地部署我们将探讨如何使用DeepSeekR1(一种针对结构化任务优化的开源推理模型)和Ollama(一种用于在本地运行
LLM
的框架)构建功能齐全的
·
2025-02-07 02:10
人工智能
大模型RAG优化方案_融合bm25和语义检索
写在前面检索增强生成(Retrieval-AugmentedGeneration,RAG)是一种将检索(Retrieval)和生成(Generation)相结合的技术,它利用检索到的相关信息来增强大型语言模型(
LLM
kakaZhui
·
2025-02-06 23:31
大模型应用案例之RAG
打造个人专属知识库bot
人工智能
llama
AIGC
chatgpt
python
Unifying Large Language Models and Knowledge Graphs: A Roadmap综述笔记-入门-知识图谱KG-大模型
LLM
论文信息标题:UnifyingLargeLanguageModelsandKnowledgeGraphs:ARoadmap作者:ShiruiPan摘要LLMs,例如chatGPT和GPT4,由于其涌现能力和泛化性,对自然语言理解和人工智能领域产生了新的冲击。然而,LLMs是一个黑箱模型,往往缺乏捕获和获得事实知识。相反,知识图谱,例如维基百科等,是有结构模型。存储着丰富的事实知识。KGs可以通过提
笨cc
·
2025-02-06 22:23
KG读论文
语言模型
知识图谱
笔记
必知!10大机器学习算法
——吴恩达近日热文:全网最全的神经网络数学原理(代码和公式)直观解释欢迎关注知乎和公众号的专栏内容
LLM
架构专栏知乎
LLM
专栏知乎【柏企】公众号【柏企科技说】【柏企阅文】1.K最近邻(KNN)KNN是一种简单却强大的分类算法
·
2025-02-06 21:56
人工智能
高效抽取PDF文件打造RAG,从LlamaParse转向PymuPDF4
llm
PymuPDF4
llm
:大型语言模型的高效PDF数据处理利器。PymuPDF4
llm
是专为大型语言模型设计的强大工具,能够将杂乱的PDF数据整理得井井有条,为你的AI项目提供有力支持。
小天才学习机打游戏
·
2025-02-06 19:38
pdf
embedding
人工智能
人机交互
transformer
目标跟踪
LLM
知识蒸馏代码讲解及训练实验
LLM
知识蒸馏代码讲解及训练实验知识蒸馏简单讲即使用大规模参数的模型对小规模参数模型进行蒸馏,且不是简单的只使用答案,是需要两个模型的logprob进行交互的,故两个模型的vocabsize必须是一样的
淡水,
·
2025-02-06 18:33
深度学习
pytorch
人工智能
nlp
python
知识蒸馏
【大模型
LLM
面试合集】训练数据_数据格式
数据格式1.SFT(有监督微调)的数据集格式?对于大语言模型的训练中,SFT(SupervisedFine-Tuning)的数据集格式可以采用以下方式:输入数据:输入数据是一个文本序列,通常是一个句子或者一个段落。每个样本可以是一个字符串或者是一个tokenized的文本序列。标签数据:标签数据是与输入数据对应的标签或类别。标签可以是单个类别,也可以是多个类别的集合。对于多分类任务,通常使用one
X.AI666
·
2025-02-06 18:28
人工智能
big
data
大型推理模型 (LRM) 的比较 OpenAI DeepSeek R1 Gemini 2.0
LRM)的比较OpenAIDeepSeekR1Gemini2.0阅读时长:25分钟发布时间:2025-02-06近日热文:全网最全的神经网络数学原理(代码和公式)直观解释欢迎关注知乎和公众号的专栏内容
LLM
·
2025-02-06 17:20
人工智能
Python用langchain、OpenAI大语言模型
LLM
情感分析AAPL股票新闻数据及提示工程优化应用
全文链接:https://tecdat.cn/?p=39614本文主要探讨了如何利用大语言模型(LLMs)进行股票分析。通过使用提供的股票市场和金融新闻获取数据,结合Python中的相关库,如Pandas、langchain等,实现对股票新闻的情感分析。利用大语言模型构建情感分析模型,通过提示工程等技术优化模型,最终通过可视化展示股票市场的情感倾向,为股票投资决策提供参考。关键词大语言模型;股票分
·
2025-02-06 17:10
数据挖掘深度学习机器学习
LangChain 深入指南:构建强大的
LLM
应用的核心架构
引言在当今的人工智能领域,构建强大且可扩展的语言模型(
LLM
)应用程序需要扎实的技术框架支持。LangChain是这样一个框架,旨在简化语言模型的部署、集成和运维。
nseejrukjhad
·
2025-02-06 16:19
langchain
架构
python
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他