E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Llama
开源浪潮之巅:当前最热门的开源项目全景图
以下精选当前最受关注、社区活跃的热门开源项目,涵盖人工智能、开发工具、基础设施等关键领域:一、人工智能与机器学习:引领创新前沿
Llama
系列(MetaAI):核心价值:Meta开源的大语言模型家族(
Llama
2
万能小贤哥
·
2025-06-27 08:31
开源
如何使本地大模型拥有联网搜索的能力?
要让本地部署的大模型(如DeepSeek、
LLaMA
、ChatGLM等)具备联网搜索能力,需要将模型与外部工具结合,通过API调用、插件或代理机制实现实时信息获取。
SugarPPig
·
2025-06-27 04:28
人工智能
人工智能
LLama
-Factory 遇到的问题
目录一、
LLama
-Factory安装二、
LLama
-Factory遇到的问题(一)包不兼容问题(二)使用文件路径,加载模型一、
LLama
-Factory安装参考官网介绍:https://github.com
·
2025-06-27 02:10
大模型应用10种架构模式全解析:从理论到实战的技术指南
近年来,以GPT-4、
LLaMA
、PaLM为代表的大模型彻底改变了人工智能的应用范式。然而,如何高效地将这些“庞然大物”落地到实际业务中,仍是开发者面临的核心挑战。
ai大模型雪糕
·
2025-06-25 20:47
架构
人工智能学习
ai大模型
大模型资料分享
大模型评估
人工智能
如何在Spring AI中配置多模型切换
在SpringAI中配置多模型切换(例如同时使用OpenAI、Gemini或本地
Llama
2),可以通过Bean别名或动态运行时选择实现。
友莘居士
·
2025-06-25 08:50
spring-ai
人工智能
java
模型切换
15.2
LLaMA
3面试模拟神器:动态难度调节+实时反馈,大厂通过率提升90%
LLaMA
3面试模拟神器:动态难度调节+实时反馈,大厂通过率提升90%关键词:对话系统设计、场景化提示工程、
LLaMA
3微调、多轮对话管理、面试模拟Agent技术面试场景Agent设计核心逻辑通过多阶段对话流程控制和动态难度调节实现真实面试模拟
少林码僧
·
2025-06-25 06:06
llama
面试
职场和发展
langchain
人工智能
语言模型
灵哥教你玩转
Llama
3:解决NCCL缺失问题
解决NCCL缺失问题有很多小伙伴私信灵哥:官网的
llama
3模型用不了,运行会报错灵哥按照官网给的启动命令,确实启动不了torchrun--nproc_per_node1example_chat_completion.py
灵哥讲AI
·
2025-06-25 06:30
LLM
机器学习
llama
机器学习
nlp
当AI拥有空间直觉:SpatialLM如何让机器“看懂”三维世界?
开源地址:https://huggingface.co/manycore-research/SpatialLM-
Llama
-1B你是否想象过,只需用手机拍一段视频,AI就能像人类一样理解房间的布局、家具的位置
遇见小码
·
2025-06-24 15:15
AI棱镜实验室
人工智能
开源
Ollama常用命令
1、下载OllamaLinux系统的安装命令如下:curl-fsSLhttps://ollama.com/install.sh|sh2、进入
llama
3运行环境:ollamarunllama33、启动服务
大模型老炮
·
2025-06-24 13:29
ai
人工智能
深度学习
机器学习
语言模型
15.3
LLaMA
3+LangChain实战:智能点餐Agent多轮对话设计落地,订单准确率提升90%!
LLaMA
3+LangChain实战:智能点餐Agent多轮对话设计落地,订单准确率提升90%!
少林码僧
·
2025-06-23 23:05
llama
langchain
windows
人工智能
语言模型
机器学习
二、【
LLaMA
-Factory实战】数据工程全流程:从格式规范到高质量数据集构建
LLaMA
-Factory提供了完整的数据工程工具链,支持从数据格式规范到清洗增强、注册验证的全流程管理。本文结合结构图、实战代码和生产级经验,带您掌握构建高质量数据集的核心技术。
陈奕昆
·
2025-06-23 11:40
大模型微调教程
llama
python
前端
人工智能
大模型微调
LLaMA
-Factory多模态训练:从文本到图像的综合应用
摘要本文深入探讨了
LLaMA
-Factory框架中的多模态训练技术。从基础的文本-图像对齐到复杂的多模态理解,全面介绍了如何利用
LLaMA
-Factory进行多模态模型的训练和优化。
CarlowZJ
·
2025-06-23 11:40
AI应用落地+大模型微调
llama
人工智能
LLaMA-Factory
【
LLaMA
-Factory 实战系列】一、数据准备篇 - 从文本到多模态的完整流程
【
LLaMA
-Factory实战系列】一、数据准备篇-从文本到多模态的完整流程1.引言2.
LLaMA
-Factory数据格式概述2.1Alpaca格式2.2ShareGPT格式3.文本数据准备3.1Alpaca
Zhijun.li@Studio
·
2025-06-23 11:08
llama
人工智能
llama-factory
多模态
大模型
视觉大语言模型
输入GSM8K数据集对
Llama
2-int4模型进行性能评估
思路:逐条输入GSM8K数据集获得模型输出并于数据集中的回答进行比对fromllama_cppimportLlama#从
llama
_cpp导入
Llama
类,用于加载并调用
Llama
模型importtime
Nnbwbyhxy
·
2025-06-23 03:47
语言模型
大模型学习路线:这会是你见过最全最新的大模型学习路线【2025最新】
大模型学习路线建议先从主流的
Llama
开始,然后选用中文的Qwen/Baichuan/ChatGLM,先快速上手体验prompt工程,然后再学习其架构,跑微调脚本如果要深入学习,建议再按以下步骤,从更基础的
大模型入门学习
·
2025-06-23 00:56
学习
人工智能
产品经理
大模型
AI产品经理
程序员
大模型学习
大模型系列——VLLM 部署 当前最火大模型
llama
4
大模型——VLLM部署当前最火大模型
llama
4最近
llama
4火车圈了,不愧是大模型界的当红炸子鸡,号称宇宙最强大模型,这里我们快速尝鲜,看看怎么快速部署,首先我们需要知道当前的
llama
4是没有办法用
猫猫姐
·
2025-06-22 22:41
大模型
人工智能
大模型
llama4
ChatMusician:用大模型理解并创造音乐
ChatMusician由SkyworkAIPTE.LTD.和香港科技大学的研究团队共同开发,它基于持续预训练和微调的
LLaMA
2模型,并通过一种文本兼容的音乐表示法——ABC符号,将音乐作为第二语言来处理
人工智能大模型讲师培训咨询叶梓
·
2025-06-22 19:19
人工智能讲师
人工智能
音视频
计算机视觉
深度学习
大模型
多模态
音乐
NF4量化算法的PyTorch实现
为了方便理解NF4算法的实现,这里用PyTorch实现了一版可以和CUDANF4精度对齐的量化和反量化函数,并使用
llama
-3.1-8b模型进行测试,可以做到和CUDA实现的算子精度基本对齐(仅反量化存在少许误差
风好衣轻
·
2025-06-22 18:48
算法
pytorch
人工智能
Llama
4模型卡片及提示词模板
Llama
4模型卡片及提示词模板
Llama
4模型卡及提示格式介绍
Llama
4模型概述
Llama
4是一系列预训练和指令微调的混合专家(Mixture-of-Experts,MoE)大语言模型,包含两种规模
大模型与Agent智能体
·
2025-06-21 23:44
A2A
MCP
Llama
4
什么是 QLoRA(Quantized Low-Rank Adaptation,量化低秩适配)
QLoRA结合了4-bit量化(quantization)和LoRA的低秩更新技术,使超大规模模型(如70B参数的
LLaMA
)能够在单GPU上进行高效微调,同时保持与全参数微调相近的性能。
彬彬侠
·
2025-06-21 06:23
大模型
QLoRA
量化低秩适配
PEFT
参数高效微调
transformers
bitsandbytes
python
Streamlit在人工智能中的应用场景
Streamlit在AI大模型(如GPT、
LLaMA
、Claude等)和RAG(检索增强生成)中的应用非常广泛,它能够快速构建交互式界面,让用户直观体验大模型的能力,并灵活调整参数或输入数据。
不老刘
·
2025-06-20 18:37
人工智能
人工智能
LangChain 本地模型部署指南:
Llama
3 与 Open-WebUI 的可视化交互开发
技术点目录第一章、智能体(Agent)入门第二章、基于字节Coze构建智能体(Agent)第三章、基于其他平台构建智能体(Agent)第四章、国内外智能体(Agent)经典案例详解第五章、大语言模型应用开发框架LangChain入门第六章、基于LangChain的大模型API接入第七章、基于LangChain的智能体(Agent)开发第八章、开源大语言模型及本地部署第九章、从0到1搭建第一个大语言
zm-v-15930433986
·
2025-06-20 16:49
deep
seek
langchain
别让GPU摸鱼!榨干它!
我们也知道,如今各大优秀模型如DeepSeek、
Llama
、Gemini厂商除了卷算力,也都开始在工程化、算法等方面进行优化,以便更高效地利用GPU资源,节省成本。
九章云极DataCanvas
·
2025-06-20 10:13
技术干货
人工智能
gpu算力
RAG执行代码报错 “no module named ‘
llama
_index.vector_stores‘“
RAG执行代码报错“nomodulenamed‘
llama
_index.vector_stores’”一、问题importchromadbfromllama_index.coreimportVectorStoreIndex
·
2025-06-19 22:11
Llama
_Index核心组件介绍
文章目录一、什么是LlamaIndex1.简介2.作用二、LlamaIndex核心组件1.数据连接器(DataConnectors)2.数据索引(DataIndexes)3.引擎(Engines)4.数据代理(DataAgents)5.应用集成(ApplicationIntegrations)三、LlamaIndex核心概念1.RAG1,索引2,查询2.索引阶段1,Dataconnectors2,
智模睿脑君
·
2025-06-19 22:10
llama
语言模型
深度学习
自然语言处理
人工智能
神经网络
知识图谱
llama
_index chromadb实现RAG的简单应用
此demo是自己提的一个需求:用modelscope下载的本地大模型实现RAG应用。毕竟大模型本地化有利于微调,RAG使内容更有依据。为什么要用RAG?由于大模型存在一定的局限性:知识时效性不足、专业领域覆盖有限以及生成结果易出现“幻觉”问题,需要通过结合实时数据和专业知识提升生成内容的准确性、时效性和可信度。检索增强生成(RAG)的核心价值在于弥补大模型固有缺陷一个简单样例加载本地大语言模型
victorwjw
·
2025-06-19 21:07
llama
数据库
RAG
端侧可用的 GPT-4V 级单图、多图、视频多模态大模型
端侧可用的GPT-4V级单图、多图、视频多模态大模型中文|EnglishMiniCPM-V2.6|MiniCPM-
Llama
3-V2.5|MiniCPM-
Llama
3-V2.5技术报告M
强化学习曾小健
·
2025-06-17 11:00
多模态MLLM大模型面试指南
音视频
(什么是)大模型的“越狱”(Model Jailbreaking)
大模型的“越狱”(ModelJailbreaking)是指通过特定技术手段或策略,绕过大型语言模型(如GPT、
Llama
、Claude等)内置的安全机制和伦理限制,诱导模型生成原本被禁止的内容(如暴力、
音程
·
2025-06-17 09:48
人工智能
机器学习
人工智能
机器学习
深度学习
大模型微调(Fine-tuning)概览
大模型微调(Fine-Tuning)是将预训练大模型(如GPT、
LLaMA
)适配到特定任务或领域的核心技术,其效率与效果直接影响大模型的落地价值。
MzKyle
·
2025-06-17 08:39
深度学习
人工智能
llama
3源码解读之推理-infer
文章目录前言一、整体源码解读1、完整main源码2、tokenizer加载3、
llama
3模型加载4、
llama
3测试数据文本加载5、
llama
3模型推理模块1、模型推理模块的数据处理2、模型推理模块的
tangjunjun-owen
·
2025-06-16 05:05
语言模型-多模态大模型
llama3
推理
大语言模型
huggingface
我可以理解
llama
.cpp是用C++实现了算法,而其他项目一般用python实现?
llama
.cpp项目:主要用于推理和部署。下面我们来详细对比一下这两种方式的异同和优劣。范式一:Python+C++/CUDA后端(主流方式)这是绝大多数AI项目(包
欧先生^_^
·
2025-06-16 05:35
llama
c++
算法
探索未来的对话:
llama
.cpp 开源项目深度解析
探索未来的对话:
llama
.cpp开源项目深度解析
llama
.cppPortofFacebook'sLLaMAmodelinC/C++项目地址:https://gitcode.com/gh_mirrors
幸桔伶
·
2025-06-16 05:03
深度解析一下
llama
.cpp 的源代码
我们来深度解析一下
llama
.cpp的源代码。
llama
.cpp是一个非常了不起的项目,它的核心目标是让大型语言模型(LLM)能够在消费级硬件(甚至是手机)上高效运行。
欧先生^_^
·
2025-06-16 05:03
llama
2025年大模型学习路线图:史上最全、最新的大模型学习指南!非常详细收藏这一篇就够了!
大模型学习路线建议先从主流的
Llama
开始,然后选用中文的Qwen/Baichuan/ChatGLM,先快速上手体验prompt工程,然后再学习其架构,跑微调脚本前排提示,文末有大模型AGI-CSDN独家资料包哦
大模型教程
·
2025-06-15 16:42
知识图谱
人工智能
RAG
大模型
程序员
AI大模型
大模型学习
Llama
4 群:原生多模态 AI 创新新时代的开始
我们正在分享
Llama
4群中的首批模型,这将使人们能够构建更加个性化的多模式体验。
爱分享的小明
·
2025-06-15 11:04
llama
人工智能
在 Windows 和 Linux 系统上安装和部署 Ollama
引言Ollama是一个强大的本地大语言模型(LLM)运行工具,允许用户轻松下载和运行不同的AI模型,如
LLaMA
、Mistral和Gemma。
萧鼎
·
2025-06-13 10:34
python基础到进阶教程
windows
linux
运维
ollama
大模型笔记_模型微调
1.大模型微调的概念大模型微调(Fine-tuning)是指在预训练大语言模型(如GPT、BERT、
LLaMA
等)的基础上,针对特定任务或领域,使用小量的目标领域数据对模型进行进一步训练,使其更好地适配具体应用场景的过程
饕餮争锋
·
2025-06-13 02:12
AI大模型笔记
笔记
语言模型
人工智能
OpenPrompt 是什么?
OpenPrompt是一个基于自然语言处理(NLP)的提示工程(PromptEngineering)工具/框架,主要用于帮助开发者设计、优化和管理自然语言模型(如GPT、
LLaMA
等)的提示词(Prompt
ZhangJiQun&MXP
·
2025-06-12 22:37
教学
2024大模型以及算力
2021
AI
python
人工智能
算法
机器学习
深度学习
自然语言处理
网络受限情况下,在Ollama中导入从Model Scope下载的safetensors提示错误Error: unsupported architecture “Qwen3ForCausalLM“
Ollamasupportsimportingmodelsforseveraldifferentarchitecturesincluding:
Llama
(includingLlama2,
Llama
3,
Llama
3.1
stupidorclever
·
2025-06-12 12:30
AI知识库
Ollama
Qwen3
13.7亿级用户订阅系统架构实战:Stripe支付集成+
LLaMA
动态权限控制
亿级用户订阅系统架构实战:Stripe支付集成+
LLaMA
动态权限控制关键词:订阅系统架构设计、支付接口集成、订阅生命周期管理、用户权限控制、SaaS计费模型订阅模式技术实现详解在LanguageMentor
少林码僧
·
2025-06-11 07:07
系统架构
langchain
架构
人工智能
语言模型
Ai自动补全编程工具:
llama
vscode
Ai自动补全编程工具推荐,llamavscode。llamavscode是VSCode的一个扩展,它使用本地LLM自动完成文本,提供输入的自动建议功能,使用方法很简单,编程过程中按Tab键,自动Ai提供智能建议,有点像输入法备选字条,你可以接受需要的指令建议,也支持你为文本选择设置各种键盘快捷键。它允许自定义文本生成时间和光标周围的上下文,包括正在运行的文件。它还支持在配置较低端硬件上的编辑比较大
CIb0la
·
2025-06-10 13:22
国产Llinux运维
crack
kali
linux
运维
测试工具
学习
程序人生
开发语言
大语言模型(LLM)中的KV缓存压缩与动态稀疏注意力机制设计
传统注意力机制的计算复杂度随序列长度呈二次方增长,而KV缓存的内存消耗可能高达数十GB(例如
Llama
2-7B处理100Ktoken时需50GB内存)。
华清远见成都中心
·
2025-06-10 12:19
语言模型
缓存
人工智能
【大模型入门】2025年大模型学习路线图:史上最全、最新的学习指南,助你成为AI领域的佼佼者!
大模型学习路线建议先从主流的
Llama
开始,然后选用中文的Qwen/Baichuan/ChatGLM,先快速上手体验prompt工程,然后再学习其架构,跑微调脚本前排提示,文末有大模型AGI-CSDN独家资料包哦
·
2025-06-10 12:15
【
LLaMA
-Factory实战】Web UI快速上手:可视化大模型微调全流程
LLaMA
-Factory的WebUI(LlamaBoard)提供了低代码可视化平台,支持从模型加载、数据管理到训练配置的全流程操作。本文将结合结构图、代码示例和实战命令,带您快速掌握这一核心工具。
陈奕昆
·
2025-06-10 05:57
大模型微调教程
llama
前端
ui
大模型微调实战
【大模型】大模型分布式训练问题(上)
以
LLaMA
2-13b为例,按1
油泼辣子多加
·
2025-06-09 16:59
大模型实战
分布式
人工智能
深度学习
LLaMA
Factory 微调与量化模型并部署至 Ollama
以下是使用LLaMAFactory进行模型微调与量化,并部署至Ollama的分步指南:一、环境准备安装LLaMAFactorygitclonehttps://github.com/hiyouga/
LLaMA
-Factory.gitcdLLaMA-Factorypipinstall-rrequirements.txt
GGlow
·
2025-06-09 15:26
语言模型
边缘AI推理突破:树莓派5运行
Llama
3-13B的异构计算极致优化指南
ARMCortex-A76CPU峰值算力仅0.5TFLOPS,远低于GPU服务器内存墙限制:8GBLPDDR4X内存难以容纳原始FP16模型(约26GB)能耗约束:5WTDP下需平衡性能与散热本文将深入探讨基于树莓派5的
Llama
3
尘烬海
·
2025-06-09 00:38
人工智能
分布式
risc-v
网络
架构
构建面向大模型训练与部署的一体化架构:从文档解析到智能调度
作者:汪玉珠|算法架构师标签:大模型训练、数据集构建、GRPO、自监督聚类、指令调度系统、Qwen、
LLaMA
3背景与挑战随着Qwen、
LLaMA
3等开源大模型不断进化,行业逐渐从“能跑通”迈向“如何高效训练与部署
weixin_40941102
·
2025-06-08 10:56
架构
基于Firecrawl和
Llama
3构建网站问答机器人实战指南
基于Firecrawl和
Llama
3构建网站问答机器人实战指南firecrawlTurnentirewebsitesintoLLM-readymarkdown项目地址:https://gitcode.com
陆璞朝Jocelyn
·
2025-06-08 04:16
大模型呼叫中心场景分享之七:银行业如何使用大模型呼叫中心
大模型呼叫中心场景分享之七:银行业如何使用大模型呼叫中心作者:开源大模型呼叫中心系统FreeIPCC1.引言随着人工智能(AI)和大模型(如DeepSeek、GPT、Claude、
Llama
、KIMI、
FreeIPCC
·
2025-06-07 19:46
FreeIPCC
语音识别
音视频
信息与通信
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他