E-COM-NET

  • 首页
  • 在线工具
  • Layui镜像站
  • SUI文档
  • 联系我们
推荐频道
  • Java
  • PHP
  • C++
  • C
  • C#
  • Python
  • Ruby
  • go语言
  • Scala
  • Servlet
  • Vue
  • MySQL
  • NoSQL
  • Redis
  • CSS
  • Oracle
  • SQL Server
  • DB2
  • HBase
  • Http
  • HTML5
  • Spring
  • Ajax
  • Jquery
  • JavaScript
  • Json
  • XML
  • NodeJs
  • mybatis
  • Hibernate
  • 算法
  • 设计模式
  • shell
  • 数据结构
  • 大数据
  • JS
  • 消息中间件
  • 正则表达式
  • Tomcat
  • SQL
  • Nginx
  • Shiro
  • Maven
  • Linux
预

YOLOv3预训练权重——开启目标检测的快捷之门

YOLOv3预训练权重——开启目标检测的快捷之门【下载地址】yolov3预训练权重资源yolov3预训练权重资源欢迎来到YOLOv3预训练权重的下载页面!
毕昕露Lionel·2025-04-16 05:31

YOLOv3实践教程:使用预训练模型进行目标检测

目录简介环境准备获取预训练模型图像目标检测视频目标检测模型性能优化常见问题解答进阶学习路径简介YOLOv3(YouOnlyLookOnceversion3)是一种高效的实时目标检测算法,由JosephRedmon
LIUDAN'S WORLD·2025-04-16 05:00
  • YOLO系列教程
  • YOLO
  • 深度学习
  • 计算机视觉
  • 人工智能

GPT-2源码实现及GPT-3、GPT-3.5、GPT-4及GPT-5内幕解析(三)

3内幕机制可视化解析GPT-3是一个基于Transformer的语言模型,通过不同的层次提取语言不同层面的特性,构建整个语言的语义信息,它学习的过程跟人类正常学习的过程是类似的,开始的时候是一个无监督预训练
段智华·2025-04-16 00:26
  • 深入理解
  • ChatGPT
  • gpt
  • gpt-3
  • GPT-4
  • ChatGPT国内
  • OpenAI

前端直传阿里云和腾讯云组件封装(后端返回预签名)

上传import{Upload}from'ant-design-vue'importappConfigfrom'@/config/appConfig'importstoragefrom'@/utils/jeepayStorageWrapper'import{reactive,defineProps,getCurrentInstance,onMounted,watch}from'vue'import
cccccc..·2025-04-15 21:37
  • 前端
  • 阿里云
  • 云计算
  • 腾讯云
  • anti-design-vue

数据库守护神-WAL机制

WAL(Write-AheadLogging,预写日志)是一种保证数据库操作原子性和持久性的核心机制。
理想奋斗中·2025-04-15 21:34
  • 数据库
  • WAL机制
  • 数据恢复

2025跨境电商账号封号因素盘点与避坑指南

在2025年动荡的全球经济环境下,卖家如何预判风险,守住账号安全?本文结合政策趋势、平台规则与真实案例,深度盘点未来一年可能触发封号的“高危因素”,并提供可落地的避坑策略。
爱跨境的笑笑·2025-04-15 19:52
  • 跨境电商
  • 人工智能

大语言模型的技术发展历程,从N-gram到DeepSeek-R1

NLP领域的发展历程,介绍各个模型的思路和创新点,聚焦NLP经典模型和技术突破的理解,不深入数学推导过程前言根据整个自然语言处理NLP领域的技术发展,可以将其分为四个技术阶段:统计语言模型,神经网络模型,预训练语言模型
TARO_ZERO·2025-04-15 18:18
  • 语言模型
  • 自然语言处理
  • 深度学习
  • gpt

【NLP笔记】预训练+微调范式之OpenAI Transformer、ELMo、ULM-FiT、Bert..

文章目录OpenAITransformerELMoULM-FiTBert基础结构Embedding预训练&微调【原文链接】:BERT:Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstanding
`AllureLove·2025-04-15 18:16
  • 自然语言处理
  • 自然语言处理
  • 笔记
  • bert

一起学Hugging Face Transformers(10)- 使用Transformers 库的 Trainer API 进行模型微调

文章目录前言二、环境准备三、数据准备四、模型选择与加载五、数据预处理1.代码2.详细解析3.小结六、微调模型七、模型评估八、保存模型总结前言在自然语言处理(NLP)领域,预训练模型如BERT、GPT等已经展示了其强大的能力
做个天秤座的程序猿·2025-04-15 18:15
  • Hugging
  • Face
  • Transformers
  • transformer
  • trainer
  • api
  • 模型微调

BERT - 直接调用transformers.BertModel, BertTokenizerAPI不进行任何微调

本节代码将使用transformers库加载预训练的BERT模型和分词器(Tokenizer),并处理文本输入。
风筝超冷·2025-04-15 17:13
  • 人工智能
  • 深度学习
  • bert

centos-LLM-生物信息-BioGPT-使用1

参考:GitHub-microsoft/BioGPThttps://github.com/microsoft/BioGPTBioGPT:用于生物医学文本生成和挖掘的生成式预训练转换器|生物信息学简报|牛津学术
淀粉肠狂热粉·2025-04-15 17:09
  • 生物信息学
  • centos
  • linux
  • 生信
  • 生物信息
  • AIGC

多模态大模型:技术原理与实战 全球多模态大模型介绍

技术原理与实战全球多模态大模型介绍文章目录多模态大模型:技术原理与实战全球多模态大模型介绍多模态大模型:技术原理与实战全球多模态大模型介绍1.背景介绍2.核心概念与联系2.1多模态学习2.2跨模态表示学习2.3注意力机制2.4预训练与微调
AI天才研究院·2025-04-15 15:58
  • 计算
  • DeepSeek
  • R1
  • &
  • 大数据AI人工智能大模型
  • 计算科学
  • 神经计算
  • 深度学习
  • 神经网络
  • 大数据
  • 人工智能
  • 大型语言模型
  • AI
  • AGI
  • LLM
  • Java
  • Python
  • 架构设计
  • Agent
  • RPA

DeepSeek作词作曲成为全能音乐人

在DeepSeek预训练模型的数据中,应当是训练了大量跟乐理和作曲相关的资料的。例如,你问DeepSeek一些乐理知识,它是能答上来的:DeepS
奔向理想的星辰大海·2025-04-15 11:02
  • 云原生
  • 人工智能
  • 机器学习
  • 深度学习

Redis--布隆过滤器

为了有效应对缓存穿透问题,以下是几种常见的解决方法:1.布隆过滤器预检查布隆过滤器是一种高效的数据结构,用于快速判断一个元素是否可能存在于集合中。
像素化创新·2025-04-15 08:45
  • redis
  • redis
  • 数据库
  • 缓存

在AMGCL中使用混合精度求解稀疏矩阵方程

混合精度基础在AMGCL中,混合精度通常指:使用单精度(float)构建预条件子和执行大部分迭代使用双精度(double)存储原始矩阵和最终残差计算示例代码以下是一个使用AMGCL混合精度求解稀疏矩阵系统的完整示
东北豆子哥·2025-04-15 08:15
  • CUDA
  • PETSc
  • 数值计算/数值优化
  • HPC

Python Transformer 库及使用方法

Python中的Transformer库及使用方法一、库的概述HuggingFaceTransformers是自然语言处理(NLP)领域最流行的开源库之一,支持基于Transformer架构的预训练模型
学亮编程手记·2025-04-15 08:40
  • Python
  • chatgpt
  • python
  • transformer
  • 开发语言

[特殊字符] 第十七讲 | 随机森林:变量重要性识别与建模实战

✅支持分类与回归✅可评估变量重要性✅对缺失值、异常值不敏感✅对高维数据表现稳定它尤其适用于地理与农学中变量多、关系复杂的建模任务,如:土壤性质预
Chh0715·2025-04-15 08:10
  • 随机森林
  • 算法
  • 机器学习
  • r语言

思维与算法共舞:AIGC语言模型的艺术与科学

2.预训练与微调二、AIGC的应用领域:文本生成的具体应用1.内容创作2.客户服务与聊天机器人3.自动摘要4.翻译与语言转换三、前沿突破:AIGC文本生成技术的最新进展与未来方向1.多任务学习与多模态生成
云边有个稻草人·2025-04-15 07:06
  • 热门文章
  • 算法
  • 开发语言
  • 什么是语言模型?
  • 多任务学习与多模态生成
  • 客户服务与聊天机器人
  • 自适应生成与定制化文本
  • 预训练与微调

亚马逊云科技-基于GenAI预训练新基础模型

亚马逊云科技-基于GenAI预训练新基础模型关键字:[yt,SageMaker,FoundationModels,AmazonSagemaker,DistributedTraining,ModelParallelism
taibaili2023·2025-04-15 05:21
  • AWS

远程主机可能不符合glibc和libstdc++ VS Code服务器的先决条件

VSCode发布的预构建服务器兼容基于glibc2.28或更高版本的Linux发行版,例如Debian10、RHEL8和Ubuntu20.04。
箫毒赵药师·2025-04-14 23:11
  • 专治疑难杂症
  • 服务器
  • 运维

需求总变怎么办?学渣男三招让客户死心塌地:需求锁定术

渣男第一招:立人设——让客户不敢随便提需求**错误做法:**客户说啥都点头➔你变成“需求垃圾桶”**正确操作:**穿西装式沟通:1.每次开会前发《需求预判表》写上:
靓男大师兄·2025-04-14 18:08
  • 经验分享
  • 职场和发展

深度探索 DeepSeek 微调:LoRA 与全参数微调实战指南

摘要DeepSeek作为强大的大模型,提供了优质的基础能力,但在某些特定任务上,直接使用预训练模型可能无法满足需求。
·2025-04-14 15:36
  • deepseek

Ollama+open-webui搭建私有本地大模型详细教程

它支持多种预训练模型(如Llama、Vicuna、Dolly等),并且可以在本地运行,无需复杂的基础设施。
王亭_666·2025-04-14 09:10
  • 算法与大模型
  • 人工智能
  • 大数据
  • ollama
  • openwebui
  • 大模型
  • 人工智能
  • deepseek

CLIPGaze: Zero-Shot Goal-Directed ScanpathPrediction Using CLIP

此外,它们通常采用不同的预训练模型分别提取目标提示和图像的特征,导致两者之间存在较大的特征差异,使得后续的特征匹配和融合变得困难。
小周爱学习€·2025-04-14 07:26
  • 计算机视觉
  • 深度学习
  • 人工智能

AUTOSAR从入门到精通-端到端(End-to-End)方案(三)

端到端模型的算法演进和产品形态端到端自动驾驶中的关键技术1.基础神经网络架构2.大模型预训练与微调技术3.模型剪枝与压缩4.车云协同的数据闭环技术驱动因素大模型与生成式AI技术的引入数据与算力需求的升级当前的技术挑战算力与实时性测试验证方法的不足模型的可解释性问题端到端自动驾驶系统
格图素书·2025-04-13 14:35
  • 数学建模
  • 自动驾驶
  • 人工智能

P-tuning、Prompt-tuning和Prefix-tuning区别是什么?

这些额外的Token是可训练的,而预训练语言模型的参数保持不变。PrefixTuning是在每层Transformer结构的输入前添加一组可训练的Token。
Jacob_AI·2025-04-13 13:05
  • prompt
  • transformer
  • nlp
  • 语言模型

如何从零开始训练一个大模型,文案解析。

✅大模型微调常见流程图(逻辑顺序)预训练(Pretraining)↓指令微调SFT(SupervisedFine-tuning)↓偏好数据准备(人类偏好标注或对比)↓┌─────────────┬───
要努力啊啊啊·2025-04-13 13:31
  • 大模型中的技术名词解析
  • 算法
  • 人工智能

理解大模型论文中的名词部分

对DeepSeek、Qwen模型技术报告中的名词部分进行介绍1.预训练•目标:从海量无标注文本中学语言能力(通常一次性训练大模型)•特点:训练耗时、成本高,但是基础中的基础•是否自己做:一般使用开源预训练模型
要努力啊啊啊·2025-04-13 13:30
  • 大模型中的技术名词解析
  • 人工智能
  • 机器学习
  • 深度学习

【前端】ES6:let声明变量与const声明常量

文章目录1let不允许重复声明变量2let和const声明的变量不会在预解析的时候解析(也就是没有变量提升)3let和const声明的变量会被所有代码块限制作用范围4let和const的区别4.1let
子非鱼921·2025-04-13 10:46
  • ES6-ES13教程
  • 前端
  • es6
  • javascript

大语言模型原理基础与前沿 模型架构

《大语言模型原理基础与前沿模型架构》关键词大语言模型模型架构预训练微调词嵌入注意力机制编码器-解码器数学基础应用场景优化与加速摘要本文将系统地介绍大语言模型的原理和前沿,重点讨论其模型架构。
AI天才研究院·2025-04-13 08:28
  • ChatGPT
  • AI大模型企业级应用开发实战
  • DeepSeek
  • R1
  • &
  • 大数据AI人工智能大模型
  • 大厂Offer收割机
  • 面试题
  • 简历
  • 程序员读书
  • 硅基计算
  • 碳基计算
  • 认知计算
  • 生物计算
  • 深度学习
  • 神经网络
  • 大数据
  • AIGC
  • AGI
  • LLM
  • Java
  • Python
  • 架构设计
  • Agent
  • 程序员实现财富自由

雷池WAF防火墙如何构筑DDoS防护矩阵?——解读智能语义解析对抗新型流量攻击

本文深度解析雷池WAF防火墙在DDoS攻防中的技术突破,通过智能语义解析、动态基线建模、协同防护体系三大核心技术,实现从流量特征识别到攻击意图预判的进化。
李詹·2025-04-13 04:57
  • ddos
  • 网络

重磅推荐-2024大模型与研发提效最佳实践PPT资料合集(27份).zip

1、3D虚拟人AIGC全链营销提效.pdf2、AIChecklist:Qunar结合AIGC在测试域的提效实践.pdf3、AIGC与业务提效:多模态预训练模型在OPPO端云场景的落地实践.pdf4、AIGC
安全方案·2025-04-12 23:29
  • 大模型
  • 提效

【AI】LoRA技术深度解析:大模型高效微调的革命性突破

其核心原理是将预训练模型的权重矩阵分解为两个低秩矩阵的乘积(W′=W+BAW'=W+BAW′=W+BA),仅训练新增的秩为r的低维参数(通常r=8-64)。
酱学编程·2025-04-12 22:26
  • 人工智能

微调和蒸馏:详细技术全解_蒸馏 微调

微调,这涉及调整预训练模型的参数,以提高在特定领域任务上的表现。虽然完整的微调会更新所有权重,但近年来如LoRA(Low-RankAdaptation,低秩适
慕烟疏雨·2025-04-12 22:56
  • ai
  • 人工智能
  • 编程
  • 程序员
  • 计算机

GPU集群上分布式训练大模型

总结一下如何在超算系统上进行预训练大模型的分布式训练/微调,文中代码已上传至github实验环境集群1:国家广州超算星逸A800智能AI集群GPU:8*NvdiaTesla-A80080G显存CPU:2
沐岩:)·2025-04-12 21:48
  • 学习笔记
  • 分布式
  • 深度学习
  • bert

《多模态大语言模型视觉提示》综述

多模态大语言模型(MLLMs)为预训练的大语言模型(LLMs)赋予了视觉能力。尽管LLMs中的文本提示已被广泛研究,视觉提示则为更细粒度和自由形式的视觉指令开辟了新天地。
大语言模型·2025-04-12 21:47
  • 人工智能
  • 自然语言处理
  • LLM
  • 大模型
  • transformer
  • langchain
  • 多模态大模型

2025年发电行业信息化趋势:三大技术发展方向

青岛国瑞凭借在能源领域长期积累的技术实力与敏锐的行业洞察力,对2025年发电行业信息化趋势做出了三大技术预判,这些趋势将深刻影响发电企业的运营模式、生产效率以及未来发展走向。
Qdgr_·2025-04-12 19:09
  • 人工智能

附043.KubeEdge边缘云部署实施方案

文章目录KubeEdge介绍KubeEdge概述KubeEdge优势KubeEdge架构KubeEdge部署部署依赖部署规划主机名配置变量准备互信配置环境预配置安装keadm设置标签安装CNI设置云端设置调度设置边缘端边缘端优化确认验证
木二_·2025-04-12 18:30
  • 集群相关
  • kubernetes
  • 云原生
  • edge
  • 边缘计算

搭建大模型知识库流程,以及基于langchain实现大模型知识库案例

检索增强生成是为了解决大模型知识不足的问题”大模型主要面临三个问题:垂直领域内的知识不足大模型知识有时间限制大模型幻觉问题第一个问题产生的原因是因为,没有经过垂直领域数据训练的大模型普遍表现不好;其次是目前的大模型采用的是预训练模式
AI程序猿人·2025-04-12 10:42
  • langchain
  • prompt
  • 人工智能
  • RAG
  • ai大模型
  • 大模型训练
  • 知识库

【大模型】—LangChain开源框架介绍

然而现有预训练大模型也存在一定技术缺陷,如仅有通用知识表示,知识只截止在训练时的日期,对于新知识
麦道先生·2025-04-12 10:41
  • 人工智能
  • 人工智能
  • langchain

如何基于BERT模型微调出一个医疗问答的模型

BERT(BidirectionalEncoderRepresentationsfromTransformers)是一种由Google开发的预训练语言模型,利用Transformer架构进行双向编码。
2401_89793006·2025-04-12 05:58
  • 人工智能
  • bert
  • easyui
  • 人工智能

高性能OCR推荐

支持多语言车牌、复杂背景(模糊、倾斜、光照不均等),内置车牌专用识别模型,可直接调用预训练权重。适用场景:嵌入式设备、移动端、服务器端均可部
arron8899·2025-04-12 02:11
  • ocr

【场景应用2】speech_recognition: 微调语音模型

本笔记演示如何对多语言预训练语音模型进行微调,以用于自动语音识别任务。
AI专题精讲·2025-04-11 21:11
  • 深度学习
  • 人工智能

多语种语音识别新突破:使用Transformers微调Whisper模型,实现精准识别!

简介Whisper是一系列用于自动语音识别(automaticspeechrecognition,ASR)的预训练模型,它由来自于OpenA
大模型入门学习·2025-04-11 21:39
  • 语音识别
  • whisper
  • 人工智能
  • AI产品经理
  • 职场和发展
  • 大模型
  • Transformer

OpenDriveVLA:通过大型视觉-语言-动作模型实现端到端自动驾驶

OpenDriveVLA以开源预训练大型视觉-语言模型(VLM)为基础,以3D环境感知、自车状态和驾驶
三谷秋水·2025-04-11 21:08
  • 自动驾驶
  • 计算机视觉
  • 大模型
  • 自动驾驶
  • 人工智能
  • 机器学习
  • 计算机视觉
  • 机器人
  • 语言模型

【场景应用3】audio_classification:音频分类的微调

1引言本笔记展示了如何对多语种预训练的语音模型进行微调,以实现自动语音识别(AutomaticSpeechRecognition)。
AI专题精讲·2025-04-11 21:38
  • 深度学习
  • 音视频
  • 分类
  • 数据挖掘

opencv人脸性别年龄检测

OpenCV作为一个强大的计算机视觉库,提供了丰富的工具和预训练模型来实现这一功能。二、原理概述人脸检测:首先需要在输入的图像或视频帧中检测出人脸。
进来有惊喜·2025-04-11 16:36
  • opencv
  • 人工智能
  • 计算机视觉

下一代前端构建工具 Astro,快如闪电!

为了提高加载速度,Astro会在服务端对页面进行预渲染,并剥离所有JavaScript,除非将某个组件标记为交互式,此时Astro将发送必要的最小量JavaScript以实现交互功能。
开源项目精选·2025-04-11 13:47
  • 前端

通信算法之260: 时频图谱spectrogram(如短时傅里叶变换STFT)第二讲

生成流程‌‌预加重‌:提升高频分量
秋风战士·2025-04-11 13:44
  • 算法
  • 语音识别
  • 人工智能

项目经理如何避免成为“救火队长”?

项目经理要避免成为“救火队长”,必须从源头预防问题发生,具体包括:明确项目目标和责任分工、做好风险预判和管理、提升团队自我管理能力、建立高效沟通机制。
F36_9_·2025-04-11 09:20
  • 大数据
上一页 8 9 10 11 12 13 14 15 下一页
按字母分类: ABCDEFGHIJKLMNOPQRSTUVWXYZ其他
首页 - 关于我们 - 站内搜索 - Sitemap - 侵权投诉
版权所有 IT知识库 CopyRight © 2000-2050 E-COM-NET.COM , All Rights Reserved.