E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
预分频器寄存器
纯C代码模拟stm32 的结构体赋值,快速掌握stm32开发
简单版本//runC@https://www.jyshare.com/compile/11/#include//模拟GPIO
寄存器
结构typedefstruct{unsignedintpinState:
真实义
·
2025-02-03 09:45
c语言
stm32
单片机
Megatron:深度学习中的高性能模型架构
Megatron:深度学习中的高性能模型架构Megatron是由NVIDIA推出的深度学习大规模
预
训练模型框架,主要针对大规模Transformer架构模型的高效训练与推理。
gs80140
·
2025-02-03 08:06
基础知识科谱
AI
机器学习
人工智能
【TIMM应用】timm加载模型create_model,使用本地
预
训练模型
timm加载模型create_model使用本地
预
训练模型1.常规方式,从https://huggingface.co/上下载1-1.timm库中create_model函数的用法1.最简单的用法2.查看可以直接创建的
预
训练模型列表
pen-ai
·
2025-02-03 03:29
深度学习
python
深度学习
神经网络
卷积神经网络
C++计算精解【20】
registers为
寄存器
。
sakura_sea
·
2025-02-03 00:29
游戏引擎与高性能计算
c++
开发语言
什么是“知识蒸馏”
知识蒸馏是一种将大型
预
训练模型(教师模型)的知识转移到较小模型(学生模型)的技术。这种方法不仅能保留原有模型的性能,还能显著降低模型的复杂度和计算需求,使其更适合在资源受限的环境中部署。知识蒸馏
清风AI
·
2025-02-02 19:55
深度学习
人工智能
神经网络
python
conda
DeepSeek 使用的核心技术预测
1.大规模
预
训练模型架构Transformer变种与优化:基于Transformer架构进行改进,可能引入稀疏注意力机制(如Longform
eso1983
·
2025-02-02 18:22
人工智能
深度学习
机器学习
python
LLM - 大模型 ScallingLaws 的设计 100B
预
训练方案(PLM) 教程(5)
欢迎关注我的CSDN:https://spike.blog.csdn.net/本文地址:https://spike.blog.csdn.net/article/details/145356022免责声明:本文来源于个人知识与公开资料,仅用于学术交流,欢迎讨论,不支持转载。ScalingLaws(缩放法则)是大模型领域中,用于描述模型性能(Loss)与模型规模N、数据量D、计算资源C之间关系的经验规
ManonLegrand
·
2025-02-02 18:21
大模型
(LLM)
人工智能
LLM
ScalingLaws
100B
预训练
DeepNorm
EGS
【llm对话系统】大模型 Llama 源码分析之 LoRA 微调
1.引言微调(Fine-tuning)是将
预
训练大模型(LLM)应用于下游任务的常用方法。然而,直接微调大模型的所有参数通常需要大量的计算资源和内存。
kakaZhui
·
2025-02-02 13:14
llama
深度学习
pytorch
AIGC
chatgpt
【自然语言处理(NLP)】基于Transformer架构的
预
训练语言模型:BERT 训练之数据集处理、训练代码实现
文章目录介绍BERT训练之数据集处理BERT原理及模型代码实现数据集处理导包加载数据生成下一句预测任务的数据从段落中获取nsp数据生成遮蔽语言模型任务的数据从token中获取mlm数据将文本转换为
预
训练数据集创建
道友老李
·
2025-02-02 12:04
自然语言处理(NLP)
自然语言处理
transformer
c++中#define和const区别
例如:```cpp#defineN2+3//我们预想的N值是5,我们这样使用Ndoublea=N/2;//我们
预
朝朝暮暮Quake
·
2025-02-02 05:17
c++
开发语言
QModbusTCPClient 服务器断开引起的程序崩溃
最近使用QModbusTCPClient与一套设备通信,有一个QTimer频繁的通过读取设备
寄存器
。程序运行良好,但是有个问题:正常进行中设备断电了,整个程序都会崩溃。
千秋10000
·
2025-02-02 02:31
Qt
QModbus
C语言学习--const修饰符的作用,如何强制修改const定义的对象内容
C语言学习--const修饰符的作用,如何强制修改const定义的对象内容const在C语言中的作用及应用场景1.修饰变量应用场景:2.修饰指针应用场景:修饰函数应用场景:特殊用法,修饰
寄存器
应用场景:
天马行空工作坊
·
2025-02-02 02:01
C语言
c语言
学习
开发语言
C语言:整型提升
整型提升的意义:表达式的整型运算要在CPU的相应运算器件内执⾏,CPU内整型运算器(ALU)的操作数的字节⻓度⼀般就是int的字节⻓度,同时也是CPU的通⽤
寄存器
的⻓度。
南玖yy
·
2025-02-02 00:13
c语言
开发语言
开源LLMs导览:工作原理、顶级LLM列表对比
2.1
预
训练2.2代币化2.3开源LLM的微调2.4输入编码2.5训练与优化2.6推理三、开源LLM对组织的好处3.1增强的数据安全和隐私3.2节约成本3.3减少供应商依赖性3.4代码透明度四、哪种LLM
万俟淋曦
·
2025-02-01 23:11
Some
Insights
人工智能
AI
生成式人工智能
大模型
LLM
chatgpt
大语言模型
【AI知识点】三种不同架构的大语言模型(LLMs)的区别
【AI论文解读】【AI知识点】【AI小项目】【AI战略思考】在自然语言处理(NLP)中,
预
训练语言模型(LLMs,LargeLanguageModels)通常基于不同的架构,如仅编码器的模型(Encoder-only
AI完全体
·
2025-02-01 23:09
AI知识点
人工智能
语言模型
自然语言处理
机器学习
深度学习
注意力机制
自注意力机制
LitGPT - 20多个高性能LLM,具有
预
训练、微调和大规模部署的recipes
文章目录一、关于LitGPT二、快速启动安装LitGPT高级安装选项从20多个LLM中进行选择三、工作流程1、所有工作流程2、微调LLM3、部署LLM4、评估LLM5、测试LLM6、
预
训练LLM7、继续
预
训练
伊织产研
·
2025-02-01 19:38
#
AI
开源项目
LitGPT
预训练
微调
部署
pytorch基于 Transformer
预
训练模型的方法实现词嵌入(tiansz/bert-base-chinese)
以下是一个完整的词嵌入(WordEmbedding)示例代码,使用modelscope下载tiansz/bert-base-chinese模型,并通过transformers加载模型,获取中文句子的词嵌入。frommodelscope.hub.snapshot_downloadimportsnapshot_downloadfromtransformersimportBertTokenizer,Be
纠结哥_Shrek
·
2025-02-01 15:05
pytorch
transformer
bert
LLM-
预
训练:深入理解 Megatron-LM(2)原理介绍
最近在基于Megatron-LM的代码来训练大语言模型,本人觉得Megatron的代码很具有学习意义,于是大量参考了网上很多对Megatron代码的解读文章和NVIDAMegatron团队公开发布的2篇论文,并结合最近Megatron-LM代码库的更新,整理成了这几篇系列文章。Megatron-LM代码版本:23.06https://github.com/NVIDIA/Megatron-LM/tr
u013250861
·
2025-02-01 15:05
#
LLM/训练
人工智能
【51单片机实验笔记】中断篇(二) 定时器与中断
目录前言晶振概述时序概述定时器概述工作方式
寄存器
(TMOD)定时器配置流程初值的简便算法微秒级定时中断的注意事项T2定时器概述定时器2控制
寄存器
(T2CON)定时器2模式
寄存器
(T2MOD)定时器2配置软件实现
悬铃木下的青春
·
2025-02-01 15:03
51单片机
51单片机
笔记
嵌入式硬件
深度学习-笔记1
在这儿做一个笔记:网址:https://gitee.com/paddlepaddle/PaddleNLPpaddle-nlp是一个自然语言处理NLP方面的工具包(代码库)ERNIEERNIE是百度基于BERT改进的
预
训练大模型
·
2025-02-01 12:15
深度学习神经网络
单片机串口打印printf函数显示内容(固件库开发)
include"hal_usart.h"#include"stm32F10x.h"//**要根据使用的是哪个串口对应修改串口号eg:USART1**voidUSART_PUTC(charch){/*等待数据
寄存器
为空
单片机开发小白
·
2025-02-01 06:49
单片机开发学习
单片机
嵌入式硬件
【学习心得】Python好库推荐——PEFT
这种技术主要应用于大型
预
训练模型的微调过程中,目的是在保持模型性能的同时减少所需的计算资源和时间。通过PEFT,可以有效地调整模型以适应特定任务或数据集,而无需对整个模型的所有参数进行全面微调。
小oo呆
·
2025-02-01 06:48
【学习心得】
人工智能
python
语言模型
深度学习篇---深度学习框架
简介特点动态计算图易于上手强大的社区支持与Python的集成度高核心组件2.TensorFlow简介特点静态计算图跨平台强大的生态系统Keras集成核心组件3.PaddlePaddle简介特点易于使用高性能工业级应用丰富的
预
训练模型核心组件第二部分
Ronin-Lotus
·
2025-01-31 21:05
深度学习篇
深度学习
人工智能
python
Pytorch
TensorFlow
paddlepaddle
在汇编语言中,ASSUME 是一个用于告诉汇编器如何将段
寄存器
与特定段名称关联的指令
在汇编语言中,ASSUME是一个用于告诉汇编器如何将段
寄存器
与特定段名称关联的指令。它主要用于定义代码段、数据段和栈段等的段
寄存器
使用方式,帮助编译器生成正确的代码。
laocooon523857886
·
2025-01-31 19:18
算法
汇编
【大模型入门必看】LLM大语言模型导读
本章将简要梳理大语言模型的技术要点以及构建过程,并且列举了可用于
预
训练以及微调模型的常用数据集,介绍了目前开发大语言模型常用的代码库、
预
训练大语言模型的步骤以及涉及的关键技术,包括数据准备阶段、模型
古-月
·
2025-01-31 16:24
LLM
大语言模型
汇编考试基础速成
码:30H~39H大写字母A~Z:41H~5AH小写字母a~z:61H~7AH0dH:回车控制字符0aH:换行控制字符AH/ALAX称为累加器,用于算术与逻辑运算;与外设传送信息BH/BLBX称为基址
寄存器
世间一剑
·
2025-01-31 16:54
汇编
python 使用Whisper模型进行语音翻译
多尺寸
预
训练模型:官方提供了5个不同大小的模型(tiny,
哦里 哦里哦里给
·
2025-01-31 15:16
AI
大语言模型实战
python
whisper
35. 串口实验
一、6ULL串口UART原理6ULL的UART_URXD
寄存器
保存这串口接收到的数据。
lljss2020
·
2025-01-31 14:41
Linux
单片机
Linux
ARM汇编语言
汇编语言结构条件码(31-28)指令码(27-20)目的
寄存器
(19-16)操作数1
寄存器
(15-12)操作数2(11-0)操作码(Opcode):指示要执行的具体操作。
qq_37770896
·
2025-01-31 11:13
arm开发
Deepseek两项关键发现:无需人类专家介入SFT、有自己
目前尚未实现AGI,主流AI行业和公众普遍认为通过扩大纯语言模型(LLM)的
预
训练规模就能实现突破
极道Jdon
·
2025-01-31 08:13
javascript
reactjs
GGUF 大模型文件格式
1.基础原理GGUF简介当前的大模型的参数规模较大,数以千亿的参数导致了它们的
预
训练结果文件都在几十GB甚至是几百GB,这不仅导致其使用成本很高,在不同平台进行交换也非常困难。
香菜烤面包
·
2025-01-31 07:04
AI
系统与算法部署
语言模型
vue3+vite+Electron构建跨平台应用
集中配置主进程、渲染器和预加载脚本的Vite配置,并针对Electron的独特环境进行
预
配置。为渲染器提供快速模块热替换(H
vitenode
·
2025-01-31 06:28
Electron
electron
javascript
前端
使用numpy自定义数据集 使用tensorflow框架实现逻辑回归并保存模型,然后保存模型后再加载模型进行
预
1.引言逻辑回归(LogisticRegression)是一种常见的分类算法,广泛应用于二分类问题。在本篇博客中,我们将使用numpy生成一个简单的自定义数据集,并使用TensorFlow框架构建和训练逻辑回归模型。训练完成后,我们会保存模型,并演示如何加载保存的模型进行预测。2.创建自定义数据集首先,我们使用numpy生成一个简单的二分类数据集,包含两个特征和对应的标签。标签0表示负类,标签1表
辞落山
·
2025-01-31 04:11
numpy
tensorflow
逻辑回归
STM32开发内核结构
转载请保留原作者想讲解一下STM32的开发内核架构,说白了就是讲讲我的代码是怎么一层一层的调用一直到最底层的
寄存器
的.首先上图:图中已经很清晰了,我只想强调几个点:1.stm32f10x.h这个文件真是相当的吊啊
且听风吟_YU
·
2025-01-30 22:56
单片机
stm32
单片机
内核
STM32学习-CPU概念理解记录
此页仅做记录之用以下图中为个人对stm32一些基础概念GPIO,
寄存器
与
寄存器
组之间关系的梳理,可能有部分错误记录于06/08/2021更新一下:一个端口(GPIOx)只有16根引脚,最常用的引脚使用方式是
⁽˙ ³˙⁾
·
2025-01-30 22:52
stm32
GPU编程与CUDA
把内存部分的内容拷贝到设备端在设备端的核函数计算从设备端拷贝到主机端,并且释放内存显存主机端:cpu设备端:gpu核函数:在gpu上运行的函数CUDA内存模型CUDA中的内存模型分为以下几个层次(硬件):•每个线程处理器(SP)都用自己的registers(
寄存器
Nice_cool.
·
2025-01-30 21:17
Cuda与TensorRT
c++
AI绘画能取代设计师吗?
1.AI绘画的现状1.1AI绘画技术的形成与发展AI绘画的背后,离不开图像风格迁移、图文
预
训练模型和扩散模型这三大技术的共同推动。有点像是一位多才多艺的音乐家,利用不同
网络安全我来了
·
2025-01-30 20:09
IT技术
AI作画
模型架构选择:从传统NLP到Transformer
模型架构选择:从传统NLP到Transformer关键词:自然语言处理(NLP),模型架构,传统NLP,Transformer,RNN,CNN,
预
训练模型文章目录模型架构选择:从传统NLP到Transformer1
AI天才研究院
·
2025-01-30 08:23
AI大模型应用入门实战与进阶
大数据AI人工智能
计算
大数据
人工智能
语言模型
AI
大模型
LLM
Java
Python
架构设计
Agent
RPA
大型语言模型构建指南:从头开始构建大语言模型《Build a Large Language Model (From Scratch)》免费PDF
你将从最初的设计和创建到通用语料库的
预
训练,一直到特定任
AGI大模型学习
·
2025-01-30 05:34
语言模型
pdf
人工智能
大模型
大模型学习
大模型教程
大模型书籍
书籍推荐:《从零构建大型语言模型》附免费PDF下载
你将从最初的设计和创建到通用语料库的
预
训练,一直到特定任
大模型入门学习
·
2025-01-30 05:33
语言模型
pdf
人工智能
产品经理
大模型学习
大模型教程
大模型入门
如何评价deepseek上线的deepseek-V3模型?怎么使用?
DeepSeek-V3模型是深度求索公司最新推出的自研MoE(混合专家)模型,具有6710亿参数,激活参数为370亿,经过14.8万亿token的
预
训练。
百态老人
·
2025-01-30 01:36
学习
DeepSeek V3 模型微调(SFT)技术详解
DeepSeekV3模型微调(SFT)技术详解目录引言背景知识2.1深度学习与
预
训练模型2.2微调(Fine-tuning)的概念2.3监督微调(SupervisedFine-tuning,SFT)DeepSeekV3
zhangjiaofa
·
2025-01-30 00:28
大模型
DeepSeek
模型微调
Mooncake:面向大语言模型服务的以 KVCache 为中心的架构
它采用以KVCache为中心的分解架构,将
预
填充和解码集群分离。它还利用GPU集群未充分利用的CPU、DRAM和SSD资源来实现KVCache的分解缓存。
步子哥
·
2025-01-29 22:42
AGI通用人工智能
语言模型
架构
人工智能
探秘 Linux 内核:精准识别 ARM、MIPS 和 x86_64 架构的全攻略
CPU架构是指计算机中央处理器的设计蓝图,它决定了指令集、
寄存器
布局等关键特性。对于Lin
曦紫沐
·
2025-01-29 17:59
Linux
linux
arm开发
架构
如何从零开始训练大模型(
预
训练方向)
但还有一个很直观的情况,随着
预
训练样本的质量不断提升,训练手段的优化。新的模型,往往效果能轻松反超参数量两倍于它的模型。例如,最新出的minicpm,微信内部评测效果也是非常棒的。
AI小白熊
·
2025-01-29 16:43
prompt
人工智能
ai
大模型
程序员
转行
学习
接口技术-第3次作业
2、如果8259A中断控制器下列
寄存器
内容都为20H,请指出各
寄存器
内容的意义3、试编写一段程序,实现将8088系统中82C59A的IRR、ISR、IMR三个
寄存器
的内容读出,并送入内存2000H开始的单元中
厂里英才
·
2025-01-29 14:03
作业
接口技术
cpu和gpu的区别,以及cpu和gpu中核的概念以及四种架构
个人理解cpu就是一个公司里面的技术骨干,但是不参与管理工作的人员,在计算机中cpu主要是用来处理一条条机器指令的,并且cpu的运算速度特别快,所以说周围还有几个秘书,就是给他提供资料或者存储资料的(
寄存器
zhoudeng666
·
2025-01-29 13:28
架构
c++
linux
c语言
前端性能优化:HMR热更新和
预
获取加载
本文将深入探讨
预
获取(Prefetch)、动态导入(DynamicImport)和热模块替换(HMR)这三个关键技术1.
预
获取(Prefetch):加速后续页面加载1.1什么是
预
获取?
疯狂小料
·
2025-01-29 12:07
前端
面试
LLM架构与优化:从理论到实践的关键技术
重点分析了
预
训练、后训练、监督微调(SFT)和偏好对齐(PreferenceAlignment)在提升模型性能中的作用,并对比了直接偏好优化(DPO)
XianxinMao
·
2025-01-28 20:14
人工智能
第76期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成
预
训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
云起无垠
·
2025-01-28 15:05
GPTSecurity
人工智能
网络安全
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他