E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
stanford机器学习笔记
机器学习笔记
- 目标检测中的加权框融合与非极大值抑制的对比
一、对象检测后处理后处理步骤是目标检测中一个琐碎但重要的组成部分。本文主要是为了了解当拥有多个对象检测模型的集合时,加权框融合(WBF)相对于传统非极大值抑制(NMS)作为对象检测中后处理步骤的差异。对象检测模型通常使用非极大值抑制(NMS)作为默认后处理步骤来过滤掉冗余边界框。然而,这种方法无法有效地跨多个模型提供统一的平均预测,因为它们往往会删除具有显着重叠的置信低的框。为了缓解这个问题,出现
坐望云起
·
2023-08-03 15:30
机器学习
机器学习
目标检测
NMS
WBF
对象检测
人工智能
计算机视觉
机器学习笔记
文章目录BatchNormalization好处BatchNormalization尽量使得w1和w2之间呈现为正圆训练模型的时候,μ\muμ和σ\sigmaσ不可以认为是常数,而是包含数据的变量,取值大小和batch中的数据有关。γ\gammaγ和β\betaβ是自己认为定义的,虽然两组数据可以相同,但是意义是完全不一样的。好处
爱转呼啦圈的小兔子
·
2023-08-02 11:42
机器学习
笔记
人工智能
机器学习笔记
- 什么是keras-core?
一、keras-core简而言之,KerasCore是KerasAPI的新多后端实现,支持TensorFlow、JAX和PyTorch。可以使用如下命令简单安装pipinstallkeras-coreKeras是一个用Python编写的用于深度学习的用户友好工具。它旨在与AI领域的另一个主要参与者TensorFlow一起使用。KerasCore是Keras的新改进版本。它支持多个平台,包括Tens
坐望云起
·
2023-08-01 14:17
机器学习
机器学习
keras
keras-core
tensorflow
pytorch
机器学习笔记
之优化算法(四)线搜索方法(步长角度;非精确搜索)
机器学习笔记
之优化算法——线搜索方法[步长角度,非精确搜索]引言回顾:精确搜索步长及其弊端非精确搜索近似求解最优步长的条件反例论述引言上一节介绍了从精确搜索的步长角度观察了线搜索方法,本节将从非精确搜索的步长角度重新观察线搜索方法
静静的喝酒
·
2023-08-01 12:48
机器学习
深度学习
机器学习
算法
非精确搜索的条件
线搜索方法
机器学习笔记
之优化算法(五)线搜索方法(步长角度;非精确搜索;Armijo Condition)
机器学习笔记
之优化算法——线搜索方法[步长角度,非精确搜索,ArmijoCondition]引言回顾:关于f(xk+1)=ϕ(α)f(x_{k+1})=\phi(\alpha)f(xk+1)=ϕ(α)的一些特性非精确搜索近似求解最优步长的条件
静静的喝酒
·
2023-08-01 12:17
机器学习
深度学习
机器学习
算法
线搜索方法步长角度
非精确搜索
ArmijoCondition
Stanford
CS143 速通PA2教程
PA2是写一个词义分析器,重点在于理解flex的语法,然后是编写正则表达式。速通前的准备PA2.pdf(见我的仓库):写得很多很详细,但是其实读起来的时候,没办法很好地理解是什么意思,建议通读一遍吧。Flex官方文档:读完一遍PA2的文档后,你大概率还是不知道应该干嘛,唯一的办法就是去看Flex的官方文档,弄清楚它是怎么实现词义分析功能的。偷懒的方法:这篇文章写得很好,实际上你只看这一篇,再看看人
ShowM3TheCode
·
2023-08-01 05:46
Stanford
CS143学习之路
编译器
c++
机器学习笔记
8——抑制过拟合之Dropout、BN
过拟合:网络在训练数据上效果好,在测试数据上效果差。抑制过拟合的方法有以下几种:(1)dropout(2)正则化(3)图像增强本次主要谈论一下dropoutdropout定义:是一种在学习的过程中随机删除神经元的方法。训练时随机选取隐藏层的神经元,并将其删除。如图所示:主要作用:(1)取平均的作用(2)减少神经元之间复杂的共适应关系:因为dropout程序导致两个神经元不一定每次都在一个dropo
hello everyone!
·
2023-07-31 19:28
深度学习
机器学习
深度学习
神经网络
YouTube深度学习推荐模型最全总结
这里是「王喆的
机器学习笔记
」的第三十篇文章。
王喆的机器学习笔记
·
2023-07-31 04:13
吴恩达
机器学习笔记
(3)
多变量线性回归:问题:根据多个属性,如房子面积,房子楼层,房子年龄等估计房子的价格多变量线性回归中的变量多变量线性回归的假设此时有多个特征,i对应不同的特征值,如房子面积,楼层,年龄等,参数为一个n+1维向量多变量线性回归中的梯度下降,对每一个参数求偏导数从而得到不同参数的梯度参数特征缩放——加速梯度下降过程收敛到最优值多变量梯度下降时,参数的取值要尽量小在多多变量梯度下降中,要让不同参数的取值范
魏清宇
·
2023-07-30 01:52
机器学习笔记
之优化算法(二)线搜索方法(方向角度)
机器学习笔记
之优化算法——线搜索方法[方向角度]引言回顾:线搜索方法从方向角度观察线搜索方法场景构建假设1:目标函数结果的单调性假设2:屏蔽步长αk\alpha_kαk对线搜索方法过程的影响假设3:限定向量
静静的喝酒
·
2023-07-29 11:28
机器学习
深度学习
机器学习
优化算法
线搜索方法
更新方向与负梯度方向之间关系
泰勒公式
机器学习笔记
之优化算法(一)无约束优化概述
机器学习笔记
之优化算法——无约束优化概述引言回顾:关于支持向量机的凸二次优化问题无约束优化问题概述解析解与数值解数值解的单调性关于优化问题的策略线搜索方法信赖域方法引言从本节开始,将介绍优化算法(OptimizationAlgorithm
静静的喝酒
·
2023-07-29 11:27
机器学习
深度学习
机器学习
算法
优化问题
线搜索方法
信赖域方法
Python
机器学习笔记
:XgBoost算法
转载:https://www.cnblogs.com/wj-1314/p/9402324.html前言1,Xgboost简介Xgboost是Boosting算法的其中一种,Boosting算法的思想是将许多弱分类器集成在一起,形成一个强分类器。因为Xgboost是一种提升树模型,所以它是将许多树模型集成在一起,形成一个很强的分类器。而所用到的树模型则是CART回归树模型。Xgboost是在GBDT
SeaSky_Steven
·
2023-07-29 11:26
algorithm
机器学习
算法
Xgboost
机器学习笔记
之优化算法(三)线搜索方法(步长角度;精确搜索)
机器学习笔记
之优化算法——线搜索方法[步长角度,精确搜索]引言回顾:线搜索方法——方向角度关于收敛性的假设关于单调性的假设下降方向与最速方向从步长角度观察线搜索方法关于方向向量的假设精确搜索过程引言上一节介绍了从方向角度认识线搜索方法
静静的喝酒
·
2023-07-29 11:54
机器学习
深度学习
机器学习
线搜索方法
优化问题
步长角度认识线搜索方法
精确搜索
chatGPT开源免费使用网址
Chai:这个项目是由
Stanford
University的研究人员推出的
viperrrrrrrrrr7
·
2023-07-28 16:19
chatgpt
人工智能
深度学习
CVPR2023新作:在点云中无监督地学习人体关键点
Title:3DHumanKeypointsEstimationFromPointCloudsintheWildAffiliation:斯坦福大学(
Stanford
University)Authors:
upDiff
·
2023-07-28 07:13
论文解读
计算机视觉
深度学习
图像处理
人工智能
足够惊艳,使用Alpaca-Lora基于LLaMA(7B)二十分钟完成微调,效果比肩斯坦福羊驼...
来自:吃果冻不吐果冻皮进NLP群—>加入NLP交流群之前尝试了从0到1复现斯坦福羊驼(
Stanford
Alpaca7B),
Stanford
Alpaca是在LLaMA整个模型上微调,即对预训练模型中的所有参数都进行微调
zenRRan
·
2023-07-27 02:22
llama
机器学习
人工智能
深度学习
算法
[NLP]使用Alpaca-Lora基于llama模型进行微调教程
Stanford
Alpaca是在LLaMA整个模型上微调,即对预训练模型中的所有参数都进行微调(fullfine-tuning)。但该方法对于硬件成本要求仍然偏高且训练低效。
奇思闻影的舒克与贝克
·
2023-07-27 02:52
自然语言处理
llama
深度学习
白话
机器学习笔记
(一)学习回归
最小二乘法定义模型表达式:fθ(x)=θ0+θ1xf_\theta(x)=\theta_0+\theta_1xfθ(x)=θ0+θ1x(常用θ\thetaθ表示未知数、fθ(x)f_\theta(x)fθ(x)表示含有参数θ\thetaθ并且和变量xxx相关的函数)目标函数假设有nnn个训练数据,那么它们的误差之和可以这样表示,这个表达式称为目标函数。E(θ)=12∑i=1n(y(i)−fθ(x(
WangXinmingg
·
2023-07-26 22:47
学习笔记
机器学习
笔记
学习
白话
机器学习笔记
(三)评估已建立的模型
模型评估在进行回归和分类时,为了进行预测,我们定义了函数fθ(x)f_\theta(x)fθ(x),然后根据训练数据求出了函数的参数θ\thetaθ。如何预测函数fθ(x)f_\theta(x)fθ(x)的精度?看它能否很好的拟合训练数据?我们需要能够定量的表示机器学习模型的精度,这就是模型的评估。交叉验证回归问题的验证把获取的全部训练数据分成两份:一份用于测试,一份用于训练。前者来评估模型。一般
WangXinmingg
·
2023-07-26 22:47
学习笔记
机器学习
笔记
人工智能
白话
机器学习笔记
(二)学习分类
分类用图形来解释,把他想象为有大小有方向带箭头的向量。设权重向量为www,虚线为使权重向量称为法线向量的直线。直线的表达式为:w⋅x=0w\cdotx=0w⋅x=0(两个向量的内积)也可写为:w⋅x=∑i=1nwixi=w1x1+w2x2=0w\cdotx=\sum\limits_{i=1}^nw_ix_i=w_1x_1+w_2x_2=0w⋅x=i=1∑nwixi=w1x1+w2x2=0w⋅x=∣
WangXinmingg
·
2023-07-26 22:14
学习笔记
机器学习
笔记
学习
路径规划-A*(C++实现)
A*算法最初发表于1968年,由
Stanford
研究院的PeterHart,NilsNilsson以及BertramRaphael发表。它可以被认为是Dijkstra算法的扩展。
--天行健地势坤--
·
2023-07-25 21:06
路径规划算法
算法
ubuntu
stanford
超详细安装步骤
第一篇csdn最近在跑一个网络模型,在linux系统下安装
stanford
使遇到了一点问题,还好最后成功装好了,在这分享一下安装的过程叭~1、先安装java运行环境在命令行下运行以下两句:sudoapt-getinstalldefault-jresudoapt-getinstalldefault-jdk2
sunshine2304
·
2023-07-25 09:21
linux
ubuntu
nlp
Stanford
CS144: Lab 4
1文档解读如果本lab中测试点99及之后有问题,考虑是环境问题!!1.1Receivingsegments如果RST标志位被设置,把inboundandoutboundstreams都设置为error状态,并且永久地kill这个连接。(设置isActive)解析后发送segment给TCPReceiver如果ACK标志位被设置,那么给TCPSenderackno和window_size。(没有AC
MGWxn
·
2023-07-24 03:15
LAB
Stanford
-CS-229-CN.Video1&2
参考内容:斯坦福大学公开课:机器学习课程
Stanford
-CS-229-CNVideo1机器学习的动机与应用一、SupervisedLearning1.Regressionproblems如房价预测2.
小异_Summer
·
2023-07-23 14:29
群体结构推断软件集锦(更新于2020.03.20)
1.StructureDataType:SSRdatasets,SNPdatasetsAlgorithm:EM,MMManual:http://web.
stanford
.edu/group/pritchardlab
原本随想
·
2023-07-23 07:44
2022 最新 JDK17 下载、安装与环境配置(Windows)
一、JDK介绍1.1前置知识---Java语言Java语言是美国Sun公司(
Stanford
UniversityNetwork),在1995年推出的高级的编程语言。
HS_zhangjiong
·
2023-07-22 14:52
Java
java
jvm
开发语言
从阿里的User Interest Center看模型线上实时serving方法
这里是「王喆的
机器学习笔记
」的第二十九篇文章。最近写书的时候在总结一些深度学习模型线上serving的主流方法。
王喆的机器学习笔记
·
2023-07-21 06:21
怎么入门Java编程?
一、Java概览Java语言是美国Sun公司(
Stanford
黑马程序员官方
·
2023-07-21 06:07
java
servlet
myeclipse
物流网首选协议,关于 MQTT 你需要了解这些
MQTT协议由Andy
Stanford
-Clark(IBM)和ArlenNipper(Arcom,现为CirrusLink
EMQ
·
2023-07-20 22:50
机器学习笔记
神经元神经网络的基本模型是神经元,神经元的基本模型就是数学中的乘、加运算:神经元神经网络两层的神经网络(一个隐藏层)更进一步地,过激活函数以提高表现力的神经元模型:常用的激活函数有:relusigmoidtanh损失函数loss计算得到的预测值与已知答案的差距:均方误差MSE自定义损失函数:根据问题的实际情况交叉熵CE(CrossEntropy)反向传播训练中,以减小loss值为优化目标,有梯度下
微雨旧时歌丶
·
2023-07-20 15:27
自学java,要先从理解它是什么语言
Java是SUN(
Stanford
UniversityNetwork,斯坦福大学网络公司)1995年推出的一门高级编程语言,是一种面向Internet的编程语言。
赵zy
·
2023-07-20 15:31
weibull分布的两种形式
1-weibull分布第一种形式来自:survivalanalysisAself-LearningTextP2952-weibull分布第二种形式:来源:https://web.
stanford
.edu
饮食有度的元气少女
·
2023-07-20 02:47
统计学
笔记
机器学习笔记
--xgboost核心思想
今天给大家讲xgboost,这是一个非常优秀的算法,在各大回归类的人工智能竞赛中,经常可以在榜首看到这个算法的身影。前面我们已经讲了决策树,提升树(BoostingDecisionTree)是迭代多棵决策树来共同决策,当采用平方误差作为损失函数的时候,每一棵树学习的是之前所有树之和的残差值,残差=真实值-预测值。比如A的年龄是18岁,第一棵树的预测值是13岁,与真实值相差了5岁(就是我们说的残差)
weixin_39210914
·
2023-07-19 23:10
机器学习
机器学习
机器学习笔记
(2-4)--林轩田机器学习基石课程
Non-SeparateData当我们不知道数据集是否线性可分时,我们采用贪心的算法,构建modifiedPLA.ModifiedPLA:和普通的PLA不同的是,它在选点时采用随机的方法,并且采用贪心的思想,保存当前最好的w_t.好不好的标准在于造成的错误点数是否更少。直到运行时间足够久后才停止算法。
数学系的计算机学生
·
2023-07-19 16:14
2019-06-26:每日英语打卡,文章精读
App2007Text2Q27ThedefiningtermofintelligenceinhumansstillseemstobetheIQscore,eventhoughIQtestsarenotgivenasoftenastheyusedtobe.Thetestcomesprimarilyintwoforms:the
Stanford
-BinetIntelligenceScaleand
未名吾梦
·
2023-07-19 15:38
在LLM的支持下使游戏NPC具有记忆化的方法
所以这里看到了
stanford
的一项研究,利用ChatGPT做的生成智能群体。方法GenerativeAgents:InteractiveSimulacraofHumanB
hhy不许摸鱼
·
2023-07-19 14:24
NLP
游戏
自然语言处理
Stanford
点云公开数据集:S3DIS
S3DIS(
Stanford
Large-Scale3DIndoorSpacesDataset)是斯坦福大学提供的大场景室内3D点云数据集,包含6个教学和办公Area,总共有695,878,620个带有色彩信息以及语义标签的
Vertira
·
2023-07-19 10:40
pytorch
pytorch
Boundless Hackathon @
Stanford
主题黑客松活动闭幕,一文回顾
由
Stanford
BlockchainAccelerator、ZebecProtocol、NautilusChain、RootzLab共同主办了“BoundlessHackathon@
Stanford
”
QiJublockchain
·
2023-07-17 20:05
区块链
数据预处理之数据归一化
转载来自ufldl.
stanford
.edu/wiki/index.php/数据预处理一、简单缩放分为:最大值缩放和均值缩放在简单缩放中,我们的目的是通过对数据的每一个维度的值进行重新调节(这些维度可能是相互独立的
sunny冰青
·
2023-07-17 16:47
机器学习
算法
Matlab
算法
机器学习
数据预处理
Boundless Hackathon @
Stanford
主题黑客松活动闭幕,一文回顾
由
Stanford
BlockchainAccelerator、ZebecProtocol、NautilusChain、RootzLab共同主办了“BoundlessHackathon@
Stanford
”
BTColdman
·
2023-07-17 09:03
大数据
区块链
吴恩达
机器学习笔记
(5)—— 神经网络
又摸鱼摸了好久,终于开学了,不能再摸鱼了,这学期课都是嵌入式开发方面的,我给自己的电脑买了个新硬盘装了Linux,不再像以前在虚拟机里小打小闹了,折腾了好几天的新系统,现在有时间写新的笔记了。这次给大家带来的是神经网络,比较难,我可能写的也不是太明白,就看看吧。非线性假设其实神经网络是一个很古老的算法,不过在很长的一段时间内受计算机的机能所限,这个算法没有太大的进展。直到了现在,计算机的飞速发展,
机智的神棍酱
·
2023-07-17 06:15
python 分类变量转为哑变量_
机器学习笔记
——哑变量处理
在机器学习的特征处理环节,免不了需要用到类别型特征,这类特征进入模型的方式与一般数值型变量有所不同。通常根据模型的需要,类别型特征需要进行哑变量处理,即按照特征类别进行编码,一般一个类别为k的特征需要编码为一组k-1【避免引起多重共线性】个衍生哑变量,这样就可以表示特征内部所有的类别(将其中基准比较类设为0,当k-1个哑变量都为0时,即为基准类)。这种哑变量的编码过程在R和Python中的有成熟的
weixin_39664477
·
2023-07-17 01:59
python
分类变量转为哑变量
陆地生态系统植被净初级生产力(NPP)—CASA模型
CASA(Carnegie-Ames-
Stanford
Approach)模型是估算陆地生态系统
asyxchenchong888
·
2023-07-17 00:56
生态
经验分享
CS224W作业 class GCN
CS22Wassignment中的所有colab答案以及注释已经上传到github:https://github.com/yuyu990116/CS224W-assignmentCS224W课程地址:http://web.
stanford
.edu
鱼鱼9901
·
2023-07-17 00:53
CS224W
pytorch
深度学习
机器学习
CS224W作业 class GAT(MessagePassing)
CS22Wassignment中的所有colab答案以及注释已经上传到github:https://github.com/yuyu990116/CS224W-assignmentCS224W课程地址:http://web.
stanford
.edu
鱼鱼9901
·
2023-07-17 00:53
CS224W
机器学习
人工智能
深度学习
神经网络
CS224W作业colab5笔记
CS22Wassignment中的所有colab答案以及注释已经上传到github:https://github.com/yuyu990116/CS224W-assignmentCS224W课程地址:http://web.
stanford
.edu
鱼鱼9901
·
2023-07-17 00:53
CS224W
笔记
CS224W
深度学习
人工智能
机器学习
可解释
机器学习笔记
(一)——可解释性
可解释性可解释性定义可解释性包含的性质可解释性方法分类自解释or事后可解释解释方法的输出特征概要统计量(FeatureSummaryStatistic)特征概要可视化(FeatureSummaryVisualization)模型内部(ModelInternal)数据点(DataPoint)代理模型特定于模型(Model-specific)or模型无关(Model-agnostic)局部(Local
小白成长之旅
·
2023-07-16 18:11
可解释人工智能(XAI)
可解释机器学习
可解释人工智能
机器学习笔记
之变分自编码器(一)模型表示
机器学习笔记
之变分自编码器——模型表示引言回顾:高斯混合模型变分自编码器——概率图视角介绍总结引言本节将介绍变分自编码器(VariationalAutoEncoder,VAE)。
静静的喝酒
·
2023-07-16 15:18
机器学习
深度学习
人工智能
算法
变分自编码器
隐变量概率图模型
机器学习笔记
之卡尔曼滤波(一)动态模型基本介绍
机器学习笔记
之卡尔曼滤波——动态模型基本介绍引言回顾:动态模型动态模型的相关任务卡尔曼滤波介绍引言本节从动态模型开始,介绍卡尔曼滤波(KalmanFilter)。
静静的喝酒
·
2023-07-16 15:18
机器学习
机器学习
线性动态系统
卡尔曼滤波
隐变量
观测独立性
深度学习笔记之Transformer(八)Transformer模型架构基本介绍
机器学习笔记
之Transformer——Transformer模型架构基本介绍引言回顾:简单理解:Seq2seq\text{Seq2seq}Seq2seq模型架构与自编码器自注意力机制Transformer
静静的喝酒
·
2023-07-16 14:15
深度学习
深度学习
transformer
多头注意力机制
LayerNorm
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他