E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
coursera机器学习笔记
机器学习笔记
- week9 -(十五、异常检测)
15.1问题的动机在接下来的一系列视频中,我将向大家介绍异常检测(Anomalydetection)问题。这是机器学习算法的一个常见应用。什么是异常检测呢?为了解释这个概念,让我举一个例子吧:假想你是一个飞机引擎制造商,当你生产的飞机引擎从生产线上流出时,你需要进行QA(质量控制测试),而作为这个测试的一部分,你测量了飞机引擎的一些特征变量,比如引擎运转时产生的热量,或者引擎的振动等等。这样一来,
火箭蛋头
·
2023-08-08 05:12
2019-4-15晨间日记
最重要的三件事:1.把调查问卷做出2.去谈房子3.照顾宝宝改进:1.问卷调查可做的更深入一些,学习产品研究的知识2.房子要尽快租出去3.宝贝发烧,还是要加强锻炼习惯养成:未早起跑步周目标·完成进度0%
Coursera
yesifeng
·
2023-08-07 14:25
机器学习——支持向量机(数学基础推导篇)
支持向量机(SVM)——原理篇
机器学习笔记
(五):支持向量机(SVM)支持向量机算法(SVM)详细讲解(含手推
# JFZero
·
2023-08-07 11:32
机器学习基础
算法
机器学习
支持向量机
人工智能
机器学习笔记
- 关于GPT-4的一些问题清单
一、简述据报道,GPT-4的系统由八个模型组成,每个模型都有2200亿个参数。GPT-4的参数总数估计约为1.76万亿个。近年来,得益于GPT-4等高级语言模型的发展,自然语言处理(NLP)取得了长足的进步。凭借其前所未有的规模和能力,GPT-4为语言AI设立了新标准,并为机器生成内容开辟了一个充满了无限可能性的世界。然而,GPT-4令人印象深刻的性能背后隐藏着控制其行为的复杂参数网络。我们这里将
坐望云起
·
2023-08-07 06:29
机器学习
人工智能
神经网络
ChatGPT
语言模型
深度学习
OpenAI
注意力
机器学习笔记
- 基于Python发现最佳计算机视觉模型的神经架构搜索技术NAS
典型案例YOLO-NAS(NeuralArchitectureSearch)
机器学习笔记
-YOLO-NAS最高效的
坐望云起
·
2023-08-07 05:52
机器学习
机器学习
python
遗传算法
NAS
神经架构搜索
神经网络
人工智能
机器学习笔记
:李宏毅ChatGPT课程1:刨析ChatGPT
ChatGPT——ChatGenerativePre-trainedTransformer1文字接龙每次输出一个概率分布,根据概率sample一个答案——>因为是根据概率采样,所以ChatGPT每次的答案是不一样的(把生成式学习拆分成多个分类问题)将生成的答案加到原来的句子里面1.1同时使用同一个会话中之前的互动作为输入模型的输入不止有现在的互动,还有同一会话中过去的互动这里说的1700亿参数是O
UQI-LIUWJ
·
2023-08-06 20:46
机器学习
chatgpt
笔记
人工智能
机器学习笔记
- YOLO-NAS 最高效的目标检测算法之一
一、YOLO-NAS概述YOLO(YouOnlyLookOnce)是一种对象检测算法,它使用深度神经网络模型,特别是卷积神经网络,来实时检测和分类对象。该算法首次在2016年由JosephRedmon、SantoshDivvala、RossGirshick和AliFarhadi发表的论文《YouOnlyLookOnce:Unified,Real-TimeObjectDetection》中被引入。自
坐望云起
·
2023-08-06 12:16
机器学习
YOLO
目标检测
人工智能
NAS
YOLO-NAS
机器学习笔记
之优化算法(十)梯度下降法铺垫:总体介绍
机器学习笔记
之优化算法——梯度下降法铺垫:总体介绍引言回顾:线搜索方法线搜索方法的方向Pk\mathcalP_kPk线搜索方法的步长αk\alpha_kαk梯度下降方法整体介绍引言从本节开始,将介绍梯度下降法
静静的喝酒
·
2023-08-06 09:02
机器学习
深度学习
梯度下降法
优化算法
利普希兹连续
凸函数与强凸函数
人生苦短,我用Python
我是通过在线课程学习Python的,其中比较有名的网站有
Coursera
、Udemy、Codecademy等。我还阅读了一些Python的书籍
岚天、
·
2023-08-06 06:05
pycharm
ide
python
Coursera
C++ Part A [Week2] Class and Generics
Coursera
C++PartA[Week1]https://www.jianshu.com/p/6c1d07763275Week1了解了C++和C的基本区别,Week2开始介绍类week2OverviewC
小啾Kris
·
2023-08-05 15:02
机器学习笔记
- 使用 Tensorflow 从头开始构建您自己的对象检测器
机器学习笔记
-使用Keras、TensorFlow框架进行自定义数据集目标检测训练_keras制作目标检测数据集_坐望云起的博客-CSDN博客学习如何训练自定义深度学习模型,以通过Keras、TensorFlow
坐望云起
·
2023-08-05 06:48
机器学习
机器学习
tensorflow
目标检测
YOLO
Tensorflow
对象检测器
机器学习笔记
之优化算法(九)收敛速度的简单认识
机器学习笔记
之优化算法——收敛速度的简单认识引言收敛速度的判别标准Q\mathcalQQ-收敛速度R\mathcalRR-收敛速度关于算法复杂度与收敛速度引言本节对收敛速度简单介绍。
静静的喝酒
·
2023-08-04 08:59
机器学习
深度学习
机器学习
算法
Q-收敛速度
R-收敛速度
收敛速度与算法复杂度的关系
机器学习笔记
- 使用 YOLOv5、OpenCV、Python 和 C++ 检测物体
一、YOLOv5简述YOLOv5虽然已经不是最先进的对象检测器,但是YOLOv5使用了一个简单的卷积神经网络CNN架构(相对YOLOv8来讲,不过v8精度是更高了一些),更易理解。这里主要介绍如何轻松使用YOLOv5来识别图像中的对象。将使用OpenCV、Python和C++来加载和调用我们的YOLOv5模型。目标检测是最重要的计算机视觉任务之一。对于给定图像,对象检测器将发现:图像中的物体物体的
坐望云起
·
2023-08-04 01:30
机器学习
YOLO
YOLOV5
YOLO
v8
目标检测
深度学习
机器学习笔记
- 了解 GitHub Copilot 如何通过提供自动完成式建议来帮助您编码
一、GitHubCopilot介绍GitHubCopilot是世界上第一个大规模AI开发人员工具,可以帮助您以更少的工作更快地编写代码。GitHubCopilot从注释和代码中提取上下文,以立即建议单独的行和整个函数。研究发现GitHubCopilot可以帮助开发人员更快地编码、专注于解决更大的问题、更长时间地保持在流程中,并对他们的工作感到更满足。GitHubCopilot的生成式预训练语言模型
坐望云起
·
2023-08-03 23:37
机器学习
结对编程
GitHub
Copilot
AI编程
代码建议
人工智能
机器学习笔记
之优化算法(七)线搜索方法(步长角度;非精确搜索;Wolfe Condition)
机器学习笔记
之优化算法——线搜索方法[步长角度,非精确搜索,WolfeCondition]引言回顾:Armijo\text{Armijo}Armijo准则及其弊端Glodstein\text{Glodstein
静静的喝酒
·
2023-08-03 16:55
机器学习
深度学习
Armijo准则与弊端
Glodstein准则与弊端
线搜索方法
非精确搜索
优化方法
Wolfe
Condition
机器学习笔记
之优化算法(六)线搜索方法(步长角度;非精确搜索;Glodstein Condition)
机器学习笔记
之优化算法——线搜索方法[步长角度,非精确搜索,GlodsteinCondition]引言回顾:ArmijoCondition\text{ArmijoCondition}ArmijoCondition
静静的喝酒
·
2023-08-03 16:54
机器学习
深度学习
机器学习
优化算法
线搜索方法
Armijo准则弊端
Glodstein准则
机器学习笔记
之优化算法(八)简单认识Wolfe Condition的收敛性证明
机器学习笔记
之优化算法——简单认识WolfeCondition收敛性证明引言回顾:Wolfe\text{Wolfe}Wolfe准则准备工作推导条件介绍推导结论介绍关于Wolfe\text{Wolfe}Wolfe
静静的喝酒
·
2023-08-03 16:23
机器学习
深度学习
机器学习
Wolfe准则收敛性证明
优化算法
Lipschitz连续
拉格朗日中值定理
机器学习笔记
- 目标检测中的加权框融合与非极大值抑制的对比
一、对象检测后处理后处理步骤是目标检测中一个琐碎但重要的组成部分。本文主要是为了了解当拥有多个对象检测模型的集合时,加权框融合(WBF)相对于传统非极大值抑制(NMS)作为对象检测中后处理步骤的差异。对象检测模型通常使用非极大值抑制(NMS)作为默认后处理步骤来过滤掉冗余边界框。然而,这种方法无法有效地跨多个模型提供统一的平均预测,因为它们往往会删除具有显着重叠的置信低的框。为了缓解这个问题,出现
坐望云起
·
2023-08-03 15:30
机器学习
机器学习
目标检测
NMS
WBF
对象检测
人工智能
计算机视觉
放下手里的微博微信和吃鸡,多刷刷下面的这些网站吧~
Coursera
—免费学习来自全球20多个国家100多所顶尖大学的课程,有提供认证证书的专项课程,由浅入深系统学习一个领域。MITOpenCourseware—创建于200
一个温暖的韩国欧巴
·
2023-08-03 01:06
机器学习笔记
文章目录BatchNormalization好处BatchNormalization尽量使得w1和w2之间呈现为正圆训练模型的时候,μ\muμ和σ\sigmaσ不可以认为是常数,而是包含数据的变量,取值大小和batch中的数据有关。γ\gammaγ和β\betaβ是自己认为定义的,虽然两组数据可以相同,但是意义是完全不一样的。好处
爱转呼啦圈的小兔子
·
2023-08-02 11:42
机器学习
笔记
人工智能
机器学习笔记
- 什么是keras-core?
一、keras-core简而言之,KerasCore是KerasAPI的新多后端实现,支持TensorFlow、JAX和PyTorch。可以使用如下命令简单安装pipinstallkeras-coreKeras是一个用Python编写的用于深度学习的用户友好工具。它旨在与AI领域的另一个主要参与者TensorFlow一起使用。KerasCore是Keras的新改进版本。它支持多个平台,包括Tens
坐望云起
·
2023-08-01 14:17
机器学习
机器学习
keras
keras-core
tensorflow
pytorch
机器学习笔记
之优化算法(四)线搜索方法(步长角度;非精确搜索)
机器学习笔记
之优化算法——线搜索方法[步长角度,非精确搜索]引言回顾:精确搜索步长及其弊端非精确搜索近似求解最优步长的条件反例论述引言上一节介绍了从精确搜索的步长角度观察了线搜索方法,本节将从非精确搜索的步长角度重新观察线搜索方法
静静的喝酒
·
2023-08-01 12:48
机器学习
深度学习
机器学习
算法
非精确搜索的条件
线搜索方法
机器学习笔记
之优化算法(五)线搜索方法(步长角度;非精确搜索;Armijo Condition)
机器学习笔记
之优化算法——线搜索方法[步长角度,非精确搜索,ArmijoCondition]引言回顾:关于f(xk+1)=ϕ(α)f(x_{k+1})=\phi(\alpha)f(xk+1)=ϕ(α)的一些特性非精确搜索近似求解最优步长的条件
静静的喝酒
·
2023-08-01 12:17
机器学习
深度学习
机器学习
算法
线搜索方法步长角度
非精确搜索
ArmijoCondition
Coursera
人气课程:学会如何学习 (一)笔记
Coursera
人气课程:学会如何学习(一)1.两种思考模式:专注模式《—————》发散模式重点学习时了解新事物时2.每天做一点:这就是关键所在3.番茄工作法:战胜拖延问题4.实践使记忆永存5.学习就像砌墙放好砖头
从Em到Bm
·
2023-08-01 05:37
机器学习笔记
8——抑制过拟合之Dropout、BN
过拟合:网络在训练数据上效果好,在测试数据上效果差。抑制过拟合的方法有以下几种:(1)dropout(2)正则化(3)图像增强本次主要谈论一下dropoutdropout定义:是一种在学习的过程中随机删除神经元的方法。训练时随机选取隐藏层的神经元,并将其删除。如图所示:主要作用:(1)取平均的作用(2)减少神经元之间复杂的共适应关系:因为dropout程序导致两个神经元不一定每次都在一个dropo
hello everyone!
·
2023-07-31 19:28
深度学习
机器学习
深度学习
神经网络
2019-03-26 一页纸看清云计算基本概念
刚学习完
Coursera
上的课程CloudComputingConceptsPart1ByUniversityofIllinoisatUrbana-Champaign,针对该课程中的主要概念进行了分类整理如下
susyhz
·
2023-07-31 10:43
YouTube深度学习推荐模型最全总结
这里是「王喆的
机器学习笔记
」的第三十篇文章。
王喆的机器学习笔记
·
2023-07-31 04:13
#Git 教程整理# V1.0
coursera
,VersionControlwithGit十分建议入门先看它,有十分简明的步骤图示和讲解,有习题检测你是否理解,也有详细的文本操作指导和练习题。
LeeMin_Z
·
2023-07-30 22:50
學生怎樣學習
先承認,我聽過的學習理論不多,本文思想主要來源就是我在
coursera
上學過的一堂課叫做「學習如何學習」(learninghowtolearn)。
思想筆記
·
2023-07-30 16:41
吴恩达
机器学习笔记
(3)
多变量线性回归:问题:根据多个属性,如房子面积,房子楼层,房子年龄等估计房子的价格多变量线性回归中的变量多变量线性回归的假设此时有多个特征,i对应不同的特征值,如房子面积,楼层,年龄等,参数为一个n+1维向量多变量线性回归中的梯度下降,对每一个参数求偏导数从而得到不同参数的梯度参数特征缩放——加速梯度下降过程收敛到最优值多变量梯度下降时,参数的取值要尽量小在多多变量梯度下降中,要让不同参数的取值范
魏清宇
·
2023-07-30 01:52
怎么学习Java并发编程相关技术? - 易智编译EaseEditing
学习Java并发编程可以通过多种方式进行,包括但不限于以下几种:在线教程和学习平台:网上有许多免费和付费的Java并发编程教程和学习平台,如
Coursera
、Udemy、edX、Codecademy等。
易智编译
·
2023-07-29 20:44
学习推荐
学习
java
开发语言
职场和发展
科技
机器学习笔记
之优化算法(二)线搜索方法(方向角度)
机器学习笔记
之优化算法——线搜索方法[方向角度]引言回顾:线搜索方法从方向角度观察线搜索方法场景构建假设1:目标函数结果的单调性假设2:屏蔽步长αk\alpha_kαk对线搜索方法过程的影响假设3:限定向量
静静的喝酒
·
2023-07-29 11:28
机器学习
深度学习
机器学习
优化算法
线搜索方法
更新方向与负梯度方向之间关系
泰勒公式
机器学习笔记
之优化算法(一)无约束优化概述
机器学习笔记
之优化算法——无约束优化概述引言回顾:关于支持向量机的凸二次优化问题无约束优化问题概述解析解与数值解数值解的单调性关于优化问题的策略线搜索方法信赖域方法引言从本节开始,将介绍优化算法(OptimizationAlgorithm
静静的喝酒
·
2023-07-29 11:27
机器学习
深度学习
机器学习
算法
优化问题
线搜索方法
信赖域方法
Python
机器学习笔记
:XgBoost算法
转载:https://www.cnblogs.com/wj-1314/p/9402324.html前言1,Xgboost简介Xgboost是Boosting算法的其中一种,Boosting算法的思想是将许多弱分类器集成在一起,形成一个强分类器。因为Xgboost是一种提升树模型,所以它是将许多树模型集成在一起,形成一个很强的分类器。而所用到的树模型则是CART回归树模型。Xgboost是在GBDT
SeaSky_Steven
·
2023-07-29 11:26
algorithm
机器学习
算法
Xgboost
机器学习笔记
之优化算法(三)线搜索方法(步长角度;精确搜索)
机器学习笔记
之优化算法——线搜索方法[步长角度,精确搜索]引言回顾:线搜索方法——方向角度关于收敛性的假设关于单调性的假设下降方向与最速方向从步长角度观察线搜索方法关于方向向量的假设精确搜索过程引言上一节介绍了从方向角度认识线搜索方法
静静的喝酒
·
2023-07-29 11:54
机器学习
深度学习
机器学习
线搜索方法
优化问题
步长角度认识线搜索方法
精确搜索
白话
机器学习笔记
(一)学习回归
最小二乘法定义模型表达式:fθ(x)=θ0+θ1xf_\theta(x)=\theta_0+\theta_1xfθ(x)=θ0+θ1x(常用θ\thetaθ表示未知数、fθ(x)f_\theta(x)fθ(x)表示含有参数θ\thetaθ并且和变量xxx相关的函数)目标函数假设有nnn个训练数据,那么它们的误差之和可以这样表示,这个表达式称为目标函数。E(θ)=12∑i=1n(y(i)−fθ(x(
WangXinmingg
·
2023-07-26 22:47
学习笔记
机器学习
笔记
学习
白话
机器学习笔记
(三)评估已建立的模型
模型评估在进行回归和分类时,为了进行预测,我们定义了函数fθ(x)f_\theta(x)fθ(x),然后根据训练数据求出了函数的参数θ\thetaθ。如何预测函数fθ(x)f_\theta(x)fθ(x)的精度?看它能否很好的拟合训练数据?我们需要能够定量的表示机器学习模型的精度,这就是模型的评估。交叉验证回归问题的验证把获取的全部训练数据分成两份:一份用于测试,一份用于训练。前者来评估模型。一般
WangXinmingg
·
2023-07-26 22:47
学习笔记
机器学习
笔记
人工智能
白话
机器学习笔记
(二)学习分类
分类用图形来解释,把他想象为有大小有方向带箭头的向量。设权重向量为www,虚线为使权重向量称为法线向量的直线。直线的表达式为:w⋅x=0w\cdotx=0w⋅x=0(两个向量的内积)也可写为:w⋅x=∑i=1nwixi=w1x1+w2x2=0w\cdotx=\sum\limits_{i=1}^nw_ix_i=w_1x_1+w_2x_2=0w⋅x=i=1∑nwixi=w1x1+w2x2=0w⋅x=∣
WangXinmingg
·
2023-07-26 22:14
学习笔记
机器学习
笔记
学习
2019-05-01
跟着
coursera
上的课程AppliedMachineLearninginPython学习了一个机器学习的示例,很简单的对水果进行分类,下载数据之后发现,哎对文件的简单复制粘贴会改变数据文件的分隔符,
月照寒江
·
2023-07-25 07:20
跟着我,一步步实践极简积极人生,收获满满的幸福
刚好学完《AlifeofHappinessandFulfillment/美满幸福的一生》(
Coursera
上有免费课程,但是老师是印度教授,印度口音英语,嘿嘿),这周就聊聊这个话题,一来回答朋友的问题,
李李极简积极人生
·
2023-07-22 23:42
学习Python的资料
如果您想学习Python,以下是一些有用的资源:官方文档:https://docs.python.org/zh-cn/3/书籍:《Python编程从入门到实践》、《Python基础教程》等在线课程:Udemy、
Coursera
半清斋
·
2023-07-22 01:59
学习
pycharm
ide
python
从阿里的User Interest Center看模型线上实时serving方法
这里是「王喆的
机器学习笔记
」的第二十九篇文章。最近写书的时候在总结一些深度学习模型线上serving的主流方法。
王喆的机器学习笔记
·
2023-07-21 06:21
Coursera
C++ Part B [Week1] C++进阶
C++PartB是C++进阶课程,bf课程网址https://www.
coursera
.org/learn/c-plus-plus-b/home/welcomecourseoverviewIntroductiontotheSTLlibraryIteratorcategoriesandexamplesContainersandalgorithmsLambdaexpressions
小啾Kris
·
2023-07-20 23:10
GraphQL 入门与实践
其实不仅Facebook,其他公司也有在探索相关类似的技术,Netflix也曾推出他们的方案Falcor,
Coursera
在Facebook推出GraphQL后,取消了相关研发,直接使用GraphQL。
前端码农小王
·
2023-07-20 17:06
前端
http
javascript
vue.js
机器学习笔记
神经元神经网络的基本模型是神经元,神经元的基本模型就是数学中的乘、加运算:神经元神经网络两层的神经网络(一个隐藏层)更进一步地,过激活函数以提高表现力的神经元模型:常用的激活函数有:relusigmoidtanh损失函数loss计算得到的预测值与已知答案的差距:均方误差MSE自定义损失函数:根据问题的实际情况交叉熵CE(CrossEntropy)反向传播训练中,以减小loss值为优化目标,有梯度下
微雨旧时歌丶
·
2023-07-20 15:27
机器学习笔记
--xgboost核心思想
今天给大家讲xgboost,这是一个非常优秀的算法,在各大回归类的人工智能竞赛中,经常可以在榜首看到这个算法的身影。前面我们已经讲了决策树,提升树(BoostingDecisionTree)是迭代多棵决策树来共同决策,当采用平方误差作为损失函数的时候,每一棵树学习的是之前所有树之和的残差值,残差=真实值-预测值。比如A的年龄是18岁,第一棵树的预测值是13岁,与真实值相差了5岁(就是我们说的残差)
weixin_39210914
·
2023-07-19 23:10
机器学习
机器学习
机器学习笔记
(2-4)--林轩田机器学习基石课程
Non-SeparateData当我们不知道数据集是否线性可分时,我们采用贪心的算法,构建modifiedPLA.ModifiedPLA:和普通的PLA不同的是,它在选点时采用随机的方法,并且采用贪心的思想,保存当前最好的w_t.好不好的标准在于造成的错误点数是否更少。直到运行时间足够久后才停止算法。
数学系的计算机学生
·
2023-07-19 16:14
吴恩达
机器学习笔记
(5)—— 神经网络
又摸鱼摸了好久,终于开学了,不能再摸鱼了,这学期课都是嵌入式开发方面的,我给自己的电脑买了个新硬盘装了Linux,不再像以前在虚拟机里小打小闹了,折腾了好几天的新系统,现在有时间写新的笔记了。这次给大家带来的是神经网络,比较难,我可能写的也不是太明白,就看看吧。非线性假设其实神经网络是一个很古老的算法,不过在很长的一段时间内受计算机的机能所限,这个算法没有太大的进展。直到了现在,计算机的飞速发展,
机智的神棍酱
·
2023-07-17 06:15
python 分类变量转为哑变量_
机器学习笔记
——哑变量处理
在机器学习的特征处理环节,免不了需要用到类别型特征,这类特征进入模型的方式与一般数值型变量有所不同。通常根据模型的需要,类别型特征需要进行哑变量处理,即按照特征类别进行编码,一般一个类别为k的特征需要编码为一组k-1【避免引起多重共线性】个衍生哑变量,这样就可以表示特征内部所有的类别(将其中基准比较类设为0,当k-1个哑变量都为0时,即为基准类)。这种哑变量的编码过程在R和Python中的有成熟的
weixin_39664477
·
2023-07-17 01:59
python
分类变量转为哑变量
可解释
机器学习笔记
(一)——可解释性
可解释性可解释性定义可解释性包含的性质可解释性方法分类自解释or事后可解释解释方法的输出特征概要统计量(FeatureSummaryStatistic)特征概要可视化(FeatureSummaryVisualization)模型内部(ModelInternal)数据点(DataPoint)代理模型特定于模型(Model-specific)or模型无关(Model-agnostic)局部(Local
小白成长之旅
·
2023-07-16 18:11
可解释人工智能(XAI)
可解释机器学习
可解释人工智能
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他