E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Lecture
区块链 前世今生
主要资料来源有:工信部编写的《中国区块链技术和应用白皮书》链接:http://www.shujuju.cn/
lecture
/detail/2134麦肯锡《区块链—银行业游戏规则的颠覆者》链接:http:
张锦沛翀
·
2020-06-30 21:27
区块链 前世今生
主要资料来源有:工信部编写的《中国区块链技术和应用白皮书》链接:http://www.shujuju.cn/
lecture
/detail/2134麦肯锡《区块链—银行业游戏规则的颠覆者》链接:http:
张锦沛翀
·
2020-06-30 21:26
斯坦福CS231n - CNN for Visual Recognition(2)-
lecture
3(上)线性分类器、损失函数
本节主要讲了线性分类器(svm和softmax),损失函数以及最优化(梯度下降)的问题线性分类由于之前KNN分类器的缺点,让我们很自然地去寻找有更加强大地方法去完成图像分类任务,这种方法主要有两部分组成:评分函数(scorefunction),它是原始图像数据到类别分值的映射(f(x)=Wx)。损失函数(lossfunction),它是用来量化预测分类标签的得分与真实标签之间一致性的。这种方法其实
李困困
·
2020-06-30 16:55
deep
learning
RNN的简单理解
本文的内容主要来自于斯坦福大学FeiFei-Li的CS231n课程,
Lecture
10,在这里做一个简单的总结,有兴趣的同学可以去看一下这个课程,讲的很好。
zhangboshen
·
2020-06-30 13:12
MIT 18.06 线性代数公开课笔记
Lecture
10 四个基本子空间
本节要讲述联系列空间和行空间的重要结论.列空间C(A)C(A)C(A)inRm\R^mRm零空间N(A)N(A)N(A)inRn\R^nRn行空间,AAA的所有行的线性组合,也就是ATA^TAT的列空间C(AT)C(A^T)C(AT)inRn\R^nRnATA^TAT的零空间N(AT)N(A^T)N(AT)inRm\R^mRm,通常称作AAA的左零空间(leftnullspace)当AAA是n×m
zgjstudy
·
2020-06-30 13:44
MIT18.06线性代数
MIT 18.06 线性代数公开课笔记
Lecture
07Ax=0: 主变量, 特解
本节课我们将从定义转换到算法,如何解出Ax=0A\mathbf{x}=\mathbf{0}Ax=0.取矩阵A=[1222246836810]A=\begin{bmatrix}1&2&2&2\\2&4&6&8\\3&6&8&10\end{bmatrix}A=⎣⎡1232462682810⎦⎤,列1,2在同一方向,行1,2,3也线
zgjstudy
·
2020-06-30 13:12
MIT18.06线性代数
MIT 18.06 线性代数公开课笔记
Lecture
06 列向量和零空间
所有子空间包含零向量.任意两个子空间的并集不一定是子空间,但其交是子空间.列空间对于矩阵A=[112213314415]A=\begin{bmatrix}1&1&2\\2&1&3\\3&1&4\\4&1&5\\\end{bmatrix}A=⎣⎢⎢⎡123411112345⎦⎥⎥⎤,每个列向量有四个元素,故其列空间是R4R^4R4的一个子空间,记做C(A)C(A)C(A).其列空间显然不是整个R4R
zgjstudy
·
2020-06-30 13:12
MIT18.06线性代数
MIT 18.06 线性代数公开课笔记
Lecture
08 Ax=b, 可解性及解的结构
还是以上节课的A=[1222246836810]A=\begin{bmatrix}1&2&2&2\\2&4&6&8\\3&6&8&10\end{bmatrix}A=⎣⎡1232462682810⎦⎤为例,解方程组:Ax=[1222246836810][x1x2x3x4]=[b1b2b3]A\mathbf{x}=\begin{b
zgjstudy
·
2020-06-30 13:12
MIT18.06线性代数
MIT 18.06 线性代数公开课笔记
Lecture
09 线性相关性、基、维数【KEY】
ThisisakeyLecture什么是线性无关,线性相关什么是向量空间的基什么是子空间的维数假设有矩阵Am×nA_{m\timesn}Am×n,并且m<nm<nm
zgjstudy
·
2020-06-30 13:12
MIT18.06线性代数
18/10/2019
Lecture
3: Planning by Dynamic Programming
PlanningbyDynamicProgrammingimage.pngDynamicProgramming具有某种时序关系的问题。将复杂的问题分解为子问题,结合子问题的解决方案,即动态规划。image.png动态规划需要满足的两个要求最优化结构,即将整合结构问题分解为两个或多个子问题。重叠子问题,对于多次出现的子问题,子问题的最优解可以多次利用。MDP符合这两种特性和贝尔曼方程。贝尔曼方程可以
BoringFantasy
·
2020-06-30 11:28
公共经济学笔记(1) 导言
Lecture
2-EffectofincometaxationonlaboursupplyLecture3-Effectofincometaxati
榆非
·
2020-06-30 09:53
深度学习与自然语言处理(3)_斯坦福cs224d
Lecture
3
原文作者:RohitMundra,RichardSocher原文翻译:@熊杰(
[email protected]
)&&@王昱森(
[email protected]
)&&@范筑军老师(
[email protected]
)&&@OWEN(
[email protected]
)内容校正:寒小阳&&龙心尘时间:2016年6月出处:http://blog.csdn.net/h
寒小阳
·
2020-06-30 06:04
深度学习与自然语言处理
深度学习与自然语言处理
自然语言处理
深度学习
斯坦福课程
反向传播
参数初始化
深度学习与自然语言处理(2)_斯坦福cs224d
Lecture
2
原文作者:RohitMundra,RichardSocher原文翻译:@熊杰(
[email protected]
)&&@王昱森内容调整与校对:寒小阳&&龙心尘特别鸣谢:@面包包包包包同学的帮助时间:2016年6月出处:http://blog.csdn.net/han_xiaoyang/article/details/51648483http://blog.csdn.net/longxin
寒小阳
·
2020-06-30 06:04
深度学习与自然语言处理
深度学习与自然语言处理
[9][
lecture
]
Lecture
5: Raft (1)
6.8242017
Lecture
5:Raft(1)第一部分,介绍raft选举和log复制技术,相关的lab是lab2A2B;第二部分设计,raft持久化,client行为以及快照技术,涉及lab2C和lab3
WhateverYoung
·
2020-06-30 05:36
分布式
[10][
lecture
]
Lecture
6: Raft (2)
6.8242018
Lecture
6:Raft(2)KVservicekey/valueserviceastheexample,asinLab3goal:集群服务对客户端表现和单机一致goal:少数节点失效依旧可用
WhateverYoung
·
2020-06-30 05:36
分布式
分布式
[7][
lecture
]
Lecture
4:VMware fault-tolerant virtual machines
6.8242018
Lecture
4:Primary/BackupReplicationVMwareFT,一个极端例子下的主备复制容错,即使出错也可以继续提供服务,应该具备以下条件:第一部分组件失效仍然可用
WhateverYoung
·
2020-06-30 05:36
分布式
David Sliver强化学习-
Lecture
3: Planning by Dynamic Programming
1Introduction动态规划slices中给的定义是:Dynamicmeansthesequentialortemporalcomponenttotheproblem;Programmingmeansoptimisinga"program",i.e.apolicy。主要步骤是:将一个复杂的问题分解成多个子问题解决子问题合并子问题的解当问题具有以下特性,我们常可以考虑使用动态规划来求解:最优子
Onlooker_98
·
2020-06-29 23:00
【Coursera公开课】职场素养 笔记
Week1
Lecture
1:职场的挑战:我該怎麼開始被派遣的工作?好多事情不清楚,我該怎麼問?如何建立主管及同儕的『信任』?報告準備得很充分,為何主管還是不滿意?怎麼主管昨天說這樣,今天換那樣?
xcflytosky
·
2020-06-29 23:01
职业规划
公开课
系统学习编程笔记(十一)
计算机科学和Python编程导论第三讲-简单算法
Lecture
3-SimpleAlgorithmsProblemSet1:使用for循环打印以下内容print"Hello!"
wxw060709
·
2020-06-29 22:48
系统学习编程
迭代算法
穷举法
二分法
Newton-Raphson
BMS8110复习(十二):
Lecture
12 - Single Cell Sequencing
ContentsIntroductionSingle-cellRNA-seqdataanalysisSingle-cellsequencingincancerresearchLineagetracing(谱系追踪)WhySingleCellStudies?Challengesforsingle-celldataanalysisGenedropoutConfoundingeffectsHighvar
wxw060709
·
2020-06-29 22:48
生物信息学
deeplearning.ai-
lecture
2-week1-Initialization-homework
InitializationWelcometothefirstassignmentof"ImprovingDeepNeuralNetworks".Trainingyourneuralnetworkrequiresspecifyinganinitialvalueoftheweights.Awellchoseninitializationmethodwillhelplearning.Ifyoucomp
winnie91
·
2020-06-29 18:44
deaplearning.ai
andrew
Stanford CS230深度学习(六)目标检测、人脸识别和神经风格迁移
在CS230的
lecture
6中主要吴恩达老师讲述了一些关于机器学习和深度学习的tips,用一个触发词台灯的例子教我们如何快速的解决实际中遇到的问题,这节课主要是偏思维上的了解,还是要实际问题实际分析。
学吧学吧终成学霸
·
2020-06-29 14:15
深度学习
Lecture
14 | Deep Reinforcement Learning
valueiterationhttps://math.stackexchange.com/questions/2639577/why-is-the-gradient-of-this-expectation-intractableturnaintegrationinhighdimtoaexpectationproblem???computationalefficiency->lowresolutio
Ysgc
·
2020-06-29 12:52
Lecture
5
A.recursivealgorithm1.-Reduceaproblemtoasimpler(orsmaller)versionofthesameproblem,plussomesimplecomputations•Recursivestep-Keepreducinguntilreachasimplecasethatcanbesolveddirectly•Basecaseex:a*b=a;ifb
mykingy
·
2020-06-29 05:47
斯坦福大学2019自然语言处理CS224n,
Lecture
6:Language Models and Recurrent Neural Networks
内容大纲:语言模型:N-gram语言模型:n-gram指的是n个连续的词。通过统计不同n-gram的词频信息来预测下一个词是什么。假设前提:长文本的第X(t+1)这个词出现概率等于前面的n-1个词预测下一个词出现的概率,也就是说:怎么求上面的概率呢?在一个很大的语料文本中计算他们出现的次数做比例。举个例子:对于4-gram,我们忽略掉除了三个文本之前的词汇,然后分别计算连续三个词汇出现的次数,以及
不吃西瓜霜含片
·
2020-06-28 23:56
自然语言处理CS
cs231n_激活函数
在上一个
lecture
中,我们看到了任意特定层是如何生成输出的,输入数据在全连接层或者卷积层,将输入乘以权重值,之后将结果放入一个激活函数(非线性单元)。
zone_chan
·
2020-06-28 21:32
深度学习
David Silver 强化学习
Lecture
5:Model-Free Control
DavidSilver强化学习系列博客的内容整理自DavidSilver强化学习的PPT和知乎叶强强化学习专栏。1Introduction第四章节的内容讲述了agent在不依赖模型的情况下如何进行预测,也就是求解在给定策略下的状态价值或行为价值函数。本章节则主要讲解在不基于模型的条件下如何通过agent的学习优化价值函数,同时改善自身行为的策略以最大化获得累积奖励的过程,这一过程也称作不基于模型的
Jayxbx
·
2020-06-28 20:37
强化学习
David Silver 强化学习
Lecture
3:Dynamic Programming
DavidSilver强化学习系列博客的内容整理自DavidSilver强化学习的PPT和知乎叶强强化学习专栏。1Introduction1.1WhatisDynamicProgramming?Dynamic:某个问题是由序列化状态组成,状态step-by-step的改变,从而可以step-by-step的来解这个问题。Programming:是在已知环境动力学的基础上进行评估和控制,具体来说就是
Jayxbx
·
2020-06-28 20:36
强化学习
David Silver 强化学习
Lecture
4:Model-Free Prediction
DavidSilver强化学习系列博客的内容整理自DavidSilver强化学习的PPT和知乎叶强强化学习专栏。1Introduction前三节笔记中,通过动态规划能够解决环境已知的MDP问题,也就是已知,已知environment即已知转移矩阵PP与reward函数RR。但是很多问题中environment是未知的,不清楚做出了某个action之后会变到哪一个state,也不知道这个action
Jayxbx
·
2020-06-28 20:36
强化学习
math revisited
泰勒级数:http://www.amath.nchu.edu.tw/~tdoc/
lecture
/Ch16/16-6%E6%B3%B0%E5%8B%92%E8%88%87%E9%A6%AC%E5%85%8B
Alexammer
·
2020-06-28 19:10
lecture
15-自动编码器、语义哈希、图像检索
Hinton第15课,本节有课外读物《SemanticHashing》和《UsingVeryDeepAutoencodersforContent-BasedImageRetrieval》这两篇论文一、从PCA到AE这部分中,首先介绍下PCA,这个方法被广泛的应用在信号处理上。PCA的idea就是高维数据可以用更低维度的编码来表示,当数据位于高维空间中的线性流形(linearmanifold)附近时
weixin_34306593
·
2020-06-28 16:51
#153 第一周学习结束
这一周上WebTechnology主要学习了HTML和CSS,一周有四个
lecture
,两个lab。
钤鱼摆摆
·
2020-06-28 10:43
C Language --
Lecture
1
HDOJ--C语言中文练习题链接1.简介具体请查看
Lecture
1-Introduce.pptx在计算机眼中,一切都是0或者1组成的编译型语言和解释型语言的区别C语言是编译型语言,编译器的作用是把源代码变成可执行文件
Miibo
·
2020-06-27 19:20
Pearl Buck – Nobel
Lecture
IgotthefollowingpieceofarticlefrommyenglishteacherDave.IsearcheditfromtheInternetandfounditisalongstory:)AndliketheChinesenovelist,Ihavebeentaughttowanttowriteforthesepeople.Iftheyarereadingtheirmagaz
335046781
·
2020-06-27 18:27
【转】TOEFL写作27分完全攻略
提高英语水平靠多听多读多背多说多写多练多译首先让我们全面剖析新托福作文:(以下要求均为我自己的理解,非官方版本,官方要求请参照OG)integratedwriting/综合写作:要求考生在3分钟内读一篇文章,然后听一个
lecture
wangyanlong0107
·
2020-06-27 13:28
TOEFL(IBT)
2017.8.20
尽管和我预期的讲座内容不一样,但重新体验一次
lecture
的感觉。结束后和朋友去吃火锅,排队等了
非今日
·
2020-06-27 11:17
谈论娱乐活动的选择
娱乐生词admission允许classic经典作品comedy喜剧concert音乐会drama戏剧horror惊恐
lecture
授课musical音乐会perform执行romance浪漫故事stadium
写代码的杰西
·
2020-06-27 09:45
FM初步理解&代码实现
deep-understanding-of-ffm-principles-and-practices.htmlCMUpdf:http://www.cs.cmu.edu/~wcohen/10-605/2015-guest-
lecture
cuixuange
·
2020-06-27 08:34
推荐算法
FM
FFM
不用再找了,支付宝自动收取能量、自动偷能量、超级简单的系统教程在这里,华为荣耀V20亲测可用
关键信息作者:狐仙小妲己视频教程地址:https://m.lizhiweike.com/
lecture
2/18061021源码地址:https://github.com/Xiao-DaJi/alipay_autojs
狐仙小妲己
·
2020-06-27 08:07
【深度学习】各种梯度下降优化方法总结
斯坦福CS231
Lecture
7梯度下降优化算法综述一文看懂各种神经网络优化算法:从梯度下降到Adam方法梯度下降法是最小化目标函数J(θ)J(θ)的一种方法,其中,θ∈Rdθ∈Rd为模型参数,梯度下降法利用目标函数关于参数的梯度
cookie_17
·
2020-06-27 05:27
深度学习
coursera-斯坦福-机器学习-吴恩达-第1周笔记
coursera-斯坦福-机器学习-吴恩达-第1周笔记文章目录coursera-斯坦福-机器学习-吴恩达-第1周笔记0前言1Introduction介绍-对应笔记lectur1Introduction介绍-对应笔记
lecture
11.1
最小森林
·
2020-06-27 02:53
机器学习
斯坦福-吴恩达《机器学习》之路
week1-生物导论、生命的生物化学
http://mooc.guokr.com/note/7985/
Lecture
1就是对课程的简介,内容包括在医学、法医学、历史及农业等方面的应用。但是但是。。。。
英天
·
2020-06-26 21:12
Liz雅思小作文:
Lecture
2
IELTSLizLecture2Themostimportantthing:NOMistake1Eg.Intheagegroup20to30,28%ofthemensmokedcomparedto30%ofwomen.在这个例子中,我们看到28%并非是精确的。稍微低于30%并不意味着你可以在图上随便估计一下说它是28%应对:*对于不同的情况,选择一些表示大概的词替代1.小于等于20%>~20%>>
璇冰酱是个麻瓜
·
2020-06-26 18:03
川端康成 『美しい日本の私----その序説』 講演原稿
wiki/美しい日本の私―その序説ノーベル賞受賞記念講演http://www.nobelprize.org/nobel_prizes/literature/laureates/1968/kawabata-
lecture
-j.htmlhttps
吃酪梨的猫
·
2020-06-26 16:00
终身享用的三招全息健康养生
课程链接https://m.weike.fm/
lecture
/
明天会更好已认证
·
2020-06-26 15:44
[深度学习与计算机视觉] 斯坦福 CS231n 2017 学习笔记 -1 (
Lecture
1: Introduction;课程介绍)
[深度学习与计算机视觉]斯坦福CS231n2017学习笔记-1(
Lecture
1:Introduction;课程介绍)PDFVIDEO课程介绍-计算机视觉概述CS231n近几年一直是计算机视觉领域和深度学习领域最为经典的课程之一
holeung
·
2020-06-26 14:08
计算机视觉
深度学习与计算机视觉
斯坦福CS224N_自然语言处理NLP深度学习DL课程笔记(一)
Lecture
1:Introductionpdf本节课是对自然语言处理的定义介绍和应用介绍,还顺带说了NLP的难点;本节课使用深度学习作为NLP的主要处理工具。
sjz_hahalala479
·
2020-06-26 12:02
学习笔记
机器学习
David Silver《Reinforcement Learning》课程解读——
Lecture
1: Introduction to Reinforcement Learning
DavidSilver《ReinforcementLearning》课程解读——
Lecture
1:IntroductiontoReinforcementLearning前段时间学习了UCL讲师、AlphaGo
JK-Ray
·
2020-06-26 11:43
Reinforcement
Learning
【不定期更新】个人收藏夹
-知乎
Lecture
1Introduction第一讲-计算科学简介
Lecture
1-Introduction
idealclover
·
2020-06-26 08:44
convex optimization from stanford
v=XFKBNJ14UmY课程来源:http://www.stat.cmu.edu/~ryantibs/convexopt/
Lecture
1Introduction1)15:20leastsquaresiseasiertosolvethanleastabsolutedeviations
seamanj
·
2020-06-26 08:44
convex
optimization
stanford
上一页
19
20
21
22
23
24
25
26
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他