E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Lecture
cs231n'18: Assignment 2 | Batch Normalization
Assignment2|BatchNormalization上文吐槽BN部分讲的太烂,2018年果然更新了这一部分,slides里加了好多内容,详见
Lecture
6的slides第54到61页,以及
Lecture
7
FortiLZ
·
2020-08-17 11:24
cs231n
Stanford
cs231n'18
课程及作业详细解读
MIT18.06学习笔记 -
Lecture
4: Factorization into A = LU
这个系列文章是我重温Gilbert老爷子的线性代数在线课程的学习笔记。CourseName:MIT18.06LinearAlgebraTextBook:IntroductiontoLinearAlgebra章节内容:2.6课程提纲1.FactorizationA=LUA=LU2.Explanation:whyA=LUA=LU课程重点FactorizationA=LUA=LUManykeyideas
CrazyTensor
·
2020-08-17 11:04
math
深度学习优化方法总结
Adagrad,Adadelta,Adam,Adamax,Nadam)》在assignment2FullyConnectedNets作业中的optim.py里有以下几种优化机制(cs231n_2018_
lecture
07
临江轩
·
2020-08-17 11:41
实践
【Stanford Machine Learning Open Course】3. 线性回归问题两种解法:正规方程组解法 & 梯度下降法...
课程地址是:https://class.coursera.org/ml-2012-002/
lecture
/index如上一节:线性回归问题介绍中所讲,解决线性回归问题,其实就是找使成本函数最小值的点。
weixin_30768661
·
2020-08-17 10:47
Dstar python代码
这里写自定义目录标题参考Dstar.py个人理解参考Dstar的PPT链接:http://www.cs.cmu.edu/~motionplanning/
lecture
/AppH-astar-dstar_howie.pdf
qq_32277533
·
2020-08-17 01:12
深度强化学习cs294
Lecture
6: Actor-Critic Algorithms
深度强化学习cs294
Lecture
6:Actor-CriticAlgorithms1.Improvingthepolicygradientwithacritic2.Thepolicyevaluationproblem3
无所知
·
2020-08-16 14:55
深度强化学习
强化学习
Machine Learning Course-CS 156 笔记 5
Lecture
5:TrainingversusTesting视频地址:https://www.youtube.com/watch?
了困
·
2020-08-16 13:23
机器学习
Machine Learning Course-CS 156 笔记 2
Lecture
2:IsLearningFeasible?视频地址:https://www.youtube.com/watch?
了困
·
2020-08-16 13:20
机器学习
CS231n Spring 2019作业
全称是:ConvolutionalNeuralNetworksforVisualRecognition现已更新到2019Spring,但是视频还是2017Spring的,会和
lecture
上的有点不一样
laizi_laizi
·
2020-08-16 13:21
CS231n
Spring
2019
GAMES101-现代计算机图形学学习笔记(03)
GAMES101-现代计算机图形学学习笔记(03)
Lecture
03TransformationGAMES101-现代计算机图形学学习笔记(03)变换为什么要有变换二维变换缩放镜像错切旋转齐次坐标逆变换变换的组合原课程视频链接以及官网
CCCCCCros____
·
2020-08-16 07:01
图形学
CS231n Assignment1总结
lecture
4一些关于链式法则的基本知识。
夜夜0810
·
2020-08-16 07:05
GAMES101-现代计算机图形学入门-闫令琪 -
lecture
6 光栅化2(抗锯齿) - 课后笔记
光栅化2(抗锯齿)(Rasterization2-Antialiasing)抗锯齿的内容包括:采样理论(Samplingtheory)抗锯齿的实践应用(Antialiasinginpractice)接着上节我们采样是在每个像素的中心进行采样,然后判断这个像素中心是否在三角形内,如果是三角形内就对其进行上色最终得到的效果就是由多个像素均匀的正方形像素所组成的三角形:emmmm,和我们想要的三角形不太
教宗沙立van
·
2020-08-16 05:29
计算机图形学
《Conditional Image Generation with PixelCNN Decoders》之Pixcel CNN---gated Pixcel CNN 阅读笔记
最近在看Generativemodels,Aaroncourville的
lecture
资料中提到了pixcelRNN,但是由于其必须逐一提取当前像素点的信息(从左到右、从上到下),虽然效果好,但是速度太慢了
Jasminexjf
·
2020-08-16 04:53
Generative
models
数字滤波器设计(IIR与FIR)(持续更新)
群延迟3截止频率与时间的关系2[奥本海默信号处理课程](https://ocw.mit.edu/resources/res-6-007-signals-and-systems-spring-2011/
lecture
-notes
擦擦擦大侠
·
2020-08-15 20:00
CS224n 斯坦福深度自然语言处理课笔记
Lecture
02—词向量表示
课程概要1.词义2.Word2vec介绍(学习词汇向量模型(2013年提出))(当然还有别的方法进行词汇表征(后续会提到))3.Word2vec目标函数的梯度推导4.目标函数优化:梯度下降法一、词义定义:meaning:(Websterdictionary)用单词、短语等表达的想法;人们想要通过单词、符号等表达想法某种意义上来说,这非常接近于语言学上最常理解的meaning的含义利用分类资源,例如
佳钰小甜心
·
2020-08-15 17:20
笔记
CS224D 课程学习笔记 L02
Lecture
2主要介绍了传统的共现矩阵生成词向量方法和迭代生成词向量的方法,例如word2vec和Glove。
蜡笔大龙猫
·
2020-08-15 14:20
深度学习算法
机器学习算法
Stanford
CS224(d/n)
Deep
Learning
for
NLP
Notes
Lecture
Sleep
点击打开链接#include#include#includeusingnamespacestd;typedeflonglongLL;constintmaxn=1e5+5;inta[maxn],t[maxn];intmain(){intn,k;scanf("%d%d",&n,&k);LLsum=0;for(inti=0;i=0&&!t[i-k])s-=a[i-k];m=max(m,s);}cout<
老铁干了这碗algorithms
·
2020-08-15 14:49
Codeforces
Codeforces
CS224n笔记——Subword Model(十二)
系列文章
Lecture
1:IntroductionandWordLecture2:WordVectorsandWordSensesLecture12:SubwordModel目录1.ELMO2.GPT2.1
清崎教练
·
2020-08-15 13:19
NLP
CS224n
高级编程技术(Python)作业16
题目来源:https://nbviewer.jupyter.org/github/schmit/cme193-ipython-notebooks-
lecture
/blob/master/Exercises.ipynbSolution
Ashero00
·
2020-08-15 08:11
python作业
loss function
机器学习中的Loss函数转载自:http://www.ics.uci.edu/~dramanan/teaching/ics273a_winter08/lectures/
lecture
14.pdf,翻译来自转载
raullese_1990
·
2020-08-15 03:56
machine
learning
deep reinforcement learning 李宏毅
lecture
1policygradientActor根据环境State作出决定action,决定之后得到reward一次游戏成为一个episode,计算一个episode的totalrewardtrajectorytao
yizheng
·
2020-08-15 03:10
算法
深度学习
CS4700计算机网络 上课笔记
Lecture
3网络层1:分类编址与CIDR(p224)地址聚合(p222)2:选路算法全局选路算法:链路状态选路算法Link-Statealgorithm(p239)分布式选路算法:距离向量选路算法Distance-Vectoralgorithm
robotonyszu
·
2020-08-14 05:01
mit 6.824 Distributed Systems L2 RPC and Threads
6.8242020
Lecture
2:Infrastructure:RPCandthreadsToday:ThreadsandRPCinGo,withaneyetowardsthelabs文章目录WhyGo
wineandchord
·
2020-08-13 15:54
6.824
Distributed
Systems
Youtube视频 Raft
lecture
(Raft user study)
地址:https://www.youtube.com/watch?v=YbZ3zDzDnrwJointConsensus多边(联合)共识Thesolutionistousetwophasestochangetheconfiguration.Raftswitchesfirsttoanintermediatephasecalledjointconsensus.Duringthisphase,thecl
架构随笔
·
2020-08-12 17:40
分布式一致性协议
强化学习笔记一 -- 简介
ReinforcementLearning学习笔记
Lecture
1笔记基于DavidSilver的上课内容及PPT。
cf23333
·
2020-08-12 12:32
强化学习
对于2-gram 条件下对英语文本的分词处理
#coding=utf-8importre#得到1元条件下的分词,并将这些分词加入到list中withopen('/home/zheng/firstproject/
lecture
.txt','r')aslecture
zangao0718
·
2020-08-11 01:00
自然语言
Python学习第十四周作业——综合练习
题目来源于该网站:https://nbviewer.jupyter.org/github/schmit/cme193-ipython-notebooks-
lecture
/blob/master/Exercises.ipynb
s1638005344
·
2020-08-10 20:50
Python学习
2019年CS224N课程笔记-
Lecture
15:Natural Language Generation
资源链接:https://www.bilibili.com/video/BV1r4411这节课讲的是文本生成(是一个超级超级广的概念,几乎各个地方都可以牵扯到),NLG甚至每个方面都可以开创一个讲座正课内容NaturalLanguageGeneration(NLG)/文本生成自然语言生成指的是我们生成(即写入)新文本的任何设置NLG包括以下成员:机器翻译摘要对话(闲聊和基于任务)创意写作:讲故事,
任菜菜学编程
·
2020-08-10 14:58
深度学习
人工智能
NLP
人工智能
深度学习
自然语言处理
2019年CS224N课程笔记-
Lecture
13: Contextual Word Representations and Pretraining
资源链接:https://www.bilibili.com/video/BV1r4411之前大部分都是课件内容翻译+自己的一些总结,以后更倾向于自己的总结咯~正课内容词的表示方法一开始时学过的单词向量Word2vec,GloVe,fastText都可以表示词,甚至是ont-hot编码也可以表示(只不过不是很恰当)两个人大概花了七周时间训练无人监督的单词表示/词向量,生成的向量只有100维(也就是图
任菜菜学编程
·
2020-08-10 14:58
深度学习
人工智能
其他
自然语言处理
人工智能
深度学习
2019年CS224N课程笔记-
Lecture
16:Coreference Resolution
资源链接:https://www.bilibili.com/video/BV1r4411f7td?p=16正课内容WhatisCoreferenceResolution?/什么是共指消解?识别所有涉及到相同现实世界实体的提及,指的是在一短文本内多个表达段/句子指向现实世界中的同一个实体,例如下属例子这一段话中有许多实体(蓝色部分),其中许多实体指的是同一个人/现实中的事物,例如:红色部分和橙色部分
任菜菜学编程
·
2020-08-10 14:58
深度学习
人工智能
NLP
2019年CS224N课程笔记-
Lecture
14: Transformers and Self-Attention
资源链接:https://www.bilibili.com/video/BV1r4411(np带个妹子让课堂不尴尬~)正课内容可变长数据的表示,也就是序列学习的基本使用组件,主要包括神经机器翻译,摘要,问答等项目通常使用RNN学习变长的表示:RNN本身适合句子和像素序列,LSTMs,GRUs和其变体在循环神经网络模型中占主导地位。但是序列计算抑制了并行化(RNN也是这个缺点),没有对长期和短期依赖
任菜菜学编程
·
2020-08-10 14:58
深度学习
人工智能
NLP
2019年CS224N课程笔记-
Lecture
12: Subword Models
资源链接:https://www.bilibili.com/video/BV1r4411正文内容人类语言声音:语音学和音韵学(Phoneticsandphonology)(课件内容,不是很懂。。。)Phonetics语音学是一种音流——物理学或生物学Phonology语音体系假定了一组或多组独特的、分类的单元:phoneme音素或者是独特的特征这也许是一种普遍的类型学,但却是一种特殊的语言实现分类
任菜菜学编程
·
2020-08-10 14:57
深度学习
人工智能
NLP
一些python库的文档
an_introduction_to_scientific_python_numpy.htmlnumpy英文:http://www.numpy.org/scipy中文:https://wizardforcel.gitbooks.io/scipy-
lecture
-notes
刷视频不看弹幕
·
2020-08-10 07:03
python
python第三方库
Probabilistic Graphical Models 10-708, Spring 2017
https://www.cs.cmu.edu/~epxing/Class/10708-17/slides/
lecture
1-Introduction.pdfComputationalandCSorientated
weixin_30641465
·
2020-08-10 02:57
netty学习笔记【不断更新】
git地址:https://github.com/chris1132/netty_
lecture
2018-7-20开始系统学习netty完成服务端部分https://blog.csdn.net/u010530712
肚子饿没人理
·
2020-08-09 12:19
netty
机器学习笔记(二)
Lecture
2.WheredoestheerrorcomefromVarianceBias综合考虑
Lecture
3.GradientDescentwhydoesgradientdescentworkLecture4
yucicheung
·
2020-08-09 03:20
机器学习
cs231n_2018_
lecture
12_notes_无监督学习和生成模型
一、无监督学习先介绍熟悉的有监督学习supervisedlearning——已知:数据和标签;目标:学习得到一个函数使得能够将数据映射到标签。有监督学习的例子:分类classification、回归regression、目标检测objectdetection、语义分割semanticsegmentation、图像字幕imagecaptioning等等。介绍这章的主题无监督学习unsupervise
is_fight
·
2020-08-08 23:37
神经网络
cs231n
Lecture
5
vision.stanford.edu/teaching/cs231n/syllabus.htmlFeelfreetocontactmeorleaveacomment.Abstract想不到我在2月初就已经看完了这个
lecture
一次人间也匆忙
·
2020-08-08 22:03
cs231n
2015-2016
winter
课程学习
cs231n-
Lecture
5
CS231N–神经网络训练一、作业讲解Assignment2:CNN训练作业,预训练与细调,CNN先在ImageNet进行大量数据训练,在在小批量数据中进行训练。1.CNN的迁移学习可以先使用CNN在比如ImageNet这样的大数据集上先进行预训练,熟练好权重和超参数,去掉最上方的分类层,看成是一个固定特征提取器自己的数据量较少的时候可以仅仅替换最后的分类层;如果有中等规模的数据,可以再细调几层的
sun1398
·
2020-08-08 21:18
如何在C语言中实现简单的泛型编程(二)
题外话今天听了《编程范式》的
Lecture
5,继续上一篇的主题,用C语言实现简单的泛型编程,收个尾。
skyline0623
·
2020-08-08 21:53
编程语言
cs231n笔记:
lecture
5
ConvolutionalNeuralNetworksfullyconnectedlayer在前面的课程中,我们用到的神经网络的层都是把输入展开与权重矩阵W做矩阵乘法,这也意味着输入数据将与W中的神经元每个都直接连接,所以这也叫全连接层,但是全连接层存在一些问题,比如说我们需要将输入的32323的彩色图像拉伸成13072的长向量才能与权重W连接,但是这个拉伸过程实际上就丢失了输入图像空间位置信息。
AEPro
·
2020-08-08 20:48
cs231n笔记
CS231n-
Lecture
5:卷积神经网络(CNN / ConvNets)
卷积神经网络(CNN)为什么要使用卷积?CNN的层输入层(INPUT)卷积层(CONV)过滤器(卷积核)——特征提取器权值共享激活层(ReLU)池化层(POOL)——降采样全连接层(FC)reference为什么要使用卷积?卷积的主要目的是为了从输入图像中提取特征。卷积可以通过从输入的一小块数据中学习到图像的特征,并且可以保留像素的空间关系。CNN的层CNN将原始图像从原始像素值逐层转换为最终的类
二叉树不是树_ZJY
·
2020-08-08 20:15
CS231n
卷积神经网络
深度学习
神经网络
计算机视觉
[
Lecture
8 ] Deep Learning Software(深度学习软件)
文章目录课堂问答前言1.TensorFlow(静态图)2.Pytorch(动态计算图)3.动态图和静态图4.Caffe/Caffe2建议和总结课堂问答前言现在深度学习框架发展的太快了(文中的有些代码已经发生了些许变化),本文主要记录课中讲的关于Pytorch、Caffe和TensorFlow的内。重点是Pytorch。在之前的理论课上,我们知道,要完成神经网络的训练,我们最好是画出网络的计算图,然
灵隐寺扫地僧
·
2020-08-08 20:48
#
CS231n
[
Lecture
9 ] CNN Architectures(CNN架构)
文章目录课堂提问1.LeNet-52.AlexNet3.ZFNet4.VGGNet5.GoogleNet6.ResNet(残差网络)7.比较8.一些别的架构总结推荐阅读课堂提问Q1:为什么学习ResNet中学习残差比学习直接映射要好?A1:具体请阅读原论文,但是从直觉上来说,我们直接学习映射,然后网络层堆的越来越多,最后可能太复杂了,但是如果学习残差,则我们加深网络的同时只是学习的残差F(X)=H
灵隐寺扫地僧
·
2020-08-08 20:48
#
CS231n
[
Lecture
6 ] Training Neural Networks I(训练神经网络I)
文章目录课堂问答1.激活函数(ActivationFunction)1.1Sigmoid激活函数1.2tanh(x)激活函数1.3ReLU函数1.4LeakyReLU激活函数1.5指数线性单元(ELU)1.6最大输出单元(Maxout)2.数据预处理(DataPreprocessing)3.权重初始化(weightinitialization)3.3Xavier初始化3.3Heetal初始化4.批
灵隐寺扫地僧
·
2020-08-08 20:16
#
CS231n
[
Lecture
7 ] Training Neural Networks II(训练神经网络II)
文章目录课堂问答1.更好的优化(Fancieroptimization)1.1SGD优化1.2基于动量的(Momentum)SGD1.3AdaGrad1.4Adam1.5学习率的选择1.6二阶优化(Second-OrderOptimization)1.7模型集成2.正则化(Regularization)2.1权重约束2.2随机失活(Dropout)2.3局部最大池化2.4随机深度3.迁移学习(Tr
灵隐寺扫地僧
·
2020-08-08 20:16
#
CS231n
cs231n 2018系列笔记(
lecture
9)
lecture
地址:https://pan.baidu.com/s/1ogacZy5QEFGv_DyLyk9r-A密码:ff6s这篇
lecture
主讲的是CNN的网络结构分析和变迁,比较详尽。
爱吃海苔的大鲨鱼
·
2020-08-08 17:06
cs231n 2018系列笔记(
lecture
10)
lecture
地址链接:https://pan.baidu.com/s/1ZKLepm2ow4AV3QJQwgmeFQ密码:kaoc本篇主讲的是RNN在机器视觉方面的应用。
爱吃海苔的大鲨鱼
·
2020-08-08 17:06
cs231n 2018系列笔记(
lecture
7)
所有内容slides地址链接:https://pan.baidu.com/s/12zGt_kYd5Jj8jq5EygS35A密码:hd57batchnorm及其演变1.普通batchnorm公式,请注意维度,后面会用到2.test时batchnorm公式均值和方差用train时候的不需要训练,其他不变3.全连接层和卷积层的batchnorm除了第二维其他都为14.layernormalizatio
爱吃海苔的大鲨鱼
·
2020-08-08 17:06
cs231n
lecture
5 CNN
CNN笔记ConvolutionLayerPoolingLayerFullyConnectedLayer(FClayer)UsefulNotesPreprocessingWeigthInitializationRegularizationLossclassificationAttributeclassificationregressionSummaryLaterTodosCNN笔记detectio
feitianlzk
·
2020-08-08 15:31
AI
上一页
14
15
16
17
18
19
20
21
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他