吴恩达反向传播算法推导,吴恩达卷积神经网络ppt

吴恩达反向传播算法推导,吴恩达卷积神经网络ppt_第1张图片

如何评价吴恩达的学术地位

吴恩达(AndrewNg),斯坦福计算机系的副教授,师从机器学习的大师级人物MichaelI.Jordan。

同门师兄弟包括ZoubinGhahramani,TommiJaakkola,EricXing,DavidBlei,徒子徒孙遍布美国名校,他们这一大学派的主要研究和贡献集中在统计机器学习(StatisticalMachineLearning)和图模型(ProbabilisticGraphicalmodel),具体的比如Spectralclustering,NonparametricBayesianMethods,VariationalMethods等等。

现在图模型和NonparametricBayesianMethods都是机器学习领域炙手可热的研究方向。

MichaelJordan的研究很好的将统计和机器学习联系了起来,将VariationalMethods发扬光大,他也还身兼统计系和计算机系教职。

吴恩达的学术研究兴趣比较广,做的东西有比较理论的,但更多的是理论和应用的结合。

他的一作主要集中在SpectralClustering,UnsupervisedLearning和增强式学习(reinforcementlearning),机器学习的很多方面都有涉及,比如featureselection,over-fitting,policysearch。

由于做reinforcementlearning和unsupervisedlearning,所以有很多项目是和机器人有关的,他也发起了ROS(RobotOperatingSystem),一个开源的机器人操作系统,影响力很大。

其他的参与的研究就很多了,MichaelJordan那一片的统计机器学习都有参与,在图模型领域也有很多非常优秀论文,比如自然语言处理(NLP)的神器LatentDirchirelntAllocation(LDA)那篇论文他也有贡献。

他现在的研究兴趣主要是深度学习(DeepLearning),深度学习说白了就是死灰复燃的神经网络(NeuralNetwork),神经网络的一代鼻祖是多伦多大学的GeoffreyHinton。

GeoffreyHinton和吴恩达一起在Google搞深度学习(GoogleBrainProject),他们俩现在在这一块的论文很多,影响力很大。

总体而言他是顶级的机器学习研究者,在斯坦福是tenuredprofessor已经说明了这点,至于LabDirector,和学术无关,只要是教授都可以成立一个实验室自己当主任(Director),不要把主任拿过来说事。

更重要的是,他在学术圈内圈外知名度很高!

除了师承之外,还有一个重要原因是他在斯坦福公开课里面主讲机器学习,讲的的确是非常好,在工程界非常受欢迎,后来和DaphneKoller(机器学习界的一姐和大牛,《ProbabilisticGraphicalModels:PrinciplesandTechniques》一书的作者)一起成立了Coursera。

吴恩达对慕课(MOOC)和Coursera的贡献我就不赘述了。

另外吴恩达会说中文,出生于英国,高中毕业于新加坡的RafflesInsitution,本科毕业于卡耐基梅隆大学,硕士在麻省理工,博士毕业于伯克利,早年在香港和英国生活过。

吴恩达的人物经历

吴恩达1976年出生于伦敦,父亲是一位香港医生,英文名叫AndrewNg,吴恩达年轻时候在香港和新加坡度过AI爱发猫 www.aifamao.com

1992年吴恩达就读新加坡莱佛士书院,并于1997年获得了卡内基梅隆大学的计算机科学学士学位。

之后他在1998年获得了麻省理工学院的硕士学位,并于2002年获得了加州大学伯克利分校的博士学位,并从这年开始在斯坦福大学工作。他(2002年)住在加利福尼亚州的帕洛阿尔托。

吴恩达是斯坦福大学计算机科学系和电子工程系副教授,人工智能实验室主任。吴恩达主要成就在机器学习和人工智能领域,他是人工智能和机器学习领域最权威的学者之一。

2010年,时任斯坦福大学教授的吴恩达加入谷歌开发团队XLab——这个团队已先后为谷歌开发无人驾驶汽车和谷歌眼镜两个知名项目。

吴恩达与谷歌顶级工程师开始合作建立全球最大的“神经网络”,这个神经网络能以与人类大脑学习新事物相同的方式来学习现实生活。谷歌将这个项目命名为“谷歌大脑”。

吴恩达最知名的是,所开发的人工神经网络通过观看一周YouTube视频,自主学会识别哪些是关于猫的视频。这个案例为人工智能领域翻开崭新一页。

吴恩达表示,未来将会在谷歌无人驾驶汽车上使用该项技术,来识别车前面的动物或者小孩,从而及时躲避。

2014年5月16日,百度宣布吴恩达加入百度,担任百度公司首席科学家,负责百度研究院的领导工作,尤其是BaiduBrain计划。

2014年5月19日,百度宣布任命吴恩达博士为百度首席科学家,全面负责百度研究院。这是中国互联网公司迄今为止引进的最重量级人物。消息一经公布,就成为国际科技界的关注话题。

美国权威杂志《麻省理工科技评论》(MITTechnologyReview)甚至用充满激情的笔调对未来给予展望:“百度将领导一个创新的软件技术时代,更加了解世界。”

为什么浅层神经网络提取特征的能力不强

BP神经网络、离散Hopfield网络、LVQ神经网络等等都可以。

BP(BackPropagation)神经网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。

BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。

BP神经网络模型拓扑结构包括输入层(input)、隐层(hiddenlayer)和输出层(outputlayer)。

2.Hopfiled神经网络是一种递归神经网络,由约翰·霍普菲尔德在1982年发明。Hopfield网络是一种结合存储系统和二元系统的神经网络。

它保证了向局部极小的收敛,但收敛到错误的局部极小值(localminimum),而非全局极小(globalminimum)的情况也可能发生。Hopfiled网络也提供了模拟人类记忆的模型。

3.LVQ神经网络由三层组成,即输入层、隐含层和输出层,网络在输入层与隐含层间为完全连接,而在隐含层与输出层间为部分连接,每个输出层神经元与隐含层神经元的不同组相连接。

隐含层和输出层神经元之间的连接权值固定为1。输入层和隐含层神经元间连接的权值建立参考矢量的分量(对每个隐含神经元指定一个参考矢量)。在网络训练过程中,这些权值被修改。

隐含层神经元(又称为Kohnen神经元)和输出神经元都具有二进制输出值。

当某个输入模式被送至网络时,参考矢量最接近输入模式的隐含神经元因获得激发而赢得竞争,因而允许它产生一个“1”,而其它隐含层神经元都被迫产生“0”。

与包含获胜神经元的隐含层神经元组相连接的输出神经元也发出“1”,而其它输出神经元均发出“0”。产生“1”的输出神经元给出输入模式的类,由此可见,每个输出神经元被用于表示不同的类。

吴恩达的主要成就

吴恩达早期的工作包括斯坦福自动控制直升机项目,吴恩达团队开发了世界上最先进的自动控制直升机之一。

吴恩达同时也是机器学习、机器人技术和相关领域的100多篇论文的作者或合作者,他在计算机视觉的一些工作被一系列的出版物和评论文章所重点引用。

早期的另一项工作是theSTAIR(StanfordArtificialIntelligenceRobot)project,即斯坦福人工智能机器人项目,项目最终开发了广泛使用的开源机器人技术软件平台ROS。

2011年,吴恩达在谷歌成立了“GoogleBrain”项目,这个项目利用谷歌的分布式计算框架计算和学习大规模人工神经网络。

这个项目重要研究成果是,在16000个CPU核心上利用深度学习算法学习到的10亿参数的神经网络,能够在没有任何先验知识的情况下,仅仅通过观看无标注的YouTube的视频学习到识别高级别的概念,如猫,这就是著名的“GoogleCat”。

这个项目的技术已经被应用到了安卓操作系统的语音识别系统上。

吴恩达是在线教育平台Coursera的联合创始人,吴恩达在2008年发起了“StanfordEngineeringEverywhere”(SEE)项目,这个项目把斯坦福的许多课程放到网上,供免费学习。

NG也教了一些课程,如机器学习课程,包含了他录制的视频讲座和斯坦福CS299课程的学生材料。吴恩达的理想是让世界上每个人能够接受高质量的、免费的教育。

今天,Coursera和世界上一些顶尖大学的合作者们一起提供高质量的免费在线课程。Coursera是世界上最大的MOOC平台。

DeepLearningwithCOTSHPCSystemsAdamCoates,BrodyHuval,TaoWang,DavidJ.Wu,BryanCatanzaroandAndrewY.NginICML2013.ParsingwithCompositionalVectorGrammarsJohnBauer,RichardSocher,ChristopherD.Manning,AndrewY.NginACL2013.LearningNewFactsFromKnowledgeBasesWithNeuralTensorNetworksandSemanticWordVectorsDanqiChen,RichardSocher,ChristopherD.Manning,AndrewY.NginICLR2013.Convolutional-RecursiveDeepLearningfor3DObjectClassification.RichardSocher,BrodyHuval,BharathBhat,ChristopherD.Manning,AndrewY.NginNIPS2012.ImprovingWordRepresentationsviaGlobalContextandMultipleWordPrototypesEricH.Huang,RichardSocher,ChristopherD.ManningandAndrewY.NginACL2012.LargeScaleDistributedDeepNetworks.J.Dean,G.S.Corrado,R.Monga,K.Chen,M.Devin,Q.V.Le,M.Z.Mao,M.A.Ranzato,A.Senior,P.Tucker,K.Yang,A.Y.NginNIPS2012.RecurrentNeuralNetworksforNoiseReductioninRobustASR.A.L.Maas,Q.V.Le,T.M.O'Neil,O.Vinyals,P.Nguyen,andAndrewY.NginInterspeech2012.Word-levelAcousticModelingwithConvolutionalVectorRegressionLearningWorkshopAndrewL.Maas,StephenD.Miller,TylerM.O'Neil,AndrewY.Ng,andPatrickNguyeninICML2012.EmergenceofObject-SelectiveFeaturesinUnsupervisedFeatureLearning.AdamCoates,AndrejKarpathy,andAndrewY.NginNIPS2012.DeepLearningofInvariantFeaturesviaSimulatedFixationsinVideoWillY.Zou,ShenghuoZhu,AndrewY.Ng,KaiYuinNIPS2012.LearningFeatureRepresentationswithK-means.AdamCoatesandAndrewY.NginNeuralNetworks:TricksoftheTrade,Reloaded,SpringerLNCS2012.BuildingHigh-LevelFeaturesusingLargeScaleUnsupervisedLearningQuocV.Le,Marc'AurelioRanzato,RajatMonga,MatthieuDevin,KaiChen,GregS.Corrado,JeffreyDeanandAndrewY.NginICML2012.SemanticCompositionalitythroughRecursiveMatrix-VectorSpacesRichardSocher,BrodyHuval,ChristopherD.ManningandAndrewY.NginEMNLP2012.End-to-EndTextRecognitionwithConvolutionalNeuralNetworksTaoWang,DavidJ.Wu,AdamCoatesandAndrewY.NginICPR2012.SelectingReceptiveFieldsinDeepNetworksAdamCoatesandAndrewY.NginNIPS2011.ICAwithReconstructionCostforEfficientOvercompleteFeatureLearningQuocV.Le,AlexKarpenko,JiquanNgiamandAndrewY.NginNIPS2011.SparseFilteringJiquanNgiam,PangweiKoh,ZhenghaoChen,SoniaBhaskarandAndrewY.NginNIPS2011.UnsupervisedLearningModelsofPrimaryCorticalReceptiveFieldsandReceptiveFieldPlasticityAndrewSaxe,ManeeshBhand,RitvikMudur,BipinSureshandAndrewY.NginNIPS2011.DynamicPoolingandUnfoldingRecursiveAutoencodersforParaphraseDetectionRichardSocher,EricH.Huang,JeffreyPennington,AndrewY.Ng,andChristopherD.ManninginNIPS2011.Semi-SupervisedRecursiveAutoencodersforPredictingSentimentDistributionsRichardSocher,JeffreyPennington,EricHuang,AndrewY.Ng,andChristopherD.ManninginEMNLP2011.TextDetectionandCharacterRecognitioninSceneImageswithUnsupervisedFeatureLearningAdamCoates,BlakeCarpenter,CarlCase,SanjeevSatheesh,BipinSuresh,TaoWang,DavidWuandAndrewY.NginICDAR2011.ParsingNaturalScenesandNaturalLanguagewithRecursiveNeuralNetworksRichardSocher,CliffLin,AndrewY.NgandChristopherManninginICML2011.TheImportanceofEncodingVersusTrainingwithSparseCodingandVectorQuantizationAdamCoatesandAndrewY.NginICML2011.OnOptimizationMethodsforDeepLearningQuocV.Le,JiquanNgiam,AdamCoates,AbhikLahiri,BobbyProchnowandAndrewY.NginICML2011.LearningDeepEnergyModelsJiquanNgiam,ZhenghaoChen,PangweiKohandAndrewY.NginICML2011.MultimodalDeepLearningJiquanNgiam,AdityaKhosla,MingyuKim,JuhanNam,HonglakLeeandAndrewY.NginICML2011.OnRandomWeightsandUnsupervisedFeatureLearningAndrewSaxe,PangweiKoh,ZhenghaoChen,ManeeshBhand,BipinSureshandAndrewY.NginICML2011.LearningHierarchicalSpatio-TemporalFeaturesforActionRecognitionwithIndependentSubspaceAnalysisQuocV.Le,WillZou,SerenaYeungandAndrewY.NginCVPR2011.AnAnalysisofSingle-LayerNetworksinUnsupervisedFeatureLearningAdamCoates,HonglakLeeandAndrewNginAISTATS14,2011.LearningWordVectorsforSentimentAnalysisAndrewL.Maas,RaymondE.Daly,PeterT.Pham,DanHuang,AndrewY.Ng,andChristopherPottsinACL2011.ALow-costCompliant7-DOFRoboticManipulatorMorganQuigley,AlanAsbeckandAndrewY.NginICRA2011.GraspingwithApplicationtoanAutonomousCheckoutRobotEllenKlingbeil,DeepakDrao,BlakeCarpenter,VarunGanapathi,OussamaKhatib,AndrewY.NginICRA2011.AutonomousSignReadingforSemanticMappingCarlCase,BipinSuresh,AdamCoatesandAndrewY.NginICRA2011.LearningContinuousPhraseRepresentationsandSyntacticParsingwithRecursiveNeuralNetworksRichardSocher,ChristopherManningandAndrewNginNIPS2010.AProbabilisticModelforSemanticWordVectorsAndrewMaasandAndrewNginNIPS2010.TiledConvolutionalNeuralNetworksQuocV.Le,JiquanNgiam,ZhenghaoChen,DanielChia,PangweiKohandAndrewY.NginNIPS2010.EnergyDisaggregationviaDiscriminativeSparseCodingJ.ZicoKolterandAndrewY.NginNIPS2010.AutonomousHelicopterAerobaticsthroughApprenticeshipLearningPieterAbbeel,AdamCoatesandAndrewY.NginIJRR2010.AutonomousOperationofNovelElevatorsforRobotNavigationEllenKlingbeil,BlakeCarpenter,OlgaRussakovskyandAndrewY.NginICRA2010.LearningtoGraspObjectswithMultipleContactPointsQuocLe,DavidKammandAndrewY.NginICRA2010.Multi-CameraObjectDetectionforRoboticsAdamCoatesandAndrewY.NginICRA2010.AProbabilisticApproachtoMixedOpen-loopandClosed-loopControl,withApplicationtoExtremeAutonomousDrivingJ.ZicoKolter,ChristianPlagemann,DavidT.Jackson,AndrewY.NgandSebastianThruninICRA2010.GraspingNovelObjectswithDepthSegmentationDeepakRao,QuocV.Le,ThanathornPhoka,MorganQuigley,AttawithSudsandandAndrewY.NginIROS2010.Low-costAccelerometersforRoboticManipulatorPerceptionMorganQuigley,ReubenBrewer,SaiP.Soundararaj,VijayPradeep,QuocV.LeandAndrewY.NginIROS2010.ASteinerTreeApproachtoObjectDetectionOlgaRussakovskyandAndrewY.NginCVPR2010.MeasuringInvariancesinDeepNetworksIanJ.Goodfellow,QuocV.Le,AndrewM.Saxe,HonglakLeeandAndrewY.NginNIPS2009.UnsupervisedFeatureLearningforAudioClassificationUsingConvolutionalDeepBeliefNetworksHonglakLee,YanLargman,PeterPhamandAndrewY.NginNIPS2009.ConvolutionalDeepBeliefNetworksforScalableUnsupervisedLearningofHierarchicalRepresentationsHonglakLee,RogerGrosse,RajeshRanganathandAndrewY.NginICML2009.Large-scaleDeepUnsupervisedLearningusingGraphicsProcessorsRajatRaina,AnandMadhavanandAndrewY.NginICML2009.Amajorization-minimizationalgorithmfor(multiple)hyperparameterlearningChuanShengFoo,ChuongDoandAndrewY.NginICML2009.RegularizationandFeatureSelectioninLeast-SquaresTemporalDifferenceLearningJ.ZicoKolterandAndrewY.NginICML2009.Near-BayesianExplorationinPolynomialTimeJ.ZicoKolterandAndrewY.NginICML2009.PolicySearchviatheSignedDerivativeJ.ZicoKolterandAndrewY.NginRSS2009.JointCalibrationofMultipleSensorsQuocLeandAndrewY.NginIROS2009.ScalableLearningforObjectDetectionwithGPUHardwareAdamCoates,PaulBaumstarck,QuocLe,andAndrewY.NginIROS2009.ExponentialFamilySparseCodingwithApplicationtoSelf-taughtLearningHonglakLee,RajatRaina,AlexTeichmanandAndrewY.NginIJCAI2009.ApprenticeshipLearningforHelicopterControlAdamCoates,PieterAbbeelandAndrewY.NginCommunicationsoftheACM,Volume52,2009.ROS:AnOpen-SourceRobotOperatingSystemMorganQuigley,BrianGerkey,KenConley,JoshFaust,TullyFoote,JeremyLeibs,EricBerger,RobWheeler,andAndrewY.NginICRA2009.High-Accuracy3DSensingforMobileManipulation:ImprovingObjectDetectionandDoorOpeningMorganQuigley,SiddharthBatra,StephenGould,EllenKlingbeil,QuocLe,AshleyWellmanandAndrewY.NginICRA2009.StereoVisionandTerrainModelingforQuadrupedRobotsJ.ZicoKolter,YoungjunKimandAndrewY.NginICRA2009.Task-SpaceTrajectoriesviaCubicSplineOptimizationJ.ZicoKolterandAndrewY.NginICRA2009.LearningSoundLocationfromaSingleMicrophoneAshutoshSaxenaandAndrewY.NginICRA2009.Learning3-DObjectOrientationfromImagesAshutoshSaxena,JustinDriemeyerandAndrewY.NginICRA2009.ReactiveGraspingUsingOpticalProximitySensorsKaijenHsiao,PaulNangeroni,ManfredHuber,AshutoshSaxenaandAndrewY.NginICRA2009。

关于神经网络 需要学习python的哪些知识?

最基础的部分的话需要:线性代数,机器学习,微积分,优化等等。

几乎所有操作都有矩阵运算,所以至少最基础的线性代数需要掌握建议从单一的感知机Perceptron出发,继而认识到DecisionBoundary(判别边界),以及最简单的一些“监督训练”的概念等,有机器学习的基础最好。

就结果而言,诸如“过拟合”之类的概念,以及对应的解决方法比如L1L2归一,学习率等也都可以从单个感知机的概念开始入门。从单层感知器推广到普通的多层感知器MLP。

然后推广到简单的神经网络(激活函数从阶跃“软化”为诸如tanh等类型的函数),然后引入特定类型的网络结构,比如最基本的全连接、前向传播等等概念。

进而学习训练算法,比如反向传播,这需要微积分的知识(Chainrule),以及非线性优化的最基础部分,比如梯度下降法。

其次至少需要具备一些适用于研究的编程语言的技能,例如python,matlab,(C++也可行)等,哪怕不自己实现最简单的神经网络而是用API,也是需要一定计算机能力才能应用之。

深度学习的课程可以在哪看到?

深度学习就是企图把中间的这个“黑箱”打开:目标是什么?根据什么确定了这样的目标?为了达到这个目标我要设计什么样的活动?

01深度学习的必要性改革开放40年,基础教育研究与实践的最大成就之一,就是树立了“学生是教育主体”的观念。但是,在课堂教学中,学生并未真正成为主体,大多数课堂教学也没有发生根本变化。为什么?

因为大多数教学改革尚未抓住教学的根本,对课堂教学的研究还只停留在文本上、观念上,没有落到实际行动中。开展深度学习的研究与实践正是把握教学本质的一种积极努力,是我国课程教学改革走向深入的必需。

当前,智能机器尤其是智能化穿戴设备的大量出现,部分传统职业已被替代,甚至有人认为教师和教学也可能被替代而消失。在这样的情形下,我们不得不思考:在智能化时代,真的不需要教学了吗?真的不需要教师了吗?

如果把教学仅仅看作是知识的刻板传递的话,那么,智能技术完全可以胜任,教学和教师完全可以被智能机器替代了。

借用马云(阿里巴巴集团创始人)的话说,在一个把机器变成人的社会,如果教学还在把人变成机器,是没有出路的。蒂姆·库克(苹果公司现任CEO)说:“我不担心机器会像人一样思考,我担心的是人会像机器一样思考。

”正是由于智能机器的出现和挑战,我们必须严肃思考:教学究竟应该是怎么样的?教学存在的意义和价值究竟是什么?事实上,教学的价值和意义一直都是培养人,但智能时代让它的意义和价值更加鲜明,不能再被忽视。

因此,当机器已不只以存储为功能,而开始像人一样思考的时候,我们清醒地意识到:教学绝不是知识传递,甚至知识学习本身也只是培养人的手段,教学的最终目的是实现学生的全面发展。

因此,帮助学生通过知识学习、在知识学习中形成核心素养,在知识学习中成长和发展,成为教学的首要任务。02深度学习的内涵什么是深度学习?可以从两个层面来理解。

一个是初级层面,是针对教学实践领域的弊端提出来的,是针砭时弊的一种提法。深度学习是针对实践中存在大量的机械学习、死记硬背、知其然而不知其所以然的浅层学习现象而提出的。这里的“深度”是指学生的深度学习。

我们并不强求教师必须采用某种固定的模式或方法,而是强调,教师要用恰当的方法去引发、促进、提升学生的深度学习。在这个意义上,深度学习是浅层学习的反面,是针砭时弊的。但是,深度学习绝不只停留于这个层面。

深度学习还有另一层面的理解,即高级的层面:深度学习并不只是为了促进学生高级认知和高阶思维,而是指向立德树人,指向发展核心素养,指向培养全面发展的人。

因此,深度学习强调动心用情,强调与人的价值观培养联系在一起。每个教师都应该想:我今天的教学会给学生造成什么样的影响?能够让他有善良、正直的品性吗?会让他热爱学习吗?会影响他对未来的积极期待吗?

……总之,深度学习的目的是要培养能够“百尺竿头更进一步”、能够创造美好生活的人,是生活在社会历史进行中的、具体的人,而非抽象意义上的有高级认知和高阶思维的偶然个体。

综上,我们所说的深度学习,必须满足以下四个要点:▲深度学习是指教学中学生的学习而非一般意义上学习者的自学,因而特别强调教师的重要作用,强调教师对学生学习的引导和帮助。

▲深度学习的内容是有挑战性的人类已有认识成果。

也就是说,需要深度加工、深度学习的内容一定是具有挑战性的内容,通常是那些构成一门学科基本结构的基本概念和基本原理,而事实性的、技能性的知识通常并不需要深度学习。

在这个意义上,深度学习的过程也是帮助学生判断和建构学科基本结构的过程。

▲深度学习是学生感知觉、思维、情感、意志、价值观全面参与、全身心投入的活动,是作为学习活动主体的社会活动,而非抽象个体的心理活动。

▲深度学习的目的指向具体的、社会的人的全面发展,是形成学生核心素养的基本途径。

根据这四个要点,我们给深度学习下了一个界定:“所谓深度学习,就是指在教师引领下,学生围绕着具有挑战性的学习主题,全身心积极参与、体验成功、获得发展的有意义的学习过程。

在这个过程中,学生掌握学科的核心知识,理解学习的过程,把握学科的本质及思想方法,形成积极的内在学习动机、高级的社会性情感、积极的态度、正确的价值观,成为既具独立性、批判性、创造性又有合作精神、基础扎实的优秀的学习者,成为未来社会历史实践的主人”。

03课堂教学如何实现深度学习?1实现经验与知识的相互转化“经验”与“知识”常被看作是彼此对立的一对概念,事实上却有着紧密关联。深度学习倡导通过“联想与结构”的活动将二者进行关联、转化。

简单来说,“联想与结构”是指学生通过联想,回想已有的经验,使当前学习内容与已有的经验建立内在关联,并实现结构化;而结构化了的知识(与经验)在下一个学习活动中才能被联想、调用。

在这个意义上,“联想与结构”所要处理的正是知识与经验的相互转化,即经验支持知识的学习,知识学习要结构化、内化为个人的经验。

也就是说,学生个体经验与人类历史知识不是对立、矛盾的,而是相互关联的,教师要找到它们的关联处、契合处,通过引导学生主动“联想与结构”的活动,让学生的经验凸显意义,让外在于学生的知识与学生建立起生命联系,使经验与知识相互滋养,成为学生自觉发展的营养。

2让学生成为真正的教学主体究竟如何才能让学生真正成为教学主体呢?我们提出了“两次倒转”的学习机制。为什么要提“两次倒转”?

因为,相对于人类最初发现知识的过程而言,从根本上说,教学是一个“倒过来”的活动,即学生不必经历实践探索和试误的过程,而可以直接把人类已有的认识成果作为认识对象、学习内容,这正是人类能够持续进步的根本原因,是人类的伟大创举。

但是,如果把教学的根本性质(即“倒过来”)作为教学过程本身,那就可能造成教学中的灌输,强调反复记忆和“刷题”,无视学生与知识的心理距离和能力水平,致使学生产生厌学情绪。

因此,在强调教学的根本性质是“倒过来”的基础上,要关注学生的能力水平、心理感受,要将“倒过来”的过程重新“倒回去”,即:通过教师的引导和帮助,学生能够主动去“经历”知识发现、发展(当然不是真正地经历,而是模拟地、简约地去经历)的过程。

在这个过程中,知识真正成为学生能够观察、思考、探索、操作的对象,成为学生活动的客体,学生成为了教学的主体。

3帮助学生通过深度加工把握知识本质学生活动与体验的任务,主要不是把握那些无内在关联的碎片性的、事实性的信息,而是要把握有内在关联的原理性知识,把握人类历史实践的精华。

因此,学生的学习主要不是记忆大量的事实,而是要通过主动活动去把握知识的本质。知识的本质需要通过典型的变式来把握,即通过典型的深度活动来加工学习对象,从变式中把握本质。

同样,一旦把握了知识的本质便能够辨别所有的变式,举一反三、闻一知十。“一”就是本质、本原、原理,基本概念。当然,本质与变式需要学生对学习对象进行深度加工,这是深度学习要特别重视的地方。

4在教学活动中模拟社会实践一般而言,学生是否能把所学知识应用到别的情境中是验证教学效果的常用手段,即学生能否迁移、能否应用。

深度学习也强调迁移和应用,但我们不仅强调学生能把知识应用到新的情境中,更强调迁移与应用的教育价值。

我们把“迁移与应用”看作学生在学校阶段,即在学生正式进入社会历史实践过程之前,能够在教学情境中模拟体会社会实践的“真实过程”,形成积极的情感态度价值观,因而我们强调“迁移与应用”的综合教育价值,既综合运用知识又实现综合育人的价值,而不仅仅是某个学科知识简单的迁移。

它比一般的“迁移与应用”更广阔一些,学生跟社会的联系更强一些。5引导学生对知识的发展过程进行价值评价教学要引导学生对自己所学的知识及知识发现、发展的过程进行价值评价。例如,食物的保鲜与防腐。

过去学这个知识,学生通常要掌握“食物是会腐烂的,想让食物保鲜就要加防腐剂”这个知识点,甚至初步掌握防腐技术。但那仅仅是作为一个知识点、一个技能来掌握的。

深度学习要让学生讨论,是不是所有的食品都可以用防腐剂来保鲜?是不是防腐剂用得越多越好?这就是一种价值伦理的判断。深度学习不仅仅是学知识,还要让学生在学习知识的过程中对所学的知识进行价值判断。

不仅仅是对知识本身,还要对知识发现、发展的过程以及学习知识的过程本身进行价值判断。04深度学习的实践模型图1是深度学习的实践模型。它不是知识单元、内容单元,而是学习单元,是学生学习活动的基本单位。

过去我们的教学知道要学什么,也知道要考什么,但中间的环节,例如学习目标是怎么定的,活动是怎么展开的,我们明确知道的东西很少,所以教学中间的两个环节是“黑箱”。

深度学习就是企图把中间的这个“黑箱”打开:目标是什么?根据什么确定了这样的目标?为了达到这个目标我要设计什么样的活动?图1中的箭头看起来像是单向的,实际上应该有无数条线条,表现不断循环往复的过程。

图1中的四个形式要素跟前面讲的理论框架是内在一致的,单元学习主题实际上就是“联想与结构”的结构化的部分。单元学习目标,就是要把握知识的本质。单元学习活动是活动与体验、迁移与应用的一个部分。

因此,单元学习主题,就是从“知识单元”到“学习单元”,立足学生的学习与发展,以大概念的方式组织“学习”单元,在学科逻辑中体现较为丰富、立体的活动性和开放性。

过去的学科通常都是封闭的,现在要把它变成一个开放的、未完成的东西,有了未完成性和开放性,为学生提供探究的空间,有重新发现的空间。

单元学习目标是从学生的成长、发展来确定和表述;要体现学科育人价值,彰显学科核心素养及其水平进阶。单元学习活动要注重几个特性。首先是规划性和整体性(整体设计),体现着深度学习强调整体把握的特点。

其次是实践性和多样性,这里强调的是学生主动活动的多样性。再次是综合性和开放性,即知识的综合运用、开放性探索。最后是逻辑性和群体性,主要指学科的逻辑线索以及学生之间的合作互助。

持续性评价的目的在于了解学生学习目标达成情况、调控学习过程、为教学改进服务。持续性评价形式多样,主要为形成性评价,是学生学习的重要激励手段。实施持续性评价要预先制定详细的评价方案。

总之,对深度学习的研究,是一个对教学规律持续不断的、开放的研究过程,是对以往一切优秀教学实践的总结、提炼、提升和再命名,需要更多的教师和学者共同的努力和探索。

你可能感兴趣的:(算法,cnn,机器学习)