415,开发近红外光激发的纳米探针,监测大脑深层活动,理解神经系统功能机制。
开发、设计电压敏感纳米探针一直是个技术难关。
群体神经元活动的在体监测是揭示神经系统功能机制的关键。
近日《美国化学会志》期刊报导一项新的研究成果:研究人员开发了一种可用近红外光激发的电压荧光纳米探针,并用它监测斑马鱼和小鼠脑中神经元膜电位的动态变化。
目前神经元钙离子荧光成像是主要手段之一,但相比于神经脉冲信号,钙离子荧光信号的动力学相对较慢,且很难推断出与之对应的神经脉冲的频率和数量。因此神经科学界迫切期望能开发出对细胞膜电位变化敏感,有高信噪比的纳米粒子或分子探针,从而实现高时空分辨率、大范围神经元集群活动的活体监测。现有的荧光电压探针多用紫外光或可见光激发,只能应用于大脑浅层。而红外光(750~1000nm)在生物组织中穿透能力更强(可达cm级),能应用于大脑深层,被称为“生物组织的光学窗口”。
研发高灵敏、可用于近红外光激发的电压敏感探针是目前国际神经科学领域迫切希望攻克的技术难关之一。
哺乳动物神经元膜电位的阈下振荡,反映动物个体的脑状态及其变化。
416,任正非最近在一次访谈中说:5G只是小儿科,人工智能才是重中之重。
417,破解Deep fake的鉴别平台
随着人工智能、计算机视频的发展,一些不法分子钻了空子,利用人工智能、图像识别,借助深度伪造(Deepfake)技术,伪造视频、伪造人脸,实现非常逼真的“变脸”,达到以假乱真的目的。
在国外,甚至在某些国家的选举活动中,出现了足以以假乱真的伪造头像。
在国内,有人也开始构建了AI伪造人脸鉴定平台,可鉴别图片、图像、视频、头像是否伪造,专门立对Deepfake技术带来的安全风险。如中国信息通信研究院泰乌终端实验室建立了破解AI伪造人脸的鉴别平台,他们基于单帧和多帧的方法,利用人脸生物特征及抖动精放等特性,结合多轮训练模型、测试集技术,能够识别图像、视频、人脸、文件的异常状态,进而辨别其真伪。该平台可为互联网企业、消费者提供真假鉴别服务,也可协助政府、行业监管机构开展AI换脸技术取证与鉴定。
418,用机器学习完全解读甲骨文变不可能为可能!
这是基于卷积神经网络的机器学习模型的魅力!
近日西南大学研究人员使用卷积神经网络搭建针对甲骨文识别的深度学习模型,他们首先选取了一个刻有甲骨文字的1476片龟甲和300个牛骨作为AI训练的基础数据,其中三分之一作为测试集,另三分之二作为训练集。最终实验结果令人惊叹!AI识别精准度已达近似于甲骨文的历史专家的程度。
甲骨文兴盛于商周时代,是我国已知最早使用的官方文字,但早已失传。直到近代一二百年人们才意识到这些龟甲残片蕴含着巨大的历史文化价值。不过遗憾的是,因为年代久远,文献缺乏,研究甲骨文残品上的文字变得非常困难,历史学家一直在尝试解读它们,但进展缓慢,完全解读甲骨文被认为不太可能。
现在机器学习使这一切都变成为可能。机器学习中的卷积神经网络就是以图像文字识别见长。简言之,只要捜集到足够多甲骨文残片作为训练数据,理论上讲,学习模型的识别甲骨文能力就越强,而且训练过程完全由模型自己完成的。所以只要我们坚持不断训练它,它的识别准确率将越来越高,识别速度越来越快。
这样利用人工智能可以帮助人们识别甲骨文!
419,数学对于机器学习至关重要!
向必须了解数学知识的机器学习专家推荐一本书。
该书名为Mathematics forMachineLearning(机器学习数学)。
由MarcPeterDeisenroth、AldoFaisal、ChengSoonOng编写,将由剑桥大学出版社出版。
本书由数学基础和机器学习算法示例两部分构成,第一部分涵盖了纯数学概念,第二部分着重介绍如何将这些新发现的数学技能应用于机器学习。
无独有偶!再推荐一本与机器学习相关的另一本书。
由吴恩达博士(Dr.AndrewNg)撰写。
《MachineLearningYearning》(机器学习训练秘籍)。
本书汇集了吴恩达博士工作实践中的经验总结,适于机器学习领域的专家学习。
420,商汤研发用于加快卷积神经训练速度的INT8新法。
如何提升深度学习的训练速度一直是人工智能领域研究的难点,如今商汤在加速卷积神经网络训练方面迎来了新突破。
由商汤研究院链接与编译团队、高性能计算团队和北航刘祥龙团队合作研发用于加速卷积神经网络训练过程的INT8训练技术,可以极大地提升训练速度,减少计算损耗,而且训练精度几乎无损。
INT8定点计算在各类芯片的计算力均有2倍以上提升,使用INT8卷积计算的前向过程平均加速1.63倍,后向过程平均加速1.94倍;INT8训练可以将ResNet50的一轮训练过程从0.360秒降至0.293秒,整体训练过程提速22%。
INT8训练技术将原来需要计算32位或16位的浮点(小数)计算,转換成只需要计算8位的定点(整数)计算,计算位数减少了,计算能力和速度更强。
商汤、北航团队合作研发的INT8训练技术的论文已入选将于今年6月召开的世界计算机视觉大会(CⅤPR2020)。
421,近日Alphabet(谷歌母公司)发布今后十大业务规划(都离不开人工智能支持)
谁说机器学习已近天花板?谁说机器学习又入低潮期?
为何AI巨挈(谷歌)偏爱机器学习?为何未来量子计算、自动驾驶、智慧城市的发展要与机器学习/深度学习挂钩?
1)电子消费
规划提出:人工智能将成为Alphabet在电子消费领域制胜的关键;
借助安卓系统;
Alphabet电子消费战略受AI驱动。
2)医疗健康
规划提出:Alphabet利用机器学习来解决广泛性医疗保健问题;AlphabetAI子公司DeepMind将医疗保健作为其重点开发的领域;谷歌近来研发用于基因科学的人工智能AlphaFold,成功预测生命基本分子一蛋白质三维结构,预示其人工智能进入基因科学和生物科学及医疗保健领域。
3)量子计算
规划提出:Alphabet将量子计算技术列为重中之重;Alphabet主要兴趣在于人工智能和量子计算等新兴技术对硬件的独特需求,该公司希望将机器学习和工程专业知识用于构建下一代高性能计算机芯片,并借助量子计算一些进展,革新计算本身;Alphabet意欲处理的主要矛盾在于利用机器学习有效解决特定问题,需要特定处理能力,而这种能力并非目前芯片所能提供的;
专用的ML芯片无法运行传统的软件程序;
虽然在开发人工智能芯片时有一些物理上的限制要克服,但Alphabet在量子计算领域聚焦于解决这些问题颇有裨益;
Alphabet致力于解决与AI有关的两个问题:
①AI程序需要具有极高计算能力的硬件作为支撑,
②AI程序需要进行优化以满足高效低能耗的需求;
今后即使最先进的硬件也无法满足自身的AI硬件需求,谷歌构建自定义ASIC芯片,称为TensorProcessingUnit(TPU),该芯片经过专门设计,基于神经网络工作负载运作,具备并行运算能力,可为谷歌的几个关键应用程序提供支持:Translate、Assistant、AlphaGo、Search;
2014年谷歌建立量子人工智能实验室;
在谷歌诸项量子计算工作中有望发挥作用的主要领域是人工智能,其技术有望满足日益增长的计算能力的需求。
4)交通运输
规划提出:机器学习和人工智能正在加速Waymo在自动驾驶行业(全球40多家自动驾驶企业)中的主导地位,成为自动驾驶行业领导者;
Alphabet与Lime合作成为流行趋势;
谷歌地图作为黙认的导航工具。
5)能源行业
规划提出:Alphabet的子公司正在探索可再生能源;
数据中心驱动解决能源消耗问题;
通过机器学习提升电能消耗效率;
利用地热能和风能,提供解决方案。
6)智能城市
规划提出:建设智能城市大量采用人工智能;
提供一个全面的智能城市方案,在该领域占主导地位;
提供更全面的智能城市服务。
7)线丄旅游
规划提出:谷歌正在利用其搜索功能,试图颠覆线上旅游服务网站;
8)电子游戏
规划提出:Alphabet希望利用Stadia改变人们的游戏方式;
立足于云计算。
9)媒体服务
规划提出:与亚马逊Prime和Hulu(美国视频网站)争夺“有线电视终结者”。
用机器学习识别不良内容。
10)银行服务
规划提出:2020年谷歌进军银行业,向消费者提供支票帐户;与花旗银行、斯坦福联邦信贷联盟合作,协助由花旗运营的支付,使用谷歌Pay访问帐户;开发金融科技产品2018.1,与谷歌钱包合併,开发谷歌Pay(前身为安卓支付)。
422,研发量子比特技术的量子计算机
在4月25日《自然》杂志上刊登Dzurak教授团队的一篇论文(该论文还有加拿大、努兰和日本的合作者),报告一种量子处理器单元,该单元与目前由谷歌、IBM等设计量子比特芯片在超导低温下(0.1开尔文温度下)工作不同(其运行温度1.5开尔文,提高了15倍),这意味着量子计算机(从量子比特芯片→量子处理器→量子计算机)能够顺利运行跨出的关键一步(意味着可使用更简单更便宜的冷却系统)。
他们采用的作为最前沿制冷技术的稀释制冷机,它是目前基于超导、自旋和拓朴量子比特技术的量子计算机的主要组成部分,其原理类似液体蒸发吸热,基于兔氦的同位数混合物实现热量流动。
Dzurak团队运行温度1.5开尔冬的研究成果为验证实验主导人、新南威尔士大学HenryYang博士团队所证实。
这项研究成果也显示,现有的硅芯片制造工厂就能完成任务。
423,来自DeepMind、牛津大学和谷歌大脑的TimothyP.Lillicrap、AdamSantoro、GeoffreyHinton在《Nature》子刊《NatureReviewsNeuroScience》发表文章,他们认为在以往研究的基础上,反向连接可能会引发神经元活动,而其中的差异可用于局部逼近误差信号,从而促进大脑深层网络的有效学习。
424,法国索邦大学、伦敦帝国学院、英国萨塞克斯大学的研究团队推出一个新的软件包Brian2GeNN,用于使用图形硬件来加速SNN的仿真。
图形处理单元(GPU)可用于执行通用算法,例如用于神经网络的模拟。Brian是一种流行的基于Python的仿真器,通常用于计算神经科学。GeNN是基于C++的元编译器,用于借助GPU来加速SNN仿真。Brian2GeNN软件包将这两个系统连接在一起,以便用户在Brian中开发模型时可以使用GeNNGPU加速,而无需任何有关GPU、C++一战GeNN的技术知识。
研究团队发现基于Brian2GeNN的模型,性能可以提高数十倍到数百倍。
425,MIT开发AutoML系统用以训练神经网络提高计算效率
美国麻省理工学院EECS学院最近开发了一种基于机器学习的自动化AI系统(AutoML),用于训练和运行某些神经网络,可提高计算效率。该系统还可用于涉及碳排放的项目,可减少碳排放量(在某些情况下可降低到三位数)。
AutoML系统还有这样的案例:仅训练一个大型的OFA网络作为“母网络”,而少拉套了从“母网络”中稀疏激活的大量子网络,OFA与所有子网共享所有已学习的权重一这意味着它们实质上是经过预先训练的,因此每个子网可以在推理时,独立运行无需重新训练。
IBM研究员、MIT、IBMWatsonAI实验室成员JohnCohn表示:“如果继续保持AI的快速发展,我们必须减少环境的影响”。
426,新发现的大脑启发式加速学习机制(大大优于机器学习)
发表在Scientific Reports杂志上的一篇文章中,研究人员报告说,他们已经重建了实验神经科学与高级人工智能学习算法之间的桥梁。在神经元文化上进行新型实验,研究人员能够证明一种新的、受大脑启发的学习机制。例如,当用于手写数字识别的人工任务时,其成功率大大超过了常用的机器学习算法。
研究人员证明了两个假设:关于大脑学习非常缓慢的普遍假设可能是错误的,并且大脑的动力学可能包括加速的学习机制。研究小组的实验表明,训练频率会大大加速大脑的适应。这种新发现的大脑启发式加速学习机制的使用大大优于常用的机器学习算法,例如手写数字识别,尤其是在提供小的数据集进行训练的情况下。
可查阅https∥www.nature.com/articles/s41598一020一63755一5
更多推荐:
《评人工智能如何走向新阶段》后记
《评人工智能如何走向新阶段》后记(再续1)
《评人工智能如何走向新阶段》后记(再续2)
《评人工智能如何走向新阶段》后记(再续3)
《评人工智能如何走向新阶段》后记(再续4)
《评人工智能如何走向新阶段》后记(再续5)
《评人工智能如何走向新阶段》后记(再续6)
《评人工智能如何走向新阶段》后记(再续7)
《评人工智能如何走向新阶段》后记(再续8)
《评人工智能如何走向新阶段》后记(再续9)
《评人工智能如何走向新阶段》后记(再续10)
《评人工智能如何走向新阶段》后记(再续11)
《评人工智能如何走向新阶段》后记(再续12)
《评人工智能如何走向新阶段》后记(再续13)
《评人工智能如何走向新阶段》后记(再续14)
《评人工智能如何走向新阶段》后记(再续15)
《评人工智能如何走向新阶段》后记(再续16)
《评人工智能如何走向新阶段》后记(再续17)
《评人工智能如何走向新阶段》后记(再续18)
《评人工智能如何走向新阶段》后记(再续19)
《评人工智能如何走向新阶段》后记(再续20)
《评人工智能如何走向新阶段》后记(再续21)
《评人工智能如何走向新阶段》后记(再续22)
《评人工智能如何走向新阶段》后记(再续23)
《评人工智能如何走向新阶段》后记(再续24)
《评人工智能如何走向新阶段》后记(再续25)