CNCC 2018参会回顾、总结

文章目录

    • 前言
    • 大致情况
    • CNCC 2018基本信息
    • 大会开幕式
    • Digital Objects and the Internet(Robert E.Kahn)
    • 发展数字经济值得深思的几个问题(李国杰)
    • 关于信息社会的经济学思考(孙祁祥)
    • More data,more science and ... Moore's law? (Katherine Yelick)
    • 当我们谈大数据(刘积仁)
    • 技术论坛:《人工智能和信息安全》
      • 李康:人工智能系统面临的现实安全风险
      • 朱军:深度学习的对抗攻击与防守
      • 陈恺:基于人工智能的攻防对抗
    • 技术论坛:《优博的培养和成长》
      • 李建中:博士研究生培养点滴 ——一孔之见
    • 软件工程50周年:路在何方?
    • 总结

前言

今年有幸参加了在杭州国际博览中心召开的CNCC 2018,在此回顾、总结参会历程。

大致情况

2018年10月24日中午到的杭州,28日下午3点离开,在这几天,大概做了:
1)参加会议;
2)利用会议空闲时间,对杭州一些景点进行游览,对当地特色菜进行品尝,以及买了一些特产。

这里主要介绍CNCC 2018参会的收获。

CNCC 2018基本信息

CNCC,全称China National Computer Congress,即中国计算机大会。

Congress
N-COUNT-COLL 代表大会
A congress is a large meeting that is held to discuss ideas and policies.

主办方:中国计算机学会
承办:杭州市萧山区人民政府,浙江大学
协办:浙江工业大学,浙江工商大学,杭州电子科技大学

大会时间:10月25日至27日。

大会主席:梅宏院士(北大)
程序委员会(program committee)主席:庄越挺教授(浙大)

届数:第15届。(所以2018-15+1=2004是第一届)

大会主题:大数据推动数字经济

邀请到的知名专家:
1)2004年图灵奖获得者、TCP/IP协议合作发明者 Robert Kahn
2)CCF名誉理事会长,CCF会士,中国工程院院士 李国杰
3)南大校长,中国科学院院士 吕健
4)东软集团董事长兼首席执行官 刘积仁
5)北大经济学院教授 孙祁祥
6)加州大学伯克利分校教授 Katherine Yelick
7)新加坡国立大学教授,新加坡科学院院士 黄铭钧
8)著名学者 吴军
9)加拿大西安大略教授,加拿大工程院院士 凌晓峰

接下来,介绍一些印象比较深的报告。

大会开幕式

主持人:CCF秘书长 杜子德
[1] 杜子德. https://baike.baidu.com/item/杜子德/5364375?fr=aladdin
[2] 中国计算机学会秘书长 杜子德 (微博主页)。 https://weibo.com/duzide?is_all=1#1540812402001

内容:主要是一些基本介绍,开幕式陈词这类。其中提到:
1)CNCC 2010年也是在杭州召开的;
2)给IEEE Computer Society和ACM宣传一下。

Digital Objects and the Internet(Robert E.Kahn)

主要内容:

  1. discuss the role of the Digital Object Architecture as an evolution of the Internet to simplify the management of digital information.
  2. the Digital Object Interface Protocol (DOIP)
  3. non-profit DONA foundation, based iun Geneva, Switzerland.

[3] Bob Kahn. https://en.wikipedia.org/wiki/Bob_Kahn

Robert Elliot Kahn (born December 23, 1938) is an American electrical engineer, who, along with Vint Cerf, invented the Transmission Control Protocol (TCP) and the Internet Protocol (IP), the fundamental communication protocols at the heart of the Internet.

[4] Electrical engineering. https://en.wikipedia.org/wiki/Electrical_engineering

[5] [转载]计算机科学名人堂:Vinton G. Cerf & Robert E. Kahn. http://blog.sciencenet.cn/blog-1225851-842236.html

[6] 互联网联合创始人Robert E.Kahn访问北大. http://pkunews.pku.edu.cn/xwzh/2014-12/17/content_286559.htm

Robert E.Kahn以“互联网新机遇”为名,讲述了在TCP/IP协议方面的相关问题,着重介绍了自己目前所研究的数字对象基础构架(DOA)。在提问环节,Robert E.Kahn与软微同学展开了热烈的交流,分享了自己关于物联网与大数据方面的观点,在CNRI工作的经历以及中国未来在互联网方面的机遇与前景。

[7] CNCC 2018图灵奖获得者报告。 https://www.iqiyi.com/v_19rr6epx90.html

[8] DIGITAL OBJECT ARCHITECTURE. https://www.dona.net/digitalobjectarchitecture

The Digital Object Interface Protocol (DOIP) is a simple, but powerful conceptual protocol for software applications (“clients”) to interact with “services” which could be either the digital objects or the information systems that manage those digital objects. Additional details of this protocol are discussed here.

A digital object (DO) is a sequence of bits, or a set of sequences of bits, incorporating a work or portion of a work or other information in which a party has rights or interests, or in which there is value, each of the sequences being structured in a way that is interpretable by one or more of the computational facilities, and having as an essential element an associated unique persistent identifier.

发展数字经济值得深思的几个问题(李国杰)

主要内容:
1)数据技术为什么在当下能够成为推动经济发展的新动能
2)数字经济的统计中包含许多传统经济的贡献,增量在哪
3)数字化转型究竟要转什么
4)数字经济强调满足个性化的用户需求,如何解决批量化生产和碎片化产品的矛盾(昆虫纲悖论)

李院士很谦虚严谨,所做报告也非常精彩,让我感觉是和国家、社会的前进、利益紧紧相关的。(为国为民)

1)李院士强调自己不在研究一线,所以是从宏观层面上做的报告
2)大数据,现有的统计方式已经不适合数字经济的统计。索罗悖论
3)人工智能要落地生根,要应用于工业,要务实。“围城”
4)强调数据驱动。大力发展中小企业,避免头重脚轻。服务业,GDP,摩尔定律…等等,我没听太懂,因为这个有点超出了我的理解,我对这些理念的认知还是模糊的,初步的,所以理解起来自然迷茫

其中,李院士强调:一定要重视基础研究。

李国杰(1943.5-)男,湖南邵阳人。汉族,1968年毕业于北京大学,1981年硕士毕业于中国科学技术大学,1985年获美国普渡大学博士学位,1985-1986年间在美国伊利诺伊大学CSL实验室工作,1987年回国在中国科学院计算技术研究所工作,1989年被聘为该所研究员。1990年被国家科委选聘为国家智能计算机研究开发中心主任,1999年12月至今担任中国科学院计算技术研究所所长。2004年5月兼任中国科学技术大学计算机科学技术系主任。 李国杰博士在并行处理、计算机体系结构、人工智能、组合优化等领域发表了100多篇学术论文,合著四本英文专著。近20年来领导中科院计算所和曙光公司为发展我国高性能计算机产业、研制龙芯高性能通用CPU芯片做出了重要贡献。他先后获得国家科学进步一等奖、二等奖、首届何梁何利基金科技进步奖等奖项, 1995年当选中国工程院院士,2001年当选第三世界科学院院士。中国工程院院士,第三世界科学院院士,1995年始任曙光公司董事长,2000年至2011年任中国科学院计算技术研究所所长。2003年兼任中国科技大学计算机系系主任。2012年任中国科学院大学计算机与控制学院院长。

[9] 李国杰 (中国工程院院士). https://baike.baidu.com/item/李国杰/25361?fr=aladdin

[10] http://tech.ifeng.com/a/20171031/44738045_0.shtml

全世界200强的公司中,美国有14家芯片公司,14家软件公司,中国呢?一家都没有,所以这个差距不得不重视,越是基础的东西,对我们的未来越重要,这是衡量一个国家人工智能强不强的基本判断之一。

值得注意的是,重视基础就不能“喜新厌旧”。
中国人很重“名”,“名不正则言不顺”,信息领域不断创造新名词,一旦新名词、新学科上升为行业意志,原来的基础学科就被边缘化。
去年国家自然科学基金计算机学科的4863项申请项目中,计算机科学的基础理论只有16项,计算机体系结构22项,程序设计语言及支撑环境13项,高速数据传输技术2项。
但是,计算机图像与视频处理有439项,模式识别理论及应用357项,人工智能应用258项,这是巨大的反差。
基础!基础!基础!没有基础的话,将来还是难以扳回局面。

比如你教小孩认识事物,可能不出10、20张图片就能让他知道这是马、这是车,但对于机器还做不到,可能机器需要的是上百万张图片。
这就是典型的小数据学习,为什么人可以,机器不可以?但如果考虑到人类一代代经过了几百万年的进化,才慢慢形成人脑的连接、基因,并有了固定的人脑结构,这好像也能解释为什么会有从大数据到小数据的过程。
所以现在的关键是,把AI提升到理论上能解释的地步,比如还有很多很多的基本的东西没能搞明白,深度学习效果这么好,但决策过程可能我们还无法解释,黑箱还没变成白箱,这需要一些基本理论的研究。

另外,现在我最担心的问题,是公有开放的机器训练平台的缺乏。
BAT都有自己的大数据平台,但让智能软件和服务行业每个中小型创业公司都建立自己的机器学习训练平台,既无必要也不可能。各地双创园区要建立共享的大数据分析平台和机器学习训练平台,这是新时代的重要基础设施,另外,也不能让中小企业被迫都使用BAT的平台,让这些企业未来受限于垄断。

给年轻学子的建议
对一些年轻人想从事AI,我有一个基本的判断,人工智能从科研角度来讲,它就是计算机科学的前沿研究,从应用来讲也是计算机的应用。
本质上是计算机的技术,是计算技术,虽然可以从脑科学学到一些东西,从数学里拿到一些东西,但是离不开计算机的基本技术,所以在国外人工智能的一些学习者学习课程,开课都开在计算机系里面,极少有搞一个人工智能学院、系等。
首先要搞清楚这是一个计算机学科的重要的组成部分,所以离不开计算机的本身,如果抛开计算机是不行的,想投入这个行业的人,至少把计算机的一些基本的课程要学的比较扎实,包括算法的课程、系统结构、软件等都是基础,现在还没有案例说:缺少计算机基础的人可以做好人工智能。
还有就是明确科幻、舆论和科研之间的距离,宣传总是会超前一些。比如一讲就是机器要超过人,通讯之间不需要机器等,一讲就是很新奇的想法,很吸引人,对这个难度要充分的估计,不是这么简单的。
现在有一些被广泛传播的实验,比如一个人在国外,一个人在国内,两个人不说话,脑之间有脑电波收到一个信号,给到美国去,两个人不见面,我想说你好,这个信号就会通过脑电波传到你的脑电波里面去,那个人就知道你在讲你好,这样的实验已经有了,但是真正所谓的脑脑之间完全靠电波来联系,不是做两个例子,这是很长的路要走。
人脑是多少万年的进化,所以年轻人不要觉得未来把脑科学的东西变成人工智能的东西,好像马上就可以应用,得有一种走艰苦路的思想准备,不是一天两天就可以搞成的。
总而言之,人工智能任重而道远,最后引用一首诗与大家共勉:
莫言下岭便无难,
赚得行人空欢喜。
正入万山圈子里,
一山放过一山拦。
——宋•杨万里《过松原晨炊漆公店》

确实精彩。

[11] 何梁何利基金. https://baike.baidu.com/item/何梁何利基金/5213497?fr=aladdin

何梁何利基金是香港爱国金融家何善衡、梁銶琚、何添、利国伟先生基于崇尚科学、振兴中华的热忱,各捐资1亿港元于1994年3月30日在香港注册成立的社会公益性慈善基金。1994年5月13日在北京人民大会堂举行了隆重的成立庆典。基金成立14年来,捐款创立者的善举、义举和创举受到了中央人民政府、香港特别行政区政府的高度赞许和社会各界的热烈欢迎。

关于信息社会的经济学思考(孙祁祥)

信息。大数据,数字经济。改变着人类的思维,交换方式等等。
2017年移动电话,每100人拥有105部电话。变化巨大。
所以孙教授来做报告。
对信息社会的粗浅思考。

经济学是研究资源有效配置的一门学科。
供求关系在经济学中的地位。

从计算机角度看经济问题

垄断损害消费者利益。

在信息,数字经济时代,垄断的判断标准以及不再适用。

孙教授分析的,在互联网下赚钱的例子,还是很有意思的。(她在北大开学典礼上演讲的视频有3亿点击量,但是她没有任何收入,完全知识共享。
但是通过打赏等功能,确实是可以盈利的。

还讲了马太效应。强者愈强,弱者遇弱,最后强者通吃。数据垄断。
数据经济有明显的网络效应。有丰厚数据资源的企业往往占据有利地位。
新的信息不对称,不完全(是造成市场失灵的原因)。

所以教授最后提出,大数据时代也面临着新的问题(比如可能存在的垄断),这需要我们引起重视并解决。

[12] 马太效应 (两极分化现象). https://baike.baidu.com/item/马太效应/70100?fr=aladdin

马太效应(Matthew Effect),指强者愈强、弱者愈弱的现象,广泛应用于社会心理学、教育、金融以及科学领域。马太效应,是社会学家和经济学家们常用的术语,反映的社会现象是两极分化,富的更富,穷的更穷.
马太效应,名字来自圣经《新约·马太福音》一则寓言: “凡有的,还要加倍给他叫他多余;没有的,连他所有的也要夺过来”。表面看起来“马太效应”与“平衡之道”相悖,与“二八定则”类似,但是实则它只不过是“平衡之道”的一极。

More data,more science and … Moore’s law? (Katherine Yelick)

Machine learning:

  1. data
  2. algorithms
  3. machines

大数据

computation
powerful computers

大数据下的计算(高性能CPU)

challenge of ML in Science
1)correlation is not causation
2)filtering de-noise & curating data

computer science challenges:
1)continue to grow computing performance
end game Moore’s Law
2)programming for specialized architecture

这个的话,我觉得主要是关于,大数据,机器学习,一些挑战,以及一些CPU性能问题。

[13] 摩尔定律. https://baike.baidu.com/item/摩尔定律/350634?fr=aladdin

摩尔定律是由英特尔(Intel)创始人之一戈登·摩尔(Gordon Moore)提出来的。其内容为:当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔18-24个月翻一倍以上。这一定律揭示了信息技术进步的速度。

当我们谈大数据(刘积仁)

技术与环境共生。
人工智能上个世纪也火过,但是无功而返,因为时不在。(当时没有大数据)

解决问题要多源数据。

数据融合。

[14] 东软集团. https://baike.baidu.com/item/东软集团/573400?fr=aladdin

1991年,年轻的东北大学教授刘积仁在中国东北大学创立了东软。
在自有品牌的产品工程方面,在医疗领域,我们开发并提供具有中国自主知识产权的CT、磁共振、数字X线机、彩超、全自动生化分析仪、多参数监护仪、放射治疗设备、核医学成像设备等11大系列50余种医疗产品,其中CT机填补了中国在该领域的空白,使得中国成为全球第四个能够生产CT的国家。我们不仅通过了ISO9001国际质量体系认证,同时其主要产品CT、MRI、X-ray、超声及多参数监护仪等产品系列相继通过了美国FDA和欧洲CE认证。产品销往国内32个省、市、自治区,同时在美国、意大利、俄罗斯、巴西、沙特阿拉伯、巴基斯坦以及非洲等全球40余个国家和地区实现了设备安装,拥有客户5000余家。
2005年,成为中国最大的离岸软件外包提供商;
2008年,东软集团整体上市计划完成。经过17年的努力,如今,东软已经成为中国最大的IT解决方案与服务提供商。
总市值120.79亿

技术论坛:《人工智能和信息安全》

主题:
1)在安全方面,ML有助于识别威胁,攻击和异常活动。然而,ML算法设计本身并没有考虑安全;
2)此外,保护和维护ML系统非常困难。因此我们缺乏理论工具来指定ML防御。
3)ML/AI能否为信息安全提供有据可依的通用基础技术,还是我们继续来一个问题解决一个的模式。
总之,我们讨论ML/AI 和 网络安全方面的研究以及推动进一步研发的问题。

李康:人工智能系统面临的现实安全风险

360智能安全研究院

人工智能应用面临的安全风险:
1)逃逸攻击(evasion attack):欺骗人工智能应用
2)模型推断攻击(model inference attack):人工智能模型和数据安全
本地模型逆向攻击;软件漏洞攻击
日常防护手段:混淆。
3)拒绝服务攻击(DoS attack):干扰人工智能服务正常运行
4)传感器缺陷攻击(attack sensors):攻击人工智能应用输入系统

总结:
1)现实系统的实现细节影响理论上的攻击效果。
2)人工智能系统的实现细节引入了新的攻击风险
3)复杂的软件和供应链会导致很高的软件漏洞几率
4)对人工智能模型和训练数据的保护值得格外关注。

[15] 对深度学习的逃逸攻击——探究人工智能系统中的安全盲区. https://baijiahao.baidu.com/s?id=1581751941784075085&wfr=spider&for=pc

逃逸是指攻击者在不改变目标机器学习系统的情况下,通过构造特定输入样本以完成欺骗目标系统的攻击。例如,攻击者可以修改一个恶意软件样本的非关键特征,使得它被一个反病毒系统判定为良性样本,从而绕过检测。攻击者为实施逃逸攻击而特意构造的样本通常被称为“对抗样本”。只要一个机器学习模型没有完美地学到判别规则,攻击者就有可能构造对抗样本用以欺骗机器学习系统。例如,研究者一直试图在计算机上模仿人类视觉功能,但由于人类视觉机理过于复杂,两个系统在判别物体时依赖的规则存在一定差异。对抗图片恰好利用这些差异使得机器学习模型得出和人类视觉截然不同的结果,如图1所示[1]。

除了对模型和算法的弱点进行分析,黑盒攻击还可以借鉴模糊测试的方法来实现对抗样本的生成。下面以手写数字图像识别为例,我们的目标是产生对抗图片,使其看起来是“1”,而人工智能系统却识别为“2”。我们的主要思路是将这样一个对抗样本生成的问题,转换为一个漏洞挖掘的问题,如下图4所示。

我们主要是利用灰盒fuzzing测试的方法来实现,首先给定数字“1”的图片作为种子,然后通过对种子图片进行变异,如果机器学习系统将变异后的图片识别为“2”,那么我们认为这样一个图片就是对抗样本。
利用Fuzzing测试的对抗样本生成是基于AFL来实现的,主要做了以下几方面的改进:
1.是漏洞注入,我们在机器学习系统中添加一个判断,当图片被识别为2时,则人为产生一个crash;
2.是在数据变异的过程中,我们考虑文件格式的内容,优先对一些图像内容相关的数据进行变异;
3.是在AFL已有的路径导向的基础上,增加一些关键数据的导向。

  1. 基于软件漏洞进行逃逸攻击
    针对AI系统的对抗性攻击,就是让人工智能系统输出错误的结果。 还是以手写图像识别为例,攻击者可以构造恶意的图片,使得人工智能系统在分类识别图片的过程中触发相应的安全漏洞, 改变程序正常执行的控制流或数据流,使得人工智能系统输出攻击者指定的结果。 攻击思路基本分为两种:
  1. 基于数据流篡改可以利用任意写内存漏洞,直接将AI系统中的一些关键数据进行修改(如标签、索引等), 使得AI系统输出错误的结果。 2. 另一种则是通过常规的控制流劫持(如堆溢出、栈溢出等漏洞)来完成对抗攻击,由于控制流劫持漏洞可以通过漏洞实现任意代码的执行,因此必然可以控制AI系统输出攻击者预期的结果。

本文的目的是继续介绍被大众所忽视的人工智能安全问题。虽然深度学习在处理自然生成的语音图像等以达到相当高的准确率,但是对恶意构造的输入仍然有巨大的提升空间。虽然深度学习系统经过训练可以对正常输入达到很低的误判率,但是当攻击者用系统化的方法能够生成误判样本的时候,攻击的效率就可以接近100%, 从而实现稳定的逃逸攻击。 随着人工智能应用的普及,相信对逃逸攻击的研究也会越来越深入。这些研究包括对抗样本生成以及增强深度学习对抗能力,我们未来会在后续文章里对这方面的工作进行更新。

对抗样本由Christian Szegedy等人提出,是指在数据集中通过故意添加细微的干扰所形成的输入样本,导致模型以高置信度给出一个错误的输出。在正则化背景下,通过对抗训练减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络。

[16] 对抗样本. https://baike.baidu.com/item/对抗样本/22768203?fr=aladdin

所谓深度学习对抗训练,就是通过在对抗样本上训练模型。既然深度学习的对抗样本是由于模型的线性特征所导致,那就可以设计一种快速的方法来产生对抗样本进行对抗训练。Szegedy等人的研究认为对抗样本可以通过使用标准正则化技术解决,可是Goodfellow等人使用常见的正则化方法,如dropout,预训练和模型平均进行测试,并没能显著地提高深度模型对于对抗样本的抗干扰能力。根据神经网络的Universal Approximation Theory,至少拥有一个隐层的神经网络只要拥有足够的隐层单元,就可以任意逼近任何一个非线性函数,这是浅层模型所不具备的。因此,对于解决对抗样本问题,Goodfellow等人认为深度学习至少有希望的,而浅层模型却不太可能。Goodfellow等人通过利用对抗样本训练,对抗样本上的误分率被大大降低。同时他们发现选择原始模型产生的对抗样本作为训练数据可以训练得到具有更高抵抗力的模型。此外,他们还发现,对于误分的对抗样本,对抗训练得到的模型的置信度依然很高。所以通过对抗训练能够提高深度学习的对于对抗样本的抗干扰能力。
对抗训练有助于体现积极正则化与大型函数族结合的力量。纯粹的线性模型,如逻辑回归,由于它们被限制为线性而无法抵抗对抗样本。 神经网络能够将函数从接近线性转化为局部近似恒定,从而可以灵活地捕获到训练数据中的线性趋势同时学习抵抗局部扰动。 [5]

朱军:深度学习的对抗攻击与防守

加一些噪声产生对抗样本来欺骗神经网络。
1)beta,知道神经网络的结构和参数,
2)另外一种,不知道。
google brain 竞赛。

算法角度来说做攻击和防守:(去年的 Neural Information Processing Systems (NIPS))

[17] 任何机器学习分类器都可以被欺骗!一文解析对抗性攻击是如何工作的. https://www.sohu.com/a/198933363_390227

Google Brain最新的研究结果表明,任何机器学习分类器都可以被欺骗,从而给出不正确的预测结果,并且只要有一点相关专业技能,你可以让它们给出任何你想要的结果。
这一事实逐渐变得令人感到不安,因为现如今越来越多的系统是由人工智能驱动的,并且其中的许多系统对我们的安全和舒适生活起着至关重要的作用。比如银行、监控系统、自动取款机、笔记本电脑上的人脸识别、以及在不久的将来面世普及的自动驾驶汽车等等。最近,关于人工智能的安全问题主要是围绕伦理道德的,而今天我们即将要讨论是关于日益增长的压力和实际问题。

机器学习算法以数字向量的形式接受输入。以一种特定的方式设计输入,从而从模型中得到一个错误的结果,这便被称为对抗性攻击。
这怎么可能?没有一种机器学习算法是堪称完美的,并且对于机器智能来说,犯错误是一件自然而言的事情——尽管这是非常罕见的。然而,机器学习模型由一系列特定的变换组成的,其中大部分变换对输入的微笑变化都是异常敏感的。利用这种敏感性并用其它来修改算法的行为是人工智能安全性中的一个非常重要的问题。

非针对性对抗攻击(Non-targeted adversarial attack):最常见的攻击类型,即使得分类器给出错误的结果。
有针对性的对抗攻击(Targeted adversarial attack):相对较难的攻击类型,其目的是针对你的输入接收一个特定的类。

这是从我们的实验到DEFCON主旨演讲有漫长的道路。然而即使现在,对抗性攻击的可能性也是令人担忧的。只是列举了一些来源于论文“物质世界中的对抗性例子”(严格用于讨论目的)的灵感:
1、印刷打印一张“嘈杂”的ATM支票,以$ 100为单位,取现$ 1000000。
2、更换一个轻微晃动的道路标志,将速度限制设置为200——在自动驾驶汽车的世界里,这可能是相当危险的。
3、不要等待自动驾驶汽车——重新绘制你的车牌,摄像头将永远不会识别到你的车。

1、反应策略:训练另一个分类器来检测对抗输入并拒绝它们。
2、主动策略:实施对抗性训练。
竞赛:
非针对性攻击:https://www.kaggle.com/c/nips-2017-non-targeted-adversarial-attack
有针对性攻击:https://www.kaggle.com/c/nips-2017-targeted-adversarial-attack
防御:https://www.kaggle.com/c/nips-2017-defense-against-adversarial-attack

很有意思。

陈恺:基于人工智能的攻防对抗

1)智能化漏洞利用
CCS 2017
2)人工智能系统本身的功防对抗
USENIX Security 2018

对于1)
patch based auto exploitation
我的理解:利用补丁上给出的缺陷条件,描述,来生成input,使得那些还没有修复补丁的应用或者系统crash。
technique:符号执行和约束求解。

作者用了:112个CVE of x86_64 Linux Kernel (version 4.0 - 4.11)
103个版本的pre-built linux kernel.
用了模糊测试
发现未知缺陷(flaws)
《SemFuzz: Semantics-based Automatic PoC Generation》
Wei You
CCS 2017

对于2)
对于AI 模型(比如车载AI系统),可以用声音进行攻击(发送指令)
在songs里面加入噪声。

技术论坛:《优博的培养和成长》

李建中:博士研究生培养点滴 ——一孔之见

1)博士研究生素质培养
首先要志存高远,弃燕雀之小志。
放弃为生计而学习,为利益做研究的想法。
树立探索人类未知的理念。

慕鸿鹄而高翔。
赶超课题组,全中国,乃至全世界的顶尖博士生。
努力攀登科学技术最高峰。

创新意识。富于挑战,海纳百川。
创新能力。科研能力,实践能力,竞争能力
拼搏精神:开拓进取精神,吃苦耐劳精神,求真务实精神。

其中,李老师在拼搏进取上的所讲所言让我深有感触,如暮鼓晨钟当头棒喝。
回来就决定进入究极认真学习模式。
确实受教了。

2)博士研究生学术培养
基础研究和应用基础研究
良好的系统设计实践
**良好的数学基础。**看来数学基础真的很重要。!!!
坚实的理论计算机基础。算法这些我也不行。。。难受

search阶段:认知研究领域当前的状态(收集近两年相关顶会文章,阅读所有论文的introduction,分类整理研究领域的现状。结果:提交一个全研究领域的宏观综述,确定感兴趣的研究方向:确定研究方向)。好像当时老师说这个要半年。但是我现在怎么办呢???
确定感兴趣的研究方向。(收集感兴趣方向的全部文献:由近及远。精读每篇文献,写出读书笔记:问题定义,求解方法,理论结果,技术结果,研究工作的不足。开展delta x研究,意思就是小增量的研究。撰写研究进展综述:已经和正在研究的问题,每个研究问题的研究结果,特别给出优缺点评述,目前存在的问题:已有解的问题,新的研究问题。确定自己的研究问题。)

选择一个重要问题,开展研究工作,撰写论文并投往重要期刊或者会议。

定义问题,确定方案,进行研究,完成论文。
给出问题的定义,确定问题的实际和科学意义,确定创新点:关键理论和技术问题。完成问题的形式化定义,初步确定问题的固有复杂性,初步确定算法求解路线。

总的来说,我感觉是一个,由小到大,由全局到局部,由点到面等战略的灵活运用。

3)导师之责任与义务

写到这里,确实不想写了,码字太累了。

我得休息一下。

软件工程50周年:路在何方?

把AI应用到软件工程(SE):源代码,用户评价,系统日志。
深度学习,机器学习,RNN,CNN,人工智能

AI除错很难,很难找到失败测试用例。

理论实践脱节的厉害,应用不多。有的重复,有的创新。现在正在发展。企业的应用方面,不要重复创新了。

总结

收获:
1)图灵奖获得者的报告,虽然不懂,但是认识到了自己在英语方面的不足
2)李国杰院士和孙祁祥教授的报告,对大数据经济的理解。计算机基础理论的发展。
3)人工智能和信息安全:对抗样本,CVE漏洞挖掘,智能化漏洞利用。
4)优博的培养和成长:要更加勤奋,感觉自己受到了启发,也开阔了视野。
5)软工五十周年:把AI和SE结合,工业界应用不够,跟不上学术界,理论和实践脱节的厉害。

你可能感兴趣的:(研二上)