最后一篇了,前3篇分别讲解了
(一)AI是什么
,(二)如何在项目中搭建AI
,(三)如何在公司里运用AI
,这一篇主要讲解AI对社会的影响。 1.大纲AI的炒作-需要纠正认知
AI的局限(这部分很有意思)
对少数者的歧视
对于对抗攻击敏感-比如垃圾邮件创造者会想尽办法攻击垃圾邮件过滤系统
AI与发展中经济体和就业
不要太乐观:认为AI可以做任何事,应该大力发展,但其实还要花很多的精力来对抗作恶的AI,这样行业才能健康发展;
也不要太悲观:回看历史,好像又一个AI的寒冬即将到来,但AI当今对社会贡献的价值不容忽视;
保持客观认知:AI不是什么都能做,但可以帮助产业升级。
AI的局限性:不能自我解释,完全黑盒运作。
比如这个通过x光片检测疾病的AI,假设AI说是气胸,那医生是否应该完全听从AI的诊断呢?毕竟AI也不是100%正确,这就需要AI解释它的这种判断的原因,比如右侧的热力图,所以现在的AI只能做到一个参考。
3.AI的歧视和偏见效果类似于乌合之众,目前的AI只能反映大群体的利益诉求,而无法重视小个体的意见,所以很容易造成忽视了个别性别,年龄,种族等的偏好。
AI会学习不健康的刻板印象
比如把网络上的文字信息都输入到AI中,然后训练AI的类比能力,比如男人是父亲,那女人是什么,AI会输出母亲;男人是国王,那女人就是女王;男人是程序员,女人呢?AI会输出家庭主妇……这就是AI的偏见,也是大众的偏见,按文中的观点,理性的推理应该也是程序员。
这样的偏见会有什么影响?
AI的招聘工具会歧视女性,人脸识别工具会对白人识别的更好,AI贷款工具会减少少数民族的审批。
如何对抗偏见呢?
技术上可以定向标记有偏见的词,让训练数据本身就具有更少的偏见,把过程更透明化,让劳动力更多元化。
4.对AI的对抗攻击深度学习有时候也会因为攻击而变蠢。
代码级的修改,会让AI把火鸟当成锤子,吧野兔当成桌子。
还有物理级的攻击,比如带上一个眼睛,AI就把你识别为一个明星;在停车标识上加了几个图片,AI就无法识别了;在一个香蕉周围放个贴纸,AI就把他当成吐司了。
垃圾邮件制造者会不断的优化垃圾邮件,以试图越过AI的垃圾邮件识别系统;盗号偷钱的人会不断优化盗取方式,来躲避AI安全系统的监测;
这有点类似于杀毒软件和病毒的关系,大部分时候都是持续的相互博弈,类似于一个零和游戏。
5.AI不利的使用合成图片或者视频,伪造了一个人从没做过的事
破坏民主和隐私,监控民众
伪造假的评论
垃圾邮件和黑客攻击
6.AI与发展中经济体下图就是个很直观的例子,AI可以助力快速提升经济体能力水平,就像很多发展中经济体比如中国和印度,就不用纠结打造很多路上的通讯线路,而是直接跨越到移动通讯的时代,达到越级提升的效果。
还有移动支付和在线教育领域也是,直接从信用卡支付跳跃到移动支付,直接从建造很多学校跳跃到直接使用在线教育。
7. AI和就业很多人说AI会导致大规模的事业,但更全面的说法是,很多重复性工作的岗位会被AI取代,但同时AI会创造出更多的岗位,比如现在就有一种AI产业下的劳动密集型岗位,叫数据标记工人,用来标记AI需要的训练数据。
职场上如果想持续输出价值,可以首先做好自己的本业,同时学习AI,让AI赋能自己的本业。
8.总结学完了这4周的课程,再看这个热门事件就觉得很有意思(
百年老图难倒谷歌AI
)很多人看到这篇文章的第一反应是AI也不过如此嘛,也有AI做不到的事情。
但事实是人也没法确定这到底是只鸟,还是鸭子,还是兔子,这题一定有标准答案吗?其实生活中也有很多同样的例子,一个人既是个好人又是个坏人,完全取决于用什么视角来看待,比如这张图,顺时针旋转45度,就会更像一只兔子,AI也只不过是把大家的常规视角用概率的方式显示出来了而已。
至于到底谁对谁错完全不是最重要的,而是说怎样优化AI来更好的帮助人类解决问题。
包括之前提出的AI具有偏见的问题,我想也只是一个阶段性的问题,因为现在的AI主要解决的就是大规模的重复性出现的问题,而如何避免偏见的问题,更多是依靠在AI成熟后所展现出的多元性来解决。
还有本篇说到AI的脆弱性(极易遭到攻击),也算是一个比较少见的视角,但丰富了我们的认知,或者说更全面了的认识到了AI的发展过程。
对AI的学习,对于绝大多数人,到这里就足够了,不过知识得和人分享沟通才会变成自己的知识,所以欢迎给我留言,一起学习和成长。