以下是听《第五届全国大数据与社会计算学术会议》之《专题报告2:社会计算与数据伦理》的要点记录。
完整原文和视频回放,请移步”集智学园”:https://campus.swarma.org/
B站直播链接:https://live.bilibili.com/8091531
今天分享大数据与人工智能的伦理挑战。
(1)中立性
算法表面中立,在学习中却可能形成隐形的歧视,甚至放大这些鸿沟。算法角度是合理的,但是社会往前发展,不能仅建立在数字化的优化上,而是要考虑很多人文的东西。
例如高级职位推荐,女性占比8%-15%,系统开始偏向男性推荐,加剧性别差异。同理的还有秘书推荐给女性,卡车司机推荐给男性。
随着系统对人购买力的打分,会有价格歧视。
美国低矮桥,在设计的时候,就有把穷人挡在外面的意思。
(2)时效性
算法预测犯罪不犯罪。酒驾有些国家可以。燃放烟花爆竹是为了预防火灾,有些人觉得失去了某些东西。现在人驾驶可以,未来无人驾驶普及,可能觉得人驾驶就不安全。因此,技术现在觉得安全,将来可能不够安全。
人们认为,“浪子回头,金不换”。但计算机可能不这么认为,因为它有无穷的记忆力。监控压力下,人们就只能兢兢业业地沿着主流价值观做事说话,独立性、自主性丢失。
(3)沉迷
短视频通过不同推荐,让你连续看短视频的时间更长。专门做算法让你欲罢不能。技术很强,这里的任何一方都是得利的,没有一个力量去摧毁它。但是它对于整个社会的贡献是很少的。
还有Dark AI,对社会的研究是积极、还是消极,是值得关注和思考的问题。
(4)边界问题
计算机识别微表情,就可以无接触策划,接收声音、表情,就可以准确识别人的情绪。
社会的组成基石,是真相,但是也需要谎言。哪怕对至亲家人,非恶意的谎言,会是一种保护。
增强学习、对抗神经网络:名人fake,模拟领导人讲话。最终问题是,模糊真与假的边界,普通人没办法说明是真实的。
(5)伦理问题
(6)隐私问题
《数据安全法》,比《网络空间安全法》,范围更大。马上还要出一个《个人信息保护法》。
但是也不能保护过度,像欧洲,个人隐私保护得都影响产业发展。
有一类隐私,比较好理解,是摄像头偷拍。
还有一类是仔细检查网上行为。这类隐私很难鉴别。比如网络公开信息,都不属于隐私,但是你的点击行为,通过分析,就可以分析性取向、兴趣、喝不喝酒、党派。这就很夸张了。你可能真实不想让人知道,但是我们可以通过公开数据发现这个问题。
因此,对于什么是隐私,我们需要鉴别。
公开数据是不是隐私:从公开数据,用似然估计深度分析个体,算不算违法。
匿名数据是不是隐私:还有scientific data,表面看是全匿名,但是却能被人利用,通过有限得信息推导出来。
你的数据会不会影响别人:基因数据。某人公开自己的基因,发现某个致病基因,会不会影响一类人的正常生活。
大数据和人工智能会给人类世界带来影响,这种影响是结构性的。希望类似孟老师这样的有社会责任感的人,能更多地思考积极和消极的反应。
——整理自(集智俱乐部):《第五届全国大数据与社会计算学术会议》专题报告2:社会计算与数据伦理。