读书笔记:《权力之治:人工智能时代的算法规制》


不可忽视的是技术的局限,人性的微妙,社会关系的复杂和利益的强大力量。


文章目录

  • 算法概念和规制溯源
    • 前言:算法:从数学到黑箱
    • 1. 算法规制的溯源与演进
  • 算法权力规制的制度框架
    • 2. 算法权力的兴起和异化
    • 3. 算法权力治理的制度框架
  • 算法权力的典型代表场景
    • 4. 搜索引擎自动补足算法
    • 5. 社交媒体推荐算法
    • 6. 行政活动算法
    • 7. 司法活动算法
  • 算法权力规制的具体制度
    • 8. 平台监管的算法问责制度
    • 9. 《电子商务法》中的算法责任
    • 10. 算法解释权制度
    • 11. 算法决策与人的自主性
    • 12. 域外算法的规制制度


算法概念和规制溯源

前言:算法:从数学到黑箱

算法就是收集处理数据,挖掘数据价值的生产工具。算法变得重要的根本原因是数据成为了社会生产要素,而算法决定了数据的价值。

用户一旦进入智能平台的服务架构,就放弃了自己对自身数据,隐私和虚拟物品的真正控制力,成为了被平台算法计算和分配的资源。

算法推荐的基础价值在于海量信息的甄选,核心价值在于内容的精准分发,关键价值在于观点的洞悉反馈,终极价值在于意识形态的强化和引导。

1. 算法规制的溯源与演进

即使算法造成了不利法律后果,法律也倾向于以算法设计时的主观过错状态为标准,判断其是否构成侵权。

同时很多国家也开始要求社交平台主动承担监控义务,对用户上传的恐怖,色情,仇恨等非法内容加强监管并承担法律责任。

算法权力规制的制度框架

2. 算法权力的兴起和异化

智能算法的自主决策,使得算法从提高效率的工具,上升为决策者。

算法暴政:采用算法和大数据作出的自动决策,一旦发生决策错误,缺乏有效的救济渠道。

浙江每日互动股份有限公司(个推)成立于2010年,是专业的数据智能服务商,致力于用数据让产业更智能。

3. 算法权力治理的制度框架

不再坚持数据的客观性和中立性,而关注技术理性隐藏的人为因素,注重算法的道德评价。

  1. 设计阶段:算法伦理,披露责任;
  2. 运营阶段:以公共利益为目标,而不只是商业利益;
  3. 事后救济:解释权,相对人可以向算法使用人提出异议,要求对算法的具体决策提供解释,并有更新数据和更正错误的权利。

算法权力的典型代表场景

4. 搜索引擎自动补足算法

  • 作用论【信道】:技术中立原则,销售一种同时具有合法和非法用途的商品时,可免侵权责任。
  • 地位论【信源】:搜索引擎的自动补全,作为信息发布者,言论自由受到保护。

搜索引擎承担基于通知-删除规则的义务,能够证明其已经穷尽技术手段,且并未违反防范义务的,无需承担违法责任。

把正确的价值观融入算法。

  1. 成本收益思想,将个人利益和公共利益进行收益权衡;
  2. 兼顾公平,履行防范义务的算法不具有可责难性,用户的个人利益损害严重时也可以得到救济。

5. 社交媒体推荐算法

过度利用用户的偏好数据推送信息,可能造成用户接受的观点越来越极端。

传统媒体由传统媒体组织决定新闻价值,而社交媒体由社交媒体用户决定新闻价值。

社交媒体在推送热点的同时也要避免负面,虚假的新闻。

社交媒体的治理,实际上是政府的安全目标,社会的公共利益和社交媒体的商业利益之间的三方博弈。

6. 行政活动算法

最佳的惩罚额度应等于损害除以发现的概率。

正当程序制度要求行政机关在行政行为作出前对相对人发送足够的信息,在作出后也要求提供纠正信息的途径。

算法公开缺失:商业秘密不愿公开;算法黑箱公开不能。

政府部门的数据和权力,以及私营公司的技术力量结合,发展出了主宰城市运行的智能系统。

预算算法依据的是大数据的相关关系而不是因果关系,因此无法提供理由说明。

7. 司法活动算法

算法技术与司法活动存在契合难题:

  1. 法律背后的意义,法律原则的衡量以及自由裁量权的限度,难以进行数据化;
  2. 自由心证的特殊性,使得算法系统难以完全模拟法律思维;
  3. 无法确保复杂的法律条文和判例正确地转化为代码。

算法权力规制的具体制度

8. 平台监管的算法问责制度

确立通知删除规则,允许网络平台被动中立,无需主动发现和介入违法事实。

归根结底,技术要由人来负责,负责的根本依据是其在设计和部署时的主观意图。

  1. 过错的事前认定,算法评估与备案:人与算法系统之间的主要区别在于,人能够协商有冲突的价值和规则,而算法系统需要在设计时就考虑这些价值的优先顺序。
  2. 过错的事后认定,平台的算法解释制度

9. 《电子商务法》中的算法责任

  1. 搜索类算法的明示义务:应当明示竞价排名和推荐排名;
  2. 推荐类算法的自然结果提供义务:应当同时向该消费者提供不针对其个人特征的结果;
  3. 个性化推荐类算法的消费者保护义务:以个性化和差异化服务获取更大利润的同时,不得以此损害消费者的利益,不得进行大数据杀熟和价格歧视。

10. 算法解释权制度

意思自治的基本原则:用户同意的内容应该被合理告知,任何人都不应该为自己所不了解的事情负有义务。

算法分类:

  1. 排序算法:搜索引擎
  2. 分类算法:信用评分,社交评分
  3. 相关性算法:预测发展趋势
  4. 过滤算法

对自动化决策算法的解释,目的是追溯自动化决策结果的来源,考察自动化决策的价值考量,而非获得自动化决策的技术细节。

算法在设计时往往并无偏见,训练算法的数据具有偏见和歧视才使得算法的自动化决策结果出现了歧视。算法作为技术并无歧视,而是在应用中才发生了歧视。

11. 算法决策与人的自主性

人的数据化消解了人的主体性,将个体的人作为冰冷的数据,将群体的人作为可以被控制,分解,改变,交易和消费的数据库。人也在此过程中从决策的主体,沦为了决策的客体。

欧盟《通用数据保护条例》:

  1. 数据主体享有拒绝自动化决策的权利,赋予数据主体自决的权利,以免受算法的自动化决策。
  2. 如果决策结果是纯粹的算法作出的,且对数据主体由法律效力或重大影响,数据主体有权拒绝某些自动化决策的结果。
  3. 除了直接拒绝已有的自动化决策,数据主体还可以对具体的自动化决策提出异议。

扩张信息自决:

  1. 逃离算法决策程序的自由
  2. 离开网络的自由,法律应该要求某些服务必须同时为使用和不使用网络的人提供,以免造成对不上网的人的歧视。
    1. 网络的功能应该是给人类带来便利,而并非剥夺人在现实社会生活的权利。

12. 域外算法的规制制度

如果说自由市场中存在价格这只看不见的手调配资源,那么在数据的应用和流动中,算法就是那只调配数据的看不见的手。

算法规制的启动:

  1. 算法使用规模标准:将算法应用设计的用户数量作为高风险标准是为了避免算法造成的系统性风险。
  2. 算法敏感程度标准:涉及司法行政,公共利益,个人利益的算法敏感程度不同。
  3. 算法的分级评估制度。

你可能感兴趣的:(读书笔记,算法,人工智能)