“机器红线”,AI算法的法律法规

当人工智能算法越来越普遍应用于社会时,有一样东西就应该越发地引起大家的注意,那就是“机器红线”,就像是人类社会中除了道德约束还有法律规范,当工程师们在训练算法模型时还应该考虑到,我们“喂”给机器的数据是否符合“法律”。

“机器红线”难以确定,原因一,数据标定标准难定。训练数据前都会对数据进行清洗和标定。有时为了满足业务进度的要求,不会进行全量全分类的处理,表现为例如将某些文本分类为other,或是将只标记出图片中的部分特征。严格的说,我们也无法对他们进行严格而准确的分类。这也是有监督学习类算法的缺点,就是针对特殊业务往往要进行专门的数据标定,而使用的算法却是同一个算法。

“机器红线”难以确定,原因二,数据分析难全面。我们知道任何程序都存在BUG,这也就导致机器很难完美运转,BUG产生的原因有多种,“没有想到某种情况”是程序员最长遇到的原因之一,训练机器模型也是如此,在准备训练数据时应容扩各类发生的情况,机器没有学习的情况势必会造成BUG。但是,往往我们也很难掌握各类情况。除了掌握各类情况,好要调整好处理各种情况的度(参数或系数),这也是“红线”难以确定的原因。

“机器红线”难以确定,原因三,模型成长环境差异,就像环境会对人的成长产生影响,AI算法模型的训练环境对算法结果影响也很大。随着AI的普及,尤其是深入普通大众的生活处处时,机器训练环境变得没有边界,如果没有“红线”,各类数据都被机器学习,很难保证机器会想人类预想的方向发展。

随着通信网络不断升级,未来5G甚至6G,7G的时代都会到来,互联网更加通畅,各类机器学习算法也会拥有更为广泛的训练数据,然而,能量越大责任也应该越大,应该规范“机器红线”,使“机器红线”更具有约束性和现实意义。


个人随想灵感来源:模型训练时分析数据,后又想到机器人定律。

你可能感兴趣的:(“机器红线”,AI算法的法律法规)