您现在的位置:首页 >> 新•资讯 >> 正文
人工智能时代该如何夺回我们的“不知情权”
发表时间:2018年7月5日 12:27 来源:新浪科技 责任编辑:编 辑:麒麟

保护不知情权权更激进——也可能更有效——的方法是第一时间防止数据被收集。2017年,德国做出了一项开创性的举措,立法禁止自动驾驶汽车通过种族、年龄和性别来识别道路上的人。这意味着汽车将无法通过这些类别的数据来做出驾驶决策,尤其是在事故不可避免时需要做出的决策。

基于相同的思维方式,欧盟推出了新的《通用数据保护条例》(General Data Protection Regulation,GDPR),并于2018年5月生效。该条例规定,只允许公司在提供明确的指定服务时,收集和存储必需的最少量数据,并且获得客户对其数据使用方式的同意。这种对数据获取的限制可能也会阻止二级推理。但《通用数据保护条例》的一个重要局限是,公司可以为自己设定非常宽泛的目标。例如,如今已经关门的剑桥分析(Cambridge Analytica)公司的明确目标是评估用户的个性,因此在技术上,它对Facebook数据的收集符合《通用数据保护条例》的规定。同样的,只要用户同意——许多人即使在奖励相当微薄的情况下也会同意分享自己的数据——《通用数据保护条例》对数据和给定服务之间一致性的关注就无法排除道德上有问题的数据类别,也不能完全阻止公司从数据中介那里购买被排除的数据。研究人员发现,麻省理工学院的一些学生会分享他们朋友的联系数据,只为了获得一小片披萨。显然,我们还需要更多的限制手段,但究竟需要多少呢?

美国程序员、自由软件活动家理查德·斯托曼(Richard Stallman)说:“利用数据来害人的方法太多了,以至于唯一安全的数据库就是从未被收集过的数据库。”然而,如果对数据采集的限制过于严厉,又可能会阻碍人工智能的发展,并减少我们从中获得的收益。

谁应该权衡其中的利弊?首先应该是我们自己。

在大多数情况下,我们谈论的其实是你我作为个人所拥有的数据。我们一直都很粗心大意,将这些数据拱手让给各种闪亮的app,丝毫不考虑后果。事实上,我们一直在放弃我们的数据,以至于忘记了一开始它就是属于我们的。收回数据将使我们每个人都能决定哪些事情想知道,哪些不想知道。让数据回到合适的人——也就是我们自己——手中,就可以巧妙地解决我们讨论的许多艰巨问题。我们不再需要制定通用的预见性指导规范,相反的,数以百万计的个体将根据自己的是非观来决定自身数据的用途。我们可以对公司如何使用数据做出实时反应,根据他们对待数据的方式来进行惩罚或奖励。

关于把数据放回人们手中,计算机科学哲学家杰伦·拉尼尔(Jaron Lanier)提出了一个经济学上的论据。他指出,通过将我们自己的个人数据卖给大公司,我们应该都能从中受益。这种方法存在着两个问题。首先,它混淆了数据使用和所有权的道德规范。在回答数据应该如何被使用的问题时,免费提供数据的意愿在道德完整性上是很好的试金石。一个小众群体中有多少人会愿意免费提供数据,以创建一个像“同志雷达”这样的面部识别应用程序?又有多少人会愿意为此付费?另一方面,大多数人会很乐意贡献他们的数据来寻找治疗癌症的方法。第二个问题是,赋予个人数据(较高的)经济价值可能会迫使人们分享他们的数据,并使数据隐私成为富人的特权。

这并不是说个人的单独行动就足够了,社会机构的集体行动也是必需的。即使只有小部分人口分享他们的敏感数据,其结果也可能具有大多数人反对的高预测准确性。并不是所有人都明白这一点。为了防止不必要的后果,我们需要更多的法律和公共讨论。

《经济学人》曾写道,世界上最宝贵的资源不再是石油,而是数据。然而,数据与石油有着很大不同。数据是无限的资源,由个人所有,并且通常是在没有交易价值的情况下进行交换。从石油中获利便杀死了石油市场。作为第一步,从数据中获取利润将为我们提供空间,用于创造和维持能在人工智能到来之后延续的道德标准,并为管理集体的不知情权铺平道路。换句话说,在数据成为现代世界最有用的商品之一的同时,它也需要成为最便宜的商品之一。

[1]  [2]  [3]  
相关文章
关于我们 | 联系我们 | 友情链接 | 版权声明
新科技网络【京ICP备15027068号】
Copyright © 2015 Hnetn.com, All Right Reserved
版权所有 新科技网络
本站郑重声明:本站所载文章、数据仅供参考,使用前请核实,风险自负。