据国外媒体报道,柏林墙倒塌后,东德公民终于有机会阅读到斯塔西(Stasi,东德的国家安全机构,被认为是当时世界上最有效率的情报和秘密警察机构之一)保存的关于他们的资料。然而迄今为止,只有大约10%的人真的去查阅了这些资料。
2007年,脱氧核糖核酸(DNA)结构的发现者之一詹姆斯·沃森(James Watson)表示,他并不想知道自己的载脂蛋白E(ApoE)基因信息。该等位基因被认为是阿尔茨海默症的风险因子。
硅谷崇尚快速试错的文化,但这可能不是我们想要的对待个人信息的方式。
民意调查显示,如果有选择的话,大多数人宁愿不知道自己的死亡日期——甚至是快乐事件的发生日期也不想知道。
以上这些都是故意选择不知道的例子。苏格拉底可能会提出,未经审视的生活不值得过;而霍布斯则会争论称,好奇心是人类最主要的激情;但还有许多古老的故事向我们描述了知道太多也会带来危险。从亚当、夏娃和智慧树,到盗取取火秘密的普罗米修斯,这些故事告诉我们,现实生活中需要在选择知道和不知道之间达成微妙的平衡。
然而,如果出现一种技术,能以无法预知的方式改变这种平衡,同时让我们在决定什么时候保持不知情的问题上变得复杂的话,又会带来什么后果?这种技术其实已经出现了,那就是人工智能。
人工智能可以利用相对较少的数据来找到模式并做出推论。例如,只需要几个Facebook上的点赞就可以预测出你的个性、种族和性别。还有一种计算机算法声称,只需根据人们的照片,就能以81%的准确率区分同性恋和异性恋男性,而区分同性恋和异性恋女性的准确率为71%。另一种名为“替代性制裁的惩罚性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS)的算法则可以通过青少年被捕记录、家庭犯罪记录、教育、社会隔离和休闲活动等数据,来预测犯罪者再犯的可能性,准确率达到65%。
在这些例子中,结论和所用的数据可能在本质上存在着惊人的偏差(即使某些结果的有效性仍在争论中)。这使得控制我们所知道的内容十分困难,而且也没有什么法规来帮助我们保持不知道的状态:不存在受保护的“不知情权”。
于是,这就创造了一种氛围,用Facebook的早期座右铭来说,我们很容易“快速行动,破除陈规”(move fast and break things)。但是,当涉及到我们私人生活的细节时,“破除陈规”是否就是我们想要的呢?
几十年来,政府和立法者都知道“潘多拉的盒子”有时候最好还是不要打开。至少在20世纪90年代,保护个人不知情权利的法律就已经出台。例如,1997年的“欧洲人权和生物医学公约”(European Convention on Human Rights and Biomedicine)规定:“每个人都有权了解其被收集的有关健康状况的任何信息。但是,应当遵从个人不希望被告知的意愿。”类似的,1995年世界医学协会的“患者权利宣言”(Rights of the Patient)中指出:“患者有权利明确要求不被告知(医疗数据),除非是为了保护其他人的生命。”
然而,为人工智能制定“不知情权”法规是完全不同的问题。虽然医疗数据受到严格管制,但人工智能所使用的数据往往掌握在名声不佳的盈利性科技公司手中。人工智能处理的数据类型也更广泛,因此任何相应的法律都需要对什么是“不知情权”有更深入的理解。研究故意不知情的心理将有助于设计适用于人工智能的不知情权法律。不过,令人惊讶的是,这一严谨的科学研究话题长期以来一直被忽略,或许是因为某种隐含的假设,即故意忽略信息是不理性的。