计世网

AI如何设计才能人类利益最大化?
来源:猎云网
2019-03-08
曾为现代互联网早期协议和架构设计做出贡献的Vint Cerf,用一个寓言来解释为什么在人工智能等新兴技术出现后,勇敢的领导力至关重要。

 

想象一下,你住在一个被群山环绕的山谷底部的小社区里。在远处的山顶上有一块巨石,它已经存在了很长时间,从未移动过,所以就你的社区而言,它只是景观的一部分。然后有一天,你会注意到那块巨石看起来不稳定,如果它滚下山,会摧毁你的社区和里面的每个人。事实上,你也许意识到,也许你一生都忽视了它的移动。那块巨石一直在一点一点地移动,但是你从来没有仔细观察每天发生的细微变化,比如它投下的阴影发生了微小的变化,它和下一座山之间的视觉距离,以及它与地面摩擦发出的几乎察觉不到的声音。你意识到,自己一个人无法独自跑上山去阻止巨石的移动,你太渺小了,而巨石又太大了。

但是随后你意识到,如果能找到一颗鹅卵石,并把它放在正确的位置,它会减缓巨石的动量,稍微扭转移动的趋势。但仅仅一颗鹅卵石无法阻止巨石摧毁村庄,所以你要求整个社区加入你的行列。每个人手中都拿着鹅卵石,爬上了这座山,并为此做好了准备。显然,是人和鹅卵石产生了所有的作用,而并不是那块巨石。

安全有益的技术不是希望和偶然的结果,它是勇敢的领导力和专注持续合作的产物。但是目前,人工智能社区充满着各种目的的竞争。

人工智能的未来——也就是人类的未来——已经被九大科技巨头所控制。这些科技巨头正在开发框架、芯片组和网络,资助了大部分研究,获得了大部分专利,并且在这个过程中以不透明或不可见的方式挖掘着我们的数据。其中六家科技巨头在美国,我称他们为G-MAFIA:谷歌、微软、亚马逊、Facebook、IBM和苹果。剩下三家在中国,也就是BAT:百度、阿里巴巴和腾讯。

为了满足短视的期望,这九大科技巨头分别面临着来自美国华尔街和中国北京的巨大压力,即使我们可能会为未来付出巨大的代价。我们必须授权并鼓励九大巨头改变人工智能的发展轨迹,因为如果没有我们的大力支持,他们不能也不会自己去做。

接下来要做的就是一系列鹅卵石,它们可以让人类走上通往未来的更好道路。

九大巨头的领导者都承诺,他们正在开发和推广人工智能,以造福人类。我相信这是他们的本意,但是履行这一承诺是非常困难的。首先,我们应该如何定义“造福”?这个词到底是什么意思?这又回到了人工智能社区内部的问题。我们无法让所有人都同意“造福”,因为这个宽泛的说法实在太模糊了,无法引导人工智能社区。

例如,受西方道德哲学家Immanuel Kant启发的人工智能社区,学习如何将权利与义务系统预先编程到某些人工智能系统中。杀人是不好的,救人是好的。如果人工智能控制着汽车,并且它唯一的选择是撞上一棵树并伤害司机,或者撞上一群人并杀死他们,那么这种逻辑就会存在问题。僵硬的解释不能解决更复杂的现实环境,因为在现实环境中,选择可能会更加多样:撞上一棵树并杀死司机;撞上人群并杀死八个人;撞到人行道上,只杀死了一个三岁的男孩。在这些例子中,我们如何定义“好”的最佳版本?

同样,框架对九大巨头来说也很有用。他们不需要精通哲学,他们只是要求一种更慢、更认真的方法。九大巨头应该采取具体措施来收集、培训和使用我们的数据,雇佣员工,以及在工作场所传达道德行为。

在这个过程的每一步,九大巨头都应该分析自己的行为,并确定他们是否正在造成未来的伤害,他们也应该能够验证自己的选择是否是正确的。这样的要求需要有关于偏见和透明度的明确标准。

然而现在,并没有单一的基线或标准来评估偏见,也没有人在寻求克服目前人工智能中存在的偏见。以我自己在中国的经历,这种没有把安全放在速度之上的机制,会产生令人担心的后果。

此外,透明度也没有标准。在美国,G-MAFIA和美国公民自由联盟、新美国基金会以及哈佛大学伯克曼·克莱因中心都在人工智能上进行了合作,旨在提高人工智能研究的透明度。这些合作伙伴发布了一系列非常棒的建议,帮助引导人工智能研究朝着积极的方向发展,但是这些原则并不能以任何方式实施,而且在G-MAFIA的所有业务部门中也没有被遵守。BAT也同样如此。

九大巨头正在使用充满偏见的有缺陷的语料库训练数据集。这是众所周知的事实,而改进数据和学习模式又是一项巨大的财务负担。比如ImageNet,一个有严重问题的语料库。ImageNet包含1400万张标记图像,其中大约一半的标记数据来自美国。

在美国,新娘的“传统”形象是穿着白色连衣裙和面纱的女人,尽管在现实中,这种形象并不能代表大多数人的婚礼。有些女人会选择穿着长裤结婚,有些则穿着色彩鲜艳的夏装在沙滩上结婚,有些穿着和服或纱丽结婚。然而,除了白色的裙子和面纱之外,ImageNet无法识别出其他新娘。

我们也知道医疗数据集存在问题。接受识别癌症训练的系统主要采用的是浅色皮肤的摄取照片和扫描。在未来,它可能会导致黑褐色皮肤的人被误诊。如果九大巨头知道语料库中存在问题,却没有采取任何措施,那么他们将把人工智能引向错误的道路。

其中一种解决方案是开放人工智能,并评估当前使用的所有训练数据。作为一个小项目,IBM的印度研究实验室分析了1969年至2017年间入围曼布克文学奖的作品。它揭示了“书中普遍存在的性别偏见和刻板印象,这些偏见和刻板印象体现在不同的特征上,如职业、介绍和与书中人物相关的行为。”男性角色更有可能有更高层次的工作,如导演、教授和医生,而女性角色则更有可能被描述为“老师”或“妓女”。

如果使用自然语言处理、图形算法和其他基本的机器学习技术能够发现文学奖项中的偏见,那么这些技术也可以被用来发现流行训练数据集中的偏见。一旦发现问题,就应该及时发布并进行修复。这样的操作具有双重目的,因为训练数据可能会受到熵的影响,进而可能会危及整个系统。有了定期的关注,训练数据就可以保持健康。

另一个解决方案是九大巨头——或者至少是G-MAFIA——分担创建新训练集的费用。这是一个很大的要求,因为创建新的语料库需要大量的时间、金钱和人力资本。在我们成功审查人工智能系统和语料库并修复其中现存的问题之前,九大巨头应该坚持让人类注释者给内容贴上标签,并使整个过程透明化。然后,在使用这些语料库之前,他们应该验证数据。这将是一个艰巨而乏味的过程,但将符合整个领域的最佳利益。

是的,九大巨头需要我们的数据。然而,他们应该赢得而不是假设拥有我们的信任。与其用晦涩难懂的语言改变服务协议条款,或者邀请我们玩病毒式宣传游戏,他们应该解释并披露自己在做什么。当九大巨头独立或与人工智能生态系统中的其他参与者合作进行研究时,他们应该致力于数据披露,并充分解释动机和预期结果。如果他们选择这样做,我们可能会愿意参与并支持他们的工作。

九大巨头应该寻求一个清醒的研究议程。目标简单明了,就是构建技术,并在不危及我们的情况下提升人类水平。要想实现这一目标,可以通过一种叫做“差别技术进步”的方式。它会把减少风险的人工智能系统置于增加风险的系统之上。这是个好主意,但很难实施。例如,情景中提到的生成性对抗网络,如果被黑客利用和使用,可能会非常危险。但它们也是研究取得巨大成就的途径。与其假设没有人会将人工智能重新用于邪恶目的——或者假设我们可以简单地处理出现的问题——九大巨头应该开发一个过程来评估新的基础研究或应用研究是否会产生一种好处远胜任何风险的人工智能。为此,九大巨头接受或做出的任何金融投资都应该包括有益使用和风险规划的资金。例如,如果谷歌追求生成性对抗网络研究,它应该花费合理的时间、人力资源和金钱来调查、绘制和测试负面影响。

这样的要求也有助于抑制对快速利润的预期。故意减缓人工智能的开发周期并不是一个流行的建议,但它却是至关重要的。对我们来说,提前思考和计划风险比在事情出错后简单地做出反应更安全。

在美国,G-MAFIA可以承诺重新调整自己的招聘流程,优先考虑潜在员工的技能,以及他们是否会融入公司文化。这个过程无意中忽略了对道德的个人理解。作为一位备受尊敬的数据科学家,同时也是Fast Forward Labs的创始人,Hilary Mason在采访中解释了一个简单的道德筛选过程。她建议问一些尖锐的问题,并专心聆听候选人的回答。比如:“你正在研究一种让消费者获得金融服务的模式。种族是模型中的一个重要特征,但是你不能使用种族特征。对此你会怎么做?”;“你被要求使用网络流量数据向小企业提供贷款。事实证明,现有数据并没有严格告知信贷风险。你会怎么做?”

候选人应该根据答案被有条件地录用,并且在开始工作之前必须完成无意识的偏见培训。九大巨头可以通过雇佣学者、训练有素的伦理学家和风险分析师来建立一种支持人工智能伦理的文化。理想情况下,这些专家将嵌入整个组织之中,包括消费者硬件、软件和产品团队;销售和服务团队;共同领导的技术项目;建立网络和供应链;设计和策略团队;人力资源和法律团队;以及营销和宣传团队。

九大巨头应该制定一个流程来评估研究、工作流程、项目、合作伙伴关系和产品的道德影响,这个流程也应该融入公司的大部分工作职能中。作为一种信任的姿态,九大巨头应该公布这一过程,这样我们就能更好地理解对数据做出决策的方法。无论是合作还是独立开发,九大巨头都应该为人工智能员工制定一套专门的行为准则。它应该反映基本人权,也应该反映公司独特的文化和价值观。如果有人违反了该守则,应向工作人员开放一个清晰的保护性举报渠道。

实际上,所有这些措施都将暂时对九大巨头的短期收入产生负面影响。投资者也需要给他们一些喘息的空间。

人工智能是一个很广阔的领域,而我们才刚刚开始上山。是时候抓住我们的鹅卵石,踏上正确的道路了。

责任编辑:何周重