/ Roadtovr / 0浏览

白宫对人工智能革命的看法:政策、隐私和图形处理单元

人工智能有潜力颠覆我们社会的多个方面,以至于白宫科学技术政策办公室最近宣布了一系列四个公开研讨会,探讨人工智能的可能影响。其中第一次研讨会于5月24日星期二在华盛顿大学举行,我参与了其中的讨论,以探讨这些讨论可能对虚拟现实社区产生的影响。
第一次人工智能公开讨论会以法律和政策为重点,我有机会与三位不同的人就他们对人工智能的观点进行了交谈。我采访了美国副首席技术官爱德华·费尔顿关于这些研讨会是如何产生的以及政府对解决该问题的计划。
我还与研讨会的与会者、隐私倡导者希拉·迪恩进行了交谈,讨论了人工智能算法对被识别个体作出判断的影响,以及NVIDIA公司外联副总裁内德·芬克尔就高端图形处理器在人工智能革命中的角色进行了讨论。
这次活动有一些与虚拟现实社区相关的要点需要注意。
首先,会有多个隐私问题存在,例如由虚拟现实技术收集的生物特征数据,包括眼动、注意力、心率、情感状态、肢体语言,甚至是肌肉电图数据或脑电波。现在有很多公司正在使用机器学习技术来分析和理解这些原始数据流。存储此类生物特征数据及其含义可能会对隐私产生一定影响。例如,Conor Russomanno警告我,脑电波数据可能具有唯一的指纹,因此存储匿名化的脑电波数据可能仍然可以被追踪到你的身份。
我还与Linden Lab公司的埃布·阿尔特伯格讨论了追踪用户行为和数据的问题,我们讨论了基于观察行为而禁止用户的公司可能存在的潜在危险。是否会有人工智能方法根据行为数据或社区反馈综合评估授予或拒绝访问虚拟空间的权限?
另外,希拉·迪恩对于在这些基于人工智能的追踪解决方案中很少有声音倡导用户隐私权的情况表示担忧。她认为,我们正处于一个隐私意识和权利不断侵蚀的战斗中,用户需要意识到当人工智能神经网络开始将我们标记为数据库中的目标时,其中的风险。她认为,消费者应该倡导数据访问、隐私通知同意、隐私控制,并更加关注自己的隐私权。我们有权要求公司和政府向我们提供他们拥有关于我们的数据的副本,因为我们仍然拥有我们的所有数据。
希拉对奥伦·埃奇奥尼(Oren Etzioni)的演示也有强烈反应。埃奇奥尼是艾伦人工智能研究所(Allen Institute for Artificial Intelligence)的首席执行官,他对人工智能和风险持有乐观态度。他有一张将SkyNet标记为“好莱坞神话”的幻灯片,但希拉指出,SkyNet是一个真实的NSA计划。她引用了The Intercept的一篇文章指出,有一个名为SKYNET的NSA计划使用人工智能技术识别恐怖分子目标。
与此同时,SkyNet在人工智能讨论中被视为“希特勒”,我们或许可以将哥德温定律改编为“随着(关于人工智能的)在线讨论的延长,涉及(SkyNet)的比较出现的概率趋近于1。”由好莱坞的反乌托邦科幻剧播种的对人工智能(AI)的夸大恐惧,可能会阻碍AI在许多方面为公共利益做出贡献,从拯救生命到使我们更加聪明。

微软研究院的凯特·克劳福德(Kate Crawford)认为,直接讨论“天网”的讨论会使实际和细致的讨论变得困难。她主张计算机科学界加强伦理规范,采取更多学科交叉的方法来包容尽可能多的不同观点。

在Unity的VR/AR Vision Summit上,亚历克斯·麦克道尔(Alex McDowell)在演讲中阐述了VR代表了对多元视角重新重视。故事以前是通过口头传统代代相传的,部落会根据他们最近的个人故事和经历来添加和改编故事。

亚历克斯说,印刷、电影和电视的出现标志着我们开始看到主要来自单一视角的故事的官方版本。但是VR有潜力向我们展示第一人称视角的脆弱性,并且因此更加强调确保我们的机器学习方法涵盖了多个领域的多样性。

目前,AI在特定应用上是非常狭窄的,但迈向人工通用智能意味着我们将不得不发现一些可转移的基本原则,以建立一个通用智能的常识框架。人工通用智能是AI中尚未解决的难题之一,迄今为止还没有人知道如何解决。但很可能需要跨学科的合作、整体思维和其他尚未被发现的要素。

这个AI研讨会对我来说还有另一个心得,那就是VR爱好者将拥有训练AI网络所需的硬件。任何可以运行Oculus Rift或HTC Vive的PC都将配备高端显卡;GTX 970、980或1080都是NVIDIA用于训练神经网络的更高端GPU中使用的架构。

当VR玩家不在玩VR体验时,他们可以利用其计算机的并行处理能力来训练神经网络。游戏和虚拟现实一直是GPU技术的关键驱动因素,因此AI和VR在支持AI和VR革命的技术层面上具有非常协同的关系。

自动驾驶汽车也将配备功能强大的GPU作为并行处理的大脑,以实现计算机视觉传感器和不断训练神经网络驾驶方法。这些新驾驶平台可能会产生许多我们甚至还未考虑到的意想不到的后果。

我们会驾驶由车载GPU驱动的VR吗?还是会用我们的汽车来训练AI神经网络?或者在未来,我们会放弃拥有汽车,而转向自动化交通服务作为我们主要的出行方式?

我们的社会也正在从信息时代转变为经验时代。在信息时代,计算机算法是由人类编写的逻辑和理性代码,可以由人类进行调试和深入理解。在经验时代,机器学习神经网络通过人类的“经验”进行指导训练。人类在整个训练过程中进行策划、创作和与这些神经网络合作。但是一旦这些神经网络开始做出决策,人类在描述为何做出这样的决策时可能会感到困难,特别是在机器学习过程开始超过人类智能的情况下。我们需要开始创造能够理解和向我们解释其他AI算法行为的AI。

因为机器学习程序需要人类进行训练,AI存在着这样的风险,即一些我们自己的偏见和偏好可能会被嵌入到AI中,从而产生无意识的偏见和不公正。偏见和偏见可能会转移到计算机程序中。Pro Publica对机器偏见进行了长达一年的调查,他们发现预测未来罪犯的软件“对黑人持有偏见”。
人工智能提出了许多有趣的法律、经济和安全问题,美国副首席技术官埃德·费尔顿表示:“然而,像任何变革性技术一样,人工智能也带有一些风险,并提出了一些复杂的政策挑战,涉及从就业和经济到安全和监管问题等多个维度。”
一整个工种可能被人工智能取代,其中最容易受到风险的可能是卡车司机。佩德罗·多明戈斯表示,目前人工智能相对来说还比较狭窄,所以工作所需的各种技能和常识越广泛,你的工作就越安全。随着许多工作岗位可能被人工智能取代,虚拟现实可能在帮助被解雇的工人进行新的工作技能培训方面发挥重要作用。
人工智能将对我们的社会产生深远影响,政府开始注意并采取主动措施征求反馈,并就人工智能举办公开研讨会。第一次人工智能研讨会是关于人工智能的法律和治理影响,并在过去的周二在华盛顿州西雅图举行。
以下是即将举行的另外三个人工智能研讨会:

2016年6月7日:华盛顿特区的人工智能社会公益研讨会
2016年6月28日:匹兹堡市的人工智能安全与控制研讨会
7月7日:人工智能技术的社会和经济影响近期内在纽约市

这是第一次人工智能公开研讨会的现场直播存档:人工智能:法律与政策
以下是对此事件的一些报道:

第一次白宫人工智能研讨会集中讨论机器(加人类)如何改变政府
当机器人成为有罪一方时该怎么办

Darius Kazemi是一位创建人工智能机器人的艺术家,他在这里进行了一些实时推文报道,并发表了很多评论:

今天我在华盛顿大学参加AI:法律与政策@白宫的活动。https://t.co/rbQhDB9jEt
– Darius Kazemi(@tinysubversions) 2016年5月24日

如果您对人工智能的未来有想法,您应该很快就能在白宫科学与技术政策办公室的博客上找到有关此事的信息请求(RFI)。

0

  1. This post has no comment yet

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注