/ Voiceofvr / 0浏览

通过人类学和技术伦理学的视角对Facebook的负责任创新原则和Project Aria进行批判

Voices of VR播客

介绍

大家好,我是Ken Fai,欢迎收听《Voices of VR》播客。在今天的节目中,我们将通过Facebook的ARIA项目来探讨其负责创新原则,该项目于2020年9月16日在Facebook Connect上宣布。Facebook声称,他们正在研究一款眼镜,虽然这只是一个研究项目,但他们需要弄清楚其伦理影响。因此,他们决定将这些AR眼镜给员工佩戴,带他们走出公共场所,记录数据,以帮助理解相关的伦理问题。

关于项目ARIA的说明

现在这些眼镜是正在研发的AR的前身,它们在镜片内并不显示任何信息,不能销售,也不是原型机,而是一个研究设备,旨在帮助我们了解如何构建真正可用的AR眼镜。从九月份开始,一些特别训练的Facebook员工和承包商将会在真实的环境中佩戴这些眼镜,内置的传感器将捕捉视频、音频、眼动和位置信息,所有这些都将帮助我们在向公众发布AR眼镜之前回答一些必须提出的问题。

研发过程中的伦理考量

一些人类学家和技术伦理专家看到了这一点,并表示,嘿,我们可以预见在这里会出现一些问题。在Facebook宣布项目ARIA的同时,他们还公布了一套负责创新原则,基本原则包括:不要让人感到意外、提供重要的控制、考虑到每个人,并以人为本。我将播放一段Boz谈论他们的负责创新原则的片段。在更广泛的层面上,这一切都是为了将一组负责创新的原则付诸实践,这些原则指导了我们在实验室中的工作。

责任创新原则

在Facebook,原则不仅仅是一组好听的说法,它们描述了权衡,这些是我们即使反向做可能获得好处时仍要执行的事情。例如,在构建产品时,我们应该对数据的收集和使用何时透明,以免让人感到意外。我们将建立简单易懂的控制手段,并清楚地表明选择的含义,同时我们为所有背景的人构建产品,包括那些根本不使用我们的产品但可能会受到影响的人。

批判与分析

然而,目前还没有很多关于这一框架的批判性分析,尤其是在如何应对伦理问题时,他们是否有考虑到内部的冲突以及实际运作的透明度或监督。Sally Aplin和Catherine Flick两人注意到了这一点,他们在Twitter上看到这一初步宣布,之后深入研究,并撰写了一篇标题为《Facebook的项目ARIA表明在公共领域广泛部署AR和其他普遍技术时的负责创新问题》的论文。

关于参与讨论的研究者

就在上个星期二,XRSI的Kavya Proman参加了一场关于沉浸式技术的负责创新的数据对话,而我在想这两位研究者是否被邀请到讨论中,结果发现她们并没有被邀请。因此,我决定联系她们,深入分析她们撰写的文章,不仅仅是讨论项目ARIA及围绕旁观者和公共利益的关注,也探讨这一负责创新原则如何与其他技术伦理和负责创新原则相结合,逐条解析这些不同的原则。

嘉宾介绍

我们今天的采访对象是Sally Aplin和Catherine Flick,采访时间是2021年4月28日。本次对话将讨论围绕技术伦理的多个方面,展示两位嘉宾的专业背景和观点,带来更深入的理解。

结语

在接下来的讨论中,我们将逐步探索Facebook的负责创新原则及其在技术开发中的意义,关注项目ARIA的伦理问题,以及如何在技术快速发展的时代保护公共利益和个体权利。