/ Voiceofvr / 0浏览

EFf对XR隐私的观点以及AR/VR需要一个人权框架+联合国隐私决议的时间线

The Voices of VR Podcast

Introduction

你好,我的名字是 Ken Bye,欢迎来到《Voices of VR》播客节目。

电子前沿基金会(Electronic Frontier Foundation,简称 EFF)是一家非营利组织,致力于研究在线的公民自由和数字权利,已有 30 年历史,自 1990 年以来一直在关注这些问题。最近举行了一场 RightsCon 会议,汇集了人权活动家和律师,关注数字技术与人权之间的交叉点。EFF 组织了一场名为“随着 AR 和 VR 成为现实,需要人权框架”的整个会议环节。因此,他们邀请我帮助向社区介绍虚拟现实,并进行不同主题的小组讨论。

我想与 EFF 的组织者在会议结束后的第二天汇聚在一起,进行一次小型的汇报,同时从法律、政策、技术和文化的角度审视技术隐私、公民自由和数字权利这一议题。每一个方面都有不同的代表,能够涵盖每一个不同的角度。这就是今天《Voices of VR》播客节目的内容。

会议参与者介绍

这段采访与 Kurt、Katitza、John 和 Rory 发生在 2021 年 6 月 11 日,接下来让我们直接深入主题。

大家好,我是 Kurt Opsahl,电子前沿基金会的副执行董事和总法律顾问。我们一直在努力争取在线的公民自由和数字权利,EFF 已经成立了整整 30 年。随着互联网的演变,网络的发展,我们一直在关注用户,确保随着未来的发展,我们创造出一个值得我们生活的未来。而未来的一部分将是 VR 和 AR 技术。因此,我们开始研究民权和公民自由框架在 VR 领域的运作方式,人权在这个领域又是如何运作的。

大家好,我是 Katitza Rodriguez,EFF 的全球隐私政策主任。我们目前正在处理许多隐私和监视方面的问题,尤其是深入探讨 AR 和 VR 相关的隐私问题。非常感谢邀请我。

我是 John Kalis,EFF 的技术项目主任。我的团队负责所有我们制作的产品,如 Privacy Badger 和 Certbot,监控地图(Atlas of Surveillance),同时我们还为律师和活动家提供技术支持。

我是 Rory Mehr,我使用他们/它们的代名词,EFF 的基层倡导组织者,属于组织团队的一部分。我有幸能够与美国各地参与地方组织的不同团体见面。我对 VR 的兴趣实际上是受到这些团体的启发的。去年夏天,在疫情开始时,因开始在 VR 中举行地方组织活动,我的这一道路就此启动。

对话的背景

很好,我知道在 2018 年 11 月我参加过 VR 隐私峰会,遇到了来自 EFF 的 Dave Moss,他非常热衷于 VR,希望将更多人从 EFF 中吸纳进来。但在 2018 年,那时的技术仍处于非常初期阶段。近年来,我觉得商业动能略有增加,我也非常高兴看到 EFF 开始发布了一些关于虚拟现实和隐私的文章。

在 Facebook 宣布将所有用户账户整合为一个 Facebook 用户账户之后,EFF 在约一周后发布了第一篇关于 VR 和隐私的文章,接着是项目 ARIA,探讨其各种影响,然后开始讨论旁观者和隐私问题,年末的文章以及最近提到的虚拟化身等。就在上周,RightsCon 会议开始着眼于通过人权框架来审视隐私问题。此外,Rafael Usta 和神经权利(neuro rights)的倡导也开始关注人权方法。

在美国,隐私的问题相当复杂,我很想听听你们的入门旅程,因为对于 EFF 来说,谈论公民自由和人权的方法似乎正在浮现。我觉得这可能会对美国法律施加压力。你们能否从这个角度来情境化一下呢?

法律与人权的结合

我认为,我们长期以来一直关注在线人权的应用。人权是一个很好的措辞,可以涵盖我们关心的众多权利,例如表达、隐私和自主权。因此将这些应用于 VR 空间,看起来自然合适,尤其是像 RightsCon 这样关注人权并汇聚众多全球人权捍卫者的会议。我想对许多人来说,他们可能在 VR 方面没有太多经验,但我们经历了一个相当大的群体,他们曾尝试过,我们在小组讨论开始时也有这样的提问。所以,这部分是为了介绍这个主题,让人们开始进行讨论,以便将这些长期存在的原则应用到一个新领域。

我的工作重点是全球隐私问题。在我们的工作中,我们对世界各国的许多宪法进行了比较分析,隐私权在许多宪法中是基本权利。此外,联合国几年前通过了一项关于隐私权的决议,这也是该领域第一次在大会上通过的决议。对于我们来说,我们所做的就是确保我们解释如何在这个新概念下应用现有的原则。我们并不是在试图重写法律,或者试图推动某项议案的通过,而是试图确保或者解释如何在这个背景下应用这些原则。随着我们深入研究,我们会了解是否需要采取进一步的措施,大致上就是我们所做的。

是的,不同国家的隐私概念差异很大,全球有超过 100 个国家拥有数据保护法,规管个人数据的收集和披露。而美国并不在其中。当你参加像 RightsCon 这样的会议时,会看到许多律师在捍卫自己的宪法,因为他们的宪法中包含数据保护权,宪法法院的所有法官都承认这一权利。

我想快速补充一下,你提到过 Dave Moss,EFF 首次涉足 VR 的项目叫做 Spot to Surveillance,大家可以在 eff.org/spot 查看。最初的目的是把它作为一个教育工具,让你能在虚拟街角看到不同的现实,并在那种背景下了解更多内容。就我个人的工作经验而言,这个工具非常酷。尤其是在那个时期,VR 头盔的数量寥寥无几,除了谷歌纸板以外,硬件非常匮乏。我觉得,组织内部对 VR 这一观念的转变相当有趣,不再是一种昂贵的玩物,而是逐渐成为了一种主流的沟通工具。这些问题与 EFF 关注的诸多相关问题息息相关,从平台审查到言论自由,再到警方监控等方面。但在国际上,我们曾经在巴西举办过一场研讨会,将照片监控技术引入 Brazil,进行演示。

是的,仍然很难获得头戴设备,并且将其带到其他国家,不过这确实是一个有趣的经历。在我职业生涯的早期,我就参与过 VR 的相关工作。我最著名的是在加密方面的工作,而我当时在做的是我们称之为社交虚拟现实的技术,后来又逐渐转向了更硬核的 VR 和社交媒体。当时,我开始接触加密是因为人们说不想在没有任何人能看到他们正在做什么的情况下进行。这使我从 VR 转向加密,因为我对安全和隐私产生了兴趣,现在我又回到了这个领域。

隐私理念与权益问题

我一直在采访有关隐私和这些不同的问题的人,涵盖了从海伦·尼森鲍姆到 Columbia 大学的神经权利倡议。上周我与她进行了访谈,神经权利倡议举办了一场由 Facebook Reality Labs 合作赞助的讨论会,讨论无创神经接口的伦理考量。同时我还与神经运动接口的主任托马斯·里尔登进行过访谈,讨论 EMG 和对单个运动神经元的管理。我还和 ITIF 的大卫·迪克讨论过这些问题。

我大致将不同的观点分为三个类别:一个是安妮塔·阿伦博士采取人权的方法,她认为隐私应该如器官般对待,我们不应买卖和交易;另一个是自由意志主义方法,认为隐私仅仅是与我们相关的数据,应该视为可以买卖或交易的财产权;第三种是上下文完整性理论,它处于中间地带。尼森鲍姆特别关注基于上下文的信息流动的适当性问题。此时的问题在于定义什么是适当的,什么不是适当的,这一切是否需要纳入法律?但她对人权的方法持怀疑态度。她对我提出的一个挑战是,如果隐私是一项人权,那么我们如何主张这一权利?你是作为个体主张这一权利,还是必须通过法律主张?这是我提出的问题,我想听听你对这些隐私理论中哪个更适合理解隐私的看法。还有,就是如果确实是一项人权,我们又该如何主张呢?

我认为这两个观点都有其合理之处,且都存在一些问题。正如尼森鲍姆准确所言,当权利存在时,我们该如何主张它?而如果说它像器官一样,就不能出售,这就部分回答了她的问题。而如果它是一种可售的权利,那么又会引出什么价值的问题?这很复杂,因为你很快就会陷入到某些人的隐私可能比其他人的隐私更有价值的情境中。信息的价值也取决于你掌握的信息量,如果你知道关于我的某件事,那价值可能是一分钱;但如果你知道关于我的十件事,那么它的价值就变成了一美元。之后就会产生了一系列不同的问题,因为突然间隐私变得异常昂贵,以至于人们根本无法收集任何信息。

我还想补充一点,关于隐私的另一种看法是隐私可以抵抗政府或法律程序的干扰,从而保护你,尽管没有人在买卖。但仍然受到转至另一方的影响。这是人权可以发挥作用的领域。法律也可以发挥作用,而人权如同 Katitza 所说,反映在宪法中。所以虽然你可以挑战违反这些权利的政府行为,但必须通过法庭进行。

未来的技术趋势与隐私法案

我很久没读海伦的书了,但我记得她质疑同意的概念,并认为我们不应该去控制个人数据的流动,而是应该给出适当的信息流动的方式自己。对我而言,隐私是一项人权。从虚拟人权法的角度来看,没有绝对的权利,权利存在限制。因此,确实存在可以被接受的限制,以及在某些情况下限制权利的方式。这些权利可能会与你其他权利相冲突,比如言论自由。在这种情况下,你必须进行平衡测试来衡量二者。在我看来,我并不认为这些是绝对的权利,我认为所有人权,虽然并非全都如此,但例如生存权并不具有例外;但言论自由与隐私都有其限制,你必须进行平衡。

走向未来的路径

我想我现在最大的挣扎在于未来的路径。当人们试图理解这个问题时,有关美国联邦隐私法的讨论不断出现,然而,在我最近看到的评估中,它最终通过的可能性为 0 至 10% 之间。这是因为目前政府面对这些大型科技公司的反垄断问题,可能会优先考虑这些问题,而隐私在立法议程中被边缘化。可以说,大家在剑桥分析案件时曾表现出极大兴趣,但目前,大型科技面临的其他危害显然更大,而隐私并不是目前议程的重点。请问在与 XR 技术相关的未来潜在威胁方面,您有什么看法?

在这里不仅涉及到立法防范危害,还是要让其自然发展,看看到底会发生什么样的害处,然后在对规模有更好了解后再采取措施。我们还处于针对这一技术的小规模阶段。但托马斯·梅策金(Thomas Metzinger)作为哲学家曾讨论技术步伐差距的问题,即科技的进步速度极快,以至于我们没有足够的概念框架来理解这项技术以及它与社会的关系,如何在集体层面采取行动来遏制这些不同的趋势。所以,我也在挣扎的是,在什么地方我们应该关注和聚焦?应该是联合国及一般人权原则层面?还是应该具备立法维度和技术架构?或者所有的以上?

我想回答是所有的以上。法律很重要,以有效地维护各项权利。我们非常坚信的信息控制权就像数据保护法为指导公司如何流通数据提供了框架。要是我说明了我的数据是为了特定目的一而不应被用于其他目的,如果我是为了分享经验而分享我的数据,我不想在未获取我知情同意的情况下将其用于其他目的。关于知情同意的定义和实施方式可以有讨论,但这不是隐私伤害的讨论。为了能够行使我的权利,我不应该受到伤害,第一,因为隐私侵犯在许多情况下是隐蔽的。例如,假设我去面试,如果潜在雇主手中有关于我的政治取向和某些残疾的文件,他很有可能就不会给我工作,但我并不会知道是因为什么原因。现在我们有法律可以保护我们免受歧视,但我要说的是,隐私的侵害在很多情况下都是隐蔽的。因此,如果你必须证明伤害,那就无法行使你的权利,这就是我强烈反对基于伤害的方法。

我只想补充一点,你提到的都是以上观点,毫无疑问。我从多方面采取的方法,我认为这也有点是 EFF 的尝试方向,我们有律师通过法律系统进行尝试,法庭案件设定先例和执行权利,技术人员创造出可以帮助保护权利的技术,我们也有活动家努力争取公民支持,发展立法过程。所以,这些事情需要协同工作,实际上是互相支撑的。如果你有一项法律,但政府或私人方不遵守法律,那么你可能会拥有技术作为保障,你可以拥有政策来帮助理解和创造这些法律,并为法律作保障,减少某些人违反法律的可能性。因此,所有这些事情需要协同工作。

我还要提到的是,值得指出的是,我们并不是从零开始,有 GDPR 相关的许多条款对数据保护有很多规定,适用于 VR 和其他更多的东西。在美国只有少许州级隐私法,加州、弗吉尼亚州、最近的科罗拉多州对隐私有一些约定。此外,也有一些隐私权是由联邦法律所创建的。例如,美国法律中最强的隐私法是《视频隐私保护法》(Video Privacy Protection Act),对你观看视频的隐私给予了相当大的保护。虽然这是在视频带时代制定的法律,在语义上它面临一些挑战,必须重新阐释如何将这一语言与新技术对接,但它确实涉及一定的音频视觉的内容,而在 VR 的上下文中涉及很多。

我们要做的部分,是将现有事物 tidy up,帮助司法部门、立法机构和企业理解现今的法律是如何适用于新产品和新技术的。

基层倡导与社区防卫

同时作为基层组织者,我还想提一下社区对这些侵害的防卫。这正好反映出我们在 EFF 中的问题如何交汇,到开放源代码倡议为例,确实帮助用户自主权,限制了共享的数据类型和处理方式。我认为,最终对于推动可能存在的潜在危害的集体抵制,都是同样重要的,而这些举措也可能导致更广泛的整体变化,因为组织者可以反击诸如警方监控等问题,并为面部识别技术禁令的制定铺平道路。

从技术层面来看,EFF 一直在推进 CCOPS 法规的工作,这为社区内警察监管使用的提供了地方控制。因此,如果一个警察部门表示,他们想开始使用 AR 眼镜来识别面部、车牌等信息,并在街头使用这些眼镜,他们需要向当地市议会提出申请,而社区则可以来评论和反馈。这可以相当有力地制约技术在某些情况下的误用,并收紧监控的界限。从技术角度来看,技术本身是非常强大的,因为当我们能够构建某样东西时,它就会存在。这就像我们现在所在的加密聊天室。关于我们是否能私密地进行对话并没有人来干扰,这根本不是问题,我们正在私下交谈。同样的,如果我们讨论很多尚未揭露的网络监控工具,我们会用 Privacy Badger 封堵这些监控工具,而不管发生什么,这都不是一个“如果”问题,而是我们正在实际操作。

所以,如果我们能将技术运用于 activism 和法律事务中,那我们所做的事情就是推动正在进行的变革。然而,这也有其局限,正如我离开工业,回到 EFF 的原因,我相信在当下,政策比技术更有影响力,因此我希望能参与政策,而不仅仅是不断改进构建项目,但我仍然可以为政策推动更好的技术。从国际层面来看或者从全球层面出发,我们并不需要新的数据保护条约,因为已经有一项关于数据保护的条约——来自欧洲委员会的《108 公约》,可以视为一种全球化的 GDPR,国家可以就该条约进行批准,而美国显然尚未签署。因此,关于数据保护的原则已经存在,真正需要的是执行。

对技术与隐私的展望

围绕这些问题,大众在讨论的许多都涉及生物识别数据或心理生理数据,这些都可以推断出个体的性格、特征和偏好等。而我目前看到的许多隐私法律与身份密切相关,因此,除非是个人可识别信息,否则便是可去标识化数据,采用另一种分类。但有大量关于心理生理的敏感数据,Britton Heller 作为人权律师对此做过研究,认为这其实应该定义为生物心理探测(biometric psychography),这一类数据即将出现。实际上,我觉得正在出现转变,从静态身份转向更具有上下文意识的信息,特别是上下文敏感的 AI 度量,它得实时了解你的虚拟环境中的一切,并捕捉到你体内发生的一切生理反应、皮肤电反应、眼动追踪数据、肌电图(EMG)、眼动图(EOG)等一系列信息。所有这些信息都有可能被结合在一起。

至于我们是否能对某种人的意识进行数学建模,虽然还存在质疑,但我相信至少会有足够的模型可以产生出可操作的信息。如果这些模型足够接近真实,不论其真实性如何,这都可能构成心理隐私的风险。如今面临着一个全新的时代,即使我们借助同态加密(homomorphic encryption)或分布式学习(federated learning)来试图保护某个人的身份不在一个信息聚合体中被泄露,但是一旦你能访问原始数据并进行某种分析,就会面临着多种信息通过 VR 被利用的风险。我们显然还缺乏足够的法律框架来应对随着神经技术、XR、增强现实和虚拟现实等的应用而出现的各种问题。

从我个人的观点来说,我认为 VR 系统将收集和利用大量数据,而这显然有着良好用途。例如,眼动追踪能够提升显示效果,使显示设备能够在某个人的视网膜视野中绘制出更细致的事物,而将那些在视野之外的模糊或轻度描绘。但这也靠近于你思考的内容。通过这样的方式,实际上很可能是恶劣的,如果这些数据外泄,尤其是我所使用的显示设备,应该维护我的利益,而政策方面应由硬件来强迫执行。你不该获取这些数据,这些数据不该被泄露,因为这些对于我来说是非常敏感的信息。因此 VR 的技术应该能够为用户服务,或作为一个概念来说,整体政策概念应试图创造出一个世界,当你拥有像 AR 或 VR 的个人技术时,它使用的信息都是出于你的目的和利益,而不是使用于反对你的。而这一点可以通过在设备内部运用技术或在离线操作下,设定严格的安全参数、由政策和硬件强制实施来达到。

我想再提到的是,这种事情其实在多个方向上都是令人担忧的,一方面如果它能够通过眼动追踪等技术很好地理解你的想法,那当然是非常好,另一方面,如果它无法做到这一点而大家仍会将其视价值信息并做判断的话,这就很可怕。因为有大量伪科学的生物识别技术,即在不够严格的科学支持下以自我自我宣称其价值,因此其带来的结果中可能存在删失和偏见。你会看到不同反应率,而这些数据中可能含有偏见,最终使一些因被误认为而被捕的人。所带来的危险不仅仅是技术能够探测你的思维并进行操控,即使它未能成功达成这一目标而进行一些操控,根据之前的信息进行处理,都是令人担忧的。

隐私权的同意与协议

我对这种通知和同意的形式,以及我们所签署的这些附带条款、隐私政策的理解感到困惑,似乎这些内容在向我们不断转换,而这就像数字殖民。是否有替代方案?我们是否可以跳出这种附带条款的体系,让我们重新掌控自己的数据?

是的,首先说明拥有自己的数据的概念,相当复杂,隐私本身就是权利之一。因此,数据所有权模型存在一些问题。我们先前讨论到的一个有效概念就是需要自愿的、知情的同意。如果与一项附带合同的结束,某人表示同意但并不知道他们同意了什么,那这显然不是知情同意。我们已经看到一些数据保护法开始试图定义什么样的状态能够算作知情同意,而哪些又足够好。此类同意原则也应可分离,不能说必须对所有这些都表示同意,因此可能需要一些解决方案来应对此事。最终,至关重要的是,无论进行何种交易,事后达成协定的一方都清楚他们同意的内容。但我们已经失去这一点,我们当前采用的合同模型是基于二个主体间的意识当面交流,或者借助法律为其提供咨询,签署协议的形式。其实这样的方式在过去的 100 年或 200 年的日子里可能从未有人签过合同,或不曾描绘过合同,而是以握手交易,基于共识性合约契约等众多形式进行。

如今你或许每日会同意数百个附带合同,至少在使用某个网站时都将同意的这类条款,而且有研究甚至计算出,若要阅读人们通常访问的诸多网站的条款与条件所需的时间超过一天,这意味着人们根本无法阅读所有的合约,只能在一定程度上选择性阅读。因此,我们必须思考怎样去解决这个问题,无论是针对 AR、VR 问题,还是访问网站。

我还想分享在美国以外的模型,在美国有通知和同意的标准,在欧洲或很多其他国家,如拉美、亚洲或非洲的许多地区,当提到数据保护法时,服务条款必须遵循数据保护法。你拥有同意,但不仅仅是同意,也有目的限制,这意味着需要明确我们所使用的数据仅用于此特定目的,而不能出于其他目的。此外,如同 GDPR 规定的,必须解释同意的含义,需确保它不仅是明示的,还必须是自愿的。如果我被强制条款且不能反悔并撤回同意,那这样还称不上是自愿的。如今,欧盟正进行尚在进一步的诉讼中来执行这些服务条款,任何被迫点击的现象都被称为“黑暗设计”(dark patterns)。在这方面,没有数据保护法,但在许多其他国家也有保护消费者权益的法律,以便防止人们因漏看而身陷黑暗模式。

关于模块化同意

一种更概念性的观点就是,这些服务如今的合同往往是全或无的同意。你要么同意服务商希望用作你数据的所有用法,不然就无法使用此平台。因此我认为有必要让其成为更多模块化的方式,此外使用数据越少,所需同意的内容自然缩小合约。这也会涉及到互操作性和用户自由出于最低数据收集的方向去选择,例如以 Facebook 为例,如果我对 Facebook 的数据使用感到不适,我需要有其他平台的选择,这些选项应更尊重我的数据。而不至于被网络效应所武器化,让我必须接受这种荒唐的合约。

从隐私工程的角度来看,跟我工作的专家讨论过透明性、同意和控制。我想这点在 Kurt、Katitza 和 Rory 讨论中都能听到。你必须了解你所同意的内容,这就是透明性;你必须主动地说“是的,我想这样”,这就是同意;然后你应该可以说“等一下”,这就是控制。尽管你无法总是拥有完美的透明性、同意或控制,但拥有这些方面越多,情况就越好。因为确实是如果我让你知道我的位置,我可能会有控权去说我不想让你知道我的位置,但很难撤销你曾经知道我的位置。因此这就是理想状况,在政策和其他内容的支持下。如果我们能够在设计应用程序时内建这些原则,那么应用程序或设备本身会强制执行这些人权原则。

对数据隐私的保护

我认为这是一个非常重要的观点。随着技术的进步,数据最少化变得越来越重要。很多时候并不需要收集所有的数据,工程师在产品设计之初就应该思考这些问题。数据保护原则应该指导一款产品的开发过程。实际上,这款产品是否真的需要这些数据?用于怎样的目的?有时候可能难以判断,不容易进行,而若能够实现透明性并说明所做处理类型,提供用户更大的控制权,这就不单单是关于法律原则的问题,更是在任何产品的设计或软件开发时实现这些原则。

政府监控与第三方医生

我们之前简单讨论过企业监控与政府监控之间的区别,但有时隐私相关的关注往往分裂成专注于某一方。我想提到的是对《第四修正案》中第三方原则的理解;这意味着,只要你将任何数据提供给第三方并记录在服务器上,根据政府的看法,它就没有合理的隐私预期。所有的网络空间在本质上都是公开的,可能还有一些例外,比如最近的 Carpenter 案件,也许并不是总是得以如此简单地全面覆盖。那么,不只是“只要你将数据提供给第三方,政府就能访问”的状况,实际上我认为所有你提供的数据都容易让政府无障碍获取访问。我觉得这是我们在美国所面临的情况,但从国际上来看,密切关注这些亲密信息可能落入不良政府手中可能造成的损害也是至关重要的。

但我想听一点关于 EFF 在第三方原则斗争中的情况,如果你们能找到某种立法路径对此有所不同,或者如果我们困于这种情况;只要有人记录某些事情,就相当于其实际上可被政府获取。

你说得完全正确,提到 Carpenter 案非常恰当。我们看到法律现状正在转变,朝着远离第三方原则的方向发展。Carpenter 的判决为质疑第三方原则的根源打开了辩论的大门;说实话,第三方原则的根源与我们今天所面临的情况完全不同,法院在判决中明确表示,早期对于第三方原则的案件涉及的是某人给另一个人打骚扰电话,法院比较的是电话公司持有的一些信息。这被用作政府说 “如果它和第三方有关,你就不必再思考了。”而法院基本上说“不,不再这样”。

而与此相关的另一案件,即 Kylo 案,使用新技术探视房屋内部。最高法院对这种情况相当不舒适,因为允许你通过新技术探视房屋内部的能力似乎打破了我们对私有住所的基本理解。因此,我认为这些法律和宪法原则确实应该适用于 VR。我曾写过一篇文章就此,明确表示如果想要进入虚拟房屋,必须拿到搜查令。现在我们也许需要等待一段时间,才能看到有件案真正在这方面开庭,但我觉得这些原则可以并且应该适用于新形式的技术。同时法院认可,我们不想把我们这国家的核心价值,以及打破宪法的原则丢掉,因为如果你有很大一部分信息一直被第三方持有,那么《第四修正案》就无效了,而这并不是宪法起草者小时候所希望的,现在也不是我们的社会需要的。

企业的作用与期望

我真希望能看到更多来自公司的声明,关于这些问题,感觉他们并没有做太多工作。事实上,我也想看到这一点,因为在 EFF 多年来的一个项目中——非常久之前,大约 12 年前,我们开展过跟谁有你背后支持的工作。我们给公司评级,是否支持它们的用户。而在早期框架中,一个施压点是他们是否会在提交电子邮件前要求法令。在此过程中,至关重要的问题是一旦没有情况时,是否需要搜查令来获取电子邮件?因为员工用于电子邮件的想法是处于 1986 年的设计时代,当时人们会使用站点下载邮件,这样邮件就会保存在你的计算机上。此时会存在一个很短的窗口的时候邮件会在平台上。而法律约定就是提交后六个月内的邮件不需要搜查令,因为假设人们认为,如果他们几个月不查看邮件就相当于放弃使用这个邮箱,当然在我看来并不意味着你放弃《第四修正案》,但这就是当时的逻辑,然而随着 Gmail 的到来,随时随地个人会将所有邮件保留多年的旧信件。这种逻辑显然不再适用,现在有些法院持不同意见,认为已有电子邮件需要获取搜查令,而其他法院因为认为不需要。所以,司法部强烈立场认为未必需要搜查令,而这自然给了公众压力,加上其他人试图说服这些公司、公司内部员工询问“为什么不这样做”,最终许多公司在其隐私政策或执法响应指南中承诺不会在没有搜查令的情况下放弃电子邮件,这至少迫使政府去法院申请没有搜查令的理由。

所以这是我们曾经自身以及公众压力的结果,而这本身是需要的工作。但也希望任何听到这期播客的公司能够与其法律和政策团队进行沟通,要求他们在提交私密信息之前要求搜查令。

与 VR 相关的人权责任

我认为在讨论这些事情时,由于所有权利和美德彼此之间的张力,我们还需要考虑我们目前的世界与我们想要生活的世界。因此,尤其是针对 VR,既然我们正在构建一种我们想要的世界,那么对此进行思考的人,实际上是十分重要的,以便将技术纳入自己的政策,也就是说,在这个过程中要求“我会在这方面需要什么……”显然,这将非常重要。我希望与 VR 技术开发者进行沟通,你们在做这些设计的时候,考虑一下这些原则的影响。同时我也认为这将孩子们对技术的接受度提升,因其感到隐私、安全、以及人权方面的担忧,而这些将最终有助于你们展开回报。

与此同时,谷歌眼镜(Google Glass)作为一款很早期的 AR 产品,因其过于突兀和“怪异”,非常不成功。带着眼镜和别人一起进入空间的场景让人感到不舒适,这也导致了有些人受到嘲笑。确保人们愿意在看到别人佩戴 AR 眼镜的时候不会感到担忧,是个很好的切入点。这些基本的人权原则不仅对世界有好处,对于你作为设计者而言也是重要的,能让你在创造成功产品时,得到更好的成就。”

呼吁与组织未来事件

我希望社区能够组织未来的活动,并且我真的想认识更多 AR 和 VR 社区的人,特别是技术专家。技术不是一成不变的,它是新的,许多产品甚至尚未上市,想要了解这些技术法律政策。我们需要更好地理解技术,与真正热爱设计的人聚集在一起,去促进这些问题。

感谢你,肯;顺便一提,鼓励大家查阅 eff.org/fight,因为除了 EFF 的工作外,我们还有电子前沿联盟(Electronic Frontier Alliance),可能更接近你的团体,我们希望连接这些社区,邀请新社区加入联盟。

我想强调,这是一个为人们创造机会来建造他们想要的世界的时刻,由于这个世界或是更尊重不同人群的世界,去实现他们的决定,或者在此构建一种类似物理规则的条约。你可以这样去做,而这背后也带来了更加美好的未来。这将形成我们达成的最终目标。

今天非常感谢 Kurt、Katitza、John 和 Rory 参加我的播客节目,以及他们在 EFF 的重要工作。这些法律、技术政策、硬件设计者和技术人员在技术架构、法律、文化层面上非常重要,亦是创造我们都希望能生活的未来的必要工作。因此,这是重要的工作,并感谢你们在这些问题上的坚持和付出。

谢谢,感谢你们抽出时间在节目中分享。你们的观点一直都是我非常期待的内容。

谢谢你的参与,非常感谢你。

感谢你,肯,你的耐心对我们讨论这个主题的帮助非常那么多。

感谢你!

总结

以上是对本次访谈中主要观点的整理。首先,Kurt Opsahl 作为 EFF 的副执行董事,重点提到法律与隐私问题的现状,以及如何应对现代社会中的监控问题。Katitza Rodriguez 强调全球隐私政策如何在不同国家得到发展与适用,John Kalis 则探讨了技术在构建更好隐私环境中的关键角色。Rory Mehr 代表基层视角,分享了他们在不同社区的工作。

此外,对于隐私的保护及金融监管方面的问题, EFF 的参与拥有多角度的见解,正积极为提高人们的社交意识与隐私权做出努力。这一过程需要依靠社区的监测和有效的政策激励,让更多人能够参与到隐私权的倡议与倡导中来。

总而言之,我们创建未来的责任和机遇,大概在于我们如何在发展这些 AR 和 VR 技术的同时,保持对人权和隐私的良好把握与尊重。