在这一期 TED AI Show 中,伦理学家兼法律学者 Nita Farahany 讨论了神经技术的快速发展及其对隐私、自主权和认知自由的潜在影响。她解释说,尽管目前的 AI 和可穿戴神经技术(如智能手表、带有脑部传感器的耳塞和增强现实/虚拟现实设备。)尚不能直接读取我们的具体思想,但它们已经能够追踪心理状态并推断情绪、注意力水平等。
这些设备已经能够通过嵌入的传感器捕捉脑电活动,并与人工智能结合解码大脑的简单指令和心理状态。
例如,耳塞中的传感器可以检测用户的脑电波,推测他们当前的情绪、注意力、甚至潜在的健康问题。这种技术能够分析大脑发出的微弱电信号,并使用 AI 解码这些信号,将其转化为命令,如操控计算机光标或与软件交互。
目前,虽然 AI 技术还不能直接读取具体的思想(如语言或复杂的想法),但它已经可以在一定程度上推测出简单的心理状态,比如用户是专注还是分心,是开心还是难过。未来,随着生成式 AI(Generative AI)的结合,这种能力可能会进一步提升,能够通过大脑信号“预测”用户想要表达的内容。
神经技术的潜在应用
Farahany 描述了神经技术的多种正面应用,例如改善医疗健康,特别是在心理健康和大脑疾病治疗方面。随着技术的进步,我们可以更精确地了解大脑的运作方式,开发更为有效的治疗方法。同时,这些技术还能用于提高用户体验,如更自然地与虚拟现实设备交互,摆脱键盘和鼠标的束缚。
神经技术有可能改变我们与技术交互的方式,使之更加无缝和自然。例如,用户可以通过思维控制与虚拟现实设备互动,而不需要传统的输入设备。此外,神经技术还可以用于检测大脑中的疾病早期征兆,帮助医学诊断和治疗。
隐私与“认知自由”的威胁
尽管神经技术带来了许多正面应用,但 Farahany 也表达了她的担忧,特别是关于“认知自由”(cognitive liberty)的威胁。她认为,随着这类技术的发展,我们的大脑数据变得越来越容易被收集和分析,从而威胁到我们思想和精神世界的隐私。
Farahany 提出“认知自由”这一概念,旨在强调每个人对自己思想和精神状态应拥有的自主权。她担心,如果没有足够的法律和监管保护,这类技术可能被滥用,导致“神经监控”(neuro-surveillance),甚至可能影响我们思想的自由和隐私。
她举了一个极端的例子,即公司可能会通过监控员工的脑电波,判断他们是否有恋爱关系或其他违背公司政策的想法。这种对大脑活动的监控,不仅仅是隐私侵犯,甚至可能影响个人的自由思想和自主性。
未来的伦理与监管挑战
Farahany 强调,在神经技术迅猛发展的背景下,社会需要快速采取行动,为这类技术制定合适的法规和伦理标准。她呼吁通过全球性的人权框架来保护“认知自由”,将思想隐私纳入隐私权的范畴,并且防止这些数据被滥用。
她指出,虽然目前已经有一些国家(如美国的科罗拉多州和加利福尼亚州)在推动立法以保护神经数据的隐私,但这些措施还远远不够。全球应尽快制定更全面的法律,以保护人们免受未经同意的神经数据监控。
Farahany 特别提到,在技术迅速普及的情况下,确保这些权利变得尤为重要,因为人们可能会因为便利或经济压力而不自觉地放弃自己的心理隐私。例如,许多人已经习惯在社交媒体上分享他们的生活,而没有意识到这些数据可能被公司或政府滥用。未来,如果大脑数据的分享变得司空见惯,社会可能会失去保护这类数据的意识。
以下是详细内容
我是 Bilawal Sidhu,欢迎来到 TED AI Show,在这里我们探讨如何在 AI 影响一切的世界中生存和发展。
今天,我们将深入探讨由 AI 增强的神经技术,与伦理学家和法律学者 Nita Farahany 进行讨论。Nita 是《大脑之战:在神经技术时代捍卫思想自由》一书的作者,我觉得这本书既令人着迷又充满了恐惧。这本书讲述了如果不进行监管,神经技术可能如何侵犯我们最后的隐私堡垒——即思想隐私。问题是,这类技术是否不可避免?
如果是,我们该如何保护自己的认知自由?这是 Nita 提出的一个概念,最近我一直在思考。为了解答我的许多问题,我联系了 Nita。
Nita,欢迎来到 TED AI Show。
[00:04:10] Nita Farahany:
谢谢你邀请我。
[00:04:10] Bilawal Sidhu:
首先,我想问一下,你能否简要介绍一下什么是神经技术?它是如何运作的?以及公司正在追求的一些主要应用场景是什么?
[00:04:16] Nita Farahany:
当然可以。
[00:04:16] Bilawal Sidhu:
你能从高层次上解释它是如何运作的,以及公司目前主要探索的使用案例是什么?
[00:04:23] Nita Farahany:
到目前为止,当有人听到“神经技术”时,可能会联想到像 Elon Musk 正在做的事情,即他的 Neurolink 公司。
你知道的,他们会在颅骨上钻一个小孔,植入电极到大脑深处,这样就可以帮助那些失去沟通或行动能力的人恢复一些功能。这确实是神经技术的一种,但它并不是将对大多数人产生影响的神经技术。
我关注的是物联网和可穿戴设备。越来越多的人佩戴像智能手表、耳塞或虚拟现实 (VR) 和增强现实 (AR) 设备,这些设备都装有传感器,而这些传感器能够检测身体的不同方面。
每当你思考或做任何事情时,大脑中的神经元会发出微小的电信号。数十万个神经元可能会在同一时间发射,这些信号反映了不同的心理状态。无论你是高兴、悲伤、心不在焉,还是在思考上、下、左、右,这些都是可以被传感器捕捉到的电信号,然后人工智能可以解码这些信号并将其转化为命令。
大多数人已经习惯了诸如心率、步数甚至体温等信息被追踪,但市场上已经开始广泛应用的新产品是将脑波传感器嵌入这些设备中,主要是电生理传感器,通常称为 EEG 传感器。这些传感器可以放入耳塞、耳机甚至耳后的可穿戴小纹身上,用来检测大脑的电活动。
所以你真正应该把神经技术看作一种新型的可穿戴设备。虽然市场上已经有许多独立设备存在,比如前额带或者可以戴在安全帽里的传感器,但更应该关注的是我们日常佩戴的这些设备,它们被添加了新的传感器,能够捕捉脑部活动。
[00:06:37] Bilawal Sidhu:
最近发布的 Apple Vision Pro 或 Meta Quest 3,让我意识到,从某种程度上说,它们是虚拟现实头显,但从另一个角度来看,它们其实是戴在脸上的生物识别记录仪。
[00:06:44] Nita Farahany:
没错。
[00:06:44] Bilawal Sidhu:
目前这种技术在“读心术”方面可以做到什么?而还不能实现但可能即将到来的又是什么?
[00:06:57] Nita Farahany:
这是一个很好的问题。虚拟现实技术 (XR) 从基础上来说是一项全新的技术。它是戴在脸上的计算设备,不必遵循过去的使用规则,比如键盘和鼠标或游戏杆,操作方法可以被重新定义。所以,当你构建一类新技术时,完全可以重新想象与之互动的方式。
这些公司正是这么做的,他们在设备中装满了生物识别传感器,无论是摄像头、面部识别、眼睛凝视追踪还是脑波传感器,这些传感器都在不断训练,目的是推断用户的心理状态。比如,你是高兴还是悲伤?你是疲倦还是清醒?你的思维是游离的还是专注的?这些基础的情绪状态多数都可以通过训练,基于脑波活动推断出来。此外,大多数设备在光标活动方面已经训练得非常好,能通过脑-机接口设备实现上下左右的移动。所以,很多你通过鼠标可以完成的任务,现在可以通过脑-机接口设备来完成。
然而,关于可穿戴设备的“读心”能力,还没有达到的是真正解码你大脑中的完整想法或连续的语言。你现在还不能通过简单的思考“我要给我丈夫发个快速短信”来让设备解码出这段信息,发送到你的手机,并发送出短信,但这是正在向我们靠近的未来。
换句话说,随着设备的进化,意图沟通这一行为越来越多地被解码出来,而生成式 AI 在这方面会成为一个重要的游戏规则改变者。因为生成式 AI 是基于自然语言和对话进行训练的,它在预测你想输入的下一个词方面会变得更加强大。因此,将生成式 AI 的自动补全功能与脑波活动结合,再加上越来越多的大语言模型能够在设备端进行处理,意味着设备与脑波传感器会随着个体的使用不断演化,从而逐渐变得更加精准,实现越来越多的“读心”功能。
[00:09:16] Bilawal Sidhu:
这真是非常强大。所以听起来这项技术可以粗略地推断出你的脑部状态,虽然不能完全读懂你的内心独白,但如你所说,当引入更多的感知模式时,你可以结合摄像头的画面、用户的眼睛注视点,再加上生成式 AI 进行预测叠加,甚至利用这些基础的感应能力,也可以开始做出非常准确的预测。
[00:09:42] Nita Farahany:
没错。
[00:09:43] Bilawal Sidhu:
我想知道,为什么这么多公司都在追赶这一技术,并进行大量投资?有哪些你感到兴奋的积极应用场景?这种技术将如何真正帮助用户?
[00:09:55] Nita Farahany:
我认为这项技术可以通过很多方式帮助用户。我不只是把神经技术看作那些耳塞中的脑部传感器,而是把它看作一整类认知生物识别技术,它能够预测一个人正在思考和感受什么,这可能带来很多积极的应用场景。
我们越是能够准确地洞察大脑内部正在发生的事情,就越能够推出更加有针对性的产品和服务。所以,所有大科技公司都在竞相进入这个领域。比如,苹果公司在这个领域拥有大量专利和投资,你也可以看到 Meta 和谷歌等公司做了同样的事情。如果虚拟现实技术(XR)真的普及,最终一定会普及,那么用键盘和鼠标来操作这些设备显然是不合适的,必须有更自然、更无缝的方式来与设备互动。
但到目前为止,这些公司并没有把重点放在如何商品化所有的脑数据,而是致力于从根本上构建一类新的技术,并重新定义与之交互的方式。
与此同时,围绕精神健康的投资也在大规模增加,科技公司逐渐意识到大脑是一个未开发的领域,可以用于开发大量与精神健康相关的产品。因此,很多应用专注于 AI 驱动的心理健康服务、写日记或者冥想,这实际上是一个潜力巨大的行业,可能达到数十亿甚至数万亿的规模。
随着这些技术的进步,神经接口技术和大脑健康产品之间的界限将越来越模糊,这意味着我们将拥有更好的数据和手段来洞察大脑内部,并推出更加有针对性的产品和服务。我认为,这可能是最大的未开发市场之一。
[00:11:59] Bilawal Sidhu:
说得太好了。我记得 Zuckerberg 曾称神经接口技术是虚拟现实的“圣杯”,对吗?
[00:12:05] Nita Farahany:
没错。QWERTY 键盘在 XR 技术中的应用没有任何意义,对吧?它和鼠标一样,都是过时的工具。
[00:12:14] Bilawal Sidhu:
完全正确。
[00:12:14] Nita Farahany:
我们已经习惯了这些设备,但当你开始思考“我们为什么还在用鼠标来控制屏幕时”,你会意识到它的低效性。触摸屏确实是一个不错的创新,但仍然显得笨拙。
[00:12:25] Bilawal Sidhu:
是的。
[00:12:25] Nita Farahany:
我们与技术的互动效率低下,这点必须改变。
[00:12:34] Bilawal Sidhu:
你描述的这个世界听起来非常高效,假如这是合适的词语,但它也让人感到一丝诡异。我想深入探讨一下,究竟是什么让它显得诡异?你提出了认知自由这一概念,能否解释一下它的定义,为什么你认为这个词在讨论神经技术时很有用?
[00:12:59] Nita Farahany:
我大约在2010年左右提出了“认知自由”这个概念,这个词对我来说有着深刻的共鸣。它反映了我认为的自我决定权,即对我们大脑和精神体验的控制权,作为一种基本权利。这意味着什么?为什么这对人类自我实现是根本性的?
关于自我决定的文献已经在过去几十年里逐步形成,它探讨了自我决定的定义,以及为什么自我决定是人类自我实现的基本前提。你需要基本的自主权、能力以及与他人建立联系的能力。因此,对我来说,认知自由就是这些东西——是关于自我决定的支柱。技术既可以促进自我决定,也可以干扰这种能力,而认知自由则为我们设立了一个目标,即在设计或监管技术时,我们所追求的是什么?
我们正在试图为个人保留一个自我决定的空间,以使他们能够形成自我认同,拥有一个隐私的心理空间,并拥有思想自由的能力。这些都是成为一个完整自我的先决条件。因此,对我来说,认知自由作为一种基本权利,是个人能够实现自我、成为完整的人类的前提条件。
[00:14:21] Bilawal Sidhu:
我们的大脑就像是我们最隐秘的圣殿,我们认为自己对它拥有绝对的掌控权,尽管实际上,技术早已在深层次上影响我们,而我们甚至没有意识到。现在,我们正在开发这些更高带宽的感知形式,我很好奇,有没有类似的案例,比如说,过去十年或二十年里,很多人都自愿进行 DNA 测序,但他们从未想过可能会发生数据泄露。
因此,我想问的是,在脑部和神经健康的透明度不断增加的情况下,没有足够的隐私保护法规,这些医疗数据会不会被武器化,用来对付用户?
[00:15:12] Nita Farahany:
我认为很有可能。过去,很多人参加了消费者直接参与的基因检测,他们从未想到这些数据最终会被用来解决悬案,比如被执法部门收集,甚至未来可能被用于无令搜查。
一些人可能会觉得这无所谓,比如“我没有犯过罪,所以如果这能帮忙找到罪犯,那也挺好。” 但当你开始想象每种可能的应用场景时,会发现数据有很多你从未想到的使用方式,可能会被用来对付你。
我认为大脑数据比这更加根本。这不仅仅是关于执法部门将如何使用它或其他人将如何使用它的问题,而是关于拥有一个空间——一个心理隐私的空间——对于我们作为个体的存在有多么重要。这个问题太过根本,我们几乎无法理解,甚至难以想象没有这个空间的世界。可是我花了很多时间在思考这个问题,想象如果我们失去了这个空间,世界会是什么样子。
想象一下,我们小时候常常有一些秘密的想法,比如“也许我很怪异,我有不同的性别认同或性取向,或者我不想成为医生,而我的父母希望我成为医生。”如果你没有一个空间来自由思考这些问题,世界会变成什么样子?成为我们自己需要一个安全的空间去探索内心,而如果这个空间不复存在,个人成长将何去何从?
我们正逐步进入这样一个世界,而没有意识到。我们将失去这个最基本的人类特性,而我们没有采取适当的保护措施,确保这个人类关键特征不受侵犯。
[00:17:27] Bilawal Sidhu:
这正是我们面临的问题——我们正在讨论神经监控问题。我们继续往下挖,设想这个未来。你认为我们会走向一个彼此脑状态完全透明的未来吗?这将如何影响我们的个人关系?对社会又会产生什么影响?感觉这就像是推特的极端版本,不再需要用手打字表达思想,而是每个人都可以知道你内心在想什么。这实在太疯狂了。
[00:17:58] Nita Farahany:
我在杜克大学教了一门课,叫《数字时代的你》,目标是让本科生批判性地思考数字技术,并反思它们对自我的影响。课堂上我了解到几乎每个学生都分享了自己的手机位置数据,他们的所有朋友都可以实时追踪他们,简直有数百人正在追踪。我对此感到震惊。
后来,我在写书时采访了一位冥想班的老师,他们在班上使用神经设备,他们创建了 Facebook 群组,群组中的人们会分享自己的冥想脑电活动记录,比如说“看看我的伽玛波活动,看看这里我的阿尔法波活动。” 我想,“这会不会成为最新的状态更新呢?”比如,“Nita 现在心情不好,不要和她说话”或者“Nita 在想吃东西。”我的朋友可能会发信息说:“嘿,我也在想吃东西,我们去吃点东西吧。”
这类数据分享很容易变得透明,但这是否完全是件坏事呢?我不知道。有些人认为完全透明会更好,我可以接受这种论点,但当涉及到心理隐私时,我坚信个人的成长需要更大的控制权,决定是否分享以及分享哪些脑波数据。
[00:19:36] Bilawal Sidhu:
你提到的这个技术更多的是一个“同意”问题,但有时我觉得技术的实用性最终成了特洛伊木马。我们确实从这些技术中获得了很多好处,但当我们同意某些事物时,往往会带来一些我们没有预料到的后果,甚至可能我们完全没有意识到这些后果。
[00:19:55] Nita Farahany:
没错,我正是想让人们意识到这一点。过去一年发生了很多事情,部分原因是我担心神经监控的正常化。我们渐渐看不到这些风险,接受了这种新技术,而没有停下来意识到我们正在采纳的技术带来了哪些含义。
通常这些技术是通过实用性引入的,你刚才说得很好,我们被某种实用功能吸引进来,或者这种体验很有趣,唯一能获得这种体验的方式就是接受这项新技术。但我们并没有被提醒这种技术的风险,也没有真正意识到“我们正在跨越一条新界线,这是一条从未跨越过的线,它将带来深远影响。”
这涉及到人类的基本存在方式。我们与他人分享的是什么、保留的又是什么,这些都是我们定义脆弱性和亲密感的基础。我认为这不仅仅是一个“同意”问题,因为在某些时候,你可能会感受到来自同伴和社会的压力。如果你不分享位置信息,你就显得很奇怪。为什么你不和大家一样分享呢?这种社会压力促使我们逐渐走向分享脑波数据的常态,个人在无意识间放弃了自己的思想隐私,而这一过程没有任何讨论、思考或深刻的反思。
[00:21:46] Bilawal Sidhu:
是的,类似的事情在社交媒体上也发生过。人们可能会说:“我喜欢定制广告,这挺好。”这些算法对我们的愿望和欲望有着深刻的了解,效果确实很好。我们可能走向这样一个未来,人们会说:“哦,我买个便宜的 Alexa 然后会在梦中听到啤酒广告,但无所谓,反正我是在睡觉。”
[00:22:12] Nita Farahany:
是的,这种例子是真实存在的。
[00:22:14] Bilawal Sidhu:
没错。
[00:22:15] Nita Farahany:
在我的书中提到了 Coors 公司,他们因为多年无法进入超级碗中场秀广告而感到沮丧。于是他们与梦境研究人员合作,发现可以在人们最容易被暗示的状态下,即大脑意识休息而刚入睡时,植入一些品牌联想,比如将 Coors 与山脉、湖泊、溪流等联系在一起,从而让人们认为 Coors 清爽宜人。
但我想象的是一个更加反乌托邦的未来,人们戴着睡眠耳塞来监控睡眠脑波,这些设备的商业模式基于实时投放广告,比如“我们还从未在 Nita 睡觉时投放过广告,Nita 此时处于最容易被暗示的睡眠状态,她卧室里有 Amazon Echo,这是最佳投放时机。”
什么能够阻止这种情况呢?没有,唯一的阻碍是这些公司是否有道德底线。但如果这种方式是广告投放的最佳途径,并且能为广告商带来最高回报,那又有什么理由阻止他们这样做呢?
[00:23:43] Bilawal Sidhu:
哦天哪,哦天哪。这项研究,梦境中的目标广告,展示了公司和社交媒体算法的潜力,也展示了神经技术的现有能力。
[00:23:57] Nita Farahany:
没错。
[00:23:58] Bilawal Sidhu:
令人惊讶的是,社交算法不仅仅在提取或推断我们的世界观,它们还主动塑造着我们如何看待世界。
[00:24:08] Nita Farahany:
没错。
[00:24:09] Bilawal Sidhu:
它们预测我们想要什么,但随着这些平台与我们的生活交织得越来越紧密,它们几乎可以定义我们想要什么。
那么,当涉及到神经监控的威胁时,你认为这种技术的兴起会如何影响我们有意识的思想,甚至在更潜意识层面上,它会影响我们能够思考的内容吗?
[00:24:30] Nita Farahany:
这是我现在最挣扎的问题之一。
您说:
ChatGPT 说:
<step1_initial_translation> [00:24:30] Nita Farahany:
这是我现在最挣扎的问题之一。我一直在思考的是,在一个我们不断被技术引导的世界里,自我决定权还存在吗?
人们对这个问题最容易理解的例子是,你坐下来只打算看一集剧集,最后却看了四集。这其实是有意设计的。只要你不需要主动做出控制决策,你更有可能继续看下去。我们可以通过研究看到这种区别:当你主动选择下一集视频时,大脑中负责自控的部分是活跃的,而当算法为你自动选择下一集时,这些负责自控的部分几乎是沉默的。
[00:25:23] Bilawal Sidhu:
哇。
[00:25:23] Nita Farahany:
当你看到自控功能关闭,系统不断向你推送内容时,这实际上在改变你的感受和信念。我们一直在被引导,那么在这种日益与技术交织的世界里,是否还存在真正的自我决定?当这种引导变得更加精准,技术不再是通过简单的观看时长来判断你的兴趣,而是通过直接测量你的脑波活动来做出判断,你处于一个完全沉浸的环境中,这个环境能够实时根据你的脑波变化调整。这看起来就像我们正在迅速接近《黑客帝国》的世界。
所以我一直在思考,是否还存在自我决定权,是否还有真正的自主性?即使我们谈论的是相对的自主性——包括对能力的掌控、对人际关系的影响,以及培养批判性思维的能力和与他人建立联系的能力——我仍然相信它存在。我认为,如果我们以“认知自由”作为指导原则,并将其作为技术设计的基础,那么这种技术的设计应该是符合自我决定而非削弱人类潜力的。
[00:26:47] Bilawal Sidhu:
我非常喜欢你提到的“技术引导我们”的说法,问题在于谁掌控着方向盘?谁在控制这个目标函数?
当我们展望未来,前景确实显得有些可怕。所以我想稍微回到一个更广的视角来问你,你一直在积极推动人们关注这些认知自由的侵犯,并试图为未来的威胁做准备。你也在推动将认知自由确立为一项法律权利。我很好奇,从监管的角度来看,认知自由会是什么样的?我们又该如何执行它?
[00:27:22] Nita Farahany:
首先,我想强调的是,认知自由就像你所说的那样,是一种系统性的变革。这不仅仅关乎法律的确立,也关乎改变我们的经济激励和商业设计。
从法律角度来看,我认为首先要从人权出发,这样我们可以在全球范围内确立一种普遍的规范,承认认知自由作为一项基本人权。我们应该认识到隐私权包括了对心理隐私的保护,这不仅仅是防止他人干涉我们的思维过程,还是保护大脑的自动反应不被他人拦截或操控。
许多神经技术正是在干涉这些自动化的脑部过程,而这些过程并不总是表现为复杂的思想,而是大脑的无意识反应。法律需要保护这一领域。此外,思想自由自古以来被视为一项绝对权利,但其定义相对狭隘,主要涉及防止他人拦截、操控或惩罚思想。而现在,随着“读心术”技术的发展,法律必须更广泛地涵盖保护我们内心的思维和图像。
这就是从人权角度出发的视角。有人可能会质疑,人权法的执行力有多大,毕竟它的效力取决于各国是否遵守。因此,国家层面的法律也必须做出应对。部分隐私法应特别规定对认知生物识别数据的强有力保护,保护员工的心理隐私,赋予儿童和学生在学校中免受神经监控的权利,并为他们保留独立思考的空间。
简而言之,我们需要从这些高层次的原则出发,并在各个不同的国家层面推行切实可行的法律,确保这些高层次的理念在各个具体场景中得到执行。
[00:29:29] Bilawal Sidhu:
那么,现状如何?自从你的书出版以来,在这个问题上是否有显著的进展?
[00:29:36] Nita Farahany:
进展不少。
在美国,终于有了一些动静,尽管我对目前的成果并不特别兴奋,但我很欣慰已经开始了相关的讨论。比如科罗拉多州通过了一项新法律,规定当神经数据被用于身份识别时需受到保护。虽然这只是很小的一步,但总算是个开端。加州目前有一项更广泛的法律正在审议中,该法律会将神经数据列为敏感数据类别。
美国统一法律委员会也已经同意成立一个研究委员会,这个委员会可能会起草一项适用于全美各州的模型立法,来保护认知生物识别数据的隐私权,这项工作将在今年夏天启动。
在国际上,联合国教科文组织(UNESCO)正在推进一个全球标准,194个成员国投票同意在神经技术伦理方面采取行动。第一稿已经在4月份发布,我也是这一进程的一部分,担任美国的代表并共同主持了专家委员会的工作,第二稿将在8月底发布。
国际上关于认知自由的讨论正在增加,人们开始关注是否需要特别的权利保护,并拓宽了讨论范围,认识到神经技术是一个新兴的领域。因此,总体上我感到鼓舞。
不过,正如人们所说的,一旦权利被侵蚀,要收回它们是非常困难的。因此,我们需要加快行动,确保在这些技术广泛应用之前,能够设立健全的法律框架。
[00:31:20] Bilawal Sidhu:
你提到这些技术来得快而猛,正如你所说的,它们已经融入了我们每天使用的技术中。人们很可能会去购买下一代的 AirPods。
那么,对于那些刚刚意识到神经监控和神经技术威胁的听众,你有什么建议呢?他们应该如何在个人生活中或职场中应对这些技术?
[00:31:48] Nita Farahany:
我们仍然有时间做出选择,无论是个人层面还是集体层面。我们应该要求,如果苹果公司推出 EEG 传感器,他们必须非常明确地解释这些数据的隐私政策。他们已经在 Apple Vision 中做到这一点,他们详细说明了眼球追踪数据如何处理,哪些数据会留在设备上,哪些推断数据会被上传。
这种透明度非常好,我为他们的这种努力鼓掌。我们应该只购买那些在数据流向上保持透明的产品,并拒绝那些没有提供同样透明度的公司产品。
这是我们拥有的权利,我们应该积极保护这一权利。我们要为 UNESCO 推动的全球标准努力,为各国推进认知自由的权利法案发声,并积极参与改变进程。
[00:32:50] Bilawal Sidhu:
说得非常好。非常感谢你加入我们的讨论。
[00:32:54] Nita Farahany:
谢谢你邀请我。
[00:33:00] Bilawal Sidhu:
这项技术非常强大,“读心”绝非夸张。它带来的一大好处是让我们能够看清自己的内心,量化那无尽的脑海活动,而这些活动实际上影响着我们日常的感知。通过这些新技术,曾经模糊不清的情感体验现在可以被翻译成可测量的神经生物学模式。
这意味着我们可以更好地理解自己大脑中发生的事情,同时也意味着我们更容易改变大脑中的运作模式。如果你了解一个人的思维模式,就可以通过某种刺激来影响它,无论这是用于 Orwell 式的工作场所监控,还是你见过的最具说服力的广告。
它让我们将读写权限赋予了自己最核心的部分。那么,当一个社会不再有秘密时会发生什么?每个人都像一本打开的书。这或许是一个不可避免的过渡。我们已经通过社交媒体分享了很多自己,并且是主动去分享的。
尽管如此,我们必须更加重视个人数据。我们当前视为无关紧要、随意放弃的许多数据,实际上具有极高的价值。而对于那些可以读取和写入我们内心的技术,我们必须比对待社交媒体时更积极主动。我们必须在这种技术成为社会运转的必要条件之前,开始重视这些数据的价值。
毕竟,我们谈论的可是人类的思想、心灵,以及我们如何看待世界的根本。
TED AI Show 是 TED 音频集体的一部分,由 TED 和 Cosmic Standard 共同制作。我们的制作人是 Elah Feder 和 Sarah McCrea,编辑是 Banban Cheng 和 Alejandra Salazar。节目负责人是 Ivana Tucker,助理制作人是 Ben Montoya,工程师是 Aja Pilar Simpson。
技术总监是 Jacob Winik,执行制作人是 Eliza Smith。事实核查由 Krystian Aparta 负责。我是主持人 Bilawal Sidhu。我们下期节目再见。
通过AI驱动的故事和个性化练习吸引学生并提高阅读流畅度。