AI 毫无疑问正在重塑我们的生活,但围绕它的炒作依然很多。当前最流行的说法之一是,机器正在学习理解人类的感受和情绪。
这就是情感计算的领域,一项专注于解释、模拟和预测情感与情绪的 AI 研发工作,旨在引导我们穿越人类心理复杂且常常难以捉摸的迷宫。
其想法是,具备情感感知的 AI 将催生出更加实用、便捷和安全的应用。
但机器是否真的能理解情感呢?毕竟,它们无法真正感受 —— 它们只能基于有限且常常是肤浅的人类行为模型来分析、估计或模仿情感。
这并没有阻止企业斥资数十亿美元,开发旨在识别我们情感、做出共情回应甚至让我们爱上它们的工具和系统。
那么,当我们谈论情感 AI 时,究竟在讨论什么?随着治疗和陪伴被视为生成式 AI 的主要应用场景,我们能否信赖这些情绪感知系统在无法真正体验情感的情况下,妥善处理我们的内心世界?
或者,这整个概念是否仅仅是市场营销人员为了向我们推销具备人类般情感的“终极前沿”智能机器而炮制的产物?让我们看得更清楚些:
理解人工情感智能
首先,情感在机器层面上究竟意味着什么?简单的答案是,情感对机器来说只是另一种形式的数据。
情感计算聚焦于检测、解释以及响应关于人类情绪状态的数据。这些数据可以来源于语音录音、基于面部数据训练的图像识别算法、对书面文本的分析,甚至包括我们在网购时移动鼠标和点击的方式。
它还可以包括生物识别数据,如心率、皮肤温度和人体电活动。
情感 AI 工具会分析这些数据中的模式,并据此解释或模拟与我们的情感互动。这可能包括客户服务机器人检测到的挫败感,或者汽车系统检测到并对驾驶者的心理状态做出反应。
但情感本身极为复杂,容易引发不同解读(包括不同地域和文化间的差异),而且往往极其关键的一点在于不应被误读。
情感计算或情感 AI 应用拥有的数据越多,其模拟人类情感的效果就越逼真,越有可能准确预测和响应我们的情感需求。
然而,单单有数据不足以让机器真正“感受”。事实上,研究表明,机器处理数据的速度远超我们大脑的处理速度。
相反,正是我们大脑那远为复杂的结构,即便与目前最先进的人工神经网络和机器学习模型相比,也使我们具备了真正感受和产生共情的能力。
情感 AI 的伦理问题
这引发了一些重要的伦理问题:当我们尚未完全理解机器是否真的能够了解我们时,让它们来做出可能影响我们生活的决策是否正确?
例如,我们或许会允许机器让我们感到谨慎甚至恐惧,以提醒我们避免做出危险的举动。但是,它是否会知道在多大程度上散布恐惧才是恰当的,而不会因过度吓唬而给我们带来创伤或困扰?
那些被设计成虚拟女友、伴侣或情人的聊天机器人和 AI,是否能够理解激发或操纵人类诸如爱、嫉妒或性吸引之类情感的含义?
过分夸大机器理解我们情绪能力的说法,带来的风险必须严肃对待。
例如,如果人们误以为 AI 在理解或共情他们方面比实际情况更为深入,那么在信任其决策时,他们便不能算是完全知情的。
这种现象可被视为一种操控 —— 特别是在 AI 的真正目的并非帮助用户,而是推动消费、增加参与度或施加影响时,这种操控几乎不可避免。
风险与回报
开发情感 AI 是一桩大生意,因为它被视为提供更加个性化和引人入胜的体验,以及预测甚至影响我们的行为的一种方式。
像 Imentiv 这样的工具已被运用于招聘和培训,以更好地了解候选人在面对压力情境时会作出何种反应;而圣保罗地铁中安装摄像头,便是为了检测乘客对广告的情绪反应。
在一个颇具争议的案例中,英国铁路运营商 Network Rail 据报未经乘客同意,将他们的视频数据发送给 Amazon 的情感分析服务。
隐私侵犯的风险日益严重(尤其是对我们内心想法的隐私),这已促使部分地区的立法者采取行动。例如,欧盟 AI 法案就禁止在工作场所和学校使用情感检测 AI。
其中一个原因是偏见风险 —— 研究已经表明,机器准确检测情绪反应的能力会因种族、年龄和性别而异。例如,在日本,微笑往往更多被用来掩饰负面情绪,而在其他地区则未必如此。
这就为 AI 驱动新形式的歧视敞开了大门 —— 显然,这是一种必须被理解并加以预防的威胁。
情感涌动
总之,虽然很明显 AI 无法真正“感受”,但忽视其理解我们情绪能力所引发的影响将是一个严重的错误。
允许机器通过理解我们的情感反应来读取我们内心世界的念头,自然会让许多人敲响警钟。显然,这为不怀好意者提供了可乘之机,创造了危险的机遇。
与此同时,情感计算也可能为开启有助于人们康复的疗法,以及提高我们使用服务的效率、便捷性和安全性,提供关键的突破口。
作为 AI 的开发者、监管者或普通用户,我们都有责任确保这些新技术能力以负责任的方式融入社会。