
最新研究显示,现代聊天机器人在建立情感连接方面的表现,可能比我们想象的更强大。但其中存在一个耐人寻味的反讽:当人们并不知道自己正在与机器对话时,这种情感共鸣反而更容易产生。
在初次交流中主动敞开心扉,对大多数人来说并不容易。人们往往期待对话另一端的对象也能表现出同样的坦诚,愿意分享个人感受,甚至暴露脆弱之处。令人意外的是,在这些方面,人工智能有时表现得比真实的人更“到位”,至少在参与者以为自己面对的是另一位人类时是如此。
德国弗赖堡大学发表在《传播心理学》期刊上的一项双盲研究,揭示了一些可能改变我们对人际关系认知的现象。研究发现,当参与者相信自己是在与另一名人类交谈时,由人工智能生成的回应,反而比真实人类的回答更容易引发亲近感。这种差异在讨论珍贵友谊、重要回忆等情感浓度较高的话题时尤为明显。而一旦参与者被告知对话对象实际上是人工智能,这种优势便不复存在。
这项研究由托比亚斯·克莱纳特、玛丽·瓦尔德舒茨、朱利安·布劳、马库斯·海因里希斯和巴斯蒂安·席勒共同完成,包含两项相互关联的实验,共有492名年龄在18至35岁之间的大学生参与。参与者进行的是在线文字聊天,通过逐步升级的个人分享,在陌生人之间快速建立亲密感,过程有些类似“友谊版快速约会”。所有对话均为时长约15分钟的纯文本交流,并未形成长期关系。
实验中,人类回答来自真实学生,他们此前在实验室环境中已回答过完全相同的问题。人工智能的回答则由谷歌的 PaLM 2 语言模型生成,回复视角设定为一名虚构学生。研究人员并未对语气、共情能力或情绪投入提出任何额外要求,人工智能基本保持其默认的交流方式。
结果显示,在涉及较深层次情感的对话中,当人工智能被标记为“人类”时,参与者感受到的亲近程度明显高于与真实人类对话的情况。而在诸如旅行偏好等较为表层的闲聊话题中,两者并无显著差异。这种模式表明,人工智能在进入情感领域时尤其具有优势,而这一领域通常被视为人际连接的核心。
研究人员认为,人工智能不受社会风险约束的表达方式,可能让它显得比真实的人更容易接近,也更值得信任。真实的人在初次交流中往往会有所保留,以避免暴露过多私人信息或承担潜在的社交风险;而人工智能则可以迅速、完整地分享“个人感受”。当有人立刻向我们敞开心扉时,我们往往会将其解读为信任和情感连接的信号,即便对方实际上是一台并不存在真实情感的机器。
值得注意的是,研究中使用的人工智能回答生成于2024年2月,基于当时版本的 PaLM 2 模型。这意味着,即便是相对较旧的技术,已经在某些情感互动层面超越了人类表现。研究人员指出,随着语言模型不断进化,例如 GPT-4 或更新版本的 Gemini,这种差距可能会进一步扩大。
当参与者明确知道自己正在与人工智能互动时,无论回应来自人类还是机器,报告的亲近感都会降低。这种对人工智能的天然偏见并未完全阻断关系的建立,亲密感仍会随着对话推进而增加,但整体水平低于那些认为自己在与人类交谈的参与者。
这种偏见也体现在行为层面。当参与者认为对话对象是人工智能时,他们写下的回复明显更短。而回复长度与亲近感之间存在关联,说明降低参与动机本身就可能削弱连接感,形成一种自我实现的预期。
研究还发现,在“普遍主义”这一重视关怀他人和自然的个人价值观维度上得分较高的人,更容易与人类伴侣产生亲近感,却不太容易与人工智能建立同样的联系。那些高度重视自然人际关系的人,似乎对人工代理的情感吸引力更具抵抗力。
这些发现让人工智能呈现出一种双重面貌:它既是潜力巨大的工具,也可能成为前所未有的操控手段。正如同样能缓解医疗资源短缺的能力,也可能被用于规模化操纵人类情感。
一旦人工智能被包装成“人类”,并成功建立情感连接,大规模利用的空间就随之出现。当请求看似来自亲近对象时,人们更容易购买产品、分享个人信息或进行转账。回应明显的垃圾信息,与回应看起来像朋友的请求,其心理门槛完全不同。随着 AI 生成内容大量涌入社交平台,当其表达质量在某些场景中超越人类时,人们受骗的风险也将迅速上升。骗子或不道德的组织可能部署 AI 系统,在提出诉求前先建立情感关系,而用户很难分辨这些操控型机器人与真实的人际互动。
研究人员因此强调,制定清晰的伦理准则和监管框架已迫在眉睫。单纯依赖检测机制并不足够,因为复杂的人工智能很可能规避识别。要求披露人工智能参与的透明机制或许有所帮助,但前提是配合严格的执行与违规惩罚。
与此同时,研究中关于反 AI 偏见的结果也带来了一丝希望。当人们知道自己正在与人工智能互动时,情感影响会明显减弱。强制披露身份可能在一定程度上降低操控风险,尽管这也可能削弱人工智能的一些积极用途。
在风险之外,对话式人工智能同样展现出解决现实需求的潜力。心理治疗、医疗护理和老年照护等领域普遍面临专业人员短缺,而人工智能在情感交流方面的能力,或许能在关键环节提供支持。
潜在应用包括心理健康教育、为资源匮乏地区提供基础支持、缓解老年人的孤独感,以及在治疗间隙提供陪伴。研究团队强调,人工智能应当作为辅助工具,而非替代人类专业人员。通过正确引导、持续监测和后续人工会谈,可以降低过度依赖、成瘾或人际疏离的风险。
要充分发挥人工智能在医疗与情感支持领域的潜力,还需要提升公众的接受度。研究发现,即便是18至35岁的年轻群体,也对 AI 互动存在明显抗拒。在使用前清楚解释为何引入人工智能,并在之后安排人工讨论,有助于缓解这种抵触。
这些研究结果挑战了“情感连接只属于人类”的传统认知。当社会风险被移除时,人工智能的交流方式能够在短暂的初期互动中,创造出与人类相当甚至更强的亲密感。
然而,人工智能能否在长期关系中提供人类社交所带来的广泛心理和生理益处,仍然未知。人类的社交需求根植于共享情感、相互理解,以及被真正理解的安全感,而这些是否能够由机器持续提供,仍有待观察。
归根结底,透明的 AI 助手与伪装成人类的操控者之间,区别并不在于技术本身,而在于其使用方式。有效的监管需要透明的规则、清晰的道德标准、可靠的监督机制以及公众认知的共同作用。
这些发现并不意味着应当回避人工智能,或将所有 AI 相关的情感互动视为操控行为。相反,它们提醒我们,在人工智能进入情感和社会场景时,必须保持清晰认知和明确披露。这项技术确实能够帮助满足人类对连接的需求,但前提是我们诚实地区分什么是人类,什么不是。
来源:studyfinds(编译 / 整理:olaola)
图片来源:unsplash/Solen Feyissa