AI冒充人类让聊天更走心

研发家 | 2025-07-02 0

六月三十日在《自然-人类行为》中发表的一项研究指出,人类专注于拒绝人工智能。(AI)除非这种同理心被误认为来自人类,否则对话机器人的情感支持。

生成AI对话机器人,尤其是使用大语言模型(LLM)对话机器人,自面向大众以来,越来越受欢迎。他们可以与用户社交,并给予情感支持。

此前的研究表明,LLM驱动的工具可以确定用户的情绪状态,他们的回复也被视为同理心和同理心。然而,不清楚对话机器人的支持是否与人类的支持有相同的效果。

以色列希伯来大学的Anat在这项研究中与被视为人类支持的同事相比,Perry和同事发现AI产生的支持将被视为缺乏同理心,除非AI产生的回应被标记为来自人类。

研究人员进行了9项研究,向6282名受试者展示了AI生成的回应,并告诉他们有些回复是人类写的,有些是AI对话机器人写的。Perry和他的共同作者观察到,虽然受试者对他们收到的回应表示同情,但他们认为沟通的目标是更高的人类回复。

受试者更愿意等待他们认为来自人类的回应,而不是来自AI的即时回应。作者还发现,与标记为AI的回应相比,受试者认为来自人类的回应可以唤起更多的积极感受,如安慰、认可、快乐、被理解和更少的负面感受,如感到焦虑、愤怒、痛苦或苦恼。当受试者认为人类在构思回复时使用了AI辅助时,他们对同理心、积极共鸣、积极情绪和支持的评分就更低了。

这项研究的结果表明,AI对话机器人提供的支持可能是有限的。尤其是当人们期待同理心或情感支持时,人们可能会更加关注人类的回应。但由于研究中的交流很短,需要进一步研究AI工具在长期情感支持交流中的应用和接受程度。

赞一个

分享:
打开微信扫一扫
0
版权及免责声明:本网站所有文章除标明原创外,均来自网络。登载本文的目的为传播行业信息,内容仅供参考,如有侵权请联系删除。文章版权归原作者及原出处所有。本网拥有对此声明的最终解释权
招商合作
请您完善以下信息,我们会尽快与您联系!
论文投稿
参加会议
合作办会
期刊合作
论文辅导
科研绘图
论文翻译润色
论文查重
其他
提交
专家招募
个人信息
联系信息
提交
在线客服
商务合作
专家招募
常见问题
手机端
扫描二维码
与学术大咖共探知识边界
出版无忧
投稿无忧
翻译服务
润色服务
自助查重
排版校对
科研绘图