AI冒充人类让聊天更走心
研发家 | 2025-07-02 0

六月三十日在《自然-人类行为》中发表的一项研究指出,人类专注于拒绝人工智能。(AI)除非这种同理心被误认为来自人类,否则对话机器人的情感支持。

生成AI对话机器人,尤其是使用大语言模型(LLM)对话机器人,自面向大众以来,越来越受欢迎。他们可以与用户社交,并给予情感支持。

此前的研究表明,LLM驱动的工具可以确定用户的情绪状态,他们的回复也被视为同理心和同理心。然而,不清楚对话机器人的支持是否与人类的支持有相同的效果。

以色列希伯来大学的Anat在这项研究中与被视为人类支持的同事相比,Perry和同事发现AI产生的支持将被视为缺乏同理心,除非AI产生的回应被标记为来自人类。

研究人员进行了9项研究,向6282名受试者展示了AI生成的回应,并告诉他们有些回复是人类写的,有些是AI对话机器人写的。Perry和他的共同作者观察到,虽然受试者对他们收到的回应表示同情,但他们认为沟通的目标是更高的人类回复。

受试者更愿意等待他们认为来自人类的回应,而不是来自AI的即时回应。作者还发现,与标记为AI的回应相比,受试者认为来自人类的回应可以唤起更多的积极感受,如安慰、认可、快乐、被理解和更少的负面感受,如感到焦虑、愤怒、痛苦或苦恼。当受试者认为人类在构思回复时使用了AI辅助时,他们对同理心、积极共鸣、积极情绪和支持的评分就更低了。

这项研究的结果表明,AI对话机器人提供的支持可能是有限的。尤其是当人们期待同理心或情感支持时,人们可能会更加关注人类的回应。但由于研究中的交流很短,需要进一步研究AI工具在长期情感支持交流中的应用和接受程度。

赞一个

分享:
打开微信扫一扫
0
版权及免责声明:本网站所有文章除标明原创外,均来自网络。登载本文的目的为传播行业信息,内容仅供参考,如有侵权请联系删除。文章版权归原作者及原出处所有。本网拥有对此声明的最终解释权
更多服务
招商合作
请您完善以下信息,我们会尽快与您联系!
论文投稿
参加会议
合作办会
期刊合作
论文辅导
科研绘图
论文翻译润色
论文查重
其他
提交
专家招募
个人信息
联系信息
提交
在线客服
商务合作
专家招募
常见问题
手机端
扫描二维码
与学术大咖共探知识边界
出版支持
翻译服务
润色服务
自助查重
排版校对