六月三十日在《自然-人类行为》中发表的一项研究指出,人类专注于拒绝人工智能。(AI)除非这种同理心被误认为来自人类,否则对话机器人的情感支持。
生成AI对话机器人,尤其是使用大语言模型(LLM)对话机器人,自面向大众以来,越来越受欢迎。他们可以与用户社交,并给予情感支持。
此前的研究表明,LLM驱动的工具可以确定用户的情绪状态,他们的回复也被视为同理心和同理心。然而,不清楚对话机器人的支持是否与人类的支持有相同的效果。
以色列希伯来大学的Anat在这项研究中与被视为人类支持的同事相比,Perry和同事发现AI产生的支持将被视为缺乏同理心,除非AI产生的回应被标记为来自人类。
研究人员进行了9项研究,向6282名受试者展示了AI生成的回应,并告诉他们有些回复是人类写的,有些是AI对话机器人写的。Perry和他的共同作者观察到,虽然受试者对他们收到的回应表示同情,但他们认为沟通的目标是更高的人类回复。
受试者更愿意等待他们认为来自人类的回应,而不是来自AI的即时回应。作者还发现,与标记为AI的回应相比,受试者认为来自人类的回应可以唤起更多的积极感受,如安慰、认可、快乐、被理解和更少的负面感受,如感到焦虑、愤怒、痛苦或苦恼。当受试者认为人类在构思回复时使用了AI辅助时,他们对同理心、积极共鸣、积极情绪和支持的评分就更低了。
这项研究的结果表明,AI对话机器人提供的支持可能是有限的。尤其是当人们期待同理心或情感支持时,人们可能会更加关注人类的回应。但由于研究中的交流很短,需要进一步研究AI工具在长期情感支持交流中的应用和接受程度。
赞一个