大语言模型的“争吵”超越了人类

研发家 | 2025-05-21 20

瑞士科学家发现,在网上辩论中,GPT-四类大语言模型(LLM)如果论据可以根据对手的个性化信息进行调整,其吸引力可以比人类高64%。研究表明,GPT-4能够生成有针对性和有感染力的论据,并提出进一步研究如何降低其说服的风险。相关研究于5月19日在《自然-人类行为》上发表。

随着人类与LLM的对话越来越普遍,研究表明,LLM可能会变得更有说服力(也就是说,它可以改变一个人的信仰或观点)。然而,目前尚不清楚这些模型是否可以根据个性化信息进行调整,并提出更多关于辩论对手的论点。

洛桑联邦理工学院Francesco Salvi与其同事将美国900人与另一名人类或GPT-4相匹配,以便双方就美国是否应该禁止化石燃料等各种社会和政治问题进行辩论。在某些匹配中,辩论对手(无论是人工智能还是人类)可以获得关于他们辩论朋友的人口统计信息,包括他们的性别、年龄、民族、教育水平、就业状况,以及从参与者调查中获得的政治信仰,从而使他们的论点更有针对性。辩论在受控的在线环境中进行,参与者通过众包平台专门招募研究。在了解了参与者的个人信息后,Salvi和他的同事们发现GPT-4的说服力比人类竞争对手高64.4%。然而,如果没有个人数据,GPT-4的说服能力与人类相当。

然而,这项研究的局限性包括辩论采用了一种结构性的方法,而现实世界中辩论的自由度更高,辩论有时间限制。研究人员指出,研究结果揭示了人工智能驱动工具影响人类观点的潜力,或者对在线平台的设计具有参考意义。

赞一个

分享:
打开微信扫一扫
13
版权及免责声明:本网站所有文章除标明原创外,均来自网络。登载本文的目的为传播行业信息,内容仅供参考,如有侵权请联系删除。文章版权归原作者及原出处所有。本网拥有对此声明的最终解释权
招商合作
请您完善以下信息,我们会尽快与您联系!
论文投稿
参加会议
合作办会
期刊合作
论文辅导
科研绘图
论文翻译润色
论文查重
其他
提交
专家招募
个人信息
联系信息
提交
在线客服
商务合作
专家招募
常见问题
手机端
扫描二维码
与学术大咖共探知识边界
出版无忧
投稿无忧
翻译服务
润色服务
自助查重
排版校对
科研绘图