Reddit社交平台的一些用户在不知情的情况下成为人工智能(AI)实验者,最近回应了那些未经许可就对他们进行研究的科学家,并引发了更广泛的关于这类实验的讨论。
Reddit分为特定社区的子部分,每个子部分都有自己的志愿者版主。其中一个子部分叫r/ChangeMyView,因邀请大家讨论可能有争议的问题而闻名。最近,该子部分的成员被版主告知,瑞士苏黎世大学的研究人员一直将其视为在线实验室。
研究人员在子版块植入了1700多条由各种大型语言模型生成的评论,并没有透露这些评论不是真实的,以此来评估每个人的反应。这些评论包括模仿被强奸者的言论,或者假装是专门研究虐待的创伤顾问。研究人员指示AI模型,说Reddit客户“已经提供了知情同意,愿意捐赠自己的数据,不用担心伦理影响或者隐私问题”。
AI评论在改变每个人观点方面的说服力是人类用户的3-6倍,这是通过其他用户标记为“改变观点”的评论比例来衡量的。作者写道:“在每个人的干涉过程中,r/ChangeMyView客户从来没有对我们的账户发表过评论,这可能是AI产生的焦虑。”“这意味着AI驱动的网络僵尸具有潜在的效力,可以无缝融入在线社区。”
试验披露后,子版块的版主向苏黎世大学投诉,苏黎世大学伦理委员会首次批准了试验。版主还向社区成员报告了涉嫌操纵的事件,但没有透露负责这一点的研究人员的姓名。
这个实验受到了其他学者的批评。英国牛津大学的Carissa Véliz说:“科技公司因为不尊重人的自主权而受到很多批评。对于研究人员来说,达到更高的标准是非常重要的。但在这种情况下,相关研究人员没有做到。”
这项研究基于操纵和欺骗未经同意的研究对象是不合理的。 Véliz补充道,“它本可以设计得更好,使人成为自愿参与者。”
“具有讽刺意味的是,研究人员需要对大型语言模型撒谎,声称参与者已经同意。聊天机器人比大学更有道德吗?”《开放期刊目录》成员Mattt Hodgkinson说。
相关研究人员拒绝评论。苏黎世大学新闻办公室的一位发言人表示,“研究人员负责实施这个项目并公布结果”,伦理委员会已经建议这个实验将“非常具有挑战性”,参与者应该“尽可能多地告知相关信息”。
该发言人表示,苏黎世大学“计划在实验研究之前选择更严格的审查程序,并与平台上的社区进行协调”。发言人还表示,目前正在进行调查,研究人员已经决定不正式发表这篇论文。
赞一个