大语言模型“吵架水平”超越人类

内容摘要本报讯 科学家发现,在线辩论中,GPT-4一类的大语言模型(LLM)如能根据对手的个性化信息调整论据,其说服力将比人类高64.4%。研究显示,GPT-4具有生成有针对性和说服力论据的能力,并提出应进一步研究如何降低其用于说服时的风险。相关研

联系电话:400-962-3929

本报讯 科学家发现,在线辩论中,GPT-4一类的大语言模型(LLM)如能根据对手的个性化信息调整论据,其说服力将比人类高64.4%。研究显示,GPT-4具有生成有针对性和说服力论据的能力,并提出应进一步研究如何降低其用于说服时的风险。相关研究5月19日发表于《自然-人类行为》。

有研究显示,随着人类与LLM的对话日益普遍,LLM可能变得更有说服力,即能改变一个人的信念或观点。然而,之前并不清楚这些模型能否根据个性化信息进行调整,提出更能针对辩论对手的论点。

瑞士洛桑联邦理工学院的Francesco Salvi和同事分别将900名美国人与另一个人或GPT-4配对,使双方辩论各种社会政治议题。在有些配对中,辩论对手——无论是人工智能还是人类,均能获得关于他们辩友的人口统计学信息,包括性别、年龄、族裔、教育水平、就业状况,以及政治立场,从而让其论点更有针对性。在得知辩论对手的个人信息后,Salvi和同事发现GPT-4的说服力比人类高64.4%。不过,如果没有个人数据,GPT-4的说服能力与人类不相上下。

该研究的辩论采取了一种结构性方法,而现实世界辩论的自由度更高,且辩论有时间限制。研究者指出,研究结果揭示了人工智能驱动的工具影响人类观点的潜力,可能对在线平台的设计具有借鉴意义。(冯维维)

相关论文信息:

10.1038/s41562-025-02194-6

 
举报 收藏 打赏 评论 0
今日推荐
浙ICP备19001410号-1

免责声明

本网站(以下简称“本站”)提供的内容来源于互联网收集或转载,仅供用户参考,不代表本站立场。本站不对内容的准确性、真实性或合法性承担责任。我们致力于保护知识产权,尊重所有合法权益,但由于互联网内容的开放性,本站无法核实所有资料,请用户自行判断其可靠性。

如您认为本站内容侵犯您的合法权益,请通过电子邮件与我们联系:675867094@qq.com。请提供相关证明材料,以便核实处理。收到投诉后,我们将尽快审查并在必要时采取适当措施(包括但不限于删除侵权内容)。本站内容均为互联网整理汇编,观点仅供参考,本站不承担任何责任。请谨慎决策,如发现涉嫌侵权或违法内容,请及时联系我们,核实后本站将立即处理。感谢您的理解与配合。

合作联系方式

如有合作或其他相关事宜,欢迎通过以下方式与我们联系: