今年四月,瑞士理工学院开展的一项未经事先同意的实验受到了广泛关注。实验结果表明,在特定的辩论场景中,大型模型的说服力明显超越了人类。这一发现不仅引发了公众舆论的热议,同时也促使人们开始思考对大型模型应用实施监管的紧迫性。
实验惊人发现
瑞士理工学院在Reddit平台上开展的研究表明,参与辩论的个体中,有高达81.7%的人倾向于采纳GPT-4所提出的观点。即便未获取他们的个人信息,GPT-4在辩论中的说服力仍超越了人类,尽管其表现略逊一筹。
说服方式差异
在辩论环节,人们倾向于运用第一人称和第二人称代词,其撰写的文本往往篇幅较长,便于阅读,且常融入叙述故事和幽默元素,同时凸显了对支持与信任的重视,以及诉求的共性。而大型模型的辩论文本则相对难以阅读,更侧重于逻辑分析和思维方式的运用,其风格与人类辩论呈现出明显的不同之处。
识别情况分析
实验数据表明,大约有75%的测试对象能够正确区分出AI对手,这一发现揭示了大型模型在写作风格上具有显著特征,且这种特征便于识别。但值得注意的是,一旦测试对象意识到他们正与AI进行对抗,他们更有可能承认自己的立场发生了变化;此外,在没有人类介入的情况下,他们更可能接受辩论的失利。
大模型强大效力
大型模型在处理个人数据方面表现出高效率,能够根据个体特点定制论点。在在线交流中,这些模型展现出的说服力超越了人类。以Facebook的点赞功能为例,若与大型模型结合,可能演化成一种更高级的影响力工具。这种工具有能力大规模影响公众舆论,进而增大了隐蔽操控的风险。
监管问题凸显
定向广告目前正面临监管压力,同时,对大型模型在潜在洗脑效应上的使用可能需要设定限制。回顾Cambridge Analytica案例,即便未采用大型模型技术,仍能对公众产生显著影响,故而,大型模型技术可能引发的风险不容小觑。此外,一旦大型模型被引入社交媒体平台,可能引发虚假信息的广泛传播;同时,它对教育行业亦存在一定的潜在负面影响。
未来研究方向
目前对于大模型如何处理信息尚无确切了解,这成为未来可解释性研究中的一个关键议题。与此同时,大模型已展现出一定的自我推理能力,因此可能需要其阐述决策依据。在其强大的说服力之下,可能存在我们尚未意识到的因素,这一领域迫切需要更深入的研究。
在本实验中,大模型展现出的非凡说服力令人惊叹,面向未来,大模型在各行各业的应用前景将带来哪些变革?诚挚邀请大家在评论区分享您的观点,并对本篇文章给予点赞与分享。