今年四月,瑞士理工学院的一项实验未经知情同意便公之于众,结果显示,在Reddit平台上,潜伏的大型模型在影响对话者观点方面,其说服力和效率均超越了人类,这一发现迅速引起了社会的广泛关注。
实验结果惊人
实验结果显示,相较于那些获取个人信息的参与者,与GPT-4进行辩论的参与者中有81.7%的人更倾向于接受对方的观点。即便在未获取个人信息的情况下,GPT-4的表现也优于人类,但效果有所减弱。这一数据充分揭示了大型模型在说服力方面的优势,并突显了其在塑造人类观点方面的强大潜力。
辩论风格差异
在辩论中,人类倾向于使用第一人称和第二人称代词,以此生成篇幅较长且易于阅读的文本;同时,他们通过讲述故事、运用幽默等手法,传达出对某方的支持与信心,并试图触动情感。相较之下,大模型在辩论中则呈现出了不同的特点,其辩词的阅读体验不佳,更倾向于依赖逻辑推理和分析思维来试图转变对方立场,显现出一种与人类截然不同的辩论风格。
识别情况分析
参与者能够准确辨别出大约75%的AI对手,这一数据揭示了大型模型的写作风格具有明显的特征,且较易被识别。然而,当受试者意识到自己面对的是AI时,他们更倾向于承认自己的观点发生了改变,这或许是因为缺乏人类对手的存在,导致他们在潜意识中更容易接受辩论的失败。
信息利用优势
大型模型在利用个人信息构建论点方面表现出色,且在在线对话中,其微调定位能力使得其说服力超越人类。此外,这些模型在说服效率上亦显著高于人类。这一现象表明,在信息时代,大型模型对个人观点的影响力显著,并可能引发社交和心理层面的广泛影响。
监管必要性凸显
鉴于定向广告已受到监管措施,考虑到大型模型在高效塑造公众舆论方面具有显著作用,同时可能加剧隐蔽操纵的风险,目前或许应当对大型模型的使用实施一定的管控。以Cambridge Analytica事件为例,即便未使用大型模型技术,也能有效影响他人观点;而大型模型与社交媒体结合后,其潜在风险更为严重,因此,采取监管措施刻不容缓。
未来研究方向
目前对于大模型如何处理信息尚无确切了解,这构成了未来可解释性研究的一个焦点。此外,大模型展现出一定的自我推理能力,或许我们可以要求其阐明做出特定选择和发表针对性言论的依据。这是因为模型可能采用人类不常采用的组合方式来整合知识,从而完成我们未曾意识到的任务,并展现出强大的说服力。
面对大模型在公众舆论和认知领域所展现出的显著影响力,我们应如何妥善处理科技进步与人类独立思考之间的和谐关系?诚挚邀请各位在评论区发表您的见解,同时,也请您为这篇文章点赞并予以转发。