研究表明 AI无法独立学习或掌握新技能
根据来自英国巴斯大学和德国达姆施塔特工业大学的新研究,ChatGPT和其他大型语言模型(LLMs)无法独立学习或掌握新技能,这意味着它们对人类不构成生存威胁。
这项研究今天作为第62届计算语言学协会年会(ACL 2024)的会议论文发表。ACL是自然语言处理领域的国际顶级会议。研究显示,LLMs在语言能力上表现出色,能够执行指令,但在没有明确指令的情况下,无法掌握新技能。这意味着这些模型本质上是可控、可预测且安全的。
研究团队得出结论,尽管LLMs正在接受越来越多数据的训练,并且技术仍然可能被滥用,但它们可以继续安全部署。随着模型的不断发展,它们可能会生成更复杂的语言,并更好地遵循明确和详细的提示,但不太可能获得复杂的推理能力。
巴斯大学的计算机科学家、该研究的合著者Harish Tayyar Madabushi博士表示:“认为这类AI对人类构成威胁的普遍观点阻碍了这些技术的广泛应用和发展,同时也转移了我们对真正需要关注的问题的注意力。”
由德国达姆施塔特工业大学的Iryna Gurevych教授领导的合作研究团队,进行了测试LLMs完成从未遇到过任务的实验,这被称为“突现能力”。
例如,LLMs能够回答关于社交情境的问题,而无需进行过明确的训练或编程。之前的研究认为,这是模型“了解”社交情境的结果,而研究人员则表明,这实际上是模型通过已知的“上下文学习”(ICL)能力,在给出少量示例的情况下完成任务的结果。
通过成千上万次实验,研究团队证明了LLMs的指令遵循能力(ICL)、记忆和语言能力的结合,能够解释LLMs所展示的能力和局限性。
Tayyar Madabushi博士说:“人们担心,随着模型越来越大,它们将能够解决我们目前无法预测的新问题,这会带来获得危险能力的威胁,如推理和规划。这引发了大量讨论——例如,去年在布莱奇利公园举行的AI安全峰会上,我们应邀发表了意见——但我们的研究表明,担心模型会自行做出完全出人意料、创新并可能危险的事情是没有根据的。”
“关于LLMs构成生存威胁的担忧并不仅限于非专家,全球一些顶尖的AI研究人员也表达了类似的担忧。”
然而,Tayyar Madabushi博士坚持认为这种恐惧是没有根据的,因为研究人员的测试明确证明LLMs不存在突现的复杂推理能力。
“虽然应对AI滥用的潜在风险,如假新闻的制造和欺诈风险的增加,确实很重要,但基于假定的生存威胁制定法规为时过早。”他说。“重要的是,对于最终用户来说,依赖LLMs在没有明确指令的情况下解释和执行需要复杂推理的复杂任务,可能是一个错误。相反,用户应明确指示模型需要执行的任务,并尽可能提供示例,除非是最简单的任务。我们的研究结果并不意味着AI完全没有威胁。我们只是表明,与特定威胁相关的复杂思维能力的突现并没有证据支持,我们能够很好地控制LLMs的学习过程。因此,未来的研究应该关注模型可能带来的其他风险,例如它们被用于生成假新闻的潜力。”
网友评论