艾巴生活网

您现在的位置是:主页>生活 >内容

生活

新研究发现人工智能不会对人类的生存构成威胁

2024-09-02 14:38:42生活潇洒的灰狼
根据巴斯大学和德国达姆施塔特工业大学的最新研究,ChatGPT和其他大型语言模型(LLM)无法独立学习或获得新技能,这意味着它们不会对人类构成

根据巴斯大学和德国达姆施塔特工业大学的最新研究,ChatGPT和其他大型语言模型(LLM)无法独立学习或获得新技能,这意味着它们不会对人类构成生存威胁。

新研究发现人工智能不会对人类的生存构成威胁

这项研究于今日作为计算语言学协会第62届年会(ACL2024)论文集的一部分发表,该会议是自然语言处理领域的顶级国际会议。该研究表明,法学硕士具有遵循指示和语言熟练程度的表面能力,但是,如果没有明确的指导,他们就没有掌握新技能的潜力。这意味着他们本质上仍然是可控的、可预测的和安全的。

研究小组得出的结论是,虽然这项技术仍有可能被滥用,但经过越来越大的数据集训练的LLM可以继续部署而无安全问题。

随着成长,这些模型可能会生成更复杂的语言,并更好地遵循明确和详细的提示,但它们不太可能获得复杂的推理技能。

巴斯大学计算机科学家、法学硕士“新兴能力”新研究报告的共同作者哈里什·塔亚尔·马达布希博士表示:“普遍的看法是,这种人工智能对人类构成威胁,这阻碍了这些技术的广泛应用和发展,也分散了我们对真正需要关注的问题的注意力。”

由德国达姆施塔特工业大学IrynaGurevych教授领导的合作研究团队进行了实验,测试LLM完成模型从未遇到过的任务的能力——即所谓的突发能力。

举例来说,法学硕士可以回答有关社交情况的问题,而无需接受过明确的训练或编程。虽然之前的研究表明,这是模型“了解”社交情况的结果,但研究人员表明,这实际上是模型使用法学硕士众所周知的能力的结果,即根据呈现给它们的几个例子完成任务,即所谓的“情境学习”(ICL)。

通过数千次实验,该团队证明,LLM的遵循指令的能力(ICL)、记忆力和语言能力的结合可以解释LLM所展现的能力和局限性。

TayyarMadabushi博士说:“人们一直担心,随着模型变得越来越大,它们将能够解决我们目前无法预测的新问题,这就构成了威胁,即这些更大的模型可能会获得包括推理和规划在内的危险能力。

“这引发了很多讨论——例如,去年在布莱切利园举行的人工智能安全峰会上,我们被要求发表评论——但我们的研究表明,担心一个模型会消失并做出一些完全出乎意料、创新且具有潜在危险的事情是没有道理的。

“对法学硕士带来的生存威胁的担忧并不仅限于非专家,世界各地的一些顶尖人工智能研究人员也表达了这种担忧。”

然而,TayyarMadabushi博士坚持认为这种担心是没有根据的,因为研究人员的测试清楚地表明法学硕士缺乏新兴的复杂推理能力。

他说道:“虽然解决人工智能滥用的现存可能性很重要,例如制造虚假新闻和增加欺诈风险,但根据感知到的生存威胁来制定法规还为时过早。”

“重要的是,这对最终用户来说意味着,在没有明确指示的情况下依赖LLM来解释和执行需要复杂推理的复杂任务很可能是一个错误。相反,用户可能会从明确指定他们需要模型做什么以及尽可能为除最简单的任务之外的所有任务提供示例中受益。”

Gurevych教授补充道:“……我们的研究结果并不意味着人工智能根本不构成威胁。相反,我们表明,所谓与特定威胁相关的复杂思维技能的出现并没有证据支持,而且我们毕竟可以很好地控制法学硕士的学习过程。因此,未来的研究应该关注这些模型带来的其他风险,例如它们可能被用来制造虚假新闻。”