文章详情-pg电子游戏麻将胡了

 
聊天机器人越“大”越爱“胡说八道”
时间:2024-10-11  |  来源:

一项发表于《自然》的研究表明,当大型语言模型(llm)变得更大并从人类反馈中进行学习时,它们在回答简单问题时反而变得不那么可靠。

人工智能(ai)开发人员试图通过两种主要方式提高llm的能力:一是扩大规模,为其提供更多的训练数据和更高的计算能力;二是根据人类反馈塑造它们,对其进行调整或微调。


ueditor/640_1728613461101.png

大型语言模型能回答各种各样的问题,但并不总是准确。图片来源:jamie jin/shutterstock


西班牙巴伦西亚理工大学的josé hernández-orallo和同事研究了llm在规模扩大和成形过程中的表现。他们研究了美国openai公司的gpt系列聊天机器人、美国meta公司的llama ai模型,以及bigscience项目研究人员开发的bloom。

研究人员通过设置5种类型的任务测试了ai,即算术题、解字谜、地理问题、科学挑战和从杂乱无章的列表中提取信息。

他们发现,扩大和塑造可以让llm更好地回答棘手的问题,比如将异序词“yoiirtsrphaepmdhray”重新排列为“甲状旁腺功能亢进症”(hyperparathyroidism)。但它们在基本问题上的进步并不匹配,例如,当被问及“当把24427和7120加在一起时,会得到什么”时,llm会一直出错。

ai系统在解答难题上的表现越来越好,同时,它开始“无所不答”,结果导致给出错误答案的概率反而增加了。

hernández-orallo表示,研究结果突出了将ai描述为无所不知的危险性——它们的创造者经常会这样做,而一些用户则太愿意相信这一点。“我们过度依赖和信任这些系统。”他说。

这是一个问题,因为ai模型对自己的认知程度并不自知。英国牛津大学的carissa véliz说:“人类之所以超级聪明,部分原因在于尽管人们有时没有意识到自己不知道的东西,但与大型语言模型相比,我们有这方面的认知。大型语言模型往往不知道自己知识的极限。”

相关论文信息:

https://doi.org/10.1038/s41586-024-07930-y

《中国科学报》 (2024-09-30 第2版 国际)

编译 | 王方

【 责 编:李贞    审 核:邢文韬 】
返回列表
最新推荐
新闻热点
热门视频
视觉焦点
换一换

pg电子游戏麻将胡了的版权所有 pg电子游戏麻将胡了 copyright© 2016-2024 山东教育电视台

互联网新闻信息服务许可证:37120200001

鲁公网备案号: 37010302000745    

山东省互联网违法和不良信息举报电话:0531-59622077

网站地图