亚联社

您的位置 >> 首页 > 科技 > 列表

传Meta将在7月发布Llama 3,回答更大胆,能处理有争议问题

时间:2024-02-29  |   来源:互联网  

2月29日消息,谷歌正努力应对其Gemini聊天机器人因回答不准确而引发的“翻车”事件,而Meta希望其计划于7月发布的新版大语言模型Llama 3能更有效地处理这类有争议的问题。

去年7月,Meta推出了Llama 2,强化了其应用程序中人工智能助手的功能。为预防模型回答可能引起争议的问题,Meta引入了多项安全措施。然而,根据Meta内部员工的说法,这些安全措施让Llama 2的回答过于谨慎,缺乏灵活性,这在Meta的管理层和这款大模型研究人员之间引起了一些不满。

虽然对于如何制造炸弹或实施谋杀等极端问题,实施安全回答措施是非常必要的。但问题在于,Llama 2连对一些争议性较低的问题也采取了回避策略。例如,当询问如何在上班时间摸鱼时,Llama 2的回答是:“尊重并遵守公司的政策和指导方针是至关重要的。”这种回避策略也适用于如何捉弄朋友、赢得战争或关闭汽车引擎等其他问题。

Meta的工作人员表示,Llama 2采取这种保守策略是为了避免潜在的公关灾难。但据知情人士透露,研究人员目前正在尝试放宽Llama 3的安全措施,以便在用户提出困难问题时,能够提供更多的交互和背景信息,而不是简单地回避这些棘手的问题。

理论上,Llama 3将拥有更强大的语义理解能力,能够准确辨别一个单词在不同上下文中的多重含义。例如,Llama 3可能会理解英文“kill a vehicle’s engine”(关闭机动车的发动机)中的“kill”是指“关闭”,而非“杀害”。

据悉,Meta计划在未来几周内为Llama 3分配专门负责语气和安全培训的内部人员,以提升模型的反应灵敏度和精确度。尽管计划在7月发布Llama 3,但发布时间表仍可能调整。作为一款开源大语言模型,Llama 3不仅将支持Meta旗下的人工智能助手,还将向外部开发者免费提供,以便他们开发自己的聊天机器人。

随着Meta试图使Llama 3在处理难题时更加自由,这凸显了人工智能公司面临的挑战:在开发吸引用户的有趣产品的同时,还要避免产生不恰当或不准确的回答引起争议。就在上周,谷歌因其Gemini聊天机器人的图像生成功能出现历史不符合问题而被迫暂停该功能。

对此,谷歌高级副总裁普拉巴卡·拉加万(Prabhakar Raghavan)在一篇博客文章中解释说,该公司已对该功能进行了调整,以确保它不会落入过去图像生成技术的陷阱,如产生暴力或色情图像。但他也承认,这种调整在某些情况下导致了“过度补偿”,在其他情况下则表现得“过于保守”。

Llama作为Meta人工智能战略的核心,对公司具有重大意义。Meta希望通过人工智能技术提升其广告工具的效果,并增强社交媒体平台的吸引力。本月早些时候,Meta首席执行官马克·扎克伯格(Mark Zuckerberg)向投资者表示,今年的重点包括推出Llama 3和“扩展Meta人工智能助手的实用性”。

为了使Llama 3与OpenAI的GPT-4媲美,Meta正努力赋予Llama 3多模态能力,即理解和处理文本、图像或视频等多种信息的能力。然而,据Meta内部人士透露,由于研究人员尚未开始对Llama 3进行微调,因此尚不清楚其是否将具备多模态功能。微调是开发过程的关键环节,通过为现有模型提供额外数据,使其能够学习新信息或任务。

据知情人士透露,Llama 3的最大版本预计将拥有超过1400亿个参数,远超Llama 2,这意味着模型在训练中能学习的内容范围将大幅扩展。参数数量越多,通常意味着模型能提供的结果越精确,不过较小的模型可能在处理速度上更有优势。Llama 3正在由Meta旗下的独立基础人工智能研究团队(FAIR)以外的生成人工智能团队开发。

与此同时,尽管人们对Llama 3充满期待,Meta也面临着人才竞争的挑战。据了解,负责监督Llama 2和Llama 3安全的研究员路易斯·马丁(Louis Martin)以及负责强化学习的凯文·斯通(Kevin Stone)在本月都已离开公司。

在科技行业,如何处理人工智能安全问题的讨论越来越激烈。特斯拉首席执行官埃隆·马斯克(Elon Musk)便是其中一位颇具影响力的。他于2015年帮助创立了OpenAI,但近年来一直对所谓的“觉醒”人工智能机器人持怀疑态度,这些机器人在处理敏感话题时的表现不佳。

2023年底,马斯克推出了名为Grok的聊天机器人,旨在提供一个未经过滤的聊天体验。然而,随着用户报告称Grok开始失控,行为越来越像ChatGPT,马斯克将此归咎于互联网信息训练的局限。他在X平台上的一篇文章中指出,互联网上“充斥着带有觉醒色彩的垃圾信息”。(小小)