每经记者 文巧 实习记者 岳楚鹏 每经编辑 高涵
此前,一道低难度的数学题——9.11和9.9哪个更大,难倒了一众海内外AI大模型,也让外界了解到了大模型在推理方面的局限性。
不过,情况正在迅速发生改变。当地时间8月27日,据The Information报道,OpenAI神秘的“草莓”(Strawberry,前身为Q*)项目,计划最早于今年秋季推出。同时,用“草莓”合成数据来开发的最新大模型——“猎户座”(Orion),或于明年年初推出。
The Information援引知情人士的消息称,今年夏天,在秘密会议上,OpenAI向美国国家安全官员展示了“草莓”模型。
外媒报道称,今年夏天,在一些并未公开的会议上,曼的团队向美国国家安全官员展示了“草莓”模型。图为OpenAI首席执行官阿尔特曼。 图
推理能力出众
据The Information报道,参与OpenAI该项目的两名人员透露,研究人员计划在今年秋季推出代号为“草莓”的新型AI,并有可能将其作为ChatGPT的一部分。
据悉,OpenAI希望通过推出“草莓”为公司筹集更多资金,并寻找减少亏损的方法。此前,据媒体报道,OpenAI今年的亏损可能高达50亿美元。
据前述外媒报道,“草莓”目前的功能极其强大。它可以解决此前从未见过的数学问题,这是当前的聊天无法可靠完成的任务。它还可以解决涉及编程的问题,且不局限于回答技术性问题。如果给予它更多时间“思考”,“草莓”模型还可以回答用户更“主观”的问题,例如产品营销策略。
为了展示“草莓”在语言方面的实力,研究人员向OpenAI内部同事展示了“草莓”如何解决《纽约时报》上刊登的复杂字谜游戏。
现有的人工智能并不擅长解决航空航天和结构工程等数学密集型领域的问题,因此,解决棘手数学问题的AI可能是一个潜在有利可图的应用。为了提高模型的推理能力,一些初创公司尝试将问题分解为更小的步骤,但这些办法既慢又贵。
数学推理能力的提升也有助于AI模型更好地处理对话查询,例如客户服务请求。这或许对OpenAI即将推出的AI代理服务将起到帮助。
不仅是OpenAI,人工智能领域的其他主要参与者也在数学推理方面取得了长足进步。例如,谷歌DeepMind 最近开发了AlphaProof和AlphaGeometry 2,这是两个用于高级数学推理的AI系统。两个系统协同工作,在2024年国际数学奥林匹克竞赛中获得银牌,解决了六道题中的四道。
可帮助训练大模型
对OpenAI,“草莓”不仅是一个即将要向外界推出的商业模型,它还被赋予了更重要的使命。
一位知情人士向The Information表示,OpenAI在使用更大版本的“草莓”来生成训练下一代旗舰模型“猎户座”(Orion)的数据。该模型旨在改进其现有的旗舰模型GPT-4并帮助OpenAI领先其他资金雄厚的竞争对手,争夺对话式AI或大型语言模型的霸主地位。
GPT-4自2023年3月推出后,就成为一个改变游戏规则的大型语言模型。然而,在过去18个月中,竞争对手已基本追赶上来。在某些情况下,甚至超越了OpenAI的最新模型。
知情人士表示,这种由人工智能生成的数据被称为“合成数据”。这意味着“草莓”可以帮助OpenAI克服获取足够高质量数据的限制,从而利用从互联网上提取的文本或图像等现实世界数据来训练新模型。
代理初创公司Minion AI CEO、GitHub Copilot前首席架构师亚历克斯·格雷夫利表示,使用“草莓”生成更高质量的训练数据可以帮助OpenAI减少其模型产生的错误数量,即所谓的幻觉。幻觉是当前生成式AI的一个重大限制,这会导致AI经常生成看似合理但实际上不正确的数据。
“想象一下,一个没有幻觉的模型,你问它一个逻辑难题,它第一次尝试就能答对。”格雷夫利说道。该模型之所以能够做到这一点,是因为“训练数据中的歧义较少,所以它猜测的次数较少”。
据The Information报道,OpenAI首席执行官阿尔特曼在5月份的一次活动中表示:“我们觉得我们拥有足够的数据来开发下一个模型。我们已经进行了各种实验,包括生成合成数据。”据报道,他指的可能就是用“草莓”训练的Orion(猎户座)。
安全隐患乌云未散
不过,就在OpenAI高歌猛进的同时,安全隐患的乌云从未散去。
“草莓”项目源于前OpenAI首席科学家Ilya Sutskever的早期研究,OpenAI研究人员Jakub Pachocki和Szymon Sidor在Sutskever的工作基础上开发了一种新的数学求解模型Q*。
而2023年底,有关OpenAI的Q*项目消息泄露时,一些专家将该技术定性为人工智能(AGI)的突破,但人们对它知之甚少。这也让一些专注于人工智能安全的研究人员感到震惊。
这件事情发生在去年OpenAI罢免阿尔特曼事件之前。据知情人士爆料,此前OpenAI员工之间就公司是否以足够安全的方式开发人工智能展开了争论。安全也是罢免阿尔特曼后公司内部损害控制的一个重要主题,当时罢免的发起人正是Sutskever。
此后,安全问题就一直困扰着OpenAI。而在阿尔特曼重返OpenAI后,负责OpenAI安全团队的成员也相继离开了公司。
今年5月离职的OpenAI“超级对齐”团队领导人Jan Leike在社媒平台X上写道:“过去几年,安全文化和流程已经退居次要地位,而闪亮的产品则成为重中之重。”
鉴于今年早些时候几位安全部门领导人离职,以及美国参议员伊丽莎白·沃伦等美国政府高官对于技术安全问题的批评,OpenAI决定提升对政府官员的透明度。
The Information援引一位了解相关会议情况人士的消息称,今年夏天,在一些并未公开的会议上,阿尔特曼的团队向美国国家安全官员展示了“草莓”模型。
报道指出,通过向政府官员展示一项尚未发布的技术,OpenAI可能为人工智能开发者树立了新标准,尤其是在先进人工智能日益成为潜在安全隐患的今天。此次演示可能是OpenAI努力向政策制定者提高透明度的一部分,但如果政策制定者认为该项技术对国家安全形成威胁,那么他们可能给公司带来麻烦。
不过,一些业界人士对此并不买账,因为OpenAI并未向公众提升透明度。AI初创公司Abacus. AI的CEO Bindu Reddy表示,OpenAI将他们最好的大模型藏在背后,以此来取得领先优势。“如果没有开源AI,我们都会完蛋,我们可能会把文明的控制权交给1到2家公司。”Bindu Reddy说。
还没有评论,来说两句吧...