“人工智能变得更加强大,但也更加神秘”

“人工智能日益强大,但也越发神秘”

当OpenAI在三月份公布了令人惊叹的AI语言模型GPT-4的详细信息时,其研究人员填满了100页。当然,他们故意遗漏了一些重要细节,比如关于它如何构建或运作的具体内容。

当然,这并非偶然的疏忽。OpenAI和其他大公司都渴望将他们最珍贵的算法的运作方式保密起来,一部分原因是担心技术可能被滥用,另一部分原因则是为了避免给竞争对手带来优势。

立即注册

ENBLE的快速资讯通讯Will Knight

斯坦福大学的研究人员本周发布的一项研究显示了GPT-4及其他尖端AI系统周围的保密程度之深以及潜在的危险性。我与一些AI研究人员的交谈中,他们表示我们正处于AI发展方式的根本性转变之中。他们担心这种转变会降低科学进步的可能性,减少可问责性,并降低可靠性和安全性。

斯坦福团队调查了10种不同的AI系统,主要是像ChatGPT和其他聊天机器人背后的大型语言模型。其中包括OpenAI的广泛使用的商业模型GPT-4,Google的类似模型PaLM2,以及亚马逊的Titan Text。该报告还调查了一些创业公司提供的模型,包括AI21 Labs的Jurassic-2,Anthropic的Claude 2,Cohere的Command和chatbot制造商Inflection的Inflection-1。

他们还检查了可以免费下载的“开源”AI模型,而不是仅在云端访问的模型,其中包括由Meta在今年7月发布的图像生成模型Stable Diffusion 2和Llama 2。(正如ENBLE之前报道的,这些模型通常并不像看起来那么开放)。

斯坦福团队根据13个不同的指标评估了这些模型的开放程度,包括开发者对模型的训练数据的透明度,例如是否披露数据的获取和注释情况,以及数据中是否包含有版权的材料。该研究还寻找有关模型训练和运行所使用的硬件、软件框架以及项目的能源消耗的披露信息。

研究人员发现,没有一个模型在所有指标上都达到了透明度评分的54%以上。整体上,亚马逊的Titan Text被认为是最不透明的,而Meta的Llama 2被评为最开放的。但即使像Llama 2这样的“开源”模型,也被发现相当难以理解,因为Meta并没有披露其训练所使用的数据以及数据是如何收集和整理的,以及是谁做了这项工作。

亚马逊的发言人Nathan Strauss表示,该公司正在密切审查该指标。“Titan Text目前仍处于私密预览阶段,在模型准备好进行普遍提供之前,评估基础模型的透明度还为时过早,”他说。Meta拒绝对斯坦福报告置评,而OpenAI则未回复评论请求。

斯坦福的博士生Rishi Bommasani参与了这项研究,他表示这反映了AI越来越难以理解的事实,尽管其影响力越来越大。这与上一次AI的大热潮形成了鲜明对比,当时的开放性有助于推动语音和图像识别等能力的巨大进步。“在2010年代后期,公司对他们的研究更加透明并发表了更多的论文,”Bommasani说。“这是我们取得深度学习成功的原因。”

斯坦福报告还指出,基于竞争原因,模型不需要保持那么密秘。斯坦福的政策研究员凯文·克莱曼(Kevin Klyman)表示,许多领先的模型在透明度的不同方面得分相对较高,这意味着它们都可以更加开放,而不会输给竞争对手。

随着人工智能专家尝试弄清楚近期某些人工智能方法的发展方向,一些人表示,保密性可能使该领域更多地成为以利益驱动的领域,而非科学学科。

“这是人工智能历史上的关键时刻,”艾伦人工智能研究所(AI2)的研究科学家杰西·道奇(Jesse Dodge)表示。“当今构建生成式人工智能系统的最有影响力的参与者变得越来越封闭,不肯分享其数据和流程的关键细节。”

AI2正在开发一种更加透明的人工智能语言模型,名为OLMo。它正在使用从网络、学术出版物、代码、书籍和百科全书等来源获取的数据集进行训练。被称为Dolma的这个数据集已在AI2的ImpACT许可证下发布。当OLMo准备就绪时,AI2计划发布工作中的人工智能系统以及其背后的代码,使其他人能够在此基础上进行开发。

道奇表示,扩大对强大人工智能模型背后数据的访问尤为重要。如果没有直接访问权,一般无法知道模型为何能够做到它所做的。“推进科学需要可重复性,”他说。“如果不能获得这些关键的模型构建基石的开放访问,我们将处于‘封闭’、停滞和专有的局面。”

考虑到人工智能模型的广泛部署,以及一些专家警告的潜在危险,多一点开放性可能会产生重大影响。