• 为什么我更喜欢开源的LLaMA2 大模型
  • 发布于 2个月前
  • 295 热度
    0 评论
  • 弄潮儿
  • 1 粉丝 30 篇博客
  •   
与人工智能有关的一切都发展的太快了。在 推出其人工智能模型 LlaMA2 不到一周的时间里,初创公司和研究人员就已经用它开发了聊天机器人和人工智能助手。一些公司开始推出使用该模型的产品只是时间问题。

在我此前的文章中,我重点谈论了 LLaMA2 可能对 、 和其他公司构成的威胁。拥有一个灵活、透明和可定制的免费大模型,可以帮助小公司更快地创建人工智能产品和服务。相比之下,像 的 GPT-4 这样的大型、复杂的专有模型,在这方面稍显欠缺。

但对我来说,真正亮眼的地方是 的开放程度。它将允许更广泛的人工智能社区下载并调整模型。这将有助于使其更安全、更高效。至关重要的是,当涉及到人工智能模型的内部工作原理时,它可以证明透明度优于保密性的好处。这再及时不过了,也再重要不过了。

科技公司正争先恐后地将他们的人工智能模型部署到真实世界中,我们看到越来越多的产品中嵌入了生成式人工智能。但最强大的模型,如 的 GPT-4,都受到了其创建者的严密保护。开发人员和研究人员只有付费通过其网站有限地访问这些模型,却不知道其内部工作的细节。

这种不透明性可能会导致后续问题,正如最近一篇新的未经同行评审的论文所强调的那样——美国斯坦福大学和加州大学伯克利分校的研究人员发现,GPT-3.5 和 GPT-4 在解决数学问题、回答敏感问题、生成代码和进行视觉推理方面的表现比几个月前更差。

美国普林斯顿大学计算机科学教授阿文德·纳拉亚南( )在他的评估中写道,这些模型缺乏透明度,很难说为什么会这样,但无论如何,应该对研究结果持谨慎态度。

它们更有可能是由“作者的评估方式”引起的,而不能作为 使模型变得更糟的直接证据。他认为,研究人员没有考虑到 已经对模型进行了微调,使其表现得更好,这可能无意中导致了一些提示(prompt)技巧不再像以前一样生效。

人工智能初创公司 的研究员萨莎·卢奇奥尼( )表示,那些使用了 模型的某一迭代版本构建和优化了产品的公司,大概率会看到其产品突然出现故障和性能问题。

当 以这种方式微调其模型时,例如,依赖于特定提示而构建的产品可能会停止以前的工作方式。她补充道,这种封闭模型缺乏问责制。“如果你有一个产品,而你改变了产品中的一些东西,你理应告诉你的客户。”

像 LlaMA2 这样的开放模型至少会清楚地表明公司是如何设计模型的,以及使用了什么样的训练技术。与 不同, 分享了 LlaMA2 的所有“配方”,包括如何训练、使用哪些硬件、如何注释数据以及使用哪些技术来减少有害内容的细节。 说,在现有模型之上进行研究和制造产品的人需要确切地知道他们在做什么。

她说:“一旦你可以访问和使用这个模型,你就可以做各种实验,以确保你得到更好的表现,或者得到更少的偏见,或者你想要的任何东西。”。

最终,围绕人工智能的公开与非公开辩论都会回归到一点上:谁说得算。有了开放的模型,用户就有了更多的权力和控制权。而至于封闭的模型,你将任由其创造者摆布。像 这样的大公司发布这样一个开放、透明的人工智能模型,感觉就像是生成式人工智能淘金热的一个潜在转折点。

如果建立在大肆宣传的专有模型上的产品突然以令人尴尬的方式崩溃,而开发者不知道为什么会这样,那么一个具有类似性能的、开放的、透明的人工智能模型或将摇身一变,变成一个更具吸引力和可靠性的选择。这样做不是为了慈善。它可以从让其他人探究其模型的缺陷中获得很多好处。领导 生成式人工智能工作的副总裁艾哈迈德·达勒()表示,该公司将从更广泛的外部人工智能社区学习,并利用这些知识不断改进其模型。

无论如何,这是朝着正确方向迈出的一步,说。她希望 此举能给其他拥有人工智能模型的科技公司带来压力,让它们考虑走一条更开放的道路。

“我很高兴看到 能够保持如此开放的态度,”她说。

作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。
用户评论