• 微软正在训练名为MAI-1的内部人工智能语言模型
  • 发布于 1周前
  • 42 热度
    0 评论
5月7日消息,美国时间周一,有报道称微软正在训练名为MAI-1的内部人工智能语言模型,其规模可与谷歌和OpenAI的大模型相媲美。根据两名微软员工的说法,MAI-1模型由最近微软挖来的谷歌DeepMind联合创始人、人工智能初创公司Inflection前首席执行官穆斯塔法·苏莱曼(Mustafa Suleyman)负责。据悉,微软还未明确MAI-1模型的确切用途,具体取决于模型效果如何。报道称,微软可能会在本月晚些时候召开的Build开发者大会上预览这款新模型。

微软对此拒绝发表评论。

据报道,MAI-1规模将比微软之前训练的小型开源模型“大得多”,这意味着其也会更加昂贵。上个月微软推出了一款名为Phi-3-mini的小型人工智能模型,希望用有成本效益的产品吸引更多客户群体。微软向OpenAI投资了上百亿美元,并在旗下生产力软件中部署OpenAI的人工智能技术,从而在生成式人工智能领域的早期竞赛中取得了领先地位。

据报道,为了提升该模型,微软已经配置了装备了英伟达GPU的大型服务器集群,并储备了大量数据。报道称,MAI-1将有大约5000亿个参数。相比之下,OpenAI的GPT-4据称有1万亿个参数,Phi-3 mini有38亿个参数。今年3月份,微软任命苏莱曼为新成立的消费级人工智能部门负责人,同时还聘用了Inflection的几名员工。

报道补充说,新模型并不是源自Inflection,但可能用到了这家创业公司的训练数据。
用户评论