• 那些在Google Cloud Next 大会上推出的让人眼前一亮的AI产品
  • 发布于 2个月前
  • 287 热度
    0 评论
自 2019 年以来的首场 Google Cloud Next 线下会议刚刚结束。在这次会议上,Google 推出了十几种创新的 AI 基础设施工具,以及其他开发和分析工具。

很明显,2023 年第二季度收入达到 80 亿美元的 Google Cloud 正试图缩小与 Amazon Web Services 和 Microsoft Azure 之间的差距,后两者是全球最大的云供应商。2023 年的 Google I/O 大会也重点关注了生成式 AI,公司推出了 PaLM 2,更新了 Bard,并宣布了整合 AI 的搜索、Android Studio、Play Store、Workspace 和地图等功能。

Google 现在对企业客户提供的产品和服务与在 Google I/O 上针对消费者推出的产品相似。Google 的合作伙伴也非常支持这么做。Google 的全球 ISV 合作伙伴和渠道副总裁 Bronwyn Hastings 表示:“不管我现在走到哪个展位,都有四到五个示例。”

“每次我转到一个新的展位,他们都展示给我他们当前所使用的生成式 AI 的示例。大家都很兴奋,因为客户在询问。他们都做好准备来回应这些咨询。”

Google CEO Sundar Pichai 强调了 AI 在接下来的十年将如何成为核心。“作为一家公司,我们已经为这一刻做好了长时间的准备。在过去七年里,我们一直优先考虑 AI,利用 AI 让我们的产品更加高效。”Pichai 如是说。

另外,考虑到去年 ChatGPT 的推出,Google 对 AI 的关注显然增强了。这从 Google Cloud CEO Thomas Kurian 在他的 90 分钟主题演讲中更多的谈到 AI 而不是云计算就可以看出来。

Google 的应对策略是其集成的硬件和基础设施,搭配专有的软件堆栈。例如,Kurian 提到,Google Cloud Platform 能够提供 30 种不同的加速器。

让我们看看 Google 在 2023 年 Google Cloud Next 大会上还有哪些惊喜。

Vertex AI
Google 的统一机器学习(ML)平台 Vertex AI 得到了重要提升。这个基础的 ML 模型从 2021 年 5 月起已经普遍可用,初时只有有限的 ML 模型。现在,公司扩大了其范围,包括超过 100 种模型,其中包括开源、第一方和第三方模型。

其中新加入的模型包括 Meta 的 Code Llama 和 Llama 2、Technology Innovation Institute 的 Falcon LLM 和 Anthropic 的 Claude 2。Google Cloud 也更新了内部开发的模型,例如 PaLM,使其能够输出更高质量的结果,为分析大型文档提供了 32,000 个 Token 的上下文窗口。Kurian 声称 Codey 和 Imagen 现在分别能提供更好的性能和更高质量的图像。

Vertex AI 还具有多轮搜索功能,允许用户提出后续问题、总结功能,以及 Grounding 功能。

借助 Vertex AI 中的 Grounding 功能,Google 实际上正在尝试避免因 AI 产生的幻觉所引起的反感,或者换句话说,任何生成式 AI 工具可能会犯下的错误。这也是一种增强对生成结果信心的方法。

Duet AI
在 Workspace 推出 Duet AI 之后,Google 现在又将其引入到 Google Cloud 中。Duet AI 将扮演多种角色,包括 “代码专家、软件可靠性工程师、数据库专家、数据分析师和网络安全顾问”。视为对 Microsoft 365 Copilot 的回应,Google Cloud 中的 Duet AI 目前处于预览版,并计划在 2023 年普及。

此外,Duet AI 也将进入 BigQuery,帮助用户自动生成函数和代码块,从而更加专注于逻辑分析。它还可以提议和自动生成 Python 和 SQL 代码。

Aritzia 的数据工程副总裁认为,BigQuery 中的 Duet AI 为 Google Cloud 的整合数据平台增添了上下文感知功能,这是一个结构优势,避免了用户进行自定义模型的培训和管理。

基础设施
跨云网络
Google 推出了 Cross-Cloud Network,旨在实现云与云、云与本地之间的无缝且安全连接。这个网络平台允许组织构建分布式应用并发布面向互联网的应用程序。Google Cloud 的计算和 ML 基础设施副总裁兼总经理 Mark Lohmeyer 说:“它主要是为了帮助简化在多云环境下的操作要求,使他们能够专注于经营业务和支持他们的应用,而不是只关心网络运营。”
Google 表示,Cross-Cloud Network 可以帮助企业将网络延迟减少 35%,并降低 40% 的总体成本。

Google 分布式云
Google 对其分布式云产品进行了升级,增加了新的 AI 和数据功能。通过与 Vertex AI 的集成,团队可以在边缘位置运行 AI 和数据分析工作。

云张量处理单元 (TPU) v5e
Google 称其 TPU v5e 为 “最经济、多功能和可扩展” 的专为 AI 设计的加速器。公司声称,相比其前一版本 TPU v4,它在训练性能上提高了两倍,而在推理性能上提高了 2.5 倍。

A3 虚拟机
Google 的 AI 云基础设施现已支持 NVIDIA GPU。两家公司合作推出了由 NVIDIA 的 H100 Tensor Core GPU 驱动的 A3 VM。这款超级计算产品预计其训练速度将是前一代的 3 倍,网络带宽是前一代的 10 倍。

Google Cloud 与 NVIDIA 的合作
美国半导体领军企业 NVIDIA 是为数不多能够充分挖掘以 AI 为驱动的发展巨大潜力的公司。得益于其技术先进性和与合作伙伴的精准合作,其在 2023 年的股价和市值飙升了 244%。

在 Google Cloud Next 大会上,NVIDIA CEO 黄仁勋与 Kurian 同台演讲,作为与 Google Cloud 合作的标志。“生成式 AI 正在为计算领域的每一个层面带来革命性的变革。我们两家公司汇集了全球最出色的计算科学团队,致力于为生成式 AI 重新塑造云基础设施,” 黄仁勋表示。

“我们从每一个层面出发,这是对整个技术栈的一次重新构想。”

除了为 A3 VM 提供 NVIDIA H100 GPU 之外,NVIDIA 还为 Vertex AI 平台提供 H100 GPU 的支持。根据这次深化的合作,Google 将可以使用 NVIDIA DGX GH200 AI 超级计算机。同时,其客户也可以通过网络浏览器以及 Google Cloud Marketplace 的 NVIDIA AI Enterprise,来利用 NVIDIA DGX Cloud 的 AI 超级计算工具和软件。

Kurian 表示:“我们已进入一个全新的、由生成式 AI 推动的数字转型时代。这项技术已经在改进业务的运营方式,以及人们之间的交互方式。它正在改变医生如何照顾病人、人们如何沟通,甚至改变工作场所中员工的安全保护方式。而这仅仅只是开始。”
用户评论