• Osaurus 为你的 Mac 带来本地与云端AI模型
  • 发布于 1小时前
  • 4 热度
    0 评论

堆代码讯 随着AI模型商品化进程加速,初创公司纷纷布局上层软件生态,一款聚焦苹果生态的开源大语言模型服务器Osaurus悄然崛起,凭借本地与云端AI模型灵活切换、数据本地留存等特性,成为行业内颇具特色的入局者。据悉,Osaurus是一款仅限苹果生态的开源大语言模型服务器,核心优势在于允许用户在不同本地AI模型或云端AI服务之间自由切换,同时将所有文件、工具及模型记忆等关键数据保留在用户自身硬件设备上,有效规避数据泄露风险。

Osaurus的诞生源于一次用户反馈。其联合创始人Terence Pae此前曾开发一款名为Dinoki的桌面AI伴侣,他将其形容为“AI驱动的Clippy(大眼夹)”。但有用户提出疑问:若仍需付费购买token(AI公司收取的处理提示词和生成回复的使用计量单位),为何还要选择这款应用?这一问题促使Pae深入思考本地运行AI的可能性,也成为Osaurus的起源。


“这就是Osaurus的起点,”曾任职于特斯拉和Netflix的软件工程师Pae在接受TechCrunch采访时表示,最初的构想是打造一款可在本地运行的AI助手,“你基本上可以在Mac本地完成几乎所有操作,比如浏览文件、访问浏览器、查看系统配置,这是将Osaurus定位为个人AI助手的绝佳方式。”


Pae以开源项目形式推进Osaurus的开发,在迭代过程中不断完善功能、修复漏洞。如今,Osaurus已实现本地托管AI模型与云服务商的灵活对接,云端可连接OpenAI、Anthropic、Gemini等主流平台,本地则支持MiniMax M2.5、Gemma 4、Qwen3.6、DeepSeek V4等多款模型,同时兼容苹果设备端基础模型及Liquid AI的LFM系列设备端模型。


作为连接不同AI模型、工具与工作流程的“驾驭层”(harness),Osaurus与OpenClaw、Hermes等同类工具形成差异化竞争。相较于后者多面向熟悉终端操作的开发者、且部分存在安全隐患的现状,Osaurus提供了消费者易上手的操作界面,并通过硬件隔离的虚拟沙箱运行模式,将AI限制在特定范围,保障电脑与数据安全。


不过,本地运行AI模型目前仍处于早期阶段,对硬件资源要求较高。据Pae介绍,运行本地模型至少需要64GB内存,而DeepSeek v4等更大规模的模型,则建议使用128GB内存的系统。但他对本地AI的发展前景持乐观态度:“每瓦智能——这是衡量本地AI的指标——正在显著提升,它正沿着自己的创新曲线发展。去年,本地AI还几乎连句子都说不完整,但现在它已经可以运行工具、编写代码、访问浏览器,甚至从亚马逊下单……它正在变得越来越好。”


功能方面,Osaurus作为完整的MCP(模型上下文协议)服务器,支持所有兼容MCP的客户端访问其工具。MCP协议是Anthropic公司于2024年11月提出的标准化通信协议,旨在解决AI模型与外部工具交互碎片化的问题,如同“AI领域的USB-C接口”,实现模型与外部世界的即插即用。此外,Osaurus自带20多个原生插件,覆盖邮件、日历、macOS操作、办公软件、浏览器等多种常用场景,近期还新增了语音交互功能。


市场反馈显示,自上线近一年以来,Osaurus的下载量已超过11.2万次。目前,Pae与联合创始人Sam Yoo正带领团队参与总部位于纽约的创业加速器Alliance,未来计划将Osaurus推向企业市场,重点布局法律、医疗等对数据隐私要求极高的领域——本地运行大语言模型可有效解决这些行业的隐私顾虑。

Osaurus团队认为,随着本地AI模型能力的提升,未来可能会降低市场对AI数据中心的需求。“我们看到AI领域出现了爆炸式增长,(云AI服务商)不得不通过扩建数据中心和基础设施来扩大规模,但人们还没有真正看到本地AI的价值,”Pae表示,“与其依赖云端,用户可以在本地部署一台Mac Studio,不仅功耗更低,还能保留云端的核心能力,无需依赖数据中心运行AI。”


业内人士分析,Osaurus的出现,为苹果生态用户提供了一种兼顾便捷性、安全性与灵活性的AI使用方案,也为本地AI的商业化落地提供了新的思路。随着硬件技术的升级和本地AI能力的完善,这类聚焦特定生态的开源AI工具有望获得更多市场关注。



用户评论