Ollama正式成为OpenClaw官方模型提供商

3月16日,本地大模型运行工具Ollama宣布正式成为OpenClaw的官方模型提供商。此次合作使用户可通过执行openclaw onboard --auth-choice ollama命令完成快速接入,实现Ollama模型与OpenClaw平台的深度协同。

支持Cloud+Local混合部署模式

本次集成提供Cloud+Local混合运行模式,用户可自由选择使用Ollama云端托管的模型或在本地部署运行的模型,灵活满足不同场景下的性能与隐私需求。

原生API支持流式传输与工具调用

OpenClaw的引导向导将自动检测用户本地已安装的Ollama模型,并通过Ollama原生API实现流式数据传输和工具调用功能,保障交互效率与系统兼容性。

创始人参与技术审核

OpenClaw创始人Peter Steinberger全程参与了此次集成的技术审核工作,确保系统稳定性和用户体验的一致性。