首个“龙虾”模型智谱 GLM-5-Turbo 发布,针对 OpenClaw 核心需求专门优化

智谱发布 GLM-5-Turbo,称其为首个从训练阶段针对 OpenClaw(“龙虾”)场景深度优化的基础模型。模型在工具调用、命令跟踪、持久性任务和长链执行等方面增强能力,支持最大 128K 输出 Token、200K 上下文长度,并具备思考模式、流输出、函数调用、上下文缓存和 MCP 等特性,旨在提升多步任务、长逻辑链和高吞吐量场景的执行效率与稳定性。该模型目前为实验性闭源版本,相关成果将并入智谱下一版开源模型。

3 月 16 日消息,智谱今天发布 GLM-5-Turbo,号称是首个针对 OpenClaw“龙虾”场景深度优化的基础模型,从训练阶段就针对 OpenClaw 核心需求进行专门优化

IT之家从智谱官网了解到,GLM-5-Turbo 模型增强了工具调用、命令跟踪、持久性任务以及长链执行等关键能力,最大输出 Token 可达 128K、上下文长度 200K。

同时,这款模型还具备思考模式、流输出、函数调用、上下文缓存和 MCP 等特性,确保多步任务能够获得更高稳定性和可靠性,让 OpenClaw 能够快速从对话过渡到执行。

此外,这款模型还能够更好地处理高数据吞吐量和长逻辑链 Lobster 任务,进一步提升执行效率和响应稳定性,适合集成到现实工作流。

不过 GLM-5-Turbo 目前还处于实验状态且为闭源版本,相关研究成果以及功能将集成到智谱下一个开源模型中。

版权声明:本站文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明出处!

评论加载中...