9月22日,美团发布高效推理模型 LongCat-Flash-Thinking。美团表示,基于AIME25实测数据,LongCat-Flash-Thinking在该框架下展现出更高效的智能体工具调用能力,在确保90%准确率的前提下,相较于不使用工具调用节省了64.5%的Tokens。目前, LongCat-Flash-Thinking已在HuggingFace、Github全面开源,并在官网可体验。
帮企客致力于为您提供最新最全的财经资讯,想了解更多行业动态,欢迎关注本站。美团发布高效推理模型
版权声明:如无特殊标注,文章均为本站原创,转载时请以链接形式注明文章出处。