
11月26日消息,新加坡国家人工智能计划(AISG)迎来关键战略转向,在最新的东南亚语言大模型项目中,放弃Meta的模型,转而采用阿里巴巴的通义千问(Qwen)开源架构。这一决策不仅体现了技术路线的重新思考,更标志着中国开源AI模型在全球影响力的显著扩展。
11月25日,AISG发布基于Qwen架构的“Qwen - SEA - LION - v4”模型,该模型迅速登顶一项衡量东南亚语言能力的开源榜单。长期以来,以Meta的Llama系列为代表的西方开源模型在处理印尼语、泰语、马来语等区域性语言时表现不佳,严重阻碍了本地化AI应用的开发效率。尽管Llama在开源模型中性能领先,但其“英语中心主义”的底层设计难以改变,在处理泰语、缅甸语等非拉丁语系文字时效率极低。AISG逐渐意识到,依赖硅谷的开源模型并非东南亚国家的最优解,必须寻找真正具备多语言理解能力、尤其是亚洲语言语境的基础模型。
在此背景下,AISG将目光投向中国,选择以阿里的Qwen3 - 32B作为新一代Sea - Lion模型的基座。Qwen3在预训练阶段使用了高达36万亿个token的数据,覆盖全球119种语言和方言,具有“原生多语言能力”。这使得它不仅能识别印尼语、马来语等文字,更能从底层理解其语法结构,大幅降低了AISG后续训练的技术门槛。
展开剩余49%为更好适配东南亚语言独特的书写习惯,Qwen - SEA - LION - v4摒弃西方模型常用的“句子分词器”,采用更先进的字节对编码(BPE)分词器。该技术能精准切分泰语、缅甸语等无空格语言中的字符,显著提升翻译准确度与推理速度。
除了技术优势,商业落地的现实考量也是阿里胜出的关键。东南亚地区有大量中小企业,难以承担昂贵的H100 GPU集群。而经过优化的Qwen - SEA - LION - v4可在配备32GB内存的消费级笔记本电脑上流畅运行,使普通开发者也能在本地部署这一国家级模型,精准契合了该地区算力资源稀缺的痛点。
此次合作是深度的双向融合。阿里提供强大的通用推理底座,AISG贡献经过清洗的1000亿个东南亚语言token,这些数据规避版权风险,且东南亚内容浓度高达13%,是Llama2的26倍。在Sea - Helm评估榜单中,搭载阿里技术核心的Sea - Lion v4迅速登顶同量级开源模型榜首,验证了这一战略合作的技术价值与区域适配性。
新加坡AISG的这一战略转向,不仅为东南亚语言大模型的发展提供了更优解决方案,也凸显了中国开源AI模型在全球市场的竞争力和影响力,为未来国际间的技术合作与交流提供了有益的范例。
发布于:湖南省恒汇证券提示:文章来自网络,不代表本站观点。