为满足用户和开发者的需求,阿里-W(09988.HK) -3.700 (-4.384%) 沽空 $10.84亿; 比率 12.034% (BABA.US) 在Qwen2.5-Turbo 版本,将上下文从之前的128K扩展至100万tokens,相当於约100万个英文单词或150万个汉字,足以涵盖10部长篇小说、150小时的演讲稿或三万行代码,使得模型的整体理解及生成能力获得大幅度提升。
以理解长篇小说为例,Qwen2.5-Turbo能够处理包含690k tokens的三部《三体》系列小说,并提供英文的剧情摘要,展示其在深度理解长文本和跨语言摘要方面的强大能力。
在扩展上下文长度的同时,Qwen2.5-Turbo几乎不影响短文本任务的能力。在短文本基准测试中,在大多数任务上显着超越之前上下文长度为1M tokens的开源模型,并且与GPT-4o-mini和Qwen2.5-14B-Instruct模型相比,在短文本任务性能接近的同时,支持八倍长度的上下文。(ta/da)(港股报价延迟最少十五分钟。沽空资料截至 2024-11-22 16:25。) (美股为即时串流报价; OTC市场股票除外,资料延迟最少15分钟。)
AASTOCKS新闻