內地社交平台小紅書開源首個大模型「dots.llm1」。「dots.llm1」為一個1,420億參數的專家混合模型(MoE),在推理過程中僅激活140億參數,能保持高性能的同時大幅度降低訓練和推理成本。「dots.llm1」最大特色是使用11.2萬億token的非合成高質量訓練數據,屬現階段開源大模型中非常罕見。在中文測試中「dots.llm1」的性能非常強,以91.3的平均分超過DeepSeek開源的V2、V3和阿里開源的Qwen2.5 32B和72B。(ta/j)