赵俊博在量子位MEET2026智能未来大会上介绍了扩散架构语言模型LLaDA 2.0,该模型采用完形填空式预测机制,相比自回归模型,在相同计算量下参数规模更小、生成速度更快且成本更低。团队已开源LLaDA 2.0,并验证其可扩展至千亿规模。尽管扩散语言模型的训练与推理仍处于早期阶段,但其独特优势吸引了谷歌、字节等巨头及初创公司的积极布局。 来源:36氪