快讯列表

关于 双向注意力 的快讯列表

时间 详情
2025-10-20
22:13
安德烈·卡帕西:DeepSeek-OCR展示像素输入优于文本分词的4大理由—更高效率、更短上下文窗口、双向注意力、取消分词器

据安德烈·卡帕西介绍,DeepSeek-OCR 论文不仅展现出强劲的 OCR 能力,更重要的是凸显将像素而非文本分词作为大模型输入在效率与信息保真上的优势,来源:Andrej Karpathy 于 X,2025年10月20日。 他表示,将纯文本渲染为图片后再输入模型可实现更高的信息压缩,从而缩短上下文窗口并提升效率,来源:Andrej Karpathy 于 X,2025年10月20日。 他补充称,像素输入能保留加粗、颜色等文本格式并同时容纳任意图像,构成更通用的信息流,来源:Andrej Karpathy 于 X,2025年10月20日。 他认为,与自回归注意力相比,输入侧采用图像可默认启用双向注意力,从而更有利于处理能力,来源:Andrej Karpathy 于 X,2025年10月20日。 他主张在输入端删除分词器,原因在于 Unicode 与字节编码的复杂性与安全或越狱风险(如续字节)以及表情符号的语义错配等问题,来源:Andrej Karpathy 于 X,2025年10月20日。 他将 OCR 视为众多“视觉转文本”任务之一,并指出许多“文本转文本”任务可重构为“视觉转文本”,但反向并不普遍成立,来源:Andrej Karpathy 于 X,2025年10月20日。 他提出实用路径为用户消息使用图像而助手回复保持文本,并指出像素级输出并不直观,同时提到想开发仅图像输入版的 nanochat 并引用 vLLM 项目,来源:Andrej Karpathy 于 X,2025年10月20日。

来源
2025-10-20
18:58
Karpathy 解析 LLM 文本扩散(2025):双向注意力相较自回归显著提高训练成本

据 @karpathy 表示,文本扩散可以用带双向注意力的普通 Transformer 实现,通过按噪声日程反复重掩码并重新采样所有 token。来源:@karpathy。 他称,扩散是图像与视频生成的主流范式,而文本以自回归为主,音频两种方式并存。来源:@karpathy。 他补充,去除繁复形式化后可得到简单基线算法,离散扩散在连续情形上更接近流匹配。来源:@karpathy。 他解释,自回归是仅向后注意并追加 token,而扩散是在双向注意下刷新整块 token 画布。来源:@karpathy。 他指出,双向注意力能带来更强的语言模型,但因无法在序列维并行,使训练成本更高。来源:@karpathy。 他还提出,LLM 堆栈中可能进一步在两种范式之间进行插值或泛化。来源:@karpathy。 对交易者而言,关键在于双向文本扩散相对自回归的训练成本权衡,这直接影响对训练效率的评估。来源:@karpathy。

来源