快讯列表

关于 Transformer 的快讯列表

时间 详情
2025-10-29
16:00
DeepLearning.AI上线PyTorch专业证书:3门课程覆盖Transformer、扩散模型、ONNX、MLflow

根据 DeepLearning.AI,PyTorch 深度学习专业证书已上线,由 Laurence Moroney 主讲,重点在使用 PyTorch 构建、优化与部署深度学习系统;来源:DeepLearning.AI。课程包含动手项目:创建图像分类器、微调预训练模型,并为部署做系统优化;来源:DeepLearning.AI。学习者将直接操作张量与训练循环,使用 TorchVision 与 Hugging Face 进行计算机视觉与自然语言处理,并设计 ResNet、Transformer 与扩散模型等架构;来源:DeepLearning.AI。部署主题涵盖 ONNX、MLflow、剪枝与量化;来源:DeepLearning.AI。项目由三门课程组成:PyTorch 基础、PyTorch 技术与生态工具、PyTorch 高级架构与部署,并提供报名链接 hubs.la/Q03QMKJQ0;来源:DeepLearning.AI。该公告未提及加密货币、代币或区块链;来源:DeepLearning.AI。

来源
2025-10-20
18:58
Karpathy 解析 LLM 文本扩散(2025):双向注意力相较自回归显著提高训练成本

据 @karpathy 表示,文本扩散可以用带双向注意力的普通 Transformer 实现,通过按噪声日程反复重掩码并重新采样所有 token。来源:@karpathy。 他称,扩散是图像与视频生成的主流范式,而文本以自回归为主,音频两种方式并存。来源:@karpathy。 他补充,去除繁复形式化后可得到简单基线算法,离散扩散在连续情形上更接近流匹配。来源:@karpathy。 他解释,自回归是仅向后注意并追加 token,而扩散是在双向注意下刷新整块 token 画布。来源:@karpathy。 他指出,双向注意力能带来更强的语言模型,但因无法在序列维并行,使训练成本更高。来源:@karpathy。 他还提出,LLM 堆栈中可能进一步在两种范式之间进行插值或泛化。来源:@karpathy。 对交易者而言,关键在于双向文本扩散相对自回归的训练成本权衡,这直接影响对训练效率的评估。来源:@karpathy。

来源
2025-02-20
19:00
通过Josh Starmer课程理解Transformer中的注意力机制

根据DeepLearning.AI,Josh Starmer新推出的课程“Attention in Transformers: Concepts and Code in PyTorch”重点讲解了语言模型中的注意力机制如何提升token嵌入。这一知识对于希望利用AI进行预测分析和情绪分析的加密货币交易者至关重要。

来源
2025-02-12
16:30
StatQuest推出的Transformer注意机制课程

根据DeepLearning.AI的消息,一门名为“Attention in Transformers: Concepts and Code in PyTorch”的新课程已推出,重点讲解Transformer模型中的关键注意机制。该课程由StatQuest创始人Joshua Starmer讲授,旨在深入理解使用PyTorch实现注意机制。这对于希望利用先进机器学习技术增强算法交易模型的交易员和开发人员来说至关重要。来源:DeepLearning.AI推特

来源
2025-02-04
14:55
SEQ-VCR论文被ICLR接受:对AI和加密交易的影响

根据@ziv_ravid的消息,论文“SEQ-VCR: Preventing Collapse in Intermediate Transformer Representations”已被ICLR接受,这可能对提升加密交易中的AI应用模型稳定性和准确性有重大影响(来源:@ziv_ravid)。

来源