
48期


你有没有想过,AI在思考时也能像我们一样“随时回头看”,直接调用最关键的“深度记忆”吗?本期节目,我们将一口气看懂几篇最新论文,探索AI如何从只会“猜答案”进化到真正“理解画面”,如何像个聪明的懒汉一样,用“排序”而非“整理”在海量信息中精准寻宝,以及科学家们如何通过巧妙的设计,让AI的大脑在保持高速运转的同时,还能解决信息层层衰减的老大难问题。准备好,我们马上出发!
00:00:37 AI大模型的新陈代谢法则
00:05:48 AI效率战争,如何让大模型跑得又快又省?
00:10:57 不止看“热闹”,更要看“门道”,AI理解力的一次飞跃
00:16:07 给你一个超大号书房,你会怎么整理?
00:22:15 让AI拥有“深度记忆”,它会变得多聪明?
本期介绍的几篇论文:
[CL] Attention Residuals
[Kimi Team]
https://arxiv.org/abs/2603.15031
---
[LG] Mamba-3: Improved Sequence Modeling using State Space Principles
[CMU & Princeton University]
https://arxiv.org/abs/2603.15569
---
[CV] V-JEPA 2.1: Unlocking Dense Features in Video Self-Supervised Learning
[FAIR at Meta]
https://arxiv.org/abs/2603.14482
---
[LG] SmartSearch: How Ranking Beats Structure for Conversational Memory Retrieval
[Midbrain]
https://arxiv.org/abs/2603.15599
---
[CL] Mixture-of-Depths Attention
[ByteDance Seed]
https://arxiv.org/abs/2603.15619


911期

沪ICP备06026464号-4 网络文化经营许可证
沪网文[2014]0587-137号
信息网络传播视听许可证:0911603
©2011-2019 qingting.fm ALL Rights Reserved.
应用名称:蜻蜓FM | 开发者:上海麦克风文化传媒有限公司