[人人能懂AI前沿] 从动态课程、前瞻记忆到思考成本

00:00
30:28
主播信息
爱可可爱生活

爱可可爱生活

Nice Day!
关注
AI可可AI生活
308
来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿
APP内查看主播
节目详情

AI的自我进化,听起来很酷,但最新论文告诉我们,AI学徒也需要一位聪明的“教练”为它精心设计训练计划,否则刷再多题也难成大器。我们还会揭示一个奇怪的现象:为什么让AI向完美的自己“抄作业”,反而可能让它在关键的推理任务上变笨?而在使用AI时,你是否发现它总“忘事”,或者那个标价最便宜的模型,最后反而让你花了最多的钱?今天,我们就从五篇最新论文出发,聊聊AI那些出人意料的“成长烦恼”和“使用陷阱”。

00:00:38 AI“学徒”的成长烦恼,为什么聪明的大模型也需要好师傅?

00:06:54 聪明反被聪明误,为什么教AI“抄作业”反而会让它变笨?

00:12:11 你的“私人教练”,不该只会题海战术

00:18:11 你以为的便宜,可能让你花得更多

00:23:43 你的AI“听话”吗?小心它忙起来就忘了

本期介绍的几篇论文:

[LG] Understanding the Challenges in Iterative Generative Optimization with LLMs

[CNRS & Stanford University & CMU]

https://arxiv.org/abs/2603.23994

---

[CL] Why Does Self-Distillation (Sometimes) Degrade the Reasoning Capability of LLMs?

[Microsoft Research & Seoul National University]

https://arxiv.org/abs/2603.24472

---

[LG] A Deep Dive into Scaling RL for Code Generation with Synthetic Data and Curricula

[Meta FAIR & University of Tübingen]

https://arxiv.org/abs/2603.24202

---

[LG] The Price Reversal Phenomenon: When Cheaper Reasoning Models End Up Costing More

[Stanford University & UC Berkeley & CMU]

https://arxiv.org/abs/2603.23971

---

[CL] Did You Forget What I Asked? Prospective Memory Failures in Large Language Models

[Microsoft]

https://arxiv.org/abs/2603.23530

展开
大家都在听
评论(0条)
快来抢沙发吧!
打开蜻蜓 查看更多