[人人能懂AI前沿] AI学会了抄近路、换引擎和吃“后悔药”

00:00
29:40
主播信息
爱可可爱生活

爱可可爱生活

Nice Day!
关注
AI可可AI生活
336
来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿
APP内查看主播
节目详情

你有没有想过,AI也能不走寻常路,学会“抄近路”写文章吗?或者,当AI陷入追求高分的“内卷陷阱”时,我们该怎么教它“最小化遗憾”而不是盲目刷分?本期节目,我们将从几篇最新的论文出发,看看AI如何通过更换“发动机”、打通不同门派的“武功”,甚至用更少的考题更精准地对齐我们的真实感受,实现一次漂亮的思维跃迁。

00:00:30 抄近路,人工智能学会了新“导航术”

00:05:34 AI的“注意力”,正在成为它的“负担”

00:10:42 AI的“高分陷阱”,我们怎样教得更聪明?

00:16:51 当规则遇上“混沌”,AI大神们的两种武功,原来同宗同源

00:23:38 为什么最好的考卷,题目反而最少?

本期介绍的几篇论文:

[LG] Consistent Diffusion Language Models

[Microsoft & Purdue University]

https://arxiv.org/abs/2605.00161

---

[LG] Caracal: Causal Architecture via Spectral Mixing

[Huawei Technologies]

https://arxiv.org/abs/2605.00292

---

[LG] Wasserstein Distributionally Robust Regret Optimization for Reinforcement Learning from Human Feedback

[University of North Carolina & Imperial College London & Stanford University]

https://arxiv.org/abs/2605.00155

---

[LG] Trees to Flows and Back: Unifying Decision Trees and Diffusion Models

[Technical University of Munich]

https://arxiv.org/abs/2605.00414

---

[CL] Putting HUMANS first: Efficient LAM Evaluation with Human Preference Alignment

[University of Southern California & Stanford University]

https://arxiv.org/abs/2605.00022

展开
大家都在听
评论(0条)
快来抢沙发吧!
打开蜻蜓 查看更多