Best AI papers explained
Podcast készítő Enoch H. Kang
550 Epizód
-
Instacart's Economics Team: A Hybrid Role in Tech
Közzétéve: 2025. 03. 31. -
Data Mixture Optimization: A Multi-fidelity Multi-scale Bayesian Framework
Közzétéve: 2025. 03. 31. -
Why MCP won
Közzétéve: 2025. 03. 31. -
SWEET-RL: Training LLM Agents for Collaborative Reasoning
Közzétéve: 2025. 03. 31. -
TheoryCoder: Bilevel Planning with Synthesized World Models
Közzétéve: 2025. 03. 30. -
Driving Forces in AI: Scaling to 2025 and Beyond (Jason Wei, OpenAI)
Közzétéve: 2025. 03. 29. -
Expert Demonstrations for Sequential Decision Making under Heterogeneity
Közzétéve: 2025. 03. 28. -
TextGrad: Backpropagating Language Model Feedback for Generative AI Optimization
Közzétéve: 2025. 03. 27. -
MemReasoner: Generalizing Language Models on Reasoning-in-a-Haystack Tasks
Közzétéve: 2025. 03. 27. -
RAFT: In-Domain Retrieval-Augmented Fine-Tuning for Language Models
Közzétéve: 2025. 03. 27. -
Inductive Biases for Exchangeable Sequence Modeling
Közzétéve: 2025. 03. 26. -
InverseRLignment: LLM Alignment via Inverse Reinforcement Learning
Közzétéve: 2025. 03. 26. -
Prompt-OIRL: Offline Inverse RL for Query-Dependent Prompting
Közzétéve: 2025. 03. 26. -
Alignment from Demonstrations for Large Language Models
Közzétéve: 2025. 03. 25. -
Q♯: Distributional RL for Optimal LLM Post-Training
Közzétéve: 2025. 03. 18. -
Scaling Test-Time Compute Without Verification or RL is Suboptimal
Közzétéve: 2025. 03. 14. -
Optimizing Test-Time Compute via Meta Reinforcement Fine-Tuning
Közzétéve: 2025. 03. 14. -
Optimizing Test-Time Compute via Meta Reinforcement Fine-Tuning
Közzétéve: 2025. 03. 14. -
Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback
Közzétéve: 2025. 03. 14. -
Revisiting Superficial Alignment Hypothesis
Közzétéve: 2025. 03. 14.
Cut through the noise. We curate and break down the most important AI papers so you don’t have to.
