550 Epizód

  1. Instacart's Economics Team: A Hybrid Role in Tech

    Közzétéve: 2025. 03. 31.
  2. Data Mixture Optimization: A Multi-fidelity Multi-scale Bayesian Framework

    Közzétéve: 2025. 03. 31.
  3. Why MCP won

    Közzétéve: 2025. 03. 31.
  4. SWEET-RL: Training LLM Agents for Collaborative Reasoning

    Közzétéve: 2025. 03. 31.
  5. TheoryCoder: Bilevel Planning with Synthesized World Models

    Közzétéve: 2025. 03. 30.
  6. Driving Forces in AI: Scaling to 2025 and Beyond (Jason Wei, OpenAI)

    Közzétéve: 2025. 03. 29.
  7. Expert Demonstrations for Sequential Decision Making under Heterogeneity

    Közzétéve: 2025. 03. 28.
  8. TextGrad: Backpropagating Language Model Feedback for Generative AI Optimization

    Közzétéve: 2025. 03. 27.
  9. MemReasoner: Generalizing Language Models on Reasoning-in-a-Haystack Tasks

    Közzétéve: 2025. 03. 27.
  10. RAFT: In-Domain Retrieval-Augmented Fine-Tuning for Language Models

    Közzétéve: 2025. 03. 27.
  11. Inductive Biases for Exchangeable Sequence Modeling

    Közzétéve: 2025. 03. 26.
  12. InverseRLignment: LLM Alignment via Inverse Reinforcement Learning

    Közzétéve: 2025. 03. 26.
  13. Prompt-OIRL: Offline Inverse RL for Query-Dependent Prompting

    Közzétéve: 2025. 03. 26.
  14. Alignment from Demonstrations for Large Language Models

    Közzétéve: 2025. 03. 25.
  15. Q♯: Distributional RL for Optimal LLM Post-Training

    Közzétéve: 2025. 03. 18.
  16. Scaling Test-Time Compute Without Verification or RL is Suboptimal

    Közzétéve: 2025. 03. 14.
  17. Optimizing Test-Time Compute via Meta Reinforcement Fine-Tuning

    Közzétéve: 2025. 03. 14.
  18. Optimizing Test-Time Compute via Meta Reinforcement Fine-Tuning

    Közzétéve: 2025. 03. 14.
  19. Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback

    Közzétéve: 2025. 03. 14.
  20. Revisiting Superficial Alignment Hypothesis

    Közzétéve: 2025. 03. 14.

27 / 28

Cut through the noise. We curate and break down the most important AI papers so you don’t have to.

Visit the podcast's native language site