550 Epizód

  1. Partner Modelling Emerges in Recurrent Agents (But Only When It Matters)

    Közzétéve: 2025. 05. 29.
  2. LLM Populations Form Social Conventions and Collective Bias

    Közzétéve: 2025. 05. 29.
  3. LLM Generated Persona is a Promise with a Catch

    Közzétéve: 2025. 05. 29.
  4. Large Language Models for Digital Twin Simulation

    Közzétéve: 2025. 05. 29.
  5. From RL Distillation to Autonomous LLM Agents

    Közzétéve: 2025. 05. 29.
  6. Prompting, Auto-Prompting, and Human-AI Communication

    Közzétéve: 2025. 05. 29.
  7. Textual Gradients for LLM Optimization

    Közzétéve: 2025. 05. 29.
  8. Large Language Models as Markov Chains

    Közzétéve: 2025. 05. 28.
  9. Metastable Dynamics of Chain-of-Thought Reasoning: Provable Benefits of Search, RL and Distillation

    Közzétéve: 2025. 05. 28.
  10. Selective induction heads: how transformers select causal structures in context

    Közzétéve: 2025. 05. 28.
  11. The Evolution of Statistical Induction Heads: In-Context Learning Markov Chains

    Közzétéve: 2025. 05. 28.
  12. How Transformers Learn Causal Structure with Gradient Descent

    Közzétéve: 2025. 05. 28.
  13. Planning anything with rigor: general-purpose zero-shot planning with llm-based formalized programming

    Közzétéve: 2025. 05. 28.
  14. Automated Design of Agentic Systems

    Közzétéve: 2025. 05. 28.
  15. What’s the Magic Word? A Control Theory of LLM Prompting

    Közzétéve: 2025. 05. 28.
  16. BoNBoN Alignment for Large Language Models and the Sweetness of Best-of-n Sampling

    Közzétéve: 2025. 05. 27.
  17. RL with KL penalties is better viewed as Bayesian inference

    Közzétéve: 2025. 05. 27.
  18. Asymptotics of Language Model Alignment

    Közzétéve: 2025. 05. 27.
  19. Qwen 2.5, RL, and Random Rewards

    Közzétéve: 2025. 05. 27.
  20. Theoretical guarantees on the best-of-n alignment policy

    Közzétéve: 2025. 05. 27.

14 / 28

Cut through the noise. We curate and break down the most important AI papers so you don’t have to.

Visit the podcast's native language site