54 Epizód

  1. Curtis Huebner on Doom, AI Timelines and Alignment at EleutherAI

    Közzétéve: 2023. 07. 16.
  2. Eric Michaud on scaling, grokking and quantum interpretability

    Közzétéve: 2023. 07. 12.
  3. Jesse Hoogland on Developmental Interpretability and Singular Learning Theory

    Közzétéve: 2023. 07. 06.
  4. Clarifying and predicting AGI by Richard Ngo

    Közzétéve: 2023. 05. 09.
  5. Alan Chan And Max Kauffman on Model Evaluations, Coordination and AI Safety

    Közzétéve: 2023. 05. 06.
  6. Breandan Considine on Neuro Symbolic AI, Coding AIs and AI Timelines

    Közzétéve: 2023. 05. 04.
  7. Christoph Schuhmann on Open Source AI, Misuse and Existential risk

    Közzétéve: 2023. 05. 01.
  8. Simeon Campos on Short Timelines, AI Governance and AI Alignment Field Building

    Közzétéve: 2023. 04. 29.
  9. Collin Burns On Discovering Latent Knowledge In Language Models Without Supervision

    Közzétéve: 2023. 01. 17.
  10. Victoria Krakovna–AGI Ruin, Sharp Left Turn, Paradigms of AI Alignment

    Közzétéve: 2023. 01. 12.
  11. David Krueger–Coordination, Alignment, Academia

    Közzétéve: 2023. 01. 07.
  12. Ethan Caballero–Broken Neural Scaling Laws

    Közzétéve: 2022. 11. 03.
  13. Irina Rish–AGI, Scaling and Alignment

    Közzétéve: 2022. 10. 18.
  14. Shahar Avin–Intelligence Rising, AI Governance

    Közzétéve: 2022. 09. 23.
  15. Katja Grace on Slowing Down AI, AI Expert Surveys And Estimating AI Risk

    Közzétéve: 2022. 09. 16.
  16. Markus Anderljung–AI Policy

    Közzétéve: 2022. 09. 09.
  17. Alex Lawsen—Forecasting AI Progress

    Közzétéve: 2022. 09. 06.
  18. Robert Long–Artificial Sentience

    Közzétéve: 2022. 08. 28.
  19. Ethan Perez–Inverse Scaling, Language Feedback, Red Teaming

    Közzétéve: 2022. 08. 24.
  20. Robert Miles–Youtube, AI Progress and Doom

    Közzétéve: 2022. 08. 19.

2 / 3

The goal of this podcast is to create a place where people discuss their inside views about existential risk from AI.

Visit the podcast's native language site