The Inside View
Podcast készítő Michaël Trazzi
54 Epizód
-
Curtis Huebner on Doom, AI Timelines and Alignment at EleutherAI
Közzétéve: 2023. 07. 16. -
Eric Michaud on scaling, grokking and quantum interpretability
Közzétéve: 2023. 07. 12. -
Jesse Hoogland on Developmental Interpretability and Singular Learning Theory
Közzétéve: 2023. 07. 06. -
Clarifying and predicting AGI by Richard Ngo
Közzétéve: 2023. 05. 09. -
Alan Chan And Max Kauffman on Model Evaluations, Coordination and AI Safety
Közzétéve: 2023. 05. 06. -
Breandan Considine on Neuro Symbolic AI, Coding AIs and AI Timelines
Közzétéve: 2023. 05. 04. -
Christoph Schuhmann on Open Source AI, Misuse and Existential risk
Közzétéve: 2023. 05. 01. -
Simeon Campos on Short Timelines, AI Governance and AI Alignment Field Building
Közzétéve: 2023. 04. 29. -
Collin Burns On Discovering Latent Knowledge In Language Models Without Supervision
Közzétéve: 2023. 01. 17. -
Victoria Krakovna–AGI Ruin, Sharp Left Turn, Paradigms of AI Alignment
Közzétéve: 2023. 01. 12. -
David Krueger–Coordination, Alignment, Academia
Közzétéve: 2023. 01. 07. -
Ethan Caballero–Broken Neural Scaling Laws
Közzétéve: 2022. 11. 03. -
Irina Rish–AGI, Scaling and Alignment
Közzétéve: 2022. 10. 18. -
Shahar Avin–Intelligence Rising, AI Governance
Közzétéve: 2022. 09. 23. -
Katja Grace on Slowing Down AI, AI Expert Surveys And Estimating AI Risk
Közzétéve: 2022. 09. 16. -
Markus Anderljung–AI Policy
Közzétéve: 2022. 09. 09. -
Alex Lawsen—Forecasting AI Progress
Közzétéve: 2022. 09. 06. -
Robert Long–Artificial Sentience
Közzétéve: 2022. 08. 28. -
Ethan Perez–Inverse Scaling, Language Feedback, Red Teaming
Közzétéve: 2022. 08. 24. -
Robert Miles–Youtube, AI Progress and Doom
Közzétéve: 2022. 08. 19.
The goal of this podcast is to create a place where people discuss their inside views about existential risk from AI.
