AXRP - the AI X-risk Research Podcast
Podcast készítő Daniel Filan
59 Epizód
-
46 - Tom Davidson on AI-enabled Coups
Közzétéve: 2025. 08. 07. -
45 - Samuel Albanie on DeepMind's AGI Safety Approach
Közzétéve: 2025. 07. 06. -
44 - Peter Salib on AI Rights for Human Safety
Közzétéve: 2025. 06. 28. -
43 - David Lindner on Myopic Optimization with Non-myopic Approval
Közzétéve: 2025. 06. 15. -
42 - Owain Evans on LLM Psychology
Közzétéve: 2025. 06. 06. -
41 - Lee Sharkey on Attribution-based Parameter Decomposition
Közzétéve: 2025. 06. 03. -
40 - Jason Gross on Compact Proofs and Interpretability
Közzétéve: 2025. 03. 28. -
38.8 - David Duvenaud on Sabotage Evaluations and the Post-AGI Future
Közzétéve: 2025. 03. 01. -
38.7 - Anthony Aguirre on the Future of Life Institute
Közzétéve: 2025. 02. 09. -
38.6 - Joel Lehman on Positive Visions of AI
Közzétéve: 2025. 01. 24. -
38.5 - Adrià Garriga-Alonso on Detecting AI Scheming
Közzétéve: 2025. 01. 20. -
38.4 - Shakeel Hashim on AI Journalism
Közzétéve: 2025. 01. 05. -
38.3 - Erik Jenner on Learned Look-Ahead
Közzétéve: 2024. 12. 12. -
39 - Evan Hubinger on Model Organisms of Misalignment
Közzétéve: 2024. 12. 01. -
38.2 - Jesse Hoogland on Singular Learning Theory
Közzétéve: 2024. 11. 27. -
38.1 - Alan Chan on Agent Infrastructure
Közzétéve: 2024. 11. 16. -
38.0 - Zhijing Jin on LLMs, Causality, and Multi-Agent Systems
Közzétéve: 2024. 11. 14. -
37 - Jaime Sevilla on AI Forecasting
Közzétéve: 2024. 10. 04. -
36 - Adam Shai and Paul Riechers on Computational Mechanics
Közzétéve: 2024. 09. 29. -
New Patreon tiers + MATS applications
Közzétéve: 2024. 09. 28.
AXRP (pronounced axe-urp) is the AI X-risk Research Podcast where I, Daniel Filan, have conversations with researchers about their papers. We discuss the paper, and hopefully get a sense of why it's been written and how it might reduce the risk of AI causing an existential catastrophe: that is, permanently and drastically curtailing humanity's future potential. You can visit the website and read transcripts at axrp.net.
