AXRP - the AI X-risk Research Podcast
Podcast készítő Daniel Filan
59 Epizód
-
35 - Peter Hase on LLM Beliefs and Easy-to-Hard Generalization
Közzétéve: 2024. 08. 24. -
34 - AI Evaluations with Beth Barnes
Közzétéve: 2024. 07. 28. -
33 - RLHF Problems with Scott Emmons
Közzétéve: 2024. 06. 12. -
32 - Understanding Agency with Jan Kulveit
Közzétéve: 2024. 05. 30. -
31 - Singular Learning Theory with Daniel Murfet
Közzétéve: 2024. 05. 07. -
30 - AI Security with Jeffrey Ladish
Közzétéve: 2024. 04. 30. -
29 - Science of Deep Learning with Vikrant Varma
Közzétéve: 2024. 04. 25. -
28 - Suing Labs for AI Risk with Gabriel Weil
Közzétéve: 2024. 04. 17. -
27 - AI Control with Buck Shlegeris and Ryan Greenblatt
Közzétéve: 2024. 04. 11. -
26 - AI Governance with Elizabeth Seger
Közzétéve: 2023. 11. 26. -
25 - Cooperative AI with Caspar Oesterheld
Közzétéve: 2023. 10. 03. -
24 - Superalignment with Jan Leike
Közzétéve: 2023. 07. 27. -
23 - Mechanistic Anomaly Detection with Mark Xu
Közzétéve: 2023. 07. 27. -
Survey, store closing, Patreon
Közzétéve: 2023. 06. 28. -
22 - Shard Theory with Quintin Pope
Közzétéve: 2023. 06. 15. -
21 - Interpretability for Engineers with Stephen Casper
Közzétéve: 2023. 05. 02. -
20 - 'Reform' AI Alignment with Scott Aaronson
Közzétéve: 2023. 04. 12. -
Store, Patreon, Video
Közzétéve: 2023. 02. 07. -
19 - Mechanistic Interpretability with Neel Nanda
Közzétéve: 2023. 02. 04. -
New podcast - The Filan Cabinet
Közzétéve: 2022. 10. 13.
AXRP (pronounced axe-urp) is the AI X-risk Research Podcast where I, Daniel Filan, have conversations with researchers about their papers. We discuss the paper, and hopefully get a sense of why it's been written and how it might reduce the risk of AI causing an existential catastrophe: that is, permanently and drastically curtailing humanity's future potential. You can visit the website and read transcripts at axrp.net.
