Interconnects
Podcast készítő Nathan Lambert
109 Epizód
-
We aren't running out of training data, we are running out of open training data
Közzétéve: 2024. 05. 29. -
Name, image, and AI's likeness
Közzétéve: 2024. 05. 22. -
OpenAI chases Her
Közzétéve: 2024. 05. 16. -
OpenAI's Model (behavior) Spec, RLHF transparency, and personalization questions
Közzétéve: 2024. 05. 13. -
RLHF: A thin line between useful and lobotomized
Közzétéve: 2024. 05. 01. -
Phi 3 and Arctic: Outlier LMs are hints
Közzétéve: 2024. 04. 30. -
AGI is what you want it to be
Közzétéve: 2024. 04. 24. -
Llama 3: Scaling open LLMs to AGI
Közzétéve: 2024. 04. 21. -
Stop "reinventing" everything to "solve" alignment
Közzétéve: 2024. 04. 17. -
The end of the "best open LLM"
Közzétéve: 2024. 04. 15. -
Why we disagree on what open-source AI should be
Közzétéve: 2024. 04. 03. -
DBRX: The new best open LLM and Databricks' ML strategy
Közzétéve: 2024. 03. 29. -
Evaluations: Trust, performance, and price (bonus, announcing RewardBench)
Közzétéve: 2024. 03. 21. -
Model commoditization and product moats
Közzétéve: 2024. 03. 13. -
The koan of an open-source LLM
Közzétéve: 2024. 03. 06. -
Interviewing Louis Castricato of Synth Labs and Eleuther AI on RLHF, Gemini Drama, DPO, founding Carper AI, preference data, reward models, and everything in between
Közzétéve: 2024. 03. 04. -
How to cultivate a high-signal AI feed
Közzétéve: 2024. 02. 28. -
Google ships it: Gemma open LLMs and Gemini backlash
Közzétéve: 2024. 02. 22. -
10 Sora and Gemini 1.5 follow-ups: code-base in context, deepfakes, pixel-peeping, inference costs, and more
Közzétéve: 2024. 02. 20. -
Releases! OpenAI’s Sora for video, Gemini 1.5's infinite context, and a secret Mistral model
Közzétéve: 2024. 02. 16.
Audio essays about the latest developments in AI and interviews with leading scientists in the field. Breaking the hype, understanding what's under the hood, and telling stories. www.interconnects.ai
