Speed vs Quality, Hallucinations, and the AI Learning Rabbit Hole - With Nir Zicherman
Artikel konnten nicht hinzugefügt werden
Leider können wir den Artikel nicht hinzufügen, da Ihr Warenkorb bereits seine Kapazität erreicht hat.
Der Titel konnte nicht zum Warenkorb hinzugefügt werden.
Bitte versuchen Sie es später noch einmal
Der Titel konnte nicht zum Merkzettel hinzugefügt werden.
Bitte versuchen Sie es später noch einmal
„Von Wunschzettel entfernen“ fehlgeschlagen.
Bitte versuchen Sie es später noch einmal
„Podcast folgen“ fehlgeschlagen
„Podcast nicht mehr folgen“ fehlgeschlagen
-
Gesprochen von:
-
Von:
Über diesen Titel
Sara breaks down perceptrons (1957!) as the tiny “matrix of lights” idea that eventually became neural networks—then we jump straight into modern AI chaos.
Oboe’s Nir Zuckerman walks us through the messy reality of building consumer-grade AI for education: every feature is a tradeoff between loading fast and being good, and “just use a better model” doesn’t magically solve it. We talk guardrails, web search, multi-model pipelines, and why learning tools should feel lightweight—more like curiosity than homework. Also: Becca’s “how does a computer work?” obsession and a book recommendation that might change your life.
🧠 AI Concepts & Foundations- Perceptron (Wikipedia)
- Neural Networks Explained
- Scaling Laws for Neural Language Models
- FLOPS (Floating Point Operations Per Second)
🎓 Learning, Education & AI
- Oboe
- AI as a Personal Tutor (Overview)
- Why Tutors Are So Effective
🏗️ Building AI Products
- Speed vs Quality Tradeoffs in LLM Apps
- LLM Orchestration Patterns
- Retrieval-Augmented Generation (RAG)
- LLM Hallucinations: Causes & Mitigation
📚 Books Mentioned
- Code: The Hidden Language of Computer Hardware and Software
- Perceptrons
🧪 History of AI
Noch keine Rezensionen vorhanden
