Episode 222 - Recursive Language Models: Ein neues Paradigma?
Artikel konnten nicht hinzugefügt werden
Leider können wir den Artikel nicht hinzufügen, da Ihr Warenkorb bereits seine Kapazität erreicht hat.
Der Titel konnte nicht zum Warenkorb hinzugefügt werden.
Bitte versuchen Sie es später noch einmal
Der Titel konnte nicht zum Merkzettel hinzugefügt werden.
Bitte versuchen Sie es später noch einmal
„Von Wunschzettel entfernen“ fehlgeschlagen.
Bitte versuchen Sie es später noch einmal
„Podcast folgen“ fehlgeschlagen
„Podcast nicht mehr folgen“ fehlgeschlagen
-
Gesprochen von:
-
Von:
Über diesen Titel
Send us a text
Die erste Folge 2026 startet mit einem Ausblick: Werden Agenten dieses Jahr endlich in der breiten Arbeitswelt ankommen? Sigurd und Carsten diskutieren, warum 2025 zwar das "Jahr der Agenten" genannt wurde, diese jedoch kaum über Programmier-Workflows hinauskamen. Der Hauptfokus liegt auf einem aktuellen MIT-Paper zu "Recursive Language Models" – einem cleveren Architekturansatz, der das Kontextlängenproblem von LLMs elegant löst. Statt Modelle mit Millionen Tokens zu überfordern, zerlegt ein Orchestrator-LLM Aufgaben intelligent in Häppchen. Die Ergebnisse sind verblüffend: Von 0% auf über 90% Genauigkeit bei 6 Millionen Token-Kontext:
Recursive Language Models: https://arxiv.org/abs/2512.24601
Support the show
Noch keine Rezensionen vorhanden
