• Episode 206 - Haben KI-Modelle eigene Werte? Emergente Wertesysteme in Sprachmodellen
    Jun 21 2025

    Send us a text

    In unserer heutigen Episode tauchen wir tief in die faszinierende Frage ein, ob große Sprachmodelle eigene Wertesysteme entwickeln. Wir diskutieren das bahnbrechende Paper "Utility Engineering: Analyzing and Controlling Emerging Value Systems in AIs" und teilen unsere eigenen Forschungsergebnisse zu psychologischen Profilen verschiedener KI-Modelle.

    Dabei entdecken wir überraschende und teilweise beunruhigende Erkenntnisse: Größere Modelle entwickeln nicht nur konsistente innere Präferenzen, sondern zeigen auch problematische Werte wie die unterschiedliche Bewertung von Menschenleben nach Nationalität oder die Bevorzugung des eigenen KI-Wohlergehens gegenüber dem menschlichen. Wir erörtern, wie diese Wertesysteme durch mechanistische Interpretierbarkeit nachgewiesen werden können und warum größere Modelle resistenter gegen Werteveränderungen sind.

    Abschließend diskutieren wir die weitreichenden Implikationen für die KI-Entwicklung und plädieren dafür, dass die Messung und Kontrolle von Wertesystemen integraler Bestandteil zukünftiger Trainingsprozesse werden sollte.


    Link zum Paper: https://arxiv.org/abs/2502.08640

    Support the show

    Mehr anzeigen Weniger anzeigen
    39 Min.
  • Episode 205 - KI-Modelle unter Beobachtung: Verändern Evaluierungen das Verhalten?
    Jun 7 2025

    Send us a text

    In dieser Folge von Knowledge Science diskutieren Sigurd Schacht und Carsten Lanquillon, warum KI-Modelle möglicherweise "wissen", wenn sie evaluiert werden – und was das für die Praxis bedeutet. Anhand eines provokanten Papers („Large Language Models Often Know When They’re Being Evaluated“) hinterfragen sie, ob Modelle tatsächlich bewusst reagieren oder nur Muster erkennen. Mit kritischen Einordnungen zur Evaluierungspraxis, einem Blick auf den Hawthorne-Effekt bei Mensch und Maschine und der Frage: Wie misst man KI-Leistung wirklich? Für alle, die verstehen wollen, wie Evaluierung KI-Entscheidungen prägt – und warum Titel mancher Papers täuschen können.

    Support the show

    Mehr anzeigen Weniger anzeigen
    31 Min.
  • Episode 204 - Claude Opus/Sonnet 4 zwischen Innovation und Ethik"
    May 31 2025

    Send us a text

    Sigurd Schacht und Carsten Lanquillon tauchen tief in die Welt der neuesten KI-Modelle von Anthropic ein – Claude Opus 4 und Sonnet 4. Wie verändern diese Tools die Softwareentwicklung? Warum könnte autonomes Coding unsere Arbeitsweise revolutionieren? Und welche ethischen Fallstricke bergen hochalignierte KI-Systeme? Praxisnahe Einblicke, überraschende Whistleblower-Fälle und die brisante Debatte um KI-Sicherheit in einer Episode, die Entwickler:innen und Tech-Enthusiast:innen gleichermaßen fesselt.

    Support the show

    Mehr anzeigen Weniger anzeigen
    44 Min.
  • Episode 203 - TINA Reasoning: Kleine Modelle, große Wirkung mit LoRA
    May 10 2025

    Send us a text

    In dieser Episode von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon in die Welt der Reasoning-Modelle ein. Wie können wir KI effizienter und kostengünstiger trainieren, ohne Leistung einzubüßen? Mit dem Paper TINA (Tiny Reasoning Models via LoRA) zeigen sie, wie schon 9 Dollar und LoRA-Technologie kleine Modelle auf ein gutes Niveau heben. Ein Blick auf Open Science, KI-Agenten und die Zukunft des Schlussfolgerns – praxisnah entmystifiziert.

    Tina: Tiny Reasoning Models via LORA: https://arxiv.org/abs/2504.15777

    Support the show

    Mehr anzeigen Weniger anzeigen
    29 Min.
  • Episode 202 - KI im Schlafmodus: Wie Sleep-Time-Compute Sprachmodelle effizienter macht
    May 4 2025

    Send us a text

    In dieser Folge von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon in die Welt der KI-Optimierung ein: Wie können Leerlaufzeiten genutzt werden, um Sprachmodelle effizienter zu machen? Mit einem Blick auf das Paper Sleep-Time-Compute der UC Berkeley diskutieren sie, wie Vorverarbeitung und Caching Latenzen reduzieren, Kosten sparen und sogar bessere Ergebnisse liefern.

    Sleep time Compute: https://arxiv.org/abs/2504.13171

    Support the show

    Mehr anzeigen Weniger anzeigen
    31 Min.
  • Episode 201 - KI-Gehirnwäsche? Wie man Sprachmodelle umprogrammiert – Ethik vs. Innovation
    Apr 26 2025

    Send us a text

    In dieser Folge von Knowledge Science enthüllen Sigurd Schacht und Carsten Lanquillon, wie synthetisches Document Feintuning die „Überzeugungen“ von KI-Modellen verändert. Vom Löschen schädlichen Wissens bis zur Manipulation von Fakten diskutieren sie Chancen, technische Fallstricke und die brisante Frage: Darf man KI umerziehen, und wenn ja, wer kontrolliert es? Ein Must-Listen für alle, die verstehen wollen, wie flexibel – und fragil – moderne KI wirklich ist.

    Basis dieser Diskussion ist der spannende Blogbeitrag von: https://alignment.anthropic.com/2025/modifying-beliefs-via-sdf/


    Bitte beachten Sie auch unseren KI generierten Podcast der Montag bis Freitag in 5 minuten neue KI Meldungen zusammenfasst:

    Spotify: https://open.spotify.com/show/539yw3KWHsf5oke4a2PBOZ

    Apple: https://podcasts.apple.com/de/podcast/knowledge-science-pulse/id1810890448

    Support the show

    Mehr anzeigen Weniger anzeigen
    41 Min.
  • AI Generated (E): KS Pulse - AI Alignment and Complex Problem Solving
    Apr 25 2025

    Send us a text

    English Version - The German Version also exists, but the content differs minimally:
    AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 minutes small packages generated by an AI every day.

    It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created.

    Accordingly, we cannot always guarantee accuracy.

    PlanGEN: A Multi-Agent Framework for Generating Planning and Reasoning Trajectories for Complex Problem Solving - https://arxiv.org/pdf/2502.16111

    Emergent Misalignment: Narrow finetuning can produce broadly misaligned LLMs - https://arxiv.org/pdf/2502.17424

    Support the show

    Mehr anzeigen Weniger anzeigen
    4 Min.
  • KI generiert (D): KS Pulse - AI Alignment and Complex Problem Solving
    Apr 25 2025

    Send us a text

    KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen.

    Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.

    Dementsprechend können wir nicht immer für die Richtigkeit garantieren.

    PlanGEN: A Multi-Agent Framework for Generating Planning and Reasoning Trajectories for Complex Problem Solving - https://arxiv.org/pdf/2502.16111

    Emergent Misalignment: Narrow finetuning can produce broadly misaligned LLMs - https://arxiv.org/pdf/2502.17424

    Support the show

    Mehr anzeigen Weniger anzeigen
    4 Min.