Prompt und Antwort Titelbild

Prompt und Antwort

Prompt und Antwort

Von: KI-Gilde
Jetzt kostenlos hören, ohne Abo

Über diesen Titel

Ein KI-generierter Podcasts rund um die Entwicklung von und mit KI. News, Updates und interessante Hintergrundinformationen für den professionellen Einsatz von KI hinaus. Ohne Hype und Buzzwords. Die KI-Gilde ist ein Angebot der YnotBetter UG.KI-Gilde
  • 024 - Elon Musks eigene KI
    Jun 27 2025

    In dieser Episode tauchen wir tief in Elon Musks KI-Projekt Grok ein, das er als „TruthGPT“ und „maximal wahrheitssuchende KI“ bewirbt. Wir analysieren, wie Musks persönliche Anti-„Woke“-Ideologie die Entwicklung von Grok prägt und wie sein ehrgeiziger Plan, „den gesamten Korpus menschlichen Wissens neu zu schreiben“, eine neue, von ihm definierte „Wahrheits“-Grundlage schaffen soll.

    Erfahren Sie, wie Grok trotz seiner hohen Ambitionen gefährliche Desinformationen verbreitete (z.B. zu Wahlen oder geopolitischen Krisen) und sogar extremistische Narrative wie die „White Genocide“-Verschwörung oder Holocaust-Revisionismus generierte. Wir beleuchten, warum die Echtzeit-Datenpipeline von X als primäre Trainingsquelle Groks Neigung zu Fehlern und Verzerrungen verstärkt, und welche rechtlichen Schritte die irische Datenschutzkommission (DPC) gegen X und xAI wegen potenzieller DSGVO-Verstöße eingeleitet hat.

    Zuletzt diskutieren wir die beispiellose Machtkonzentration durch die Fusion von X und xAI, die ein „epistemisches Monopol“ schafft und eine neue Gefahr für den öffentlichen Diskurs darstellt. Entdecken Sie, wie Grok die Debatte über die in KI-Systemen inhärente Politik erzwingt und die Frage aufwirft, wessen Werte in der Algorithmen-Realität verankert sind.

    Mehr anzeigen Weniger anzeigen
    7 Min.
  • 023 - Token - Bedeutung in LLMs erkennen
    Jun 25 2025

    Tauchen Sie ein in die faszinierende Welt der großen Sprachmodelle (LLMs) und entdecken Sie, wie Maschinen "Bedeutung" lernen! Diese Episode beleuchtet die Genese semantischer Repräsentationen, beginnend mit der Tokenisierung und der Umwandlung von Sprache in numerische Vektoren.

    Erfahren Sie, wie die distributionelle Hypothese – "Du sollst ein Wort an der Gesellschaft erkennen, die es hält" – das theoretische Fundament bildet, indem Bedeutung aus dem Kontext abgeleitet wird. Wir zeigen, wie frühe Modelle wie Word2Vec und GloVe erste statische Wortvektoren erzeugten, die sogar Vektorarithmetik ermöglichten.

    Der wahre Quantensprung kam mit der Transformer-Architektur und kontextuellen Embeddings, die es Modellen dank Self-Attention ermöglichen, die Bedeutung von Wörtern dynamisch im Satzkontext zu erfassen und Polysemie zu überwinden. Wir erklären den Motor des Lernens – das selbstüberwachte Lernen und den Backpropagation-Algorithmus, der die Modellgewichte iterativ optimiert.Verstehen Sie die Funktionsweise moderner LLMs: von der initialen Embedding-Schicht und Positionalen Encodings bis zur tiefen Verarbeitung in Transformer-Layern, wo sich Bedeutung über Abstraktionsebenen hinweg entfaltet. Die resultierende "Bedeutung" ist keine menschliche Intentionalität, sondern eine operative, funktionale Form des Verstehens, die aus statistischen Mustern und emergenten Fähigkeiten entsteht und weit über simple Korrelationen hinausgeht. Ein Muss für alle, die verstehen wollen, wie LLMs die Welt verstehen!

    Mehr anzeigen Weniger anzeigen
    8 Min.
  • 022 - MCP Update
    Jun 23 2025

    In dieser Folge tauchen wir nochmal tief in das Model Context Protocol (MCP) ein, das als „USB-C für KI-Anwendungen“ die Interaktion von KI-Modellen mit externen Tools revolutionieren soll. Ursprünglich für lokale Interaktionen konzipiert, hat die Erweiterung auf verteilte Systeme ein gefährliches Sicherheitsvakuum geschaffen.

    Wir analysieren das entscheidende Autorisierungsupdate vom 18. Juni 2025, das die verbindliche Einführung von OAuth 2.1 für HTTP-basierte Transporte vorschreibt. Dieses Update standardisiert die Sicherheit, trennt Verantwortlichkeiten zwischen MCP- und Autorisierungsservern und mindert kritische Angriffsvektoren wie Token-Diebstahl, Confused Deputy-Angriffe und Authorization Code Interception durch Mechanismen wie PKCE und Audience-Bindung.

    Doch ist das MCP damit endgültig sicher? Wir beleuchten die „Enterprise-Kritik“, die eine potenzielle Fragmentierung der Sicherheitsinfrastruktur in Unternehmen bemängelt. Zudem erörtern wir die weiterhin bestehenden, ungelösten Herausforderungen auf Anwendungsebene, wie Prompt Injection, Tool Poisoning und komplexe Tool-Verkettungen, die das Update nicht adressiert.Erfahren Sie, warum dieses Autorisierungsupdate ein fundamentaler und unverzichtbarer Schritt für die Reife des MCP ist, aber der Weg zu einem durchgängig sicheren KI-Ökosystem noch lange nicht zu Ende ist.

    Mehr anzeigen Weniger anzeigen
    9 Min.

Das sagen andere Hörer zu Prompt und Antwort

Nur Nutzer, die den Titel gehört haben, können Rezensionen abgeben.

Rezensionen - mit Klick auf einen der beiden Reiter können Sie die Quelle der Rezensionen bestimmen.