EP.12 Securing the Future of AI: Inside Prompt Injection, Jailbreaks & LLM Risks
Artikel konnten nicht hinzugefügt werden
Leider können wir den Artikel nicht hinzufügen, da Ihr Warenkorb bereits seine Kapazität erreicht hat.
Der Titel konnte nicht zum Warenkorb hinzugefügt werden.
Bitte versuchen Sie es später noch einmal
Der Titel konnte nicht zum Merkzettel hinzugefügt werden.
Bitte versuchen Sie es später noch einmal
„Von Wunschzettel entfernen“ fehlgeschlagen.
Bitte versuchen Sie es später noch einmal
„Podcast folgen“ fehlgeschlagen
„Podcast nicht mehr folgen“ fehlgeschlagen
-
Gesprochen von:
-
Von:
Über diesen Titel
Discover how cyber experts are tackling the growing security risks of Large Language Models (LLMs) in today’s AI-powered world. In this episode, Mahesh and Vijay explore real-world examples of AI vulnerabilities — from the infamous “$1 Chevrolet” chatbot mishap to advanced exploits like the Grandma attack, DAN jailbreaks, and prompt injections. They also break down why AI-generated code can be risky, and how businesses can safeguard their models with guardrails, scanning tools, and best-practice frameworks.
Thank you for listening!
Discover more content like this on Decoding the Future.
Learn more about Fujitsu's AI Solutions here.
Noch keine Rezensionen vorhanden