Ep.31 | Hackerare l'AI: Prompt Injection & Jailbreak
Artikel konnten nicht hinzugefügt werden
Der Titel konnte nicht zum Warenkorb hinzugefügt werden.
Der Titel konnte nicht zum Merkzettel hinzugefügt werden.
„Von Wunschzettel entfernen“ fehlgeschlagen.
„Podcast folgen“ fehlgeschlagen
„Podcast nicht mehr folgen“ fehlgeschlagen
-
Gesprochen von:
-
Von:
Über diesen Titel
In questo episodio di SAMUPodcast, Samuel Algherini e Valen Tagliabue entrano nel tema della sicurezza nell’AI generativa, analizzando vulnerabilità concrete e scenari di attacco reali.
Si parla di prompt injection, modelli probabilisticii, differenza tra security e safety, e di come gli attaccanti possano sfruttare debolezze tecniche e fattori umani attraverso social engineering e manipolazione psicologica.
Valen porta la sua esperienza diretta nel mondo della sicurezza, offrendo una lettura lucida di come oggi le aziende percepiscono (e spesso sottovalutano) i rischi legati all’uso di modelli e agenti AI.
La conversazione tocca anche il ruolo dei team di sicurezza, il valore dei programmi di bug bounty, le motivazioni degli attaccanti e le sfide future della cybersecurity applicata all’intelligenza artificiale.
Un episodio per capire perché la sicurezza nell’AI non è un dettaglio tecnico, ma una priorità strategica, e perché consapevolezza e formazione continua sono oggi indispensabili.
Iscrivetevi al canale per sostenerlo!!Non mi resta che augurarvi... buon ascolto!
=======================================
Samuel AlgheriniLinkedIn: www.linkedin.com/in/samuel-algherini/ =======================================
Valen Tagliabuehttps://www.linkedin.com/in/valen-tagliabue-7a1870228/
YouTube: https://youtu.be/jX3AjvwiZOk
Apple Podcast: https://podcastsconnect.apple.com/my-podcasts/show/samu-podcast/e58085f5-db29-4bf8-bf81-91d7dfe3771d
Sezioni
00:00 Introduzione all'Intelligenza Artificiale Generativa e Sicurezza
02:59 Prompt Injection e Vulnerabilità dei Sistemi
07:18 Nuove Pratiche di Sicurezza per AI Generativa
13:18 Pericoli e Attacchi: Comprendere il Rischio
18:39 Sicurezza, Safety e Alignment nei Modelli di AI
23:15 Sicurezza e vulnerabilità nei modelli AI
26:40 Attacchi e ingegneria sociale
29:51 Rischi e potenzialità delle AI generative
32:14 Sicurezza aziendale e AI
35:07 Scenari di attacco futuri
43:10 Fiducia e Sicurezza nell'Intelligenza Artificiale
45:46 Bug Bounty: Opportunità e Sfide
50:47 Vulnerabilità Critiche e Manipolazione Psicologica
54:53 Red Team e Blue Team: La Sicurezza Aziendale
57:34 Motivazione e Opportunità nell'Intelligenza Artificiale
#AI #PromptInjection #GenerativeAI #Cybersecurity #Jailbreak #IntelligenzaArtificiale
