3: Can AI discriminate?
Artikel konnten nicht hinzugefügt werden
Leider können wir den Artikel nicht hinzufügen, da Ihr Warenkorb bereits seine Kapazität erreicht hat.
Der Titel konnte nicht zum Warenkorb hinzugefügt werden.
Bitte versuchen Sie es später noch einmal
Der Titel konnte nicht zum Merkzettel hinzugefügt werden.
Bitte versuchen Sie es später noch einmal
„Von Wunschzettel entfernen“ fehlgeschlagen.
Bitte versuchen Sie es später noch einmal
„Podcast folgen“ fehlgeschlagen
„Podcast nicht mehr folgen“ fehlgeschlagen
-
Gesprochen von:
-
Von:
Über diesen Titel
But what about when AI is used for decisions that actually matter? Like whether a person with disabilities gets the support they need to live independently, or how the police predict who is going to commit a crime?
With people’s rights and freedom on the line, the stakes are much higher – especially because AI can discriminate.
To unpack all of this we’re joined by Griff Ferris, Senior Legal and Policy Officer at campaign organisation Fair Trials, to discuss the extent to which AI can discriminate, the impact it has on people who are already marginalised, and what we can do about it.
Mentioned in this episode:
- Fair Trials’ predictive policing quiz
- Fair Trials’ report Automating Injustice
- The HART algorithm used by Durham Police
- The Government’s AI regulation white paper
- Public Law Project’s Tracking Automated Government register
Noch keine Rezensionen vorhanden