Profit vor Schutz: Die Architektur der algorithmischen Ausbeutung
Artikel konnten nicht hinzugefügt werden
Der Titel konnte nicht zum Warenkorb hinzugefügt werden.
Der Titel konnte nicht zum Merkzettel hinzugefügt werden.
„Von Wunschzettel entfernen“ fehlgeschlagen.
„Podcast folgen“ fehlgeschlagen
„Podcast nicht mehr folgen“ fehlgeschlagen
-
Gesprochen von:
-
Von:
Über diesen Titel
Unsere Feeds sind kein Zufall. Algorithmen entscheiden, was wir sehen, und sie haben ein klares Ziel: maximales Engagement. Diese Folge deckt auf, wie Plattformen wie Meta und TikTok bewusst Wut und Spaltung fördern, um uns länger online zu halten – ein Systemfehler mit Methode, wie Whistleblower beweisen. Wir untersuchen, warum Inhaltsmoderation scheitern muss und wie die "Sicherheitsfilter" neuer KI-Bildgeneratoren mehr die Bilanzen der Konzerne als die Nutzer schützen. Eine Reise in die zynische Logik hinter den Kulissen unserer digitalen Welt.
Quellen:
(https://www.otto-brenner-stiftung.de/fileadmin/user_data/stiftung/02_Wissenschaftsportal/03_Publikationen/AH110_OERM_Soziale_Netzwerke.pdf)
https://www.nea.org/nea-today/all-news-articles/facebook-whistleblower-frances-haugen-educators-students-can-lead-social-media-reform
https://globalwitness.org/en/campaigns/digital-threats/tiktok-and-facebook-fail-to-detect-election-disinformation-in-the-us-while-youtube-succeeds/
https://www.cbsnews.com/video/court-documents-reveal-tiktok-owners-knew-apps-impact-on-childrens-mental-health/
https://www.brookings.edu/articles/rendering-misrepresentation-diversity-failures-in-ai-image-generation
