Autonomie & Algorithmen Titelbild

Autonomie & Algorithmen

Autonomie & Algorithmen

Von: Christiane Attig Benjamin Paaßen
Jetzt kostenlos hören, ohne Abo

Über diesen Titel

Systeme der künstlichen Intelligenz (KI) sind im Alltag angelangt und besitzen ein großes Potenzial, menschliches Leben und Arbeiten zu beeinflussen. Wie können wir sicherstellen, dass die menschliche Autonomie bei der Nutzung von KI gewahrt bleibt? Dr. Christiane Attig und Jun.-Prof. Dr. Benjamin Paaßen laden interdisziplinäre Expert*innen aus der KI-Forschung ein, um Licht in Black Box-Systeme zu bringen und Hörer*innen mit dem Wissen auszustatten, selbstbestimmt mitzudiskutieren und mitzubestimmen, was KI angeht. "Autonomie & Algorithmen: Freiheit im Zeitalter von KI" wird vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts "KI-Akademie OWL" gefördert. Dieser Podcast ist Teil von wissenschaftspodcasts.de.Christiane Attig Wissenschaft
  • Glanz ohne Gefühl? KI und ästhetische Erfahrung.
    May 16 2025
    Social Media-Trends, geboren durch Generative KI: Egal ob Szenen wie aus einem Ghibli-Film, Starterpack der eigenen Actionfigur oder "professionelle Bewerbungsfotos" basierend auf hochgeladenen Selfies – es gab schon so einige Inhalte von Bildgeneratoren, die durch die sozialen Medien gegangen sind. Wir fragen uns in dieser Folge: Was macht es mit der ästhetischen Empfindung, wenn wir immer mehr KI-generierte Inhalte zu Gesicht bekommen? Können Menschen den Unterschied zwischen maschinen- und menschengenerierter Kunst erkennen?

    +++

    Theresa Demmer ist Doktorandin am Art*is Lab der Universität Wien. In ihrer Forschung beschäftigt sie sich mit der Frage, wie Verbindungen zwischen Künstler*in und Rezipient*in ästhetische Erfahrungen prägen, ob sie das Potenzial für Transformation in sich tragen – und was geschieht, wenn der sendende Teil dieser Beziehung keine menschliche Instanz ist.
    +++
    Linkliste
    • Fernandez (2024), Effects of algorithmic curation in users’ music taste on Spotify.
    • Felder et al. (2011), Recommender Systems and their Effects on Consumers.
    • Sougwen Chung (Künstlerin, die Grenzen zwischen Mensch und Maschine exploriert)
    • Demmer et al. (2023), Does an emotional connection to art really require a human artist? Emotion and intentionality responses to AI- versus human-created art and impact on aesthetic experience.
    • In der Studie benutztes Bildmaterial
    • Kollektiv Obvious: Portrait of Edmond De Belamy (2018)
    • Jason M. Allen: Théâtre d’Opéra Spatial (2022)
    • Skygge: Magic Man (2018)
    • Zentrum für Kunst und Medien Karlsruhe: (A)I Tell You, You Tell Me“ (2024)
    • Krishnaraja et al. (2025), Modeling Creativity in Education.
    +++

    Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
    • Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
    • Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
    • Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
    +++
    "Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
    Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
    Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
    Mehr anzeigen Weniger anzeigen
    55 Min.
  • KI & Fairness: Wer bekommt den Job, wer den Hit?
    Mar 28 2025
    Stellt euch ein KI-System vor, das automatisiert faire Entscheidungen über die Einladung zum Bewerbungsgespräch auf Basis von Bewerbungsunterlagen treffen soll. Klingeln da bei euch die Alarmglocken? Wenn ja: Zu Recht! Der EU AI Act stuft ein solches System als Hochrisikosystem ein. Wir schauen uns ein solches System heute genauer an und klären: Was bedeutet eigentlich Fairness in Bezug auf KI? Wie kann man prüfen, ob ein KI-System zu fairen Entscheidungen führt? Und was hat das alles mit menschlicher Autonomie zu tun?

    +++

    Janine Strotherm ist Mathematikerin und Mitarbeiterin der Universität Bielefeld. Im Projekt "Water Futures" beschäftigt Janine sich mit maschinellem Lernen in Bezug auf faire Verteilung von Wasserressourcen.
    +++
    Linkliste
    • Lee (2018), Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management. Big Data & Society.
    • Starke et al. (2022), Fairness perceptions of algorithmic decision-making: A systematic review of the empirical literature. Big Data & Society.
    • Strotherm et al. (2023), Fairness in KI-Systemen. arXiv.
    • Fiske: Stereotype Content Model
    • Eckes (2002), Paternalistic and Envious Gender Stereotypes: Testing Predictions from the Stereotype Content Model. Sex Roles.
    • DuBois: The Philadelphia N-Wort
    • Paaßen et al. (2019), Dynamic fairness – Breaking vicious cycles in automatic decision making. ESANN 2019.
    • Race Norming
    • COMPAS Software
    • Knibbe (2021), Fairness in Question: Do Music Recommendation Algorithms Value Diversity? Music Tomorrow.
    • Torabi (2023), The Inner Workings of Spotify’s AI-Powered Music Recommendations: How Spotify Shapes Your Playlist. Medium.
    • Henry et al. (2024), Impacts of AI on Music Consumption and Fairness. Emerging Media.
    +++

    Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
    • Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
    • Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
    • Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
    +++
    "Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
    Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
    Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
    Mehr anzeigen Weniger anzeigen
    1 Std. und 9 Min.
  • Anthropomorphisierung: Warum sehen wir Menschliches in künstlichen Dingen?
    Feb 14 2025
    Diese Folge wurde zuerst im Podcast Privatsprache von Daniel Brockmeier veröffentlicht. Wenn ihr euch für differenzierte und unterhaltsame Auseinandersetzungen mit Philosophie begeistern könnt, solltet ihr den Podcast unbedingt abonnieren!+++Daniel, Benjamin und Christiane fragen sich: Warum und in welcher Weise lesen wir menschliche Eigenschaften in künstliche Systeme wie etwa Large Language Models hinein? Wir klären, was der Begriff Anthropomorphisierung bedeutet, blicken in die Kultur-, Technik- und Wissenschafts-Geschichte und gehen den Psychologischen Grundlagen nach. Mit Daniel Dennetts "Intentional Stance" stellt Daniel eine philosophische Theorie der Anthropomorphisierung vor und Christiane präsentiert mehrere psychologische Studien, die die Frage nach dem "Warum" strategisch eingrenzen. Am Ende fragen wir noch nach der Moral von der Geschicht': Sollten KI-Systeme, Programme, Computer und Roboter menschenähnlich designet werden?+++LinklisteDer Geschichte des künstlichen Menschen in Daniels Blog: https://perspektiefe.privatsprache.de/der-geist-in-der-maschine/Privatsprache-Podcastfolge zum Androiden Data: https://perspektiefe.privatsprache.de/the-measure-of-a-man-die-philosophie-von-star-trek/Dennett, D. C. (1989). The Intentional Stance. MIT Press. Dennett, D. C. (1988). The intentional stance in theory and practice. In R. W. Byrne & A. Whiten (Eds.), Machiavellian intelligence: Social expertise and the evolution of intellect in monkeys, apes, and humans (pp. 180–202). Clarendon Press/Oxford University Press.Karel Capek (1922). Werstands Universal Robots. Harald Salfellner (2019). Der Prager Golem - Jüdische Sagen aus dem Ghetto.Alan Turing (1950). Computing Machinery and Intelligence. Mind: A Quarterly Review of Psychology and Philosophy, 59(236), 433-460.Joseph Weizenbaum (1960). ELIZA – A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45.Valentino Braitenberg (1986). Vehicles – Experiments in Synthetic Psychology. MIT Press. Heider, F., & Simmel, M. (1944). An experimental study of apparent behavior. The American journal of psychology, 57(2), 243-259.Reeves, B., & Nass, C. I. (1996). The media equation: How people treat computers, television, and new media like real people and places. Center for the Study of Language and Information; Cambridge University Press.Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864–886.Gazzola, V., Rizzolatti, G., Wicker, B., & Keysers, C. (2007). The anthropomorphic brain: the mirror neuron system responds to human and robotic actions. Neuroimage, 35(4), 1674-1684. Roesler, E., Manzey, D., & Onnasch, L. (2021). A meta-analysis on the effectiveness of anthropomorphism in human-robot interaction. Science Robotics, 6(58), eabj5425.Mandl, S., Laß, J.S., Strobel, A. (2024). Associations Between Gender Attributions and Social Perception of Humanoid Robots. In: Camarinha-Matos, L.M., Ortiz, A., Boucher, X., Barthe-Delanoë, AM. (eds), IFIP Advances in Information and Communication Technology, vol 726. Springer, Cham.+++Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.deUnser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.socialUnser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback+++"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
    Mehr anzeigen Weniger anzeigen
    1 Std. und 43 Min.

Das sagen andere Hörer zu Autonomie & Algorithmen

Nur Nutzer, die den Titel gehört haben, können Rezensionen abgeben.

Rezensionen - mit Klick auf einen der beiden Reiter können Sie die Quelle der Rezensionen bestimmen.