• Vom Lager zur "letzten Meile": KI in der Logistik.
    Dec 19 2025
    Diese Folge ist Teil des Adventskalenders #WissPodWeihnacht von wissenschaftspodcasts.de.

    Weihnachtsgeschenke können wir mit einem Klick online bestellen – aber damit das Geschenk den Weg unter den Tannenbaum findet, braucht es komplexe Logistikprozesse. Methoden der künstlichen Intelligenz können dabei helfen, Auftragsmengen vorherzusagen, Routen zu optimieren und Abläufe zu automatisieren. Gleichzeitig stellen sich die Fragen, wo klassische mathematische Modelle sinnvoller sind und wie sich die Arbeit der Menschen in der Logistik durch KI verändert. Genau darüber sprechen wir heute mit Alexander Krooß!

    +++

    Alexander Krooß ist wissenschaftlicher Mitarbeiter in der Abteilung Intralogistik- und IT-Planung des Fraunhofer-Instituts für Materialfluss und Logistik (IML) in Dortmund, wo er zu Einsatzmöglichkeiten der künstlichen Intelligenz in der Intralogistik forscht sowie im Rahmen von Industrieprojekten berät.
    +++
    Linkliste
    • Murrenhoff, Friedrich & Witthaut (2021). Künstliche Intelligenz in der Logistik.
    +++

    Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
    • Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
    • Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
    • Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
    +++
    "Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
    Konzeption und Produktion: Christiane Attig, Lena Ackermann und Benjamin Paaßen.Redaktionelle Unterstützung: Ingrid Rogalski.Postproduktion: Ingrid Rogalski und Lena Ackermann.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
    Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
    Mehr anzeigen Weniger anzeigen
    23 Min.
  • Von der Steckdose bis zum Wasserhahn: KI in der kritischen Infrastruktur.
    Jul 11 2025
    Die Regelung unser alltäglichen Notwendigkeiten – Frischwasser, Strom, Internet, ÖPNV, Nahrungsmittelversorgung, Finanzen und vieles mehr – erfordert heutzutage riesige Datenmengen. Systeme der künstlichen Intelligenz können hier extrem nützlich sein, um die vielen Informationen zu verarbeiten und dadurch die sogenannte "kritische Infrastruktur" robuster zu machen. KI-Systeme, die darüber hinaus selbst Entscheidungen treffen, beispielsweise in Bezug auf dynamische Strompreise, bergen aber auch ethische Risiken. Beide Aspekte werden heute bei uns beleuchtet!

    +++

    Valerie Vaquet ist Doktorandin im Projekt KI-Akademie der Uni Bielefeld und beschäftigt sich mit KI-Modellen von Wassernetzen. Außerdem erzählt sie gern von ihrer Forschung, zum Beispiel bei Science Slams.
    Florian Braun ist Philosoph, wissenschaftlicher Assistent und Dozent an der Christian-Albrechts-Universität zu Kiel und beschäftigt sich u.a. mit Künstlicher Intelligenz aus technik- und wissenschaftsphilosophischer Perspektive.
    +++
    Linkliste
    • Vaquet et al. (2024). Challenges, Methods, Data – a Survey of Machine Learning in Water Distribution Networks. arXiv.
    • Vaquet et al. (2024). Investigating the Suitability of Concept Drift Detection for Detecting Leakages in Water Distribution Networks. arXiv.
    • Statistik zu Trinkwasserverlusten in Deutschland
    • Zanutto (2024). Lessons learned from the Battle of Water Demand Forecasting (Blogbeitrag).
    • Braun (2023). Klimaverantwortung und Energiekonflikte. Nomos.
    • Braun (2021). Soweit die Gründe tragen. Zum Spannungsverhältnis zwischen verallgemeinerter Klimawandelargumentation und kontextbezogenen Einwänden (Blogbeitrag).
    • Pressemitteilung des Deutschen Wetterdienstes über KI-gestützte Datenaufbereitung für Wettermodelle (2024)
    • Gerechtigkeitstheorien (Wikipedia)
    • Dynamic Pricing (Wikipedia)
    +++

    Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
    • Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
    • Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
    • Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
    +++
    "Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
    Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
    Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
    Mehr anzeigen Weniger anzeigen
    1 Std. und 26 Min.
  • Glanz ohne Gefühl? KI und ästhetische Erfahrung.
    May 16 2025
    Social Media-Trends, geboren durch Generative KI: Egal ob Szenen wie aus einem Ghibli-Film, Starterpack der eigenen Actionfigur oder "professionelle Bewerbungsfotos" basierend auf hochgeladenen Selfies – es gab schon so einige Inhalte von Bildgeneratoren, die durch die sozialen Medien gegangen sind. Wir fragen uns in dieser Folge: Was macht es mit der ästhetischen Empfindung, wenn wir immer mehr KI-generierte Inhalte zu Gesicht bekommen? Können Menschen den Unterschied zwischen maschinen- und menschengenerierter Kunst erkennen?

    +++

    Theresa Demmer ist Doktorandin am Art*is Lab der Universität Wien. In ihrer Forschung beschäftigt sie sich mit der Frage, wie Verbindungen zwischen Künstler*in und Rezipient*in ästhetische Erfahrungen prägen, ob sie das Potenzial für Transformation in sich tragen – und was geschieht, wenn der sendende Teil dieser Beziehung keine menschliche Instanz ist.
    +++
    Linkliste
    • Fernandez (2024), Effects of algorithmic curation in users’ music taste on Spotify.
    • Felder et al. (2011), Recommender Systems and their Effects on Consumers.
    • Sougwen Chung (Künstlerin, die Grenzen zwischen Mensch und Maschine exploriert)
    • Demmer et al. (2023), Does an emotional connection to art really require a human artist? Emotion and intentionality responses to AI- versus human-created art and impact on aesthetic experience.
    • In der Studie benutztes Bildmaterial
    • Kollektiv Obvious: Portrait of Edmond De Belamy (2018)
    • Jason M. Allen: Théâtre d’Opéra Spatial (2022)
    • Skygge: Magic Man (2018)
    • Zentrum für Kunst und Medien Karlsruhe: (A)I Tell You, You Tell Me“ (2024)
    • Krishnaraja et al. (2025), Modeling Creativity in Education.
    +++

    Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
    • Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
    • Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
    • Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
    +++
    "Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
    Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
    Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
    Mehr anzeigen Weniger anzeigen
    55 Min.
  • KI & Fairness: Wer bekommt den Job, wer den Hit?
    Mar 28 2025
    Stellt euch ein KI-System vor, das automatisiert faire Entscheidungen über die Einladung zum Bewerbungsgespräch auf Basis von Bewerbungsunterlagen treffen soll. Klingeln da bei euch die Alarmglocken? Wenn ja: Zu Recht! Der EU AI Act stuft ein solches System als Hochrisikosystem ein. Wir schauen uns ein solches System heute genauer an und klären: Was bedeutet eigentlich Fairness in Bezug auf KI? Wie kann man prüfen, ob ein KI-System zu fairen Entscheidungen führt? Und was hat das alles mit menschlicher Autonomie zu tun?

    +++

    Janine Strotherm ist Mathematikerin und Mitarbeiterin der Universität Bielefeld. Im Projekt "Water Futures" beschäftigt Janine sich mit maschinellem Lernen in Bezug auf faire Verteilung von Wasserressourcen.
    +++
    Linkliste
    • Lee (2018), Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management. Big Data & Society.
    • Starke et al. (2022), Fairness perceptions of algorithmic decision-making: A systematic review of the empirical literature. Big Data & Society.
    • Strotherm et al. (2023), Fairness in KI-Systemen. arXiv.
    • Fiske: Stereotype Content Model
    • Eckes (2002), Paternalistic and Envious Gender Stereotypes: Testing Predictions from the Stereotype Content Model. Sex Roles.
    • DuBois: The Philadelphia N-Wort
    • Paaßen et al. (2019), Dynamic fairness – Breaking vicious cycles in automatic decision making. ESANN 2019.
    • Race Norming
    • COMPAS Software
    • Knibbe (2021), Fairness in Question: Do Music Recommendation Algorithms Value Diversity? Music Tomorrow.
    • Torabi (2023), The Inner Workings of Spotify’s AI-Powered Music Recommendations: How Spotify Shapes Your Playlist. Medium.
    • Henry et al. (2024), Impacts of AI on Music Consumption and Fairness. Emerging Media.
    +++

    Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
    • Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
    • Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
    • Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
    +++
    "Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
    Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
    Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
    Mehr anzeigen Weniger anzeigen
    1 Std. und 9 Min.
  • Anthropomorphisierung: Warum sehen wir Menschliches in künstlichen Dingen?
    Feb 14 2025
    Diese Folge wurde zuerst im Podcast Privatsprache von Daniel Brockmeier veröffentlicht. Wenn ihr euch für differenzierte und unterhaltsame Auseinandersetzungen mit Philosophie begeistern könnt, solltet ihr den Podcast unbedingt abonnieren!+++Daniel, Benjamin und Christiane fragen sich: Warum und in welcher Weise lesen wir menschliche Eigenschaften in künstliche Systeme wie etwa Large Language Models hinein? Wir klären, was der Begriff Anthropomorphisierung bedeutet, blicken in die Kultur-, Technik- und Wissenschafts-Geschichte und gehen den Psychologischen Grundlagen nach. Mit Daniel Dennetts "Intentional Stance" stellt Daniel eine philosophische Theorie der Anthropomorphisierung vor und Christiane präsentiert mehrere psychologische Studien, die die Frage nach dem "Warum" strategisch eingrenzen. Am Ende fragen wir noch nach der Moral von der Geschicht': Sollten KI-Systeme, Programme, Computer und Roboter menschenähnlich designet werden?+++LinklisteDer Geschichte des künstlichen Menschen in Daniels Blog: https://perspektiefe.privatsprache.de/der-geist-in-der-maschine/Privatsprache-Podcastfolge zum Androiden Data: https://perspektiefe.privatsprache.de/the-measure-of-a-man-die-philosophie-von-star-trek/Dennett, D. C. (1989). The Intentional Stance. MIT Press. Dennett, D. C. (1988). The intentional stance in theory and practice. In R. W. Byrne & A. Whiten (Eds.), Machiavellian intelligence: Social expertise and the evolution of intellect in monkeys, apes, and humans (pp. 180–202). Clarendon Press/Oxford University Press.Karel Capek (1922). Werstands Universal Robots. Harald Salfellner (2019). Der Prager Golem - Jüdische Sagen aus dem Ghetto.Alan Turing (1950). Computing Machinery and Intelligence. Mind: A Quarterly Review of Psychology and Philosophy, 59(236), 433-460.Joseph Weizenbaum (1960). ELIZA – A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45.Valentino Braitenberg (1986). Vehicles – Experiments in Synthetic Psychology. MIT Press. Heider, F., & Simmel, M. (1944). An experimental study of apparent behavior. The American journal of psychology, 57(2), 243-259.Reeves, B., & Nass, C. I. (1996). The media equation: How people treat computers, television, and new media like real people and places. Center for the Study of Language and Information; Cambridge University Press.Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864–886.Gazzola, V., Rizzolatti, G., Wicker, B., & Keysers, C. (2007). The anthropomorphic brain: the mirror neuron system responds to human and robotic actions. Neuroimage, 35(4), 1674-1684. Roesler, E., Manzey, D., & Onnasch, L. (2021). A meta-analysis on the effectiveness of anthropomorphism in human-robot interaction. Science Robotics, 6(58), eabj5425.Mandl, S., Laß, J.S., Strobel, A. (2024). Associations Between Gender Attributions and Social Perception of Humanoid Robots. In: Camarinha-Matos, L.M., Ortiz, A., Boucher, X., Barthe-Delanoë, AM. (eds), IFIP Advances in Information and Communication Technology, vol 726. Springer, Cham.+++Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.deUnser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.socialUnser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback+++"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
    Mehr anzeigen Weniger anzeigen
    1 Std. und 43 Min.
  • ChatGPT als Co-Autor? KI beim wissenschaftlichen Schreiben.
    Jan 24 2025
    Mal eben ein paar Stichworte zur gerade durchgeführten Studie in ein KI-Chatbot-Interface eingeben und den Bot darum bitten, auf Basis dieser Stichpunkte die erste Version einer Kurzzusammenfassung zu schreiben: Richtig praktisch! Aber funktioniert das gut? Und sollte man das machen? Und was, wenn Studierende KI für ihre Hausarbeiten nutzen? Welche wissenschaftlichen Tätigkeiten sollten vollständig den Forschenden überlassen bleiben? Diese und ähnliche Fragen bewegen gerade sehr viele Menschen, die in der Wissenschaft arbeiten. Und damit auch uns.+++Dzifa Vode ist Mitarbeiterin des Schreibzentrums der Technischen Hochschule Nürnberg. Zur Zeit entwickelt sie dort mit dem Online Writing Lab eine freie Bildungsumgebung für Studierende, die wissenschaftlich schreiben wollen oder müssen. Als Schreibwissenschaftlerin forscht und lehrt sie im Bereich des wissenschaftlichen Schreibens – mit und ohne künstliche Intelligenz. Sie organisiert außerdem Schreibretreats und coacht Wissenschaftler*innen in ihren Schreibprozessen.+++LinklisteVirtuelles Kompetenzzentrum: Künstliche Intelligenz und wissenschaftliches ArbeitenReflexionsinstrument für LehrendeZohery (2023), ChatGPT in Academic Writing and Publishing: A Comprehensive Guide.Kostikova et al. (2022), Fine-Grained Detection of Solidarity for Women and Migrants in 155 Years of German Parliamentary Debates. arXiv.Barnum et al. (2024), Large Language Models based on historical text could offer informative tools for behavioral science. PNAS.Alahdab (2024), Potential impact of large language models on academic writing. BMJ Evidence-Based Medicine.Bin-Nashwan et al. (2023), Use of ChatGPT in academia: Academic integrity hangs in the balance. Technology in Society.Leung et al. (2023), Best Practices for Using AI Tools as an Author, Peer Reviewer, or Editor. Journal of Medical Internet Research.Liang et al. (2024), Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews. arXiv.Preiß et al.,(2023). ChatGPT and Me. Erste Ergebnisse der quantitativen Auswertung einer Umfrage über die Lebensrealität mit generativer KI an der Universität Hamburg. Digital and Data Literacy in Teaching Lab. Universität Hamburg.Parasuraman & Riley (1997), Humans and Automation: Use, Misuse, Disuse, Abuse. Human Factors.Kobak et al. (2024), Delving into ChatGPT usage in academic writing through excess vocabulary. arXiv.Geng & Trotta (2024), Is ChatGPT Transforming Academics' Writing Style? arXiv.Gottschling et al. (2024). Nutzung von KI-Tools durch Studierende. Eine exemplarische Untersuchung studentischer Nutzungsszenarien. die hochschullehre.Hwang et al. (2024). Is ChatGPT a "Fire of Prometheus" for Non-Native English-Speaking Researchers in Academic Writing? Korean Journal of Radiology.DFG (2023), Stellungnahme des Präsidiums der Deutschen Forschungsgemeinschaft (DFG) zum Einfluss generativer Modelle.Limburg et. al (2023), Zehn Thesen zur Zukunft des Schreibens in der Wissenschaft. +++Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.deUnser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.socialUnser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback+++"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
    Mehr anzeigen Weniger anzeigen
    1 Std. und 8 Min.
  • Von menschlicher und künstlicher Intelligenz: Wo stehen wir auf dem Weg zur starken KI?
    Dec 13 2024
    Zum Start unserer zweiten Staffel werfen wir einen Blick auf die Frage, wie weit die KI-Forschung auf dem Weg zur allgemeinen künstliche künstlichen Intelligenz – auch starke KI genannt – mittlerweile ist. Solch ein KI-System wäre in der Lage, alle möglichen intellektuellen Aufgaben auszuführen, die auch ein Mensch bewältigen könnte. Um beispielsweise zu bewerten, wie nah ChatGPT an einem solchen Status ist, muss erst einmal geklärt werden, was denn Menschen alles können – also, welche Fähigkeiten wir unter dem Intelligenzbegriff verstehen.
    +++
    Linkliste
    • Emmert-Streib, F. (2024). Is ChatGPT the way toward artificial general intelligence? Discover Artificial Intelligence 4, 32.
    • Nick Boström: The Paperclip Maximizer
    • Noam Chomsky: The False Promise of ChatGPT
    • Ullman, T. (2023): Large Language Models Fail on Trivial Alterations to Theory-of-Mind Tasks. ArXiv.
    +++

    Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
    • Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
    • Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
    • Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
    +++
    "Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
    Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
    Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
    Mehr anzeigen Weniger anzeigen
    45 Min.
  • Gefühle im Datenstrom? Einsatz und Grenzen der Emotionserkennung durch KI.
    Sep 27 2024
    Bitte schenkt uns 10 Minuten eurer Zeit, um an der Evaluation unseres Podcasts teilzunehmen! Danke!Zur Umfrage geht es hier.+++Der empathische Roboter, der anhand von Mimik, Stimme oder Körperhaltung erkennt, wie man sich fühlt, um wahlweise aufzuheitern, zu loben, oder emotionale Unterstützung anzubieten – klingt sehr nach Science Fiction, oder? Tatsächlich wurden im Rahmen des sogenannten Affective Computing in den letzten Jahren enorme Fortschritte erzielt, sodass diese Vorstellung keine reine Zukunftsmusik mehr ist. KI-basierte Systeme zur Emotionsdetektion sind jedoch komplex und umstritten. Was können sie wirklich messen? Sind es wirklich Stimmungen, Emotionen oder lediglich beobachtbare Gefühlsausdrücke? Und darüber hinaus: wollen wir maschinelle Systeme, die uns anhand von Daten emotionale Zustände zuschreiben?+++Jana Bressem ist Linguistin und Wissenschaftliche Mitarbeiterin an der Professur für Germanistische Sprachwissenschaft, Semiotik und Multimodale Kommunikation an der Technischen Universität Chemnitz. Ihre Forschungsschwerpunkte sind u.a. Multimodalität, typologische Gestenforschung, Sprache und Kognition sowie Mensch und Technik. Im Wissenschaftspodcast “Talking Bodies” spricht Jana gemeinsam mit Silva Ladewig, Sprachwissenschaftlerin von der Uni Göttingen, zu Themen der Sprache, Gestik und Kommunikation.Björn Schuller ist Professor für Health Informatics an der Technischen Universität München sowie Professor für Künstliche Intelligenz am Imperial College London. Darüber hinaus ist er Mitbegründer, CEO und derzeitiger Chief Scientific Officer der audEERING GmbH – einem Start-up im Bereich intelligenter Audiotechnik. Björns Forschungsschwerpunkte sind u.a. Maschinelles Lernen, automatische Spracherkennung und Affective Computing.+++LinklisteEmotionstheorienEkman & Friesen: Facial Action Coding System (FACS)Das Emotionswörterbuch für das FACS: "EMFACS" von Friesen & EkmanFeldman Barrett (2006), Are emotions natural kinds? Perspectives on Psychological Science.Feldman Barrett et al. (2019), Emotional expressions reconsidered: Challenges to inferring emotion from human facial movements. Psychological Science in the Public Interest. Gendron et al. (2014), Perceptions of emotion from facial expressions are not culturally universal: Evidence from a remote culture. Emotion.„Whisper“ von OpenAIPlutchiks "Emotion Wheel"Sander et al. (2005), A systems approach to appraisal mechanisms in emotion. Neural Networks.Wagner et al. (2022), Dawn of the transformer era in speech emotion recognition: Closing the valence gap.Studie am KIT: AI Recognizes Athletes’ Emotions.Mehrabian & Weiner (1967), Decoding of inconsistent communications. Journal of Personality and Social Psychology.Schuller (2006), Automatische Emotionserkennung aus sprachlicher und manueller Interaktion. Dissertation.Buolamwini & Gebru (2018), Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research.Halberstadt et al. (2018), Preservice teachers’ racialized emotion recognition, anger bias, and hostility attributions. Contemporary Educational Psychology.Talking Bodies Folge # 33 – Zeigt der Körper an, wenn wir lügen?Bond & DePaulo (2006), Accuracy of deception judgments. Personality and Social Psychology Review.EMOBIO, Fraunhofer: KI-gestützte Emotionserkennung im Fahrzeug aus physiologischen Daten.Q for Sales-Software zur Emotionsanalyse von Kund*innenEU-Projekt iBorderCtrl: Kommt der Lügendetektor oder kommt er nicht?+++Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.deUnser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.socialUnser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback+++"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres 2024 – Freiheit.
    Mehr anzeigen Weniger anzeigen
    2 Std. und 8 Min.