Joy Buolamwini
Joy Adowaa Buolamwini (* 1989 in Edmonton, Kanada) ist eine ghanaisch-amerikanisch-kanadische Informatikerin und digitale Aktivistin.
Sie forscht am MIT Media Lab und hat einen PhD in Media Arts and Sciences.[1] Sie gründete die Algorithmic Justice League, eine Organisation, die sich gegen Voreingenommenheit bei der Entscheidungsfindung durch Künstliche Intelligenz einsetzt.[2][3][4]
Kindheit und Studium
[Bearbeiten | Quelltext bearbeiten]Buolamwini wuchs in Mississippi auf und besuchte die Cordova High School in Memphis (Tennessee). Im Alter von 9 Jahren wurde sie von Kismet, dem MIT-Roboter, inspiriert und brachte sich selbst XHTML, JavaScript und PHP bei.[5]
Während ihres Studiums studierte Buolamwini Informatik am Georgia Institute of Technology, wo sie sich mit Gesundheitsinformatik beschäftigte. Buolamwini erhielt 2012 einen Bachelor-Abschluss als Stamps President’s Scholar an der Georgia Tech. 2009 wart sie die jüngste Finalistin des Georgia Tech InVenture Prize.[2][6]
Buolamwini ist Rhodes-Stipendiatin,[7] Fulbright-Stipendiatin,[7] Stamps-Stipendiatin, Astronaut-Stipendiatin[8] und Stipendiatin des Anita Borg Institute for Women and Technology. Als Rhodes-Stipendiatin studierte sie Learning and Technology an der Oxford University[9] und arbeitete an gemeinwohlorientierten Projekten im Rahmen eines sozialen Jahres. 2017 erhielt sie einen Master-Abschluss in Media Arts and Sciences vom MIT.[2][10] Im Jahr 2021 erhielt sie einen Doktorgrad in Media Arts and Sciences vom MIT Media Lab für ihre Arbeit mit dem Titel Facing the Coded Gaze with Evocative Audits and Algorithmic Audits.[11]
Karriere und Forschung
[Bearbeiten | Quelltext bearbeiten]2011 arbeitete sie mit dem Trachom-Programm des Carter Centers zusammen, um ein Android-basiertes Bewertungssystem für Äthiopien zu entwickeln und die Ausrottung der Krankheit weltweit zu unterstützen.[5][8]
Als Fulbright-Stipendiatin arbeitete Buolamwini 2013 mit einheimischen Informatikern in Sambia zusammen, um die sambische Jugend zu befähigen, Technologieentwickler zu werden.[7][12]
Sie ist Forscherin am MIT Media Lab, wo sie Vorurteile in Algorithmen aufdeckt und Praktiken für die Rechenschaftspflicht bei deren Entwicklung entwickelt. Sie ist Mitglied von Ethan Zuckermans Center for Civic Media.[1][13] Während ihrer Forschung zeigte Buolamwini Gesichtserkennungssystemen 1.000 Gesichter und bat sie zu erkennen, ob es sich um weibliche oder männliche Gesichter handelte. Sie stellte fest, dass es der Software schwer fiel, dunkelhäutige Frauen zu erkennen.[14] Ihr Projekt, Gender Shades, hat in den Medien große Aufmerksamkeit erregt und wurde Teil ihrer MIT-Dissertation.[11][15] Ihre 2018 veröffentlichte Arbeit Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification (Intersektionale Genauigkeitsunterschiede in der kommerziellen Geschlechterklassifizierung)[16] führte zu Reaktionen von IBM und Microsoft, die ihre Software schnell verbesserten.[17] Mit ihrem Programm Algorithmic Justice League will sie auf die Voreingenommenheit im Code hinweisen, die zur Diskriminierung unterrepräsentierter Gruppen führen kann. Sie hat zwei Filme erstellt: "Code4Rights" und "Algorithmic Justice League: Unmasking Bias".[18][19]
Sie war Chief Technology Officer bei Techturized Inc, einem Technologieunternehmen für Haarpflege.[20]
Buolamwinis Forschung wird als Einfluss für Google und Microsoft bei der Bekämpfung von geschlechts- und rassenspezifischen Vorurteilen in ihren Produkten und Prozessen genannt.[21]
Aktivistin
[Bearbeiten | Quelltext bearbeiten]Joy Buolamwini gründete 2016 die Algorithmic Justice League (AJL), um sich für eine gerechte und verantwortliche künstliche Intelligenz (KI) einzusetzen. AJL kombiniert Kunst und Forschung, um die gesellschaftlichen Auswirkungen und Schäden von KI zu beleuchten. Das Unternehmen hat es sich zur Aufgabe gemacht, das öffentliche Bewusstsein für die Auswirkungen von KI zu schärfen, Forschungsergebnissen zu verbreiten, den am meisten gefährdeten Gemeinschaften eine Stimme zu geben und die Tech-Industrie und den Kongress aufzurütteln.[4]
Im Jahr 2019 sagte Buolamwini vor dem Committee on Oversight and Government Reform des US-Repräsentantenhauses über die Risiken der Gesichtserkennungstechnologie aus.[22][23]
Voicing Erasure
[Bearbeiten | Quelltext bearbeiten]Voicing Erasure ist einer der neueren Forschungsbereiche auf der AJL-Website.[24] Joy Buolamwini, Allison Koenecke, Safiya Noble, Ruha Benjamin, Kimberlé Crenshaw, Megan Smith und Sasha Costanza-Chock haben ein Podcast über Voreingenommenheit in Sprachsystemen produziert.[25] Buolamwini und Koenecke sind die führenden Forscherinnen, die die Voreingenommenheit von Sprachsystemen aufdecken. Sie haben herausgefunden, dass Spracherkennungssysteme die größten Probleme mit afroamerikanischen Sprechern der englischen Umgangssprache haben, obwohl diese Systeme insgeheim unsere Gespräche belauschen. Das letzte Thema, das angesprochen wird, sind die schädlichen Geschlechterstereotypen, die durch die unterwürfige Natur von Siri, Alexa und Cortona aufrechterhalten werden.
The Coded Gaze: Algorithmische Verzerrungen entlarven
[Bearbeiten | Quelltext bearbeiten]The Coded Gaze (Der codierte Blick) ist ein Dokumentarfilm, das 2016 im Museum of Fine Arts, Boston uraufgeführt wurde und derzeit über YouTube verfügbar ist. Buolamwini nutzt den Dokumentarfilm, um sich auf die Verzerrungen zu konzentrieren, die in der Funktion der künstlichen Intelligenz liegen. Die Inspiration für den Dokumentarfilm und ihre Forschung kam, als sie am MIT war und ihr Kunstwerk "Aspire Mirror" schuf, das Gesichtserkennung nutzt, um eine andere Person, die einen inspiriert, auf das eigene Gesicht zu spiegeln. Buolamwini erwartete, dass sich Serena Williams, eine andere dunkelhäutige Frau, in ihrem Gesicht spiegeln würde. Die Technologie hat ihr Gesicht jedoch nicht erkannt. Buolamwinis Forschung geht der Frage nach, warum dies der Fall ist, und sie kommt zu dem Schluss, dass der Ausschluss von Menschen, die wie sie aussehen, auf einen Begriff zurückzuführen ist, den sie "Coded Gaze" nennt. Der Dokumentarfilm untersucht, wie KI rassischen und geschlechtsspezifischen Vorurteilen unterliegt, die die Ansichten und kulturellen Hintergründe derjenigen widerspiegeln, die sie entwickeln.[23][26]
Coded Bias
[Bearbeiten | Quelltext bearbeiten]The Coded Bias ist ein Dokumentarfilm unter der Regie von Shalini Kantayya, der Joy Buolamwinis Forschung über KI-Ungenauigkeiten in der Gesichtserkennungstechnologie und automatisierter Bewertungssoftware zeigt.[27] Er konzentriert sich auf die fehlende Regulierung der von IBM, Microsoft und Amazon verkauften Gesichtserkennungstools, die rassistische und geschlechtsspezifische Vorurteile aufrechterhalten. Der Film erzählt die Geschichte eines Streits zwischen Mietern in Brooklyn und einer Gebäudeverwaltungsgesellschaft, die versucht hat, Gesichtserkennung für die Zutrittskontrolle einzusetzen. In dem Film kommen u. a. die Autorin von Weapons of Math Destruction, Cathy O’Neil, und Mitglieder von Big Brother Watch zu Wort, darunter Silkie Carlo aus London. Am 5. April 2021 wurde der Dokumentarfilm auf Netflix zum Abruf bereitgestellt.
Ausstellungen
[Bearbeiten | Quelltext bearbeiten]Die Projekte der Algorithmic Justice League wurden weltweit in Kunstinstitutionen ausgestellt.[28]
- 2019: The Criminal Type, Ausstellung bei APEXART, New York
- 2019: Understanding AI, Ausstellung im Ars Electronica Center, Linz
- 2019: AI: More than Human, Ausstellung im Barbican Centre, London
- 2018: Nine Moments for Now, Ausstellung im Hutchins Center, Harvard University, Cambridge (Massachusetts)
- 2018: Big Bang Data, Ausstellung im MIT Museum, Cambridge (Massachusetts)
Auszeichnungen
[Bearbeiten | Quelltext bearbeiten]2017 erhielt Buolamwini den Hauptpreis in der Profi-Kategorie des Wettbewerbs "Search for Hidden Figures", der mit der Veröffentlichung des Films "Hidden Figures" im Dezember 2016 verbunden war. Der von PepsiCo und 21st Century Fox gesponserte Wettbewerb sollte dazu beitragen, "die nächste Generation weiblicher Führungskräfte in den Bereichen Wissenschaft, Technologie, Ingenieurwesen und Mathematik zu entdecken".[9][29]
Buolamwini hielt einen TEDx-Vortrag in der Beacon Street mit dem Titel How I'm fighting bias in algorithms.[30] 2018 wurde sie in Amy Poehlers "Smart Girls" vorgestellt.[5] Die Zeitschrift Fast Company listete sie als eine von vier "Design-Helden, die die Demokratie online verteidigen".[31] Sie wurde als eine der 100 Women des Jahres 2018 der BBC aufgeführt.[32]
Im Jahr 2019 wurde Buolamwini in der Liste World's Greatest Leaders des Fortune Magazins für 2019 aufgeführt. Das Magazin bezeichnete sie auch als "das Gewissen der KI-Revolution".[33] Außerdem wurde sie 2019 in die erste Time 100 Next-Liste aufgenommen.[34]
Weblinks
[Bearbeiten | Quelltext bearbeiten]Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ a b Civic Media, Creating technology for social change. In: media.mit.edu. Abgerufen am 5. Juni 2022 (englisch).
- ↑ a b c Joy Buolamwini Founder, Algorithmic Justice League. In: forbes.com. 2019, abgerufen am 5. Juni 2022 (englisch).
- ↑ “I am the daughter of art and science.” In: poetofcode.com. Abgerufen am 5. Juni 2022 (englisch).
- ↑ a b We combine art and research to illuminate the social implications and harms of AI. In: ajl.org. Abgerufen am 5. Juni 2022 (englisch).
- ↑ a b c Elizabeth Beauvais: The Future of Computer Science and Tech: 12 Young Women to Watch — Part 2. In: amysmartgirls.com. Amy Poehler’s Smart Girls, 19. Februar 2018, abgerufen am 5. Juni 2022 (englisch).
- ↑ InVenture Prize, Admissions Conquered. In: gatech.edu. Georgia Institute of Technology, abgerufen am 5. Juni 2022 (englisch).
- ↑ a b c Joy Buolamwini Profile. In: rhodesproject.com. Abgerufen am 5. Juni 2022 (englisch).
- ↑ a b Joy Buolamwini. In: astronautscholarship.org. Astronaut Scholarship Foundation, abgerufen am 5. Juni 2022 (englisch).
- ↑ a b Joy Buolamwini wins national contest for her work fighting bias in machine learning. In: mit.edu. 17. Januar 2017, abgerufen am 5. Juni 2022 (englisch).
- ↑ Joy Adowaa Buolamwini: Gender shades : intersectional phenotypic and demographic evaluation of face datasets and gender classifiers. In: mit.edu. 2017, abgerufen am 5. Juni 2022 (englisch).
- ↑ a b Joy Buolamwini Dissertation Defense. In: mit.edu. 6. Oktober 2021, abgerufen am 5. Juni 2022 (englisch).
- ↑ Joy Buolamwini | Fulbright Fellow 2013 | Zambia. In: youtube.com. ZamrizeMedia, 28. April 2013, abgerufen am 5. Juni 2022 (englisch).
- ↑ interview: joy buolamwini. In: mitadmissions.org. 5. März 2017, abgerufen am 5. Juni 2022 (englisch).
- ↑ Photo Algorithms ID White Men Fine—Black Women, Not So Much. In: wired.com. 6. Februar 2018, abgerufen am 5. Juni 2022 (englisch).
- ↑ Artificial intelligence: How to avoid racist algorithms. In: bbc.com. 14. April 2017, abgerufen am 5. Juni 2022 (englisch).
- ↑ Joy Buolamwini, Timnit Gebru: Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. In: mlr.press. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018, abgerufen am 5. Juni 2022 (englisch).
- ↑ Ruchir Puri: Mitigating Bias in AI Models. In: ibm.com. 6. Februar 2018, abgerufen am 5. Juni 2022 (englisch).
- ↑ Film Code4Rights. In: filmmakerscollab.org. Abgerufen am 5. Juni 2022 (englisch).
- ↑ Film Algorithmic Justice League: Unmasking Bias. In: filmmakerscollab.org. Abgerufen am 5. Juni 2022 (englisch).
- ↑ Tech Startup of The Week: Techturized Wins With Hair Care Company. In: blackenterprise.com. 15. März 2013, abgerufen am 5. Juni 2022 (englisch).
- ↑ Tech giants pressured to follow Google in removing gender labels from computer vision services. In: biometricupdate.com. 2. März 2020, abgerufen am 5. Juni 2022 (englisch).
- ↑ We listened to more than 3 hours of US Congress testimony on facial recognition so you didn't have to go through it. In: theregister.com. 22. Mai 2019, abgerufen am 5. Juni 2022 (englisch).
- ↑ a b Here’s AOC calling out the vicious circle of white men building biased face AI. In: fastcompany.com. 22. Mai 2019, abgerufen am 5. Juni 2022 (englisch).
- ↑ Voice Recognition. In: ajl.org. Abgerufen am 5. Juni 2022 (englisch).
- ↑ Voicing Erasure - A Spoken Word Piece Exploring Bias in Voice Recognition Technology. In: youtube.com. 31. März 2020, abgerufen am 5. Juni 2022 (englisch).
- ↑ The Coded Gaze: Unpacking Biases in Algorithms That Perpetuate Inequity. In: rockefellerfoundation.org. 16. Dezember 2020, abgerufen am 5. Juni 2022 (englisch).
- ↑ Coded Bias exposes prejudices and threats to civil liberty in facial recognition algorithms and artificial intelligence. In: pbs.org. 22. März 2021, abgerufen am 5. Juni 2022 (englisch).
- ↑ Exhibitions. In: ajl.org. Abgerufen am 5. Juni 2022 (englisch).
- ↑ Hidden No More: STEM Spotlight Shines On ‘Hidden Figures’ Like MIT’s Joy Buolamwini. In: yr.media. 27. Februar 2017, abgerufen am 5. Juni 2022 (englisch).
- ↑ How I'm fighting bias in algorithms. In: mit.edu. 19. März 2017, abgerufen am 5. Juni 2022 (englisch).
- ↑ Meet 4 design heroes who are defending democracy online. In: fastcompany.com. Abgerufen am 5. Juni 2022 (englisch).
- ↑ BBC 100 Women 2018: Who is on the list? In: bbc.com. 19. November 2018, abgerufen am 5. Juni 2022 (englisch).
- ↑ World's 50 Greatest Leaders, Joy Buolamwini. In: fortune.com. 2019, abgerufen am 5. Juni 2022 (englisch).
- ↑ Joy Buolamwini. In: time.com. 2019, abgerufen am 5. Juni 2022 (englisch).
Personendaten | |
---|---|
NAME | Buolamwini, Joy |
ALTERNATIVNAMEN | Buolamwini, Joy Adowaa (vollständiger Name) |
KURZBESCHREIBUNG | ghanaisch-amerikanisch-kanadische Informatikerin und digitale Aktivistin |
GEBURTSDATUM | 1989 |
GEBURTSORT | Edmonton, Kanada |