Diskriminierung durch Künstliche Intelligenz: Ein Einblick in die systemischen Risiken-1

Diskriminierung durch Künstliche Intelligenz: Ein Einblick in die systemischen Risiken

16. Mai 2024

Die fortschreitende Integration von Künstlicher Intelligenz (KI) in unsere täglichen Prozesse verspricht Effizienzsteigerung und Automatisierung. Doch diese Technologie bringt auch schwerwiegende Herausforderungen mit sich, insbesondere in Bezug auf Diskriminierung und Ethik. Dieser Artikel untersucht, wie Vorurteile und Stereotypen durch KI verstärkt werden und die unkritische Nutzung von KI-Tools zu systematischen Diskriminierungen führen kann sowie welche gesetzlichen Maßnahmen dagegen ergriffen werden.

Die trügerische Sicherheit durch automatisierte Entscheidungen

Künstliche Intelligenz wird oft als objektiv und unvoreingenommen angesehen, doch die Realität sieht anders aus. Viele Menschen neigen dazu, den Ergebnissen von automatisierten Entscheidungssystemen mehr zu vertrauen als menschlichen Urteilen. Diese unkritische Akzeptanz kann gravierende Folgen haben, insbesondere wenn die KI mit fehlerhaften oder voreingenommenen Daten trainiert wurde.

Der Ursprung der Vorurteile: Trainingsdaten

Die Qualität der von KI-Systemen generierten Ergebnisse hängt stark von den verwendeten Trainingsdaten ab. Da diese Daten von Menschen erzeugt und ausgewählt werden, spiegeln sie oft bestehende Vorurteile und Stereotypen wider. Dies führt dazu, dass KI-Systeme diese weiterverstärken können, statt sie zu eliminieren.

Unterrepräsentation in der KI-Industrie

Ein wesentlicher Faktor für die Voreingenommenheit in KI-Systemen ist die mangelnde Diversität in der Branche. Laut einer Studie des World Economic Forum sind Frauen und BIBOC-Personen (Black, Indigenous, and People of Color) in der KI-Industrie derzeit noch stark unterrepräsentiert, was die Perspektivenvielfalt in der Entwicklung und Überwachung von KI-Systemen limitiert.

Konsequenzen fehlerhafter KI-Anwendungen

Fehlidentifizierungen durch KI-gestützte Gesichtserkennungstechnologien können zu falschen Verhaftungen und weiteren schwerwiegenden Konsequenzen führen. Wie im Beispiel von Porcha Woodruff im Sommer 2023, die zu diesem Zeitpunkt im achten Monat schwanger war. Sie wurde fälschlicherweise verhaftet und bekam in einer Arrestzelle des Detroit Police Department Wehen, wo sie elf Stunden lang festgehalten wurde. Laut dem Detroit Police Department hatte eine automatisierte Gesichtserkennung Woodruff als Verdächtige ermittelt. Sie ist sie die sechste Person in Amerika, die angibt, wegen eines fälschlichen Abgleichs in der polizeilichen Datenbank verhaftet worden zu sein. Alle sechs Personen waren Schwarze. Porcha Woodruff war die erste Frau.

Solche Fehler zeigen, wie wichtig eine kritische Überprüfung und Validierung von KI-Tools vor ihrem Einsatz in sensiblen Bereichen ist.

Ethische Bedenken in der Datenerfassung und -klassifikation

Die Prozesse der Datenerfassung und Klassifikation hinter KI-Systemen werfen oft ethische Fragen auf. Die Sammlung und Verwendung persönlicher Daten müssen sorgfältig überwacht werden, um die Privatsphäre der Individuen zu schützen und Diskriminierung zu vermeiden.

Kritischer Umgang mit KI-gestützten Sprachmodellen

Sprachmodelle, wie sie in Chatbots und Assistenzsystemen zum Einsatz kommen, können ebenfalls verzerrte Ansichten wiedergeben, wenn ihre Trainingsdaten voreingenommen sind. Ein kritischer Umgang mit den Outputs dieser Systeme ist essenziell, um Missverständnisse und Fehlinformationen zu vermeiden.

Rechtlicher Rahmen: AGG, DSGVO und EU AI Act

Um Diskriminierung durch KI zu bekämpfen, existieren verschiedene gesetzliche Regelungen. Das Allgemeine Gleichbehandlungsgesetz (AGG) und die Datenschutz-Grundverordnung (DSGVO) bieten in Deutschland Rahmenbedingungen für den Schutz vor Diskriminierung und den Umgang mit personenbezogenen Daten. Der neue EU AI Act zielt darauf ab, Risiken durch KI-Technologien EU-weit zu regulieren und sicherzustellen, dass diese Systeme sicher und gerecht sind.

Erklärung der rechtlichen Begriffe

  •  **Allgemeines Gleichbehandlungsgesetz (AGG):** Dieses Gesetz schützt vor Diskriminierung aufgrund von Rasse, ethnischer Herkunft, Geschlecht, Religion, Behinderung, Alter oder sexueller Identität.
  • **Datenschutz-Grundverordnung (DSGVO):** Sie regelt den Umgang mit personenbezogenen Daten in der EU. Das Recht auf Datenschutz ist hierbei zentral.
  • **EU AI Act:** Ein Vorschlag für eine Verordnung, die spezifische Anforderungen an KI-Systeme stellt, um Risiken zu minimieren und die Einhaltung ethischer Standards zu gewährleisten.

Durch Verständnis dieser Gesetze und eine bewusste Auseinandersetzung mit den Möglichkeiten und Grenzen von KI können wir sicherstellen, dass die Technologie zum Wohl aller eingesetzt wird.

 

Titelbild: shutterstock/Suri_Studio

 

Jetzt unseren Kurs buchen und fit für die Zukunft sein!

Diversität hat viele Gesichter – die Auseinandersetzung mit dem Thema kann auf ebenso viele Arten stattfinden. Wichtig ist dabei aber immer, dass man sich zunächst einmal mit den Grundlagen vertraut macht und eine Sensibilität für die Fragestellungen entwickelt. Profitieren Sie jetzt von unserem Kurs Diversity Awareness und machen Sie sich fit für die Zukunft - einfach per Mail unter diversity@eso.de anmelden!

Unseren Infoflyer finden Sie hier.

Geschlechtergerechtigkeit gehört zu den Grundsätzen unseres Unternehmens. Sprachliche Gleichbehandlung ist dabei ein wesentliches Merkmal. Für den diskriminierungsfreien Sprachgebrauch verwenden wir in Texten den Gender Star bei allen personenbezogenen Bezeichnungen, um alle Geschlechter und Geschlechtsidentitäten einzuschließen. Versehentliche Abweichungen enthalten keine Diskriminierungsabsicht.
Diskriminierung durch Künstliche Intelligenz: Ein Einblick in die systemischen Risiken-1



Weiterbildung für Ihr Unternehmen und Sie selbst

Entwickeln Sie eine Unternehmenskultur, in der alle Mitarbeitenden wertgeschätzt werden und bilden Sie die Basis für ein starkes und innovatives Unternehmen.

Buchen Sie unser Lernpaket!