Einstellungen für die Zustimmung anpassen

Wir verwenden Cookies, damit Sie effizient navigieren und bestimmte Funktionen ausführen können. Detaillierte Informationen zu allen Cookies finden Sie unten unter jeder Einwilligungskategorie.

Die als „notwendig" kategorisierten Cookies werden in Ihrem Browser gespeichert, da sie für die Aktivierung der grundlegenden Funktionalitäten der Website unerlässlich sind.... 

Immer aktiv

Notwendige Cookies sind für die Grundfunktionen der Website von entscheidender Bedeutung. Ohne sie kann die Website nicht in der vorgesehenen Weise funktionieren.Diese Cookies speichern keine personenbezogenen Daten.

Keine Cookies zum Anzeigen.

Funktionale Cookies unterstützen bei der Ausführung bestimmter Funktionen, z. B. beim Teilen des Inhalts der Website auf Social Media-Plattformen, beim Sammeln von Feedbacks und anderen Funktionen von Drittanbietern.

Keine Cookies zum Anzeigen.

Analyse-Cookies werden verwendet um zu verstehen, wie Besucher mit der Website interagieren. Diese Cookies dienen zu Aussagen über die Anzahl der Besucher, Absprungrate, Herkunft der Besucher usw.

Keine Cookies zum Anzeigen.

Leistungs-Cookies werden verwendet, um die wichtigsten Leistungsindizes der Website zu verstehen und zu analysieren. Dies trägt dazu bei, den Besuchern ein besseres Nutzererlebnis zu bieten.

Keine Cookies zum Anzeigen.

Werbe-Cookies werden verwendet, um Besuchern auf der Grundlage der von ihnen zuvor besuchten Seiten maßgeschneiderte Werbung zu liefern und die Wirksamkeit von Werbekampagne nzu analysieren.

Keine Cookies zum Anzeigen.

Künstliche Intelligenz

Rassismus in der KI: Wenn Maschinen Vorurteile übernehmen

Künstliche Intelligenz soll objektiv entscheiden – doch sie übernimmt oft die Vorurteile der Gesellschaft. Warum das gefährlich ist und wer darunter leidet.

19
04
2025
0
KI-Sprachmodell GPT-3, ChatGPT, bearbeitet by iQ (c) shutterstock
KI-Sprachmodell GPT-3, ChatGPT, bearbeitet by iQ (c) shutterstock

Künstliche Intelligenz gilt als Zukunftstechnologie, die vieles erleichtern, verbessern und beschleunigen kann – ob in der Medizin, bei der Verkehrsplanung oder in der Kommunikation. Doch was passiert, wenn Maschinen beginnen, diskriminierende Entscheidungen zu treffen? Immer mehr Beispiele zeigen: Auch KI kann rassistisch sein – mit gravierenden Folgen.

Künstliche Intelligenz (KI) ist kein fühlendes Wesen, aber sie „lernt“ von uns Menschen – und damit auch unsere Fehler. Die Algorithmen, die hinter KI-Systemen stecken, werden mit riesigen Datenmengen gefüttert, aus denen sie Muster erkennen und Entscheidungen ableiten. Das Problem: Diese Daten sind oft nicht neutral, sondern spiegeln gesellschaftliche Ungleichheiten und Vorurteile wider.

Wie KI-Systeme diskriminieren

Ein bekanntes Beispiel: In den USA fiel eine Software zur Gesichtserkennung dadurch auf, dass sie schwarze Menschen deutlich häufiger falsch identifizierte als weiße. In einem anderen Fall wurde ein KI-System zur Bewertung von Bewerbungen so trainiert, dass es Kandidaten mit nicht-weißen Namen automatisch benachteiligte. Solche Vorfälle sind keine Einzelfälle, sondern machen ein strukturelles Problem sichtbar.

Die Ursachen liegen tief: Datensätze, die für das Training von KI verwendet werden, stammen häufig aus dem Internet – etwa aus sozialen Netzwerken, Foren oder Bilddatenbanken. Wenn dort beispielsweise unter dem Begriff „Wissenschaft“ vor allem weiße Männer erscheinen, übernimmt die KI diese Verzerrung und stellt sie als Realität dar.

Besonders kritisch wird es, wenn solche Systeme in sensiblen Bereichen wie Justiz, Polizei oder Gesundheitswesen eingesetzt werden. Denn die Entscheidungen der KI wirken sich direkt auf das Leben von Menschen aus – etwa bei der Frage, wer einen Kredit bekommt, welche Bewerbungen aussortiert werden oder welche Patienten schneller behandelt werden.

Experten fordern strenge Regularien

Hinzu kommt: Viele KI-Systeme werden von großen Tech-Konzernen wie Google, Amazon oder IBM entwickelt. Sie unterliegen bislang kaum staatlicher Kontrolle, müssen weder ihre Datengrundlagen offenlegen noch darlegen, wie sie Diskriminierung vermeiden wollen.

Experten fordern deshalb dringend mehr Transparenz, strengere Regularien und vor allem: vielfältige Teams, die KI-Systeme entwickeln. Denn eine Technologie, die die Gesellschaft verbessern soll, darf ihre Ungerechtigkeiten nicht zementieren.