









Künstliche Intelligenz soll objektiv entscheiden – doch sie übernimmt oft die Vorurteile der Gesellschaft. Warum das gefährlich ist und wer darunter leidet.
Künstliche Intelligenz gilt als Zukunftstechnologie, die vieles erleichtern, verbessern und beschleunigen kann – ob in der Medizin, bei der Verkehrsplanung oder in der Kommunikation. Doch was passiert, wenn Maschinen beginnen, diskriminierende Entscheidungen zu treffen? Immer mehr Beispiele zeigen: Auch KI kann rassistisch sein – mit gravierenden Folgen.
Künstliche Intelligenz (KI) ist kein fühlendes Wesen, aber sie „lernt“ von uns Menschen – und damit auch unsere Fehler. Die Algorithmen, die hinter KI-Systemen stecken, werden mit riesigen Datenmengen gefüttert, aus denen sie Muster erkennen und Entscheidungen ableiten. Das Problem: Diese Daten sind oft nicht neutral, sondern spiegeln gesellschaftliche Ungleichheiten und Vorurteile wider.
Ein bekanntes Beispiel: In den USA fiel eine Software zur Gesichtserkennung dadurch auf, dass sie schwarze Menschen deutlich häufiger falsch identifizierte als weiße. In einem anderen Fall wurde ein KI-System zur Bewertung von Bewerbungen so trainiert, dass es Kandidaten mit nicht-weißen Namen automatisch benachteiligte. Solche Vorfälle sind keine Einzelfälle, sondern machen ein strukturelles Problem sichtbar.
Die Ursachen liegen tief: Datensätze, die für das Training von KI verwendet werden, stammen häufig aus dem Internet – etwa aus sozialen Netzwerken, Foren oder Bilddatenbanken. Wenn dort beispielsweise unter dem Begriff „Wissenschaft“ vor allem weiße Männer erscheinen, übernimmt die KI diese Verzerrung und stellt sie als Realität dar.
Besonders kritisch wird es, wenn solche Systeme in sensiblen Bereichen wie Justiz, Polizei oder Gesundheitswesen eingesetzt werden. Denn die Entscheidungen der KI wirken sich direkt auf das Leben von Menschen aus – etwa bei der Frage, wer einen Kredit bekommt, welche Bewerbungen aussortiert werden oder welche Patienten schneller behandelt werden.
Hinzu kommt: Viele KI-Systeme werden von großen Tech-Konzernen wie Google, Amazon oder IBM entwickelt. Sie unterliegen bislang kaum staatlicher Kontrolle, müssen weder ihre Datengrundlagen offenlegen noch darlegen, wie sie Diskriminierung vermeiden wollen.
Experten fordern deshalb dringend mehr Transparenz, strengere Regularien und vor allem: vielfältige Teams, die KI-Systeme entwickeln. Denn eine Technologie, die die Gesellschaft verbessern soll, darf ihre Ungerechtigkeiten nicht zementieren.