Wenn Maschinen lernen – aber dabei auch Vorurteile übernehmen
Antwort: KI lernt aus vorhandenen Daten. Wenn diese Daten gesellschaftliche Vorurteile oder Ungleichheiten enthalten, übernimmt die KI sie oft unbemerkt – und verstärkt sie sogar. Die Technik entscheidet dann nicht „neutral“, sondern wiederholt nur, was sie gesehen hat.
Wie KI überhaupt lernt
Im Unterschied zu klassischen Programmen, die Zeile für Zeile festgelegt sind, „lernt“ Künstliche Intelligenz durch Beispiele. Sie wird mit riesigen Datenmengen gefüttert – Texte, Bilder, Zahlen – und erkennt darin typische Muster. Daraus entwickelt sie dann ein Modell, das neue, ähnliche Fälle einschätzen soll.
Man kann sich das vorstellen wie einen Schüler, der sehr viele Aufgaben sieht und dadurch erkennt, wie das Ergebnis meistens aussieht. Doch im Gegensatz zum Menschen versteht die KI nicht, was sie da sieht – sie speichert nur statistische Zusammenhänge.
Beispiel:
Eine KI bekommt zehntausende Fotos von Katzen und Hunden. Sie vergleicht Ohrenformen, Nasengrößen, Körperhaltungen – und erkennt irgendwann: „Spitze Ohren und schmale Schnauze = eher Katze“. Aber sie weiß nicht, was ein Tier ist. Sie erkennt nur das, was die Daten zeigen.
Wenn Daten Vorurteile enthalten
Das eigentliche Problem entsteht, wenn die Daten nicht „neutral“ sind – sondern bereits gesellschaftliche Ungleichheiten oder Vorurteile widerspiegeln.
Denn: Daten zeigen nicht die Welt, wie sie sein sollte, sondern so, wie sie war oder ist. Und das bedeutet leider oft: bestimmte Gruppen wurden benachteiligt, übersehen oder falsch dargestellt.
- Bewerbungen mit ausländisch klingenden Namen wurden in der Vergangenheit seltener eingeladen. Eine KI, die solche Daten auswertet, übernimmt dieses Muster – und sortiert ähnliche Bewerbungen heute ebenfalls aus.
- In technischen Berufen waren früher vor allem Männer tätig. Eine KI, die aus alten Personalentscheidungen lernt, wird männliche Profile als „passender“ bewerten.
- Wenn bestimmte Bevölkerungsgruppen in den Daten kaum vorkommen, erkennt die KI ihre Bedürfnisse nicht – und macht Fehler, wenn sie auf diese Gruppen trifft.
Was das in der Praxis bedeutet
Solche Verzerrungen nennt man Bias (englisch für „Voreingenommenheit“). Sie entstehen oft unbemerkt – und genau das macht sie so gefährlich.
Denn wenn eine KI über Einstellungen, Kredite oder Therapieentscheidungen mitentscheidet, können kleine Ungerechtigkeiten große Folgen haben:
- Eine qualifizierte Bewerberin wird übersehen.
- Eine medizinische Warnung wird nicht gegeben, weil bestimmte Symptome in der Datenbasis fehlen.
- Ein Algorithmus stuft Menschen aus bestimmten Wohngegenden automatisch als „risikoreicher“ ein – und erschwert ihnen den Zugang zu Versicherungen oder Darlehen.
Wichtig zu wissen:
Diese Fehler passieren nicht mit Absicht – aber sie sind real. Und oft bleibt unklar, wer eigentlich die Verantwortung trägt.
In einigen Ländern wurden Gesichtserkennungssysteme getestet, um Personen zu identifizieren – zum Beispiel an Flughäfen. Die Ergebnisse waren erschreckend: Menschen mit heller Haut wurden fast immer richtig erkannt. Bei dunklerer Haut oder bei älteren Menschen lagen die Systeme viel häufiger falsch. Warum? Weil die KI mit Bildern junger, heller Gesichter trainiert wurde – nicht mit vielfältigen Beispielen.
Das zeigt: Wenn die Daten einseitig sind, ist auch das Ergebnis einseitig – und für die Betroffenen potenziell schädlich.
Wie man Verzerrungen erkennt und verringert
Forscher und Entwickler arbeiten intensiv daran, diese Probleme zu lösen. Doch das ist gar nicht so einfach. Denn dafür muss man erst einmal erkennen, dass ein Bias existiert – und dann die Daten oder die Entscheidungen gezielt anpassen.
Was helfen kann:
- Datenbereinigung: Fehlerhafte oder einseitige Daten müssen aussortiert oder korrigiert werden.
- Vielfalt in den Daten: Es sollten möglichst viele Perspektiven und Personengruppen berücksichtigt werden.
- Transparenz: Es muss nachvollziehbar sein, wie eine Entscheidung zustande kommt – also: Welche Daten wurden verwendet? Welche Kriterien wurden angewendet?
- Ethik-Teams: Menschen aus verschiedenen Fachrichtungen (z. B. Soziologie, Psychologie, Ethik) sollen mitentwickeln – nicht nur Programmierer.
Am Ende ist klar: KI wird nicht automatisch besser – man muss sie aktiv fair machen.
Zum Nachdenken
Viele Menschen denken: „Eine Maschine entscheidet bestimmt objektiv.“ Doch das ist ein Trugschluss. Denn die Maschine lernt von Menschen – und Menschen machen Fehler, sind geprägt von ihrer Umgebung und treffen nicht immer gerechte Entscheidungen.
👉 Wenn wir Künstliche Intelligenz nutzen wollen, müssen wir deshalb genau hinschauen. Technik allein schafft keine Gerechtigkeit. Aber sie kann uns helfen – wenn wir sie mit klarem Blick und bewusstem Handeln gestalten.
Glossar
Begriff | Erklärung |
---|---|
Bias | Eine Verzerrung oder Voreingenommenheit – etwa wenn bestimmte Gruppen in den Daten über- oder unterrepräsentiert sind. |
Trainingsdaten | Die Daten, mit denen eine KI „lernt“ – also Muster erkennt und sich Regeln ableitet. |
Diskriminierung durch KI | Wenn die Entscheidung eines KI-Systems bestimmte Gruppen systematisch benachteiligt. |
Datenbereinigung | Das gezielte Entfernen oder Ausgleichen von unfairen oder fehlerhaften Mustern in den Trainingsdaten. |
Transparenz | Die Nachvollziehbarkeit von Entscheidungen einer KI – z. B. welche Daten genutzt wurden oder wie gewichtet wurde. |
Weiterführende Informationen & empfohlene Quellen
Ausblick auf das nächste Kapitel: KI im Alltag – wo sie dir ganz unbemerkt begegnet
Im nächsten Artikel zeigen wir dir, wo dir Künstliche Intelligenz heute schon begegnet – beim Musikstreaming, Fotografieren oder Online-Shopping. Oft arbeitet sie im Hintergrund, ohne dass wir es merken. Wer ihre Mechanismen kennt, kann souveräner damit umgehen.