Wie KI aus Daten lernt – und warum das manchmal zu unfairen Ergebnissen führt

Kapitel 11

Inhalt

Wenn Maschinen lernen – aber dabei auch Vorurteile übernehmen

Frage: Warum können KI-Systeme trotz ihrer scheinbaren Objektivität zu unfairen oder sogar diskriminierenden Ergebnissen führen?
Antwort: KI lernt aus vorhandenen Daten. Wenn diese Daten gesellschaftliche Vorurteile oder Ungleichheiten enthalten, übernimmt die KI sie oft unbemerkt – und verstärkt sie sogar. Die Technik entscheidet dann nicht „neutral“, sondern wiederholt nur, was sie gesehen hat.

Wie KI überhaupt lernt

Im Unterschied zu klassischen Programmen, die Zeile für Zeile festgelegt sind, „lernt“ Künstliche Intelligenz durch Beispiele. Sie wird mit riesigen Datenmengen gefüttert – Texte, Bilder, Zahlen – und erkennt darin typische Muster. Daraus entwickelt sie dann ein Modell, das neue, ähnliche Fälle einschätzen soll.

Man kann sich das vorstellen wie einen Schüler, der sehr viele Aufgaben sieht und dadurch erkennt, wie das Ergebnis meistens aussieht. Doch im Gegensatz zum Menschen versteht die KI nicht, was sie da sieht – sie speichert nur statistische Zusammenhänge.

Beispiel:
Eine KI bekommt zehntausende Fotos von Katzen und Hunden. Sie vergleicht Ohrenformen, Nasengrößen, Körperhaltungen – und erkennt irgendwann: „Spitze Ohren und schmale Schnauze = eher Katze“. Aber sie weiß nicht, was ein Tier ist. Sie erkennt nur das, was die Daten zeigen.

Wenn Daten Vorurteile enthalten

Das eigentliche Problem entsteht, wenn die Daten nicht „neutral“ sind – sondern bereits gesellschaftliche Ungleichheiten oder Vorurteile widerspiegeln.

Denn: Daten zeigen nicht die Welt, wie sie sein sollte, sondern so, wie sie war oder ist. Und das bedeutet leider oft: bestimmte Gruppen wurden benachteiligt, übersehen oder falsch dargestellt.

  • Bewerbungen mit ausländisch klingenden Namen wurden in der Vergangenheit seltener eingeladen. Eine KI, die solche Daten auswertet, übernimmt dieses Muster – und sortiert ähnliche Bewerbungen heute ebenfalls aus.
  • In technischen Berufen waren früher vor allem Männer tätig. Eine KI, die aus alten Personalentscheidungen lernt, wird männliche Profile als „passender“ bewerten.
  • Wenn bestimmte Bevölkerungsgruppen in den Daten kaum vorkommen, erkennt die KI ihre Bedürfnisse nicht – und macht Fehler, wenn sie auf diese Gruppen trifft.
Fazit: Die KI ist nicht „böse“ – aber sie erkennt nicht, dass ihre Entscheidung unfair ist.

Was das in der Praxis bedeutet

Solche Verzerrungen nennt man Bias (englisch für „Voreingenommenheit“). Sie entstehen oft unbemerkt – und genau das macht sie so gefährlich.

Denn wenn eine KI über Einstellungen, Kredite oder Therapieentscheidungen mitentscheidet, können kleine Ungerechtigkeiten große Folgen haben:

  • Eine qualifizierte Bewerberin wird übersehen.
  • Eine medizinische Warnung wird nicht gegeben, weil bestimmte Symptome in der Datenbasis fehlen.
  • Ein Algorithmus stuft Menschen aus bestimmten Wohngegenden automatisch als „risikoreicher“ ein – und erschwert ihnen den Zugang zu Versicherungen oder Darlehen.

Wichtig zu wissen:
Diese Fehler passieren nicht mit Absicht – aber sie sind real. Und oft bleibt unklar, wer eigentlich die Verantwortung trägt.

Beispiel aus der Praxis:
In einigen Ländern wurden Gesichtserkennungssysteme getestet, um Personen zu identifizieren – zum Beispiel an Flughäfen. Die Ergebnisse waren erschreckend: Menschen mit heller Haut wurden fast immer richtig erkannt. Bei dunklerer Haut oder bei älteren Menschen lagen die Systeme viel häufiger falsch. Warum? Weil die KI mit Bildern junger, heller Gesichter trainiert wurde – nicht mit vielfältigen Beispielen.
Das zeigt: Wenn die Daten einseitig sind, ist auch das Ergebnis einseitig – und für die Betroffenen potenziell schädlich.

Wie man Verzerrungen erkennt und verringert

Forscher und Entwickler arbeiten intensiv daran, diese Probleme zu lösen. Doch das ist gar nicht so einfach. Denn dafür muss man erst einmal erkennen, dass ein Bias existiert – und dann die Daten oder die Entscheidungen gezielt anpassen.

Was helfen kann:

  • Datenbereinigung: Fehlerhafte oder einseitige Daten müssen aussortiert oder korrigiert werden.
  • Vielfalt in den Daten: Es sollten möglichst viele Perspektiven und Personengruppen berücksichtigt werden.
  • Transparenz: Es muss nachvollziehbar sein, wie eine Entscheidung zustande kommt – also: Welche Daten wurden verwendet? Welche Kriterien wurden angewendet?
  • Ethik-Teams: Menschen aus verschiedenen Fachrichtungen (z. B. Soziologie, Psychologie, Ethik) sollen mitentwickeln – nicht nur Programmierer.

 

Am Ende ist klar: KI wird nicht automatisch besser – man muss sie aktiv fair machen.

Zum Nachdenken

Viele Menschen denken: „Eine Maschine entscheidet bestimmt objektiv.“ Doch das ist ein Trugschluss. Denn die Maschine lernt von Menschen – und Menschen machen Fehler, sind geprägt von ihrer Umgebung und treffen nicht immer gerechte Entscheidungen.

👉 Wenn wir Künstliche Intelligenz nutzen wollen, müssen wir deshalb genau hinschauen. Technik allein schafft keine Gerechtigkeit. Aber sie kann uns helfen – wenn wir sie mit klarem Blick und bewusstem Handeln gestalten.

Glossar

BegriffErklärung
BiasEine Verzerrung oder Voreingenommenheit – etwa wenn bestimmte Gruppen in den Daten über- oder unterrepräsentiert sind.
TrainingsdatenDie Daten, mit denen eine KI „lernt“ – also Muster erkennt und sich Regeln ableitet.
Diskriminierung durch KIWenn die Entscheidung eines KI-Systems bestimmte Gruppen systematisch benachteiligt.
DatenbereinigungDas gezielte Entfernen oder Ausgleichen von unfairen oder fehlerhaften Mustern in den Trainingsdaten.
TransparenzDie Nachvollziehbarkeit von Entscheidungen einer KI – z. B. welche Daten genutzt wurden oder wie gewichtet wurde.

Weiterführende Informationen & empfohlene Quellen

 

Ausblick auf das nächste Kapitel: KI im Alltag – wo sie dir ganz unbemerkt begegnet
Im nächsten Artikel zeigen wir dir, wo dir Künstliche Intelligenz heute schon begegnet – beim Musikstreaming, Fotografieren oder Online-Shopping. Oft arbeitet sie im Hintergrund, ohne dass wir es merken. Wer ihre Mechanismen kennt, kann souveräner damit umgehen.

Bewertung
Wie hilfreich war dieser Beitrag für dich? Gib gern eine Bewertung ab – so hilfst du uns, die Inhalte weiter zu verbessern.✔️ = hilfreich  ❌ = nicht hilfreich

KI Helfer selber ausprobieren

KI-Bot

Dein KI-Hlefer

Probier unseren KI-Chat-Bot einfach mal aus. Er erklärt dir technische Begriffe, hilft dir leicht verständlich bei vielen Fragen rund um Installation von Apps, Einstellungen von digitalen Anwendungen und vielem mehr – ohne Wartezeit und jederzeit verfügbar.

Direkt zum KI-Helfer

Stelle deine Frage direkt an unseren KI-Chat-Bot. Er hilft dir einfach und verständlich weiter – probiere es aus.

KI-Helfer ausprobieren

ℹ️ Hilfe zum KI-Helfer

Falls du dir unsicher bist, findest du hier eine kurze Erklärung, wie du unseren KI-Chat-Bot nutzen kannst.

Hilfe ansehen

Kommentar

🔒 Mit dem Absenden erklärst du dich damit einverstanden, dass wir deine Angaben zur internen Auswertung speichern. Die Daten werden nicht veröffentlicht. Weitere Hinweise findest du in unserer Datenschutzerklärung.

Hier findest du alle Beiträge übersichtlich nach Kapiteln sortiert