12. Mai 2025 · Campus

Künstliche Intelligenz: Die Rolle des Bias

Künstliche Intelligenz verspricht Effizienz und Innovation. Doch wenn Algorithmen voreingenommen sind, leidet das Vertrauen der Nutzer:innen. Dieser Artikel beleuchtet, warum Bias in KI-Systemen nicht nur ein technisches, sondern auch ein gesellschaftliches Problem ist.

Headerbild Ki Die Rolle Des Bias

Dieser Fachbeitrag wurde 2022 von Anja Minikus im Rahmen eines Leistungsnachweises im CAS Disruptive Technologies HWZ für den damaligen Blog des Institutes for Digital Business der HWZ verfasst und nun redaktionell neu überarbeitet.

Die Aussage «Technologie ist neutral» ist inkorrekt. Technologie wird von Menschen entwickelt und kann daher nicht objektiv sein. Was heisst «nicht objektiv»? Verzerrungen schleichen sich in KI-basierte Anwendungen ein und haben unfaire Resultate zur Folge.

Fünf Arten von kognitiven Biases

Bei der Entwicklung von auf KI-basierten Anwendungen gibt es einige Stolperfallen. Eine wesentliche Schwierigkeit besteht darin, keine Verzerrungen, sogenannte «Biases», einfliessen zu lassen. Dabei ist diese Verzerrung in der Regel nicht absichtlich, sondern man spricht von einer kognitiven Verzerrung. Diese entstehen, wenn Menschen bei ihrer Wahrnehmung und ihrem Denken systematisch zu irrationalen Urteilen kommen. Folgende Biases lassen sich nach dem IBM Smarter Workforce Institute unterscheiden:

Konsequenzen von Biases

Verzerrungen finden sich in der Datengrundlage wieder. Dies hat zur Folge, dass beispielsweise eine Menschengruppe gegenüber einer anderen Menschengruppe benachteiligt wird. Die besagte Menschengruppe kann auf die Benachteiligung keinen Einfluss nehmen, da durch die KI-basierten Logiken gewisse Prozesse oder Anträge abgelehnt werden. Als Beispiele können hier die Bonitätsprüfung in Kreditanträgen oder die Aussteuerung von Bewerbungen in Bewerbungsverfahren genannt werden.

Entkräften von Biases

Das Erkennen und Entkräften von Biases ist für die Akzeptanz KI-gestützter Technologien zentral. Dieser Aufgabe haben sich auch führende Tech-Unternehmen angenommen. Google beispielsweise setzt auf sechs Prinzipien zur Sicherstellung einer verantwortungsbewussten Entwicklung.

Wer zieht die Grenzen: die Technologie oder die Nutzenden?

Nicht die Technologie selbst bildet die Grenze möglicher Anwendungsfälle, sondern die Akzeptanz der Nutzerinnen und Nutzer. Die Akzeptanz von KI-basierten Lösungen ist daher wegweisend. Akzeptanz wird durch Vertrauen geschaffen. Die vom WEF geführte IBM Case Study spricht von fünf Säulen des Vertrauens: Erklärbarkeit, Fairness, Robustheit, Transparenz und Datenschutz.

Gerade bei Technologien wie KI, die zunehmend Entscheidungen mit gesellschaftlicher Tragweite beeinflussen, ist dieses Vertrauen entscheidend. Wenn Algorithmen nicht nachvollziehbar oder gar verzerrt sind, droht das Vertrauen verloren zu gehen. Apple-CEO Tim Cook brachte diesen Gedanken bereits 2018 auf den Punkt, als er im Rahmen einer Rede zur digitalen Verantwortung betonte:

We will never achieve technology's true potential without the full faith and confidence of the people who use it.

Tim Cook, CEO Apple

Seine Aussage gewinnt im Kontext von algorithmischer Fairness und Bias eine neue Aktualität.

Abschliessend lässt sich sagen, dass Verantwortung und Vertrauen gleichermassen entscheidend dafür sind, ob KI-basierte Systeme langfristig Akzeptanz finden und erfolgreich zum Einsatz kommen.