Vorurteile in KI-Modellen
Künstliche Intelligenz (KI) ist fest im Alltag unserer Gesellschaft verankert und ist aus Bereichen wie Wirtschaft, Gesundheit, Transport und Unterhaltung nicht mehr wegzudenken. Doch gerade im aktuellen KI-Boom wird deutlich, dass es auch wachsende Herausforderungen gibt, die diese Technologien mit sich bringen. Eine davon ist das potenzielle Vorhandensein von Vorurteilen in KI-Algorithmen. Denn KI-Systeme lernen aus den Daten, mit denen sie trainiert wurden, und so lernen sie auch die Haltungen, die in diesen Daten verborgen sein können. Als Resultat entstehen unfaire oder diskriminierende Vorhersagen und Entscheidungen. In diesem Post schauen wir uns das Thema „Vorurteile in KI-Algorithmen“ genauer an.
Vorurteile in KI-Algorithmen
Vorurteile in KI-Algorithmen beziehen sich auf die systematische Ungleichheit in den Vorhersagen, die durch eine KI-Technologie getroffen werden. Diese Ungleichheit kann aufgrund von Faktoren wie Rasse, Geschlecht, Alter oder einer anderen sozialen Kategorie auftreten, wodurch bestimmte Gruppen benachteiligt werden können. Ein bekanntes Beispiel war eine KI von Amazon, die Bewerbungen filtern sollte. Die KI hat Männer bevorzugt, weil sie auf historischen Daten trainiert wurde, in denen diese überrepräsentiert waren. Ein anderes Beispiel ist, dass zwei Gesichtserkennungsdienste schwarze Basketballspieler als emotional negativer als weiße Spieler interpretierten.
Quellen von Vorurteilen in KI
Es gibt hauptsächlich zwei Quellen von Vorurteilen in KI: Daten und Modellentwicklung.
Daten
Daten sind fundamental für KI-Modelle, denn damit werden sie trainiert. Doch wenn die Trainingsdaten Vorurteile enthalten, kann die KI diese lernen und in ihren Vorhersagen oder Entscheidungen reproduzieren. Dies kann beispielsweise geschehen, wenn die Daten ungleichmäßig auf verschiedene demografische Gruppen verteilt sind oder wenn sie stereotypische Assoziationen enthalten. Selbst wenn z.B. Texte in den Trainingsdaten gewisse Stereotypen negieren, ist es möglich, dass die KI die Negierung nicht versteht und somit die Stereotypen verinnerlicht.
Modellentwicklung
Modellentwicklung bezieht sich auf die Methoden, die verwendet werden, um KI-Modelle zu erstellen. Ein Vorurteil kann entstehen, wenn Funktionen oder Variablen, die mit sozialen Kategorien wie Geschlecht oder Rasse korrelieren, in den Entwicklungsprozess einbezogen werden. Ebenso muss für das Trainieren eines Modells entschieden werden, was eine „erfolgreiche“ Vorhersage ist. Diese Angabe hat einen starken Einfluss und kann Vorurteile hervorrufen.
Um effektive Strategien zur Bekämpfung von Vorurteilen in KI zu entwickeln, ist es wichtig, diese Quellen zu kennen und zu verstehen. Es wäre sicherlich auch falsch, den verantwortlichen Firmen und Entwickler:innen grundsätzlich zu unterstellen, dass die Existenz von Vorurteilen in KI-Modellen böswillige Absicht ist. Viele sind schlichtweg nicht sensibilisiert oder können solch kritische Schwachstellen der Systeme nicht vorhersehen. Deshalb ist es umso wichtiger, die Aufmerksamkeit auf dieses Thema zu richten und es Teil eines jeden Entwicklungsprozesses zu machen. Denn KI-Systeme können mächtig sein; sie haben das Potenzial, signifikante und negative Auswirkungen auf Individuen und Gesellschaften zu haben.
Auswirkungen auf Gesellschaft und Technologie
Vorurteile in KI haben erhebliche Auswirkungen sowohl auf Gesellschaft als auch auf die technologische Landschaft selbst.
Ethische Aspekte
Vorurteilen in KI-Modellen gefährden die Gleichheit und Fairness von Individuen und Gruppen in der Gesellschaft. Gerade in kritischen Bereichen wie Gesundheit, Bildung, Justiz und Beschäftigung können verzerrte KI-Modelle Chancen und Wohlergehen bestimmter Gruppen negativ beeinflussen. KI wäre folglich diskriminierend, was unseren gesellschaftlichen Bestrebungen widerspricht und auch rein juristisch gesehen zu Problemen führen kann. Oft wird argumentiert, dass KI objektiv sei, sie habe ja keine Gefühle und könne unvoreingenommen handeln. Doch wenn diese Systeme Vorurteile enthalten, sind die Entscheidungen oder Vorhersagen verzerrt und können rassistisch oder sexistisch sein.
Vertrauen in die Technologie
Das Vorhandensein von Vorurteilen in KI kann darüber hinaus das Vertrauen in diese Technologien untergraben. Wenn die Nutzer:innen das Gefühl haben, dass KI-Systeme verzerrt oder inkonsistent sind, verringert sich vielleicht die Nutzung solcher Technologien. Wenn Unternehmen sich sorgen müssen, dass KI-Systeme diskriminierende Entscheidungen treffen, dann kommen sie vielleicht gar nicht erst zum Einsatz.
Die Bekämpfung von Vorurteilen in KI ist eine wichtige Aufgabe. So sollten bei der Entwicklung und beim Einsatz von KI-Systemen Maßnahmen ergriffen werden, um Fairness und Unvoreingenommenheit zu gewährleisten. Schauen wir uns nun einige Ansätze an, die dafür entwickelt wurden.
Maßnahmen gegen Vorurteile in KI
Um Vorurteile in KI zu verringern oder ganz zu eliminieren, wurden verschiedene Maßnahmen entwickelt. Zum einen werden Modelle auf Vorurteile geprüft. Zum anderen werden Vorurteile vermindert, wenn welche gefunden wurden. Die Methoden zur Verminderung beziehen sich dabei auf die eben besprochenen Quellen: Der Fokus liegt also auf den Daten und der Modellentwicklung.
Identifizierung von Vorurteilen
Eine Methode zur Identifizierung von Vorurteilen ist ein Bias Audit. Dafür werden u.a. spezifische Tests und Metriken eingesetzt, um zu schauen, ob und ein KI-System Vorurteile aufweist. Und wenn ja, in welchem Ausmaß. So gibt es Verfahren, die statistische Unterschiede in den Vorhersagen eines KI-Modells für verschiedene soziale Gruppen berechnen, um festzustellen, ob es unverhältnismäßige Vorurteile gibt. Falls ein signifikanter Unterschied festgestellt wird, ist das Modell wahrscheinlich verzerrt.
Verminderung von Vorurteilen
Im Hinblick auf die Verminderung von Vorurteilen gibt es mehrere Ansätze. Einige beziehen sich auf die Trainingsdaten: Das Ziel ist es hierbei, die Vielfalt und Repräsentativität der Trainingsdaten zu verbessern. Es muss klar sein, dass Verzerrungen wie der Selection Bias zu Scheinkorrelationen führen können und die KI somit diskriminierend machen. Ein Beispiel hier wäre, wenn man von einer sozialen Gruppe nur jene Personen im Datensatz hat, die kriminell sind.
Andere Ansätze konzentrieren sich auf den Modellentwicklungsprozess. Dort gibt es Methoden für den Trainingsprozess wie Fairness-Regularisierung. Durch diese wird das Modell dazu gebracht, fairere Vorhersagen zu machen. Auch ist eine Sensibilisierung und Diversität des Engineering Teams eine Art und Weise, von vornherein bestimmte Fehler zu vermeiden.
Transparenz von KI-Systemen
Eine höhere Transparenz von KI-Systemen ist hilfreich, um diese besser zu verstehen und potenzielle Unfairness besser zu erkennen. Dazu gehören Techniken zur Erklärbarkeit (engl. „explainable AI“, kurz XAI) bzw. Interpretierbarkeit von KI.
KI ohne Vorurteile?
Die Vorstellung einer KI vollkommen ohne Vorurteile bleibt eine Herausforderung. Wie bereits erwähnt, lernen KI-Systeme aus Daten, und wenn diese Daten Vorurteile und unfaires Verhalten reflektieren, wird die KI davon beeinflusst. So muss man sich darüber im Klaren sein, dass das Verhalten einer KI nicht zuletzt auch ein Spiegel unserer Gesellschaft ist. Das Reduzieren von Vorurteilen in KI-Systemen ist also eng damit verknüpft, Vorurteile in unserer Gesellschaft als Ganzes zu bekämpfen.
Das Reduzieren von Vorurteilen in KI-Systemen erfordert also einen mehrschichtigen Ansatz. Bildungsinitiativen können Bewusstsein für Vorurteile schaffen, während die Verwendung repräsentativer und fairer Daten zur Verringerung von Modellverzerrungen beitragen kann. Audits und interpretierbare KI können helfen, diese Verzerrungen zu erkennen und zu minimieren. Zudem sollten KI-Entwickler:innen ein gutes Verständnis für die Potenziale und Risiken der KI-Systeme haben und ggf. Techniken wie Fairness-Regularisierung anwenden.
Die wirklich vollständige Eliminierung von jeglichen Vorurteilen in KI ist wahrscheinlich nicht nur ein äußerst schwieriges, sondern vollkommen unrealistisches Ziel. Ich finde aber nicht, dass es uns davon abhalten sollte, daran kontinuierlich zu arbeiten und Vorurteile so weit wie möglich so minimieren.
Fazit
Vorurteile in KI-Algorithmen stellen eine ernstzunehmende Herausforderung dar, die ethische Implikationen hat und das Vertrauen in die Technologie beeinflussen kann. Doch es gibt Möglichkeiten, gegenanzusteuern: Sensibilisierung (Entwickler:innen, Menschen in Entscheidungspositionen, usw.), Verwendung „fairer“ Daten, unabhängige Audits und Techniken wie Fairness-Regularisierung in der Modellentwicklung. Die vollständige Eliminierung von jeglichen Vorurteilen ist wahrscheinlich ein unrealistisches Ziel. Doch die Technologie entwickelt sich heute schneller denn je und so sollten ethische und nachhaltige Aspekte nicht vernachlässigt werden.
Wenn du ein Wunschthema hast oder mir Feedback geben willst, schreibe gerne einen Kommentar oder schicke eine Mail an mail@thorejohannsen.de.