Besser leben mit Big Data

Realität vs. Abbildung: Die Voreingenommenheit von Künstlicher Intelligenz

Informationen, die in einen Computer eingespeist werden, sind immer ein Stück weit verfälscht. Laut Experten gilt das auch für Künstliche Intelligenz.

Künstliche Intelligenz (KI) mag in vielen Bereichen vielleicht schneller und leistungsfähiger sein als ein Mensch. Eine ganz und gar humane Eigenschaft konnte sie bislang jedoch nicht ablegen: ihre Voreingenommenheit. Auch Code basiert auf subjektiver Wahrnehmung und kann dadurch unbeabsichtigte Folgen haben. Diese können beispielsweise von einer falschen Stereotypisierung bis hin zur rassistischen Einordnung von Personen reichen. 

Ein Computerprogramm ist immer nur so gut wie die Informationen, die ihm zur Verfügung stehen, sagt Andy Hickl, leitender Product Officer der Saffron Cognitive Solutions Group von Intel. „Die Voreingenommenheit von Künstlicher Intelligenz bei Entscheidungen ist praktisch vorprogrammiert“, warnt er. Sie entsteht einerseits durch die Annahmen, die Menschen bei der Programmierung von Algorithmen treffen, welche das menschliche Urteilsvermögen replizieren sollen.

Stereotype als Basis für KI

Aber auch Computer bilden Stereotypen, wenn sie aus vorhandenen Daten lernen. „Hat die Maschine nur Informationen darüber, wie ein Teil der Menschen handelt und keinerlei Kenntnisse darüber, wie der andere Teil spricht, handelt oder sich verhält, dann programmieren wir die Voreingenommenheit ganz implizit in die Ergebnisse ein, die Künstliche Intelligenz hervorbringt“, erläutert Hickl. Ein Beispiel hierfür ist der wachsende Trend zur Verwendung von Word Embedding bei der Auswertung von Lebensläufen. Bei dieser Technik wird einem Computer auf Basis von Wortassoziationen beigebracht, aus einer großen Anzahl an Bewerbern potenzielle Kandidaten zu ermitteln.

Die Voreingenommenheit von Menschen bildet sich auch in den von ihnen programmierten Algorithmen ab.
Die Voreingenommenheit von Menschen bildet sich auch in den von ihnen programmierten Algorithmen ab.

Forscher der Cornell University weisen im Rahmen einer Studie darauf hin, dass manche standardisierten Assoziationen durchaus sinnvoll sein können, zum Beispiel zwischen den Wörtern „weiblich“ und „Königin“. Andere Wortverbindungen hingegen basierten auf Vorurteilen wie etwa jene zwischen „weiblich“ und „Sprechstundenhilfe“. Bei der Bewerberauswahl zeige dies den Effekt, dass die Lebensläufe von Frauen häufiger für stereotype Rollen in Betracht gezogen werden als jene der männlichen Mitbewerber.

fatale folgen von voreingenommenheit

Solche falschen Zusammenhänge können bei Künstlicher Intelligenz sogar noch weitreichendere Folgen haben als diese. In einer Studie aus dem Jahr 2016 von ProPublica wurden die Risikoprofile von über 7.000 Personen analysiert, die 2013 und 2014 in einer Region Floridas verhaftet worden sind. Die Auswertung erfolgte durch ein AI-Programm, das in vielen Gerichtssystemen in den USA eingesetzt wird.

 

Das Programm sollte vorhersagen, welche der betroffenen Personen in den nächsten zwei Jahren ein schweres Verbrechen begehen werden. Die Studie ergab, dass das Programm bei 80 Prozent seiner Vorhersagen falsch gelegen hatte. In die Voraussagen des Programms hatte sich eine erhebliche Voreingenommenheit eingeschlichen. Woran lag das? Der Algorithmus hatte vorhergesagt, dass die Wahrscheinlichkeit, wiederholt strafrechtlich auffällig zu werden, bei Angeklagten afroamerikanischer Abstammung doppelt so hoch sei wie bei Angeklagten aus dem Kaukasus. Diese Annahme erwies sich jedoch als vollkommen falsch.

Daten als fehlerquelle

Um dieser Kinderkrankheit der künstlichen Intelligenz beizukommen, haben Hickl und sein Team ihre AI-Plattform Saffron soweit entwickelt, dass sie automatische Schlussfolgerungen untersuchen und erklären kann. Wo die Möglichkeit zur Voreingenommenheit besteht, empfiehlt das System die Miteinbeziehung eines Menschen, um die Ergebnisse auszuwerten. Um solche Fehler zu vermeiden, müssen die Ursachen für deren Auftreten zunächst ermittelt werden. Häufig sind es ungenaue Auswahlstrategien, die dazu führen, dass Maschinen von verzerrten Daten lernen.

Auch die unterschiedliche Verbreitung von Smartphones kann zu falschen Daten führen.
Auch die unterschiedliche Verbreitung von Smartphones kann zu falschen Daten führen.

Die Stadt Boston beispielsweise setzte Künstliche Intelligenz im Rahmen ihres Street Bump-Projektes ein. Dabei konnten Einwohner über eine App Daten über Schlaglöcher in den Straßen melden. Auf Basis dieser Daten wollte sich die Stadt ein aktuelles Bild über den Straßenzustand machen.

Überraschenderweise zeigten die Voraussagen deutlich mehr Schlaglöcher in Wohngebieten des oberen Mittelstands. Ein genauer Blick auf die Daten offenbarte jedoch eine weniger dramatische Situation: In diesen Wohngebieten gab es nicht mehr Schlaglöcher, sondern lediglich mehr Bewohner, die Smartphones besitzen. Um diese Verzerrung der Realität zu vermeinden, werden notwendigen Daten inzwischen von Müllwagen gesammelt, die alle Stadtgebiete gleichermaßen abdecken.

Ergebnisse prüfen und hinterfragen

Stehen Computern also nur bruchstückhafte oder ungleich verteilte Informationen zur Verfügung, schlägt sich diese Verteilung automatisch in den Ergebnissen nieder, erklärt Hickl. Doch wie ist es möglich, eine Künstliche Intelligenz ganz ohne Voreingenommenheit zu entwickeln? Für Hickl liegt der Schlüssel darin, Programme zu schaffen, die genauso denken wie Menschen – die Annahmen also hinterfragen und mehr Belege fordern.

Indem sie große Mengen an Echtzeitdaten analysiert, kann künstliche Intelligenz wirklich etwas an unserer Art zu leben, zu arbeiten und zu spielen verändern – sofern sie frei von Voreingenommenheit ist. „Künstliche Intelligenz wird uns eine Orientierung sein und uns ermöglichen, verschiedene Potenziale in unserem Leben voll auszuschöpfen“, so Hickl.

Artikel empfehlen

Read Full Story