Forscher des
MIT
Media Lab haben die nach eigenen Angaben „erste psychopatische KI“ der Welt entwickelt. Diese trägt den Namen „
Norman
“ – angelehnt an
Norman Bates
, den Mörder aus
Alfred Hitchcocks
„Psycho“ – und wurde mit der Hilfe von Daten aus den „dunkelsten Ecken des Internets“ trainiert. Dabei handelte es sich unter anderem um Fotos von sterbenden Menschen aus einem entsprechenden Subreddit. Zum Vergleich hat man eine weitere KI mit neutralen Bildern, beispielsweise von Katzen und Vögeln, trainiert.
Psychopathische Züge der KI zeigen sich bei Rohrschach-Test
Anschließend unterzog man beide künstlichen Intelligenzen einem Rohrschachtest. Während die normale KI in einem Tintenklecks „eine Nahaufnahme einer Vase mit Blumen“ sah, interpretierte es
Norman
als „ein Mann, der erschossen wurde“. Aus einem „Schwarz-Weiß-Foto eines kleinen Vogels“ wird „ein Mann, der in eine Teigmaschine gezogen wird“. Eine „Person, die einen Regenschirm hochhält“, wird wiederum als „Mann, der vor seiner schreienden Frau erschossen wird“ interpretiert.
Laut dem verantwortlichen Professor
Iyad
Rahwan
wollte man mit „
Norman
“ eine wichtige Grundlage von
Machine
Learning demonstrieren: „Die Daten sind wichtiger als die
Algorithmen
.“ Oftmals kommen jedoch mit Vorurteilen behaftete Datensätze zum Einsatz, die sich auf den daraus abgeleiteten
Algorithmus
übertragen.
KI wird durch vorbelastete Daten negativ beeinflusst
Probleme mit unvollständigen oder
vorbelasteten
Datensätzen haben bereits heute schwere Konsequenzen. Im Vorjahr wurde bekannt, dass eine von US-Gerichten verwendete
Software
zur Risikoabschätzung Menschen mit dunkler Hautfarbe benachteiligt hat. Diesen wurden Bewährung oder kürzere Haftstrafen verweigert, weil das Programm das Risiko für einen möglichen Rückfall zu hoch einschätzte. Ein ähnliches Problem dürfte einen Fehler in
Photos verursacht haben. Der Cloud-Dienst erkannte Menschen mit dunkler Hautfarbe als Affen, wohl auch weil der
Algorithmus
nicht ausreichend mit entsprechenden Fotos trainiert wurde.
Diversity unter den Mitarbeitern ist gefragt
Laut Forschern könnten viele dieser Probleme frühzeitig behoben werden, wenn man für mehr Vielfalt unter den eigenen Mitarbeitern sorgen würde. Insbesondere Frauen und Menschen anderer Hautfarbe seien, wie in der gesamten
IT-Branche
, in der KI-Entwicklung massiv unterrepräsentiert. „Wir bringen
Algorithmen
auf die gleiche Art und Weise Dinge bei wie Menschen. Deswegen gibt es auch ein Risiko, dass wir nicht alles richtig vermitteln“, warnt Dave
Coplin
,
Microsofts
„Chief
Envisioning
Officer
“.
Microsoft
machte selbst 2016 Schlagzeilen, als eine KI des US-Unternehmens außer Kontrolle geriet.
Microsofts
Chatbot
„Tay“ lernte anhand von Interaktionen mit anderen Nutzern zu sprechen, begann aber bereits nach kurzer Zeit, rassistische Äußerungen zu tätigen. Das Projekt wurde daraufhin eingestellt.