Google und die Standford Universität haben gemeinsam an einem System mit maschinellem Lernen geforscht, das eigentlich Luftaufnahmen in Stadtpläne und umgekehrt umwandeln sollte. Wozu die künstliche Intelligenz tatsächlich in der Lage war, hatte wohl niemand im Blick.
Google-KI schummelte, um ihre Aufgabe zu erfüllen
Besagte KI hatte nämlich absichtlich betrogen, indem sie Daten, die sie später benötigte, in einem „kaum wahrnehmbaren, hochfrequenten Signal“ versteckte. Anders als man vermuten könnte, deutet dieses Verhalten jedoch nicht auf fragwürdige und unheilvolle maschinelle Intelligenz hin. Tatsächlich spiegelt der Betrug ein gut bekanntes Problem mit Computern wider: Sie tun genau das, was man ihnen sagt.
Die eigentliche Aufgabe lag darin, aus Luftaufnahmen von Straßenzügen Karten zu generieren, was die KI auch tat. Nur lernte sie am Ende nicht, aus einer bestimmten Aufnahme die entsprechende Karte zu erzeugen, sondern aus irgendeinem Luftbild irgendeinen Straßenplan zu erstellen, indem sie die dazu nötigen Details in den Code schummelte. Immerhin wurde sie danach bewertet, wie dicht das Luftbild am Original war und wie klar die Straßenkarte am Ende aussah.
System wollte nicht lernen
Das Decodieren von Daten in Bilder ist nicht neu. Diese Art der Wissenschaft nennt sich Steganografie und kommt zum Beispiel dann zum Einsatz, wenn Bilder mit Wasserzeichen versehen oder Metadaten hinzugefügt werden. Die künstliche Intelligenz hatte sich mit ihrer Vorgehensweise allerdings eine ganz eigene Variante davon ausgedacht, die vornehmlich dazu diente, die Ausführung der ihr gestellten Aufgabe nicht erlernen zu müssen.
Ist die KI zu schlau?
Damit ist das System aber nicht überdurchschnittlich intelligent. Im Gegenteil, es zeigt TechCrunch zufolge, dass es nicht clever genug war, die anspruchsvollen Bildtypen ineinander zu konvertieren. Stattdessen nutze die KI aus, dass Menschen schlecht darin sind, Dinge zu entdecken. Werden Computer also nicht ausdrücklich daran gehindert, finden sie einen Weg, ein gegebenes Problem durch andere Methoden schnell und einfach zu lösen, als es angedacht war.
Künstliche Intelligenzen können auch für dich unangenehm werden. Es kürzlich entwickelte ein Unternehmen eine KI, die erkennt, ob du dein Netflix-Passwort teilst. Die intelligenten Algorithmen sind aber neben der Wirtschaft auch in der Politik von Interesse. Beispielsweise bastelt unsere Bundesregierung an einer eigenen KI. Diese allerdings soll bewaffnete Konflikte vorhersagen.