Vor allem auf Open-Source-Plattformen wie GitHub fällt es häufig nicht leicht, den Überblick zu behalten. Verschiedene Programmierer hinterlassen hier ihre Vorschläge und Ideen und schreiben was das Zeug hält Codes. Je mehr Entwickler an einem Projekt arbeiten, desto schwieriger wird es im Nachhinein festzustellen, wem welcher Code-Fetzen zuzuordnen ist. Dank eines neuen KI-Systems könnte dieses Problem schon bald der Vergangenheit angehören.
KI soll Code de-anonymisieren
Bereits 2017 veröffentlichten Rachel Greenstadt, außerordentliche Professorin der Computerwissenschaft an der Drexel University, und Aylin Caliskan, Professorin an der George Washington Universität, gemeinsam mit zwei weiteren Wissenschaftlern ein Paper. Darin wurde deutlich, dass auch kleinste Code-Ausschnitte ausreichen können, um Programmierer voneinander zu unterscheiden. Grund dafür ist die jeweilige Eigenart, mit der jeder Entwickler seine Codes schreibt.
Im Rahmen eines weiteren Papers zeigte Caliskan – ehemals Studentin Greenstadts – mit ihrem Team auf, dass es möglich sei, Coder zu de-anonymisieren. Für diesen Vorgang wird der kompilierte Binärcode eines Programmierers verwendet. Dieser speist sich aus den Code-Zeilen, die dieser zuvor geschrieben hat. Anschließend übersetzten die Forscher den Binärcode zurück in die C++ Programmiersprache, in der er geschrieben wurde – bewahrten dabei allerdings die Elemente des einzigartigen Stils des Programmierers.
———-
Das könnte ebenfalls interessant sein:
- Sexroboter auf Rezept? Die Große Koalition ist dagegen
- Wie eine neue KI deine Persönlichkeit liest
- Ein Bug kann eure WhatsApp-Chats manipulieren
———-
Vorteile und Risiken
Wie es im Zuge von KI-Systemen allzu häufig der Fall ist, finden sich auch in der De-Anonymisierung von Code-Schnipseln sowohl Vorteile als auch Risiken wieder: Zum einen lassen sich Hacker-Attacken auf diese Weise wesentlich einfacher zurückverfolgen. Damit könnten sich Unternehmen – vor allem aber Staaten – besser vor solchen Angriffen schützen oder sich gegen sie Verteidigen. Entwickler von Malware könnten identifiziert und belangt werden.
Andererseits würden derartige Methoden die Anonymität auf Plattformen wie GitHub gefährden. Denn selbst, wenn man künftig die Accounts wechseln würde, während man an einem Code arbeitet, könnte eine KI wie diese einen aufspüren. Wie so oft befinden wir uns damit in der Schwebe zwischen Sicherheit und Privatsphäre.