Der Hacker Johann Rehberger suchte bereits in mehreren Unternehmen nach Schwachstellen – und wurde dafür bezahlt. Erst testete er auf diese Weise Produkte von Microsoft. Nun arbeitet er in selber Funktion beim Spielegiganten Electronic Arts. Durch seine Faszination für Künstliche Intelligenz weiß er auch, welche theoretischen Gefahren ChatGPT birgt.
ChatGPT: Erschreckend einfach unterworfen
Der gelernte Informatiker erklärt im Gespräch mi Chip.de, auf welche Tücken wir uns in der regen Arbeit mit ChatGPT gefasst machen müssen. Das Basismodell und andere KI-Systeme dominieren inzwischen etliche Anwendungen und sind zum Beispiel Teil des Microsoft Edge-Browsers. Selbst Fernseher von Samsung sollen nun von KI profitieren.
Doch laut dem Experten sind die Systeme leicht auszutricksen und das sogar ohne in den Code einzudringen. Rehberger beschäftigt vor allem mit der sogenannten „Prompt Injection“. „Ein Angreifer kann ein Sprachmodell quasi ‚überreden‘, etwas anderes zu tun, als es eigentlich tun soll.“, erklärt er den Fachbegriff.
Kann zur Erpressung genutzt werden
Schwachstellen hat er bisher bei fast allen gängigen Systemen von OpenAI, Google, Amazon und Co. gefunden. Gelingt es einem böswilligen Angreifer oder einer Angreiferin die KI durch „Prompt Injection“ für sich gefügig zu machen, kann es für Nutzer*innen richtig gefährlich werden. Das gilt insbesondere dann, wenn das System mit weiteren – wie etwa einem E-Mail-Postfach – verknüpft ist.
„[Der Angreifer] könnte dem Nutzer Falschinformationen geben oder versuchen, ihn zu erpressen“, sobald er die Kontrolle über das KI-System hat, gibt Rehberger zu bedenken. Doch es gibt noch weit gewieftere Methoden, die mit einer anfänglichen Prompt Injection möglich sind. So könnte der Angreifer Informationen von User*innen ausspähen, wie etwa wichtige Passwörter, Zahlungsinformationen und Co.
Sage diese drei Dinge niemals der KI
Diese stammen in diesem Szenario beispielsweise direkt aus dem Verlauf mit ChatGPT oder aus Listen und Dokumenten, auf die ChatGPT durch Zugriff aufs kostenlose Mail-Postfach oder Programme wie Excel Zugriff hat. Zu deinem Schutz solltest du daher folgende Informationen niemals mit ChatGPT teilen:
- Passwörter
- Bankinginformationen und -Logins
- Gesundheitsinformationen
Der letzte Punkt erscheint womöglich auf den ersten Blick bei den Haaren herbeigezogen. Doch kann ein Angreifer diese Angaben über dich nutzen, um dich beispielsweise zu erpressen oder mehr über deine Identität zu erfahren.
Übrigens: Nicht nur bei der privaten Nutzung solltest du darauf achten, welche Informationen du Chatbots wie ChatGPT gibst. Auch auf der Arbeit solltest du Vorsicht mit ChatGPT walten lassen.
Quelle: Chip.de
Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.