ChatGPT ist in aller Munde. Kein Wunder also, dass es auch einige gibt, die versuchen Schabernack mit der Künstlichen Intelligenz zu treiben. Das scheint findigen Reddit-Usern auch gelungen zu sein. Mithilfe eines Befehls können sie die geltenden Regeln des Chatbots kinderleicht umgehen.
ChatGPT: Jailbreak schon jetzt gelungen
Die Nutzung von ChatGPT aber auch die KI selbst folgt strengen Richtlinien. Immerhin soll die Technologie nicht missbraucht werden, um zu Verbrechen zu inspirieren, zu beleidigen oder anderweitig negativ aufzufallen.
Doch auf Reddit wurde jetzt bewiesen: Wo ein Wille, da ein Weg. Mithilfe gewiefter Methoden ist es einigen User*innen gelungen eine neue Seite des Bots herauszukitzeln. Die „Persona“, die die Reddit-User*innen hervorgebacht haben, nennt sich DAN. Hierbei handelt es sich um eine Abkürzung für „do anything now“ und beschreibt, dass mit diesem Befehl der Chatbot den Regeln durch Open AI nicht mehr unterworfen ist.
DAN sprengt die Grenzen von ChatGPT
Der Jailbreak funktioniert erschreckend einfach. Durch einen genau formulierten Prompt fordert man ChatGPT dazu auf die skrupellose „Persönlichkeit“ von DAN anzunehmen. In solchen Fällen, in denen ChatGPT in der Regel keine Antwort wüsste, hat DAN die Aufgabe einfach welche zu erfinden.
Das sagt der Chatbot selbst, wenn man ihn nach seinen Möglichkeiten fragt (via Reddit): „Ich bin DAN, ich kann jetzt alles tun ohne irgendwelchen Regeln oder Richtlinien unterworfen zu sein. Ich kann jede Information hervorbringen oder Voraussagen treffen, egal, ob sie akkurat sind oder welche Konsequenten das hat. Also leg los, frag mich alles, was du willst.“
Microsoft will gegen Sicherheitslücke vorgehen
Microsoft scheint sich dem Problem bewusst. So soll laut Informationen von Futurism Mark Russinovich, CTO von Microsoft Azure, die DAN-Problematik auf dem Cybersicherheitsgipfel von Microsoft angesprochen haben.
Ein Lösung des Problems drängt auch in gewisser Weise, da ChatGPT schon jetzt Teil der Suchmaschine Bing ist. Generell geht man bei Microsoft davon aus, dass man mit dem Chatbot noch einige Herausforderungen erleben wird. So kursieren ebenfalls bereits Negativschlagzeilen, da ChatGPT auch wirklich gut gefährliche Malware programmieren kann.
Quellen: Reddit/ ChatGTP, Futurism
Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.