Veröffentlicht inDigital Life

„Stecker ziehen“: Eine KI-Fähigkeit besorgt selbst Experten

Dass Künstliche Intelligenz nicht nur Vorteile hat, sagen Fachleute seit Jahren. Eine Fähigkeit soll aber besonders bedrohlich sein.

Terminator vor einem roten Hintergrund
© Cevko - stock.adobe.com

KI: Was ist eine künstliche Intelligenz?

Vom Roboterarm bis zur hyperintelligenten Maschine – KI ist bereits jetzt ein fester Bestandteil unseres Alltags …  aber wie funktioniert eine KI?

Der ehemalige Google-CEO Eric Schmidt hat in einem Interview mit ABC News davor gewarnt, dass KI-Systeme möglicherweise einen Not-Aus-Schalter benötigen könnten, falls sie zu mächtig werden. Da die Systeme zunehmend autonom agieren, könnten sie ernsthafte Bedrohungen für die Menschheit darstellen.

KI: Selbstverbesserung kann zum Problem werden

„Irgendwann sagst du dem Computer: ‚Lerne alles und mache alles‘“, erklärte Schmidt. „Und das ist ein gefährlicher Punkt. Wenn das System sich selbst verbessern kann, müssen wir ernsthaft darüber nachdenken, den Stecker zu ziehen.“ Schmidt prognostizierte laut Fortune, dass KI sich von derzeit aufgabenspezifischen Programmen wie Microsoft Copilot hin zu komplexeren Systemen entwickeln wird, die eigenständige Entscheidungen treffen können.

Sollte dieser Punkt erreicht werden, müsse die Menschheit eingreifen und sicherstellen, dass KI keine Gegenmaßnahmen ergreifen könne, um Abschaltungen zu verhindern. „Theoretisch sollten wir jemanden haben, der metaphorisch gesehen die Hand am Stecker hat“, fügte Schmidt hinzu.

Geteilt werden seine Befürchtungen von anderen führenden KI-Expert*innen. Geoffrey Hinton, auch bekannt als der „Godfather of AI“, äußerte 2023 beispielsweise, dass er „keinen Weg sehe, der Sicherheit garantiert“, da KI eigenständig denken könne. OpenAI-CEO Sam Altman wiederum warnte vor dem schlimmsten Fall von künstlicher Intelligenz, bei dem „für uns alle die Lichter ausgehen“.

Lesetipp: Forscher warnt vor Ende der Menschheit durch KI

Regulierung von KI nötig

Um keine gravierenden Risiken einzugehen, sieht Schmidt Regierungen in der Pflicht, KI zu regulieren. An dieser Stelle hapert es allein in den USA vielerorts allerdings noch. Denn obwohl beispielsweise im US-Bundesstaat Kalifornien erste KI-Gesetze vorgeschlagen wurden – etwa gegen Deepfakes oder zum Schutz der Filmindustrie –, wurde ein umfassender Vorschlag namens SB 1047 zunächst blockiert. Auch auf Bundesebene gibt es bisher keine umfassenden KI-Regulierungen in den USA.

In der EU sind wir dagegen schon etwas weiter. So hat die Europäische Union mit dem AI Act bereits ein umfassendes Regelwerk zur Regulierung von KI geschaffen. Dieses Gesetz gilt weltweit als erstes seiner Art und trat am 1. August 2024 in Kraft. Es verfolgt einen risikobasierten Ansatz, der KI-Systeme in verschiedene Kategorien einteilt:

  • Unannehmbares Risiko: KI-Systeme, die eine klare Bedrohung für die Grundrechte darstellen, sind verboten. Dazu zählen beispielsweise Social Scoring oder manipulative Systeme.
  • Hohes Risiko: Für KI-Systeme in Bereichen wie kritischer Infrastruktur, Bildung oder Gesundheitswesen gelten strenge Anforderungen, um ihre Sicherheit und Zuverlässigkeit zu gewährleisten.
  • Geringes oder minimales Risiko: Die meisten KI-Systeme, wie etwa Spamfilter oder KI-gestützte Videospiele, unterliegen keinen besonderen Verpflichtungen, wobei Unternehmen freiwillig zusätzliche Verhaltenskodizes aufstellen können.

Einige Bestimmungen des AI Act werden schrittweise bis August 2027 wirksam. Die Mitgliedstaaten haben nun die Aufgabe, die Vorgaben in nationales Recht umzusetzen, um einen einheitlichen Rahmen für den Einsatz von KI innerhalb der EU zu schaffen.

Quellen: Fortune, Europäische Kommission

Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.

Dieser Artikel wurde mit maschineller Unterstützung (KI) erstellt und vor der Veröffentlichung von der Redaktion sorgfältig geprüft.

Du willst mehr von uns lesen? Folge uns auf Google News.