5 Bewertungen

Theoretische Informatik Computerforscher warnen vor superintelligenten Maschinen

Weltfrieden oder Weltuntergang? Die KI entscheidet.

Bild: iStock, Devrimb
21.01.2021

Wissenschaftler haben in einer internationalen Studie untersucht, ob eine superintelligente KI der Menschheit gefährlich werden könnte. Anhand theoretischer Berechnungen stellten sie fest: Wir könnten eine Maschine ab einem gewissen Intelligenzgrad nicht mehr kontrollieren. Grund zur Sorge oder nur Science-Fiction?

Während in der Künstlichen Intelligenz ständig neue Fortschritte gemacht werden, warnen einige Wissenschaftler und Philosophen vor den Gefahren einer unkontrollierbaren, superintelligenten KI. In einer neuen Studie legen Forscher ihren Befürchtungen nun theoretische Berechnungen zugrunde. Denen zufolge wäre die Antwort auf die Frage, ob wir eine superintelligente KI so kontrollieren könnten, dass sie der Menschheit nicht schadet: Nein, das wäre völlig unmöglich.

Würde also jemand eine KI programmieren, die der menschlichen Intelligenz überlegen ist und alles selbstständig lernt, und gäbe ihr einen Internetanschluss mit Zugriff auf alle Daten der Menschheit, könnte die Supermaschine alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren. Sie könnte Krebs heilen, den Weltfrieden herbeiführen oder die Klimakatastrophe verhindern – oder eben die Menschheit vernichten und die Erde übernehmen. Der Punkt ist: Wir hätten keine Kontrolle darüber.

„Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbstständig erledigen, ohne dass Programmierer komplett verstehen, wie sie das gelernt haben“, sagt Manuel Cebrian vom Forschungsbereich Mensch und Maschine am Max-Planck-Institut für Bildungsforschung und Co-Autor der Studie. „Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte.“

Aktuelle Ideen für eine kontrollierbare Super-KI

Wissenschaftler weltweit haben zwei Ideen entwickelt, wie eine superintelligente KI kontrolliert werden könnte. Zum einen ließen sich die Ressourcen der superintelligenten Maschine gezielt einschränken, indem sie beispielsweise vom Internet und allen anderen technischen Geräten abgeschottet wird. So hätte sie keinen Kontakt zur Außenwelt, würde aber auch erheblich an Leistung einbüßen. Die großen Menschheitsprobleme könnte sie dann nicht mehr lösen.

Die andere Option wäre, die KI von vornherein dazu zu motivieren, nur Ziele zu verfolgen, die im Interesse der Menschheit liegen, zum Beispiel indem ihr ethische Regeln einprogrammiert werden. Doch zeigen die Forscher, dass diese und andere historische oder aktuelle Ideen, die superintelligente KI zu kontrollieren, ihre Grenzen haben.

Algorithmus als moralischer Kompass

In ihrer Studie konzipierten die Wissenschaftler einen theoretischen Algorithmus, der sicherstellen soll, dass eine superintelligenten KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Eine genaue Analyse dieses Algorithmus zeigt aber, dass sich ein solcher Algorithmus nach aktuellem Stand der Computerwissenschaften gar nicht programmieren lässt.

„Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, sich womöglich aufhängen würde“, erklärt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine. „Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar.“

Auf Basis dieser Berechnungen ist es somit nicht möglich, einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht. Dazu kommt, dass wir möglicherweise nicht einmal erkennen könnten, ob eine Maschine superintelligent ist. Denn ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lässt sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen.

Mehr zu Künstlicher Intelligenz

Bildergalerie

  • Eine KI mit ehrbaren Zielen zu programmieren, reicht möglicherweise nicht aus, um unbeabsichtigte Folgen nach sich zu ziehen.

    Eine KI mit ehrbaren Zielen zu programmieren, reicht möglicherweise nicht aus, um unbeabsichtigte Folgen nach sich zu ziehen.

    Bild: Iyad Rahwan, Max-Planck-Gesellschaft

Verwandte Artikel