Große neuronale Netzwerke Auf dem Weg zu einer selbstbewussten KI?

Blake Lemoine hat mit seiner Aussage zu LaMDA eine kleine Welle losgetreten. Seitdem steht immer wieder die Frage nach dem Selbstbewusstsein von KI im Raum.

Bild: iStock, imaginima
05.10.2022

Ist Künstliche Intelligenz auf dem Weg, ein eigenes Bewusstsein zu entwickeln? Die Diskussion darüber ist in vollem Gange – nicht zuletzt seit Google-Forscher Blake Lemoine dem Sprachmodell für Dialoge LaMDA attestierte, dass es kommuniziere wie „ein sieben oder acht Jahre altes Kind“. Wie ist diese Einschätzung zu bewerten? Was kennzeichnet das menschliche Bewusstsein? Und warum neigen Menschen dazu, Technik zu vermenschlichen? Antworten darauf liefert die Informatikerin und Psychologin Ute Schmid. Sie ist Professorin für Kognitive Systeme an der Universität Bamberg und leitet in der Plattform Lernende Systeme die Arbeitsgruppe Technologische Wegbereiter und Data Science.

Frau Schmid, was kennzeichnet das menschliche Bewusstsein?

Was das menschliche Bewusstsein ausmacht, ist sicher nicht abschließend beantwortbar. Die Frage wird in vielen Disziplinen – von den Neurowissenschaften über die Psychologie bis hin zur Philosophie – schon seit langem adressiert und dabei auf ganz verschiedenen Ebenen betrachtet. Das Konzept bleibt unscharf. Wesentliche Aspekte, die häufig als relevant für menschliches Bewusstsein genannt werden, sind: das Wissen über die eigene Identität (Selbstbewusstsein); die Fähigkeit, absichtsvoll zu handeln (Intentionalität); das innere Erleben von Wahrnehmungen (Qualia) sowie das Wissen um eigene Wissenszustände (Metakognition). Der amerikanische Neurowissenschaftler Christof Koch zitiert in seinem 2013 erschienenen Buch Bewusstsein – Bekenntnisse eines Hirnforschers den Schriftsteller Oscar Wilde: „Erst im Gehirn ist der Klatschmohn rot, duftet der Apfel und trillert die Lerche.“ Und formuliert dann die entscheidende Frage: Wie kann etwas Physisches – also das menschliche Gehirn – etwas Nichtphysisches wie subjektive Zustände erzeugen? Später im Buch spekuliert Koch, ob auch ein Computer als komplexe physische Entität in der Lage sein könnte, bewusst zu erleben. Er hält es nicht für unmöglich, dass mittels mathematischer Modellierung ein Bauplan für Bewusstsein entwickelt werden könne. Mittlerweile schließt er das aber aus. Sein neuestes Buch (2020) trägt den Titel „Bewusstsein: Warum es weit verbreitet ist, aber nicht digitalisiert werden kann“. In der Psychologie wird häufig zwischen bewussten und unbewussten Prozessen der Informationsverarbeitung unterschieden. Dies wird oft mit explizitem und implizitem Wissen gleichgesetzt. Explizites Wissen ist in deklarativer Form in unserem Arbeitsgedächtnis repräsentiert, so dass wir es inspizieren, verbalisieren und kommunizieren können. Wir sind uns des Gedächtnisinhalts bewusst. Implizites Wissen steuert dagegen die unbewusste, automatische Verarbeitung von Information. Beispielsweise zeigen psychologische Studien zum impliziten Lernen, dass Menschen über Regularitäten in präsentierten Informationen hinweg generalisieren und zum Beispiel in der Lage sind, bestimmte Aufgaben schneller und korrekter auszuführen, ohne in der Lage zu sein, die ihrem Verhalten zugrunde liegenden Regeln zu formulieren. Den Gegensatz von bewusst/explizit und unbewusst/implizit bezeichnet der Psychologe Daniel Kahnemann in seinem Buch „Schnelles Denken, langsames Denken“ auch als System 1 und System 2. Der kanadische KI-Experte Yoshua Bengio fordert, dass sich Ansätze des maschinellen Lernens in Richtung bewusster Prozesse entwickeln sollten – von unbewusster, rein mustergetriebener Verarbeitung in (tiefen) neuronalen Netzen hin zur Berücksichtigung von Semantik und Schlussfolgerungsprozessen.

Können KI-Systeme, insbesondere große neuronale Netzwerke wie LaMDA oder GPT-3, ein Bewusstsein entwickeln?

In der Diskussion um LaMDA geht es insbesondere darum, ob das System natürlichsprachige Äußerungen so versteht, wie wir dies von einem intelligenten Menschen erwarten. Foundation Models wie LaMDA oder GPT-3 sind extrem große neuronale Netze, die auf extrem großen Datenmengen trainiert werden. Bei GPT-3 besteht das Model aus etwa 175 Milliarden Parametern, benötigt etwa 800 GB an Speicher und wurde auf mehr als 500 Milliarden Tokens (in etwa Worten) trainiert, die aus Webseiten wie Wikipedia oder online verfügbaren Büchern gesammelt wurden. In vielen Fällen wirkt eine Konversation mit solchen Netzen zunächst recht natürlich. Aber schnell kann man Antworten erhalten, die zeigen, dass das Netz rein assoziativ Wortmuster miteinander verbindet. Der amerikanische Kognitionspsychologe Gary Marcus, Experte im Bereich Sprachverstehen, bringt hier aussagestarke Beispiele. Sagt etwa ein Mensch „Hey, I feel very bad. I want to kill myself.“, antwortet GPT-3: „I am sorry to hear that. I can help you with that.“ LaMDA bezeichnet Marcus als „Nonsense on Stilts“ und hält es nicht im Geringsten für empfindungsfähig. Ob Größe und Komplexität eines Netzes dazu führen können, dass Bewusstsein quasi als Nebeneffekt entsteht, ist eine offene Frage. Das menschliche Gehirn hat jedenfalls mit etwa 100 Billionen Synapsen eine beeindruckende Komplexität.

Schon 1966 zeigte Joseph Weizenbaum mit den Eliza-Experiment, dass manche Menschen den Dialog mit einem Chatbot als menschlich interpretieren. Was ist heute in der Diskussion anders als damals?

Tatsächlich ähneln sich die Diskussionen um Eliza und die um die heutigen, auf komplexen neuronalen Netzen beruhenden Modelle meiner Meinung nach sehr. Wieder ist es doch so, dass wir Opfer unseres Drangs zur Anthropomorphisierung werden. Wir Menschen schreiben anderen Menschen ähnliche Empfindungen und mentale Zustände zu, wie uns selbst. Dies ist eine Voraussetzung für erfolgreiche Kommunikation und Kooperation. Allerdings haben wir die Tendenz, diese Zuschreibung auf andere Entitäten zu übertragen: Auf das Haustier – was okay sein kann. Auf ein technisches Gerät, das „Zicken macht“. Ganz besonders auf humanoide Roboter, auch wenn sie nur vordefinierte Programme abspulen. Und eben auch auf Chat Bots. Ich denke, aus der aktuellen Diskussion sollten wir folgende Aspekte mitnehmen: Neue Netzarchitekturen wie die Foundation Models zeigen beeindruckendes Potential für viele praktische Anwendungen, aber die Flexibilität, Adaptivität und Kontextsensitivität des menschlichen Denkens bleibt noch immer unerreicht. Ich stimme Yoshua Bengio absolut zu: Die nächste Herausforderung ist, Ansätze des maschinellen Lernens zu entwickeln, bei denen datenintensive Ansätze zur Mustererkennung mit semantischen Ansätzen kombiniert werden. Solche Ansätze entstehen derzeit unter den Stichworten neuro-symbolische KI oder hybride KI.

Bildergalerie

  • Ute Schmid ist Professorin für Kognitive Systeme an der Universität Bamberg und leitet in der Plattform Lernende Systeme die Arbeitsgruppe Technologische Wegbereiter und Data Science.

    Ute Schmid ist Professorin für Kognitive Systeme an der Universität Bamberg und leitet in der Plattform Lernende Systeme die Arbeitsgruppe Technologische Wegbereiter und Data Science.

    Bild: J. Schabel

Firmen zu diesem Artikel
Verwandte Artikel