2 Bewertungen

Unterschied zwischen künstlicher und menschlicher Intelligenz Ist ChatGPT wirklich intelligent?

Anthony Chemero, Professor für Philosophie und Psychologie von der University of Cincinnati, wirft eine provokante Frage auf: Sind KI-Systeme wie ChatGPT wirklich intelligent, wenn sie „sich einen Dreck scheren“ und nur das nachplappern, was statistisch wahrscheinlich ist?

Bild: iStock, metamorworks
22.11.2023

Das Aufkommen der künstlichen Intelligenz hat zu unterschiedlichen Reaktionen bei führenden Technikern, Politikern und in der Öffentlichkeit geführt. Während die einen KI-Technologien wie ChatGPT begeistert als vorteilhaftes Werkzeug mit dem Potenzial zur Veränderung der Gesellschaft anpreisen, sind andere alarmiert, dass jedes Werkzeug mit dem Wort „intelligent“ im Namen auch das Potenzial hat, die Menschheit zu überholen.

Anthony Chemero von der University of Cincinnati, Professor für Philosophie und Psychologie am UC College of Arts and Sciences, vertritt die Ansicht, dass das Verständnis von KI durch die Linguistik verwirrt wird: KI sei zwar intelligent, könne aber nicht so intelligent sein wie der Mensch, auch wenn „sie lügen und schwindeln kann wie ihr Schöpfer“.

Auf den Körper kommt es an

Nach unserem alltäglichen Gebrauch des Wortes ist KI definitiv intelligent, aber es gibt intelligente Computer, und das schon seit Jahren, erklärt Chemero in einem von ihm mitverfassten Artikel. In dem Papier heißt es zunächst, dass ChatGPT und andere KI-Systeme große Sprachmodelle (Large Language Models, LLM) sind, die auf riesigen Datenmengen aus dem Internet trainiert werden, von denen viele die Voreingenommenheit der Menschen teilen, die die Daten veröffentlichen.

„LLMs generieren beeindruckende Texte, aber sie erfinden oft Dinge aus dem Nichts. Sie lernen, grammatikalische Sätze zu bilden, aber sie brauchen viel mehr Training als Menschen. Sie wissen nicht wirklich, was die Dinge, die sie sagen, bedeuten“, erklärt der Professor. „LLMs unterscheiden sich von der menschlichen Kognition, weil sie nicht verkörpert sind.“

Die Leute, die LLMs entwickelt haben, nennen es „halluzinieren“, wenn sie sich Dinge ausdenken; obwohl Chemero sagt, „es wäre besser, es ,Bullsh*tting‘ zu nennen“, weil LLMs einfach Sätze bilden, indem sie immer wieder das statistisch wahrscheinlichste nächste Wort hinzufügen – und sie wissen nicht oder kümmern sich nicht darum, ob das, was sie sagen, wahr ist.

Und mit ein wenig Anstoß, sagt Chemero, kann man ein KI-Tool dazu bringen, „böse Dinge zu sagen, die rassistisch, sexistisch und anderweitig voreingenommen sind“.

KI schert sich einen Dreck um uns

Chemero möchte in seinem Papier betonen, dass die LLMs nicht so intelligent sind wie Menschen, weil sie verkörpert sind: Lebewesen, die immer von anderen Menschen und ihrer materiellen und kulturellen Umgebung umgeben sind.

„Das bringt uns dazu, uns um unser eigenes Überleben und die Welt, in der wir leben, zu kümmern“, sagt Chemero und stellt fest, dass LLMs nicht wirklich in der Welt sind und sich um nichts kümmern.

Die wichtigste Erkenntnis ist, dass LLMs nicht so intelligent sind wie Menschen, weil sie sich „einen Dreck scheren“, sagt Chemero und fügt hinzu: „Für uns sind die Dinge wichtig. Wir engagieren uns für unser Überleben. Wir sorgen uns um die Welt, in der wir leben.“

Firmen zu diesem Artikel
Verwandte Artikel