Kommentar von Dinko Eror von Dell EMC „Beim Thema KI-Ethik reicht die Selbstverpflichtung der Industrie nicht aus“

Wird die Menschheit von der Technologie verdrängt? Große Technologen unserer Zeit fordern ethische Grenzen.

17.08.2018

Innovation ist wichtig, aber kein Selbstzweck. Deshalb sollten sich Unternehmen und Wissenschaftler ethische Grenzen setzen. Notfalls müssen die Gesetzgeber nachhelfen, sagt Dinko Eror, Senior Vice President and Managing Director von Dell EMC in Deutschland.

Nicht alles, was technisch möglich ist, sollte auch erlaubt sein. Gerade im Umfeld der Künstlichen Intelligenz (KI) ist eine Diskussion entstanden, die stark an die Kritik der ersten Atombombe erinnert: Viele fürchten eine Entwicklung, die unumkehrbar ist und weitreichende Gefahren birgt. Der Unternehmer Elon Musk etwa sieht in der KI „die größte Bedrohung für das Überleben der Menschheit“, und der in diesem Jahr verstorbene Physiker Stephen Hawking war bereits 2014 der Meinung, Menschen könnten aufgrund ihrer biologischen Limitierung mit KI nicht mithalten und würden am Ende „verdrängt“ werden. Eine Verselbstständigung der Technologie hatten Science-Fiction-Autoren schon Mitte des vergangenen Jahrhunderts thematisiert.

Verwechslungsgefahr

Eine solche Entwicklung hat eine besondere Tragweite, wenn Fehler entstehen. Amazons Gesichtserkennung etwa hat jüngst 28 Abgeordnete des US-Kongresses mit Häftlingen verwechselt. Überträgt man diese Fehlerquote von fünf Prozent auf die Ambitionen des US-Verteidigungsministeriums, werden ethische Zweifel schnell greifbar: Das Pentagon will unter anderem Drohnen und andere Waffen mit KI versehen, damit sie Ziele selbst identifizieren und „Entscheidungen selbst treffen“ können. Viele KI-Forscher betrachten solche Entwicklungen mit besonderer Skepsis – wenn nicht mit Abscheu; tausende von ihnen haben deshalb eine freiwillige Selbstverpflichtung unterschrieben, nicht an autonomen Waffensystemen zu forschen. Aber wie stehen die übrigen tausenden zu solchen Einsätzen?

Gefahr kommt auch aus einem ganz anderen Bereich: Mit KI, künstlichen neuronalen Netzen und erschreckend wenig Aufwand können mittlerweile mit sogar kostenlosen Apps täuschend echte Fake-Bilder und -Videos hergestellt werden. „Nicht auszudenken, was passiert, wenn durch ein Fake-Video eines Fake-Politikers ein Krieg entsteht“, gibt Dinko Eror zu bedenken.

Auch die Profilerstellung von beliebigen Internet- und Social-Media-Nutzern stellt für KI längst keine Hürde mehr dar. Die Technologie kann, in Verbindung mit der heutigen Rechenleistung, gigantische Datenmengen analysieren und etwa Muster erkennen. Unvergessen ist zum Beispiel die unerlaubte Auswertung der Daten zahlreicher Facebook- und Twitter-Profile durch Cambridge Analytica mit dem Ziel, die US-Wahlen 2016 zu beeinflussen – für viele der erste wirkliche Social-Media-Skandal.

Absatzvorteile werden immer höher bewertet als ethisches Handeln

Es gibt zahlreiche weitere Beispiele, die ethische Fragen aufwerfen – zudem dass die KI sich weiterentwickelt und jeden Tag schneller, leistungsfähiger und treffsicherer wird. Sogar IT-Unternehmen, die Vorreiter in Sachen KI, kommen deshalb mittlerweile ins Grübeln. Microsoft zum Beispiel betrachtet KI-basierte Gesichtserkennung als Bedrohung der fundamentalen Menschenrechte wie Privatsphäre und Meinungsfreiheit, so zumindest President Brad Smith in seinem Blog vor einigen Wochen. Ist die Selbstverpflichtung von Industrie und Forschung also der richtige Weg, um ethische Innovationen – auch fernab von KI – sicherzustellen? „Nein. Die Wirtschaftsgeschichte hat gezeigt: Die Selbstverpflichtung von Industrie und Forschung führt nicht zu ethischen Innovationen“, erklärt Eror. „Sei es beim Dieselskandal, dem Rauchverbot, der Frauenquote oder der Nahrungsmitteltransparenz. Mögliche Absatzvorteile haben Unternehmen immer höher bewertet als ethisches Handeln. Ich bin mir sehr sicher, dass das auch in Zukunft so bleiben wird.“

Eine gesetzliche Regulierung ist deshalb unabdingbar. „Die angekündigte Strategie der Bundesregierung zur Künstlichen Intelligenz kommt zwar sehr spät, berücksichtigt aber Datenschutz und Informationssicherheit und betont an vielen Stellen die Notwendigkeit von ethischen Standards“, erklärt Eror, „das ist sehr zu begrüßen“. Auch die EU hat kürzlich ein KI-Maßnahmenpapier angekündigt, in dem ethische Rahmenbedingungen im Vordergrund stehen.

China stellt Ethik nicht in den Vordergrund

Die Frage bleibt, ob auch andere Regierungen ein Interesse daran haben, sich in diesem Sinne selbst einzuschränken. Die USA haben zwar bereits 2016 einen strategischen Forschungs- und Entwicklungsplan für KI vorgestellt und betonen dort sehr nachdrücklich das Thema „ethische KI“. Es bleibt aber offen, wie sie etwa ihre angekündigten aggressiven Verteidigungspläne darauf abstimmen wollen. China, ein Land, das nicht besonders zimperlich mit der Privatsphäre umgeht, wie die jüngste Maßnahme zur allgegenwärtigen Gesichtserkennung beweist, wird ethische Aspekte eher weniger in den Vordergrund stellen.

Seit vielen Jahren wird der Ruf nach einer neuen Wirtschaftsordnung laut. Sie soll, so die große Mehrheit der Deutschen, Turbokapitalismus und Wachstum um jeden Preis zugunsten von mehr Gerechtigkeit und Umweltschutz ablösen. „Angesichts des rapiden Fortschritts der Technik und des potenziellen Missbrauchs der KI ist es an der Zeit, auch die Unternehmens­ethik ganz oben auf die Agenda zu setzen“, findet Eror.

Firmen zu diesem Artikel
Verwandte Artikel