Ergebnisse einer Umfrage Angst vor KI? Mehrheit wünscht sich gesetzliche Regelungen

Vier von fünf wünschen sich eine gesetzliche Regelung auf EU-Ebene, um mögliche Manipulationen und Diskriminierung auszuschließen.

Bild: iStock, style-photography
23.11.2022

Eine Umfrage zu Sicherheit und Vertrauen in Künstliche Intelligenz zeigt: Der Großteil der Befragten befürwortet eine gesetzliche Regelung auf EU-Ebene. Manipulation, Diskriminierung und Intransparenz wurden dabei als größte Risiken genannt.

Gut vier von fünf Bundesbürger:innen halten eine Regulierung von Künstlicher Intelligenz (KI) für sinnvoll (82 Prozent). 11 Prozent sehen keinen Bedarf für gesetzliche Vorgaben und 7 Prozent sind unentschlossen. Das hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.005 Personen ab 16 Jahren ergeben.

KI-Verordnung: Vorgaben für KI Bei kritischen Themen

In der Befragung ging es konkret um die geplante europäische KI-Verordnung. Produkte und Anwendungen mit Künstlicher Intelligenz sollen künftig in Abhängigkeit vom Risiko, das von ihnen ausgeht, bestimmte Sicherheits- und Qualitätsanforderungen einhalten müssen. „Die Europäische Union leistet mit der KI-Verordnung weltweit Pionierarbeit“, sagte Prof. Axel Stepken, Präsident des TÜV-Verbands, anlässlich der „TÜV AI Conference“.

„Der AI Act wird für mehr Rechtssicherheit sorgen und dazu beitragen, die enormen Potenziale Künstlicher Intelligenz besser auszuschöpfen.“ KI gilt als Schlüsseltechnologie und ermöglicht zum Beispiel Sprach- und Gesichtserkennung in Smartphones, intelligente Routenplanung oder Empfehlungen in Online-Shops. Darüber hinaus kommt KI verstärkt in sicherheitskritischen Bereichen wie der Medizin, dem automatisierten Fahren oder der Strafverfolgung zum Einsatz.

Stepken: „KI-Anwendungen sollten immer dann bestimmte Vorgaben erfüllen müssen, wenn sie die Gesundheit der Menschen oder ihre elementaren Grundrechte wie Gleichbehandlung und Privatsphäre gefährden.“ Der Entwurf der KI-Verordnung wird derzeit zwischen EU-Kommission, EU-Parlament und den Mitgliedsstaaten diskutiert. Mit einer abgestimmten Gesetzesvorlage wird im Laufe des Jahres 2023 gerechnet.

Manipulation und Diskriminierung als Gefahren wahrgenommen

Laut den Ergebnissen der Umfrage sehen zwei von drei Befragten die Gefahr, dass Menschen durch automatisierte Entscheidungen diskriminiert oder benachteiligt werden könnten (66 Prozent). Das kann zum Beispiel bei der Personalauswahl, der Kriminalitätsbekämpfung oder der Bewertung der Kreditwürdigkeit von Personen der Fall sein. „Gründe für Benachteiligungen durch Algorithmen können eine unbedachte Programmierung oder unzureichende Trainingsdaten sein“, sagte Stepken. „KI-Anbieter sollten daher bei der Entwicklung ihrer Anwendungen ethische Grundsätze beachten, die Ungleichbehandlungen verhindern.“

Das mit 62 Prozent am zweithäufigsten genannte Risiko ist aus Sicht der Befragten die Manipulation von Menschen. Das kann zum Beispiel mit Deepfakes erfolgen. Deepfakes sind mit Hilfe von KI nachgestellte, aber täuschend echt aussehende Fotos oder Videos von realen Personen. Als weitere mögliche Nachteile und Risiken von Künstlicher Intelligenz nennen die Befragten Intransparenz beim Einsatz von KI (61 Prozent), nicht ausreichend geschützte persönliche Daten (57 Prozent), unzuverlässige automatisierte Entscheidungen (44 Prozent) oder dass Menschen zu Schaden kommen könnten (39 Prozent).

Dennoch insgesamt positive Einstellung

Trotz der Risiken hat die Mehrheit der Bundesbürger:innen eine positive Einstellung zu Künstlicher Intelligenz. 40 Prozent der Befragten empfinden etwas Positives, wenn sie an die Technologie denken. Dagegen empfinden 21 Prozent etwas Negatives beim Gedanken an KI. 38 Prozent sind neutral eingestellt. Mit 86 Prozent erwarten die meisten Bundesbürger:innen Vorteile oder Erleichterungen durch die Nutzung von KI in ihrem Alltag.

An erster Stelle nennen knapp zwei von drei Befragten die Einsparung von Zeit, zum Beispiel durch Automatisierung (65 Prozent). Es folgen Energieeinsparungen (62 Prozent) und eine Entlastung von Routinearbeiten, zum Beispiel im Haushalt (58 Prozent). Und 36 Prozent erhoffen sich eine bessere Organisation und Struktur in ihrem Alltag. „Die Bundesbürger:innen haben einen realistischen Blick auf Künstliche Intelligenz“, sagte Stepken. „Sie sehen die Vor- und Nachteile der Technologie und wünschen sich mehr Orientierung bei ihrem Einsatz.“

So halten 90 Prozent der Befragten ein von unabhängigen Organisationen vergebenes Prüfzeichen für wichtig oder sehr wichtig, um ihr Vertrauen in Produkte oder Anwendungen mit Künstlicher Intelligenz zu stärken. 86 Prozent halten es für wichtig, dass sie selbst positive Erfahrungen bei der Nutzung machen und 85 Prozent wünschen sich eine Kennzeichnung, dass KI in einem Produkt enthalten ist. Für drei von vier Befragten ist vertrauensbildend, wenn sich die Anbieter zu einem ethischen Einsatz von KI selbst verpflichten (75 Prozent).

TÜV-Verband wünscht sich Verschärfung

Aus Sicht des TÜV-Verbands sollte der Entwurf des AI Acts an verschiedenen Punkten nachgeschärft werden. So sollten vor allem KI-Systeme mit einem hohen Risiko für die Bevölkerung von unabhängigen Stellen geprüft werden, bevor sie in der EU auf den Markt kommen dürfen. Konkretisierungsbedarf sieht der TÜV-Verband auch bei der Frage, welche KI-Anwendungen in welche Risikoklassen eingestuft werden.

„Parallel zum Gesetzgebungsprozess müssen wir Test- und Prüfmethoden für Künstliche Intelligenz entwickeln“, sagte Stepken. Eine wichtige Rolle könnten hier die in drei Bundesländern geplanten „AI Quality & Testing Hubs“ spielen, in denen Unternehmen, Forschungseinrichtungen, Prüforganisationen und andere Institutionen an Standards und Prüfverfahren für Künstliche Intelligenz arbeiten werden.

Verwandte Artikel