Bench Talk for Design Engineers

Mouser German Blog

rss

Mouser Electronics, Inc german language blogs


Wir Menschen müssen KI-Geräte in Schach halten Roman Yampolskiy

Unvorhersehbarkeit, Unerklärbarkeit und Unverständlichkeit

(Source: Production Perig/Shutterstock.com)

Einleitung

KI-Forscher werden sich nach und nach der großen Herausforderungen bewusst, die im Hinblick auf die KI-Sicherheit auftreten. Dazu gehört beispielsweise auch die bislang problematische Umsetzung ethischer Werte, die als eine der Hauptursachen für das Scheitern der KI in den letzten 60 Jahren gilt. Und noch etwas hat sich gezeigt: Je intelligenter eine Maschine ist, desto weniger ist der Mensch in der Lage, ihre Auswirkungen vorherzusagen, zu erklären und zu verstehen.

Unvorhersehbarkeit

Die Unvorhersehbarkeit der KI bezieht sich auf unsere Unfähigkeit, präzise und konsequent vorherzusagen, welche konkreten Handlungen ein System zum Erreichen seiner Ziele vornehmen wird. Bei einer Schachpartie können wir beispielsweise vorhersagen, dass die KI gewinnen wird – sofern dies das gewünschte Ziel ist. Wir können jedoch nicht genau prognostizieren, welche Züge sie dazu ausführen wird. Beim genannten Schachspiel hat dieses Unvermögen keine signifikanten Folgen, doch mit zunehmender Intelligenz und Komplexität der Ziele nimmt das Ausmaß der Unvorhersehbarkeit zu. Nehmen wir ein anderes Beispiel aus Teil 2: Angenommen, die KI hätte die Aufgabe, Krebs zu heilen. Theoretisch könnte sie dies tun, indem sie die gesamte Menschheit auslöscht.

 

Die Zwischenschritte hängen von verschiedenen Faktoren ab, etwa von den Interaktionen der KI während eines Prozesses. Microsofts Tay(bot), der in Teil 3 angesprochen wurde, begann beispielsweise, andere Nutzer auf der Grundlage von Online-Interaktionen mit unangemessenen Kommentaren zu beleidigen. Hinzu kommt, dass Systeme mit niedrigerer Intelligenz nicht lernen können, Entscheidungen vorherzusagen, die Systeme mit höherer Intelligenz treffen. Anders als einer fortgeschrittenen KI fehlt Menschen die Fähigkeit, alle möglichen Optionen, Entscheidungen oder Strategien theoretisch durchspielen zu können. Dies könnte auch für schlanke Systeme gelten, die zwar insgesamt weniger versiert sind, aber in bestimmten Bereichen dennoch eine höhere Intelligenz aufweisen als Menschen.

 

Unerklärbarkeit

Der Begriff Unerklärbarkeit bezieht sich auf die Unmöglichkeit, die von einem intelligenten System getroffenen Entscheidungen verständlich und präzise zu erklären. Eine KI, die beispielsweise zur Genehmigung oder Ablehnung von Hypothekendarlehen eingesetzt wird, könnte zur Entscheidungsfindung Millionen oder sogar Milliarden gewichteter Faktoren nutzen. Die Ablehnung eines Antrags könnt mit einem oder zwei Aspekten wie etwa „geringe Kreditwürdigkeit“ oder „unzureichendes Gehalt“ begründet werden. Eine solche Begründung wäre aber bestenfalls eine vereinfachte Darstellung der Gründe für die getroffene Entscheidung. Man könnte es mit einer minderwertigen Bildkomprimierung vergleichen, bei der durch den Komprimierungsprozess Daten verloren gehen, obwohl das resultierende Bild dem Original weitgehend entspricht. Ähnlich würde auch die Begründung, dass eine Hypothek aufgrund einer „geringen Kreditwürdigkeit“ abgelehnt wurde, Auswirkungen, die andere Aspekte unter Umständen haben könnten, unberücksichtigt lassen. Die Begründung ist daher unvollständig und nicht hundertprozentig korrekt.

 

Wäre es wichtig, auch die anderen Aspekte zu erklären? Möglicherweise. In den USA zum Beispiel dürfen Entscheidungen bezüglich Bankdarlehen, Immobilien, Gesundheitsversorgung usw. nicht auf der Grundlage von geschützten Faktoren getroffen werden. Die zur Genehmigung oder Ablehnung von Hypothekendarlehen eingesetzte KI darf Aspekte wie Alter oder Geschlecht nicht in den Entscheidungsprozess einfließen lassen. Dennoch können solche Daten Einfluss nehmen. Wenn beispielsweise der Hypothekengeber in der Vergangenheit Darlehen für Frauen lateinamerikanischer Herkunft im Alter von 18 bis 25 Jahren ohne College-Abschluss, die in San Francisco leben, abgelehnt hat, dann könnte eine KI lernen, dass Antragsteller, die diesen Kriterien entsprechen, unabhängig von etwaigen förderlichen Kriterien ein höheres Risiko für eine Ablehnung ihres Darlehensantrags haben. Hier kommt zwar auch der Aspekt der Unvorhersehbarkeit zum Tragen, aber das Beispiel zeigt gut auf, warum es wichtig ist, Entscheidungen präzise und vollständig begründen zu können.

 

Doch was ist mit der ....

 

Unverständlichkeit

Wenn die Ablehnung der Hypothek also vollständig und präzise erklärt würde, wäre die Begründung dann nachvollziehbar? Die Fähigkeit, Dinge nachvollziehen zu können, variiert in gewisser Weise von Mensch zu Mensch. Beispielsweise könnte eine Person mit einem Abschluss in Finanzwissenschaften oder jahrelanger Erfahrung im Hypothekengeschäft eine präzise und vollständige Begründung besser (oder leichter) verstehen als jemand ohne vergleichbare Kenntnisse. Abgesehen davon wäre eine ausführliche Antwort von einem System, das eine Million unterschiedlich gewichteter Faktoren berücksichtigt, für uns Menschen unverständlich, denn uns fehlt das Speichervermögen, das Gedächtnis und die Fähigkeit, diese zahlreichen miteinander verbundenen Variablen zu verstehen.

Implikationen für eine sichere KI

Die Aspekte Unvorhersehbarkeit, Unerklärbarkeit und Unverständlichkeit machen es unmöglich, eine hundertprozentig sichere KI zu entwickeln. Denn selbst mit etablierten Standards, Gesetzen und Instrumenten ließen sich unerwünschte Auswirkungen nicht angemessen fördern oder verhindern. Selbst wenn wir in der Lage wären, das Verhalten der KI vorherzusagen, könnten wir diese Verfahrensweise trotzdem nicht wirksam kontrollieren, ohne den Wert der Intelligenz oder der Systeme einzuschränken. Und natürlich erfordern die Auswertung und Behebung von KI-Fehlern verständliche Erklärungen, die jedoch mit zunehmender maschineller Intelligenz immer weniger möglich sein werden. In Teil 5 werden wir uns mit den Auswirkungen der KI-Sicherheit auf den Engineering-Bereich beschäftigen.

 

 



« Zurück


Dr. Roman V. Yampolskiy ist Tenured Associate Professor der Fakultät für Informatik und Ingenieurwissenschaften an der University of Louisville in im US-Bundesstaat Kentucky. Er ist Gründer und derzeitiger Direktor des Cyber Security Lab sowie Autor zahlreicher Bücher, darunter „Artificial Superintelligence: A Futuristic Approach“.


Alle Autoren

Alle anzeigen Alle anzeigen
Blog nach Datum anzeigen