Deutschland - Kennzeichen Deutschland

Incoterms:DDP
Alle Preise sind inklusive Zoll und Gebühren bei der Auswahl der Versandart.

Bitte bestätigen Sie Ihre Währungsauswahl:

Euro
Versand ist kostenfrei bei den meisten Bestellungen über 50 € (EUR)

US Dollar
Versand ist kostenfrei bei den meisten Bestellungen über $60 (USD)

Bench Talk for Design Engineers

Mouser German Blog

rss

Mouser Electronics, Inc german language blogs


Sinnvolle Richtlinien für eine sichere KI Roman Yampolskiy

(Quelle: NicoElNino/Shutterstock.com)

 

Einführung

Die Künstliche Intelligenz (KI) steht kurz vor einem neuen Durchbruch, bei dem Maschinen nicht länger nur Instrumente sein werden, die sich der Mensch zunutze macht. Vielmehr werden sie sich zu intelligenten, autonom Handelnden entwickeln, die sich eigene Ziele setzen, entscheiden, was und wie sie lernen wollen, und vieles mehr. Hochintelligente Systeme verfügen über das Potenzial, die Welt auf ähnliche Weise zu verändern, wie industrielle Revolutionen in der Vergangenheit. Es geht nicht um die Frage, ob intelligente Systeme unser Leben auch künftig verändern werden – die Frage ist vielmehr, auf welche Weise und in welchem Umfang sie dies tun werden.

Was versteht man unter AI Safety Engineering?

AI Safety Engineering (oder „KI-Sicherheit“) ist ein Vorschlag für ein KI-Entwicklungsmodell, das Maschinenethik mit Psychologie, Wirtschaft, Finanzen und anderen Bereichen kombiniert. Die KI-Sicherheit verfolgt das Ziel,

  • die Diskussionen zum Thema Maschinenethik auf die Bereiche schwache AI (Artificial Narrow Intelligence, ANI), starke AI (Artificial General Intelligence, AGI) und Künstliche Superintelligenz (Artificial Super Intelligence, ASI) auszuweiten
  • eine Brücke zwischen den Diskussionen zur KI-Ethik und brauchbaren technischen Richtlinien, Prozessen und Standards für die Entwicklung von Maschinen mit allgemeiner Intelligenz zu schlagen
  • die Ursachen bekannter und potenzieller Schwachstellen in intelligenten Systemen zu finden.

 

Die KI-Sicherheit ist ein neuer Forschungsbereich, für dessen Entwicklung es verschiedene Gründe gibt. Zum einen lässt sich der Erfolg der Künstlichen Intelligenz nicht nur am Erreichen eines Ziels messen. Vielmehr ist die KI nur dann erfolgreich, wenn sie ihre Ziele auf eine Weise umsetzt, die den menschlichen Werten und Vorlieben entspricht. Nach mehr als 60 Jahren der KI-Entwicklung lässt sich feststellen, dass die maschinellen Ziele nicht auf menschliche Werte und Präferenzen ausgerichtet sind – ein Defizit, das früher oder später zum Scheitern künstlicher Intelligenzen führen wird. In dieser Serie befassen wir uns mit dieser Fehlausrichtung, die als zentrale Schwachstelle für die Entwicklung der KI-Sicherheit von entscheidender Bedeutung ist.

 

Zum anderen stoßen die jüngsten Fortschritte im Bereich der KI an die Grenzen von ANI-Systemen, die in einem gegebenen Rahmen einzelne oder klar definierte Aufgaben ausführen können. Vor allem Fortschritte in Bereichen wie Sensoren, Big Data, Datenverarbeitung und maschinelles Lernen haben dazu geführt, dass diese Systeme der menschlichen Intelligenz immer näherkommen. Entsprechend werden ihre Fähigkeiten und Einsatzmöglichkeiten stetig erweitert. Vor diesem Hintergrund zeichnet sich jedoch bereits die nächste Stufe der Künstlichen Intelligenz ab – die sogenannte „Artificial General Intelligence“ (AGI), auch starke AI genannt. Und mit ihr werden wir auch die möglichen Folgen dieser AGI erfahren, sofern wir der KI-Sicherheit keine Priorität einräumen.

 

Im Zentrum von KI-Sicherheit steht die Annahme, dass die AGI ein Risiko für die Menschheit darstelle. Anstatt zu versuchen, zur Lösung dieses Problems menschliche Werte und Präferenzen auf der Aufgaben- oder Zielebene auf Maschinen zu übertragen (was vermutlich unmöglicher ist), verfolgt die KI-Sicherheit folgende Ziele:

 

  • Begrenzung bestimmte Aspekte wie Speicher, Verarbeitung und Geschwindigkeit, sodass diese den menschlichen Fähigkeiten entsprechen und/oder
  • Priorisierung von menschlichem Wohlergehen, kooperativem Verhalten und dem Dienst am Menschen

 

Auf diese Weise würden wir sicherstellen, dass KI-Prozesse und -Ziele den Menschen auf der Makroebene respektieren, anstatt zu versuchen, dies auf der Mikroebene zu erreichen – Maschinen also mit der Veranlagung auszustatten, uns als Herzstück der Intelligenz wohlwollend zu begegnen.

 

Als Ideologie der technischen Entwicklung behandelt die KI-Sicherheit das Design von KI-Systemen wie ein Produktdesign – das heißt, jeder Aspekt der Produkthaftung wird geprüft und getestet, also auch im Hinblick auf Verwendung, Zweckentfremdung und potenzielle Schwachstellen. Abbildung 1 veranschaulicht die neu entstehenden Prinzipien und Empfehlungen der KI-Sicherheit.

 

 

Abbildung 1: AI Safety Engineering legt den Schwerpunkt auf die Entwicklung intelligenter Systeme, die auch bei rekursiver Selbstverbesserung nachweislich sicher sind.

Weitere Themen in dieser Serie

Die KI-Sicherheitstechnik ist ein in der Entwicklung befindliches Fachgebiet, in dem es noch viel zu erforschen, zu diskutieren und zu erfassen gibt. Mouser Electronics freut sich, KI-Ingenieuren mit dieser Blog-Reihe wichtige Konzepte an die Hand zu geben und sie darin zu bestärken, sich an der fortlaufenden Entwicklung dieser Ansätze zu beteiligen:

 

Teil 2 dieser Reihe beleuchtet die Erkenntnisse, die wir aus mehr als 60 Jahren KI-Entwicklung ziehen konnten, und zeigt auf, dass sich KI aufgrund der Unvereinbarkeit maschineller Ziele und menschlicher Werte und Präferenzen nicht durchsetzen wird. Außerdem befasst sich dieser Teil mit den Gründen, warum die Übertragung menschlicher Werte und Präferenzen auf Maschinen ein wohl unlösbares Problem darstellen würde, und zeigt auf, warum die KI-Sicherheit unverzichtbar ist.

 

Teil 3 befasst sich mit einem weiteren Grund für die KI-Sicherheit: Aufgrund der Fortschritte bei der Entwicklung der Künstlichen Intelligenz verschieben sich die Grenzen schwacher KI-Systeme (ANI) hin zur starken KI (AGI).

 

Teil 4 setzt sich mit weiteren Herausforderungen bei der Umsetzung der KI-Sicherheit auseinander, darunter Aspekten wie Unvorhersagbarkeit, Unerklärbarkeit und Unverständlichkeit.

 

Teil 5 widmet sich den verschiedenen Möglichkeiten, mit denen KI-Sicherheit die Technik verändern wird. Zwei Schlüsselthemen in diesem Zusammenhang sind die Entwicklung von Deep-Use-Fällen, die ethische Werte der Anwender betrachten, sowie die Untersuchung von Schwachstellen.

 

Teil 6 bildet den Abschluss der Serie mit Diskussionen über die Nutzung „Künstlicher Dummheit“ (Artificial Stupidity) als unterstützendes Element bei der Entwicklung einer sicheren KI. Schlüsselthemen sind hierbei die Begrenzung der maschinellen Fähigkeiten und das Verständnis kognitiver Verzerrungen.



« Zurück


Dr. Roman V. Yampolskiy ist Tenured Associate Professor der Fakultät für Informatik und Ingenieurwissenschaften an der University of Louisville in im US-Bundesstaat Kentucky. Er ist Gründer und derzeitiger Direktor des Cyber Security Lab sowie Autor zahlreicher Bücher, darunter „Artificial Superintelligence: A Futuristic Approach“.


Alle Autoren

Alle anzeigen Alle anzeigen
Blog nach Datum anzeigen