Deutschland - Kennzeichen Deutschland

Incoterms:DDP
Alle Preise sind inklusive Zoll und Gebühren bei der Auswahl der Versandart.

Bitte bestätigen Sie Ihre Währungsauswahl:

Euro
Versand ist kostenfrei bei den meisten Bestellungen über 50 € (EUR)

US Dollar
Versand ist kostenfrei bei den meisten Bestellungen über $60 (USD)

Bench Talk for Design Engineers

Mouser German Blog

rss

Mouser Electronics, Inc german language blogs


Wie AI Safety Engineering das Ingenieurwesen transformieren wird Roman Yampolskiy

(Quelle: Gorodenkoff/Shutterstock.com)

 

Einleitung

Der Entwicklungsprozess für intelligente Maschinen hat uns auf einen Weg voller Entdeckungen, Überraschungen, Ehrfurcht und auch Sorge geführt. Auch wenn so viel noch zu entdecken ist, wissen wir bereits, dass das Streben nach sicherer KI die Art und Weise verändern wird, wie wir intelligente Produkte entwerfen, entwickeln und auf den Markt bringen. Sichere KI erfordert nicht nur den Schutz vor externen Angreifern, wie wir es bei der Cybersicherheit tun; wir müssen zudem sicherstellen, dass das Verhalten der KI selbst sicher ist. Die zukünftige KI-gestützte Entwicklung wird sich in jeder Phase des Entwicklungsprozesses auf Sicherheit und Risikomanagement konzentrieren.

Sicherheit in den KI-Standards und -Richtlinien

Eine der Notwendigkeiten im AI Safety Engineering besteht darin, weithin zugängliche praktische Richtlinien und Standards für die KI-Entwicklung zu haben. Obwohl eine Reihe von Standardisierungsorganisationen und Konsortien daran arbeitet, diese Ressourcen zu etablieren, sind sie noch weit davon entfernt, einen Konsens zu finden (hier taucht wieder das Problem der Werteausrichtung auf) und noch weiter davon entfernt, konkrete technische Anleitungen zu liefern. Währenddessen bieten sicherheitsintensive Branchen wie die Luft- und Raumfahrt oder die Medizintechnik potenziell nützliche Modelle für das Risikomanagement, die kurzfristige Anforderungen an die KI-Sicherheit erfüllen und als Grundlage für spätere Standards und Rahmenkonzepte dienen könnten. Insbesondere könnte die Delphi-Methode verwendet werden, um kollektives Wissen und Beurteilungen von Experten, Risikobewertungen verschiedener KI-Systemtypen und Ergebnisse von harten und weichen Anlaufszenarien zu organisieren.

Sicherheit in Design Thinking und im Entwicklungsprozess

Ein damit verbundenes Bedürfnis ist die proaktive Einbeziehung der Sicherheit in alle Bereiche des technischen Designs, beginnend mit dem Design Thinking bis hin zum Prozess der Markteinführung von Produkten. Machen wir uns nichts vor: Für viele Entwicklungsteams wird dies eine Umstellung bedeuten. Sehen Sie sich das Internet an. Sehen Sie sich Embedded Systeme an. Fakt ist, dass in den meisten Branchen erst dann erhebliche Ressourcen für die Sicherheit aufgewendet werden, wenn das Produkt bereits erfolgreich ist. Die potenziellen Folgen, wenn die Sicherheit in intelligenten Systemen nicht berücksichtigt wird, sind insofern bedeutsam, als dass es möglicherweise nicht möglich ist, die Sicherheit nachträglich zu integrieren.

Sicherheit in den Anwenderbedürfnissen

Die Entwicklung sicherer KI erfordert, dass Ingenieure über oberflächliche Anwendungsfälle hinausgehen und die Werte und Vorlieben der Benutzer wirklich verstehen. Wir sind daran gewöhnt, Anwendungsfälle und Benutzerfeedback einfach für bare Münze zu nehmen; das in Teil 2 besprochene Problem der Wertausrichtung sagt uns jedoch, dass wir verstärkt nachhaken müssen, um die tatsächlichen Bedürfnisse zu verstehen. Wenn wir zum Beispiel eine Studentin fragen, warum sie die Lehranstalt besucht, würde sie Ihnen wahrscheinlich sagen, dass sie Wissen erlangen und ein Interessengebiet studieren möchte. Studien zeigen jedoch, dass die wahren oder zusätzlichen Gründe woanders liegen: das Erwerben von anerkannten Qualifikationen, die Anerkennung durch Gleichgestellte und die Erhöhung der Verdienstmöglichkeiten zum Beispiel. Wenn wir als Ingenieure bei der Entwicklung intelligenter Produkte nur auf die oberflächlichen Bedürfnisse und Rückmeldungen der Benutzer schauen, werden wir wahrscheinlich Produkte entwickeln, die den Bedürfnissen der Benutzer nicht wirklich gerecht werden ... und zu einer KI führen, die versagt.

Sicherheit bei der Schwachstellenanalyse

In jeder Phase des Prozesses müssen die Sicherheit des Produkts und seine Intelligenz (Speicher, Verarbeitungsgeschwindigkeit usw.) berücksichtigt und einbezogen werden. Ein Hacker muss nur eine Schwachstelle in dieser Fülle von Möglichkeiten finden, aber eine KI könnte die Intelligenz auf eine Art und Weise ausnutzen, die wir nicht vorhersagen oder uns überhaupt vorstellen können. Was sind die potenziellen Schwachstellen des Produkts? Was sind mögliche Fehlanwendungen? Wie könnten einzelne Funktionen fehlgenutzt werden? Wie könnte jedes Szenario nach hinten losgehen? Sind die Daten sicher und geschützt? Woher wissen wir das? Enthält das Produkt mehr Intelligenz als nötig? Wie könnte dies fehlgenutzt werden? Wie könnte dies gesichert werden?

Fazit

Die Entwicklung sicherer KI wird Veränderungen in unseren Prozessen, Denkweisen und Prioritäten mit sich bringen. KI-Entwicklungsframeworks und -Standards werden einen großen Beitrag zur Entwicklung sicherer KI leisten. In der Zwischenzeit wäre es sinnvoll, Praktiken aus der Luft- und Raumfahrt und der Medizintechnik zu übernehmen und die Sicherheit in alle Aspekte Ihres Produktentwicklungsprozesses zu integrieren. Im nächsten Teil 6 werden wir eine neue Technik zur Entwicklung sicherer KI betrachten, die sogenannte „Künstliche Dummheit“.



« Zurück


Dr. Roman V. Yampolskiy ist Tenured Associate Professor der Fakultät für Informatik und Ingenieurwissenschaften an der University of Louisville in im US-Bundesstaat Kentucky. Er ist Gründer und derzeitiger Direktor des Cyber Security Lab sowie Autor zahlreicher Bücher, darunter „Artificial Superintelligence: A Futuristic Approach“.


Alle Autoren

Alle anzeigen Alle anzeigen
Blog nach Datum anzeigen