Deutschland - Kennzeichen Deutschland

Incoterms:DDP
Alle Preise sind inklusive Zoll und Gebühren bei der Auswahl der Versandart.

Bitte bestätigen Sie Ihre Währungsauswahl:

Euro
Versand ist kostenfrei bei den meisten Bestellungen über 50 € (EUR)

US Dollar
Versand ist kostenfrei bei den meisten Bestellungen über $60 (USD)

Bench Talk for Design Engineers

Mouser German Blog

rss

Mouser Electronics, Inc german language blogs


Künstliche Intelligenz - ihre Wiege stand im antiken Griechenland Jürgen Schmidhuber

(Quelle: imagIN.gr photography/Shutterstock.com)

Nach mehr als 100 Jahren Forschung erfreut sich die Künstliche Intelligenz (KI) in der letzten Zeit zunehmender Beliebtheit und einer immer größeren Bedeutung. Vor allem die Bereiche Mustererkennung und maschinelles Lernen haben sich durch das sogenannte Deep Learning (DL) grundlegend verändert. DL ist eine relativ neue Bezeichnung für Künstliche Neuronale Netze (KNN), die über die Fähigkeit verfügen, aus Erfahrungen zu lernen. Heutzutage kommt DL in der Industrie wie auch im täglichen Leben häufig zum Einsatz. Die Bild- und Spracherkennung von Smartphones oder die maschinelle Übersetzung von einer Sprache in eine andere sind zwei Beispiele für angewandtes Deep Learning.

 

Im anglophonen Raum wird oft davon ausgegangen, dass DL in englischsprachigen Ländern entstanden ist. Diese Annahme ist jedoch falsch, denn DL wurde vielmehr in Ländern entwickelt, in denen die Amtssprache nicht Englisch ist. Werfen wir aber zunächst einen Blick in die Vergangenheit und schauen uns die Entwicklung der Künstlichen Intelligenz im weiteren Zusammenhang der Informatikgeschichte an.

 

Frühe Pioniere des Computerzeitalters

Der im ersten Jahrhundert v. Chr. in Griechenland entwickelte Mechanismus von Antikythera gilt als einer der ältesten Computer der Welt. Das antike Gerät mit 37 unterschiedlich großen Zahnrädern wurde zur Berechnung astronomischer Ereignisse eingesetzt (Abbildung 1).

Abbildung 1: Der Mechanismus von Antikythera wurde im ersten Jahrhundert v. Chr. in Griechenland entwickelt. Das aus 37 Zahnrädern verschiedener Größen bestehende Gerät diente zur Berechnung astronomischer Ereignisse. (Quelle: DU ZHI XING/Shutterstock.com)

Die technische Raffinesse des Mechanismus von Antikythera wurde erst 1.600 Jahre später in den Schatten gestellt, als der Nürnberger Peter Henlein im Jahr 1505 erste tragbare Taschenuhren herstellte. Wie der Mechanismus von Antikythera berechneten jedoch auch Henleins Uhren keine Ergebnisse auf der Grundlage von Benutzereingaben. Es waren vielmehr einfache Messgeräte, die mittels Getriebeübersetzung die Zeit in gleiche Intervalle aufteilten und in Sekunden, Minuten und Stunden anzeigten.

 

Im Jahr 1623 baute Wilhelm Schickard in Tübingen die erste automatische Rechenmaschine für Grundrechenarten. Bald darauf führte Blaise Pascal im Jahr 1640 seine Rechenmaschine „Pascaline“ vor, und 1670 stellte Gottfried Wilhelm Leibniz die von ihm entwickelte Rechenmaschine nach dem Staffelwalzenprinzip vor – die erste Maschine, die alle vier Grundrechenarten (Addition, Subtraktion, Multiplikation und Division) beherrschte. Im Jahr 1703 veröffentlichte Leibniz seinen Artikel „Explication de l’Arithmétique Binaire“ (Erklärung der binären Arithmetik) über das Binärsystem, das heute in praktisch allen modernen Computern zum Einsatz kommt.

 

Aber auch in den Bereichen mathematische Analyse und Datenwissenschaft vollzogen sich bedeutende Entwicklungen. So entwickelten Carl Friedrich Gauß und Adrien-Marie Legendre um 1800 die sogenannte Methode der kleinsten Quadrate zur Mustererkennung durch lineare Regression. Dieses Verfahren wird heute teilweise als "Shallow Learning" bezeichnet. Berühmt wurde Gauß, als er mit einem solchen Verfahren die Position des Ceres berechnete und den Planetoiden damit „wiederentdeckte“. Hierzu analysierte er zunächst Datenpunkte früherer Beobachtungen und ging dann geschickt vor, um die Parameter eines Prädiktors anzupassen und den neuen Standort von Ceres korrekt zu bestimmen.

 

Etwa zur gleichen Zeit erschienen in Frankreich die ersten praktischen, programmgesteuerten Maschinen: automatische Webstühle mit Lochkartensteuerung. Um 1800 wurden Joseph Marie Jacquard und Kollegen damit zu den ersten praktischen Programmierern.

 

Im Jahr 1837 entwarf Charles Babbage aus England eine programmgesteuerte Maschine für allgemeine Anwendungen mit dem Namen „Analytical Engine“. Leider war niemand in der Lage, die Rechenmaschine zu bauen – vielleicht, weil sie noch das umständliche Dezimalsystem und nicht das binäre Zahlensystem von Leibniz verwendete. Doch 1991 wurde schließlich ein Exemplar seiner spezifischeren Differenzmaschine Nr. 2 gebaut, deren Funktionsfähigkeit auch nachgewiesen wurde.

 

Anfang des 20. Jahrhunderts nahm der Fortschritt bei der Entwicklung intelligenter Maschinen deutlich an Fahrt auf. Nachfolgend finden Sie einige der Highlights in der Entwicklung der KI seit 1900:

 

  • Im Jahr 1914 baute der Spanier Leonardo Torres y Quevedo den ersten Schachautomaten. Unter Verwendung elektromagnetischer Komponenten konnte der Schachrechner das Endspiel König und Turm gegen König von jeder Position aus ohne menschliches Zutun ausführen. In der damaligen Zeit wurde Schach noch als intelligente Aktivität angesehen.
  • Im Jahr 1931 wurde der Österreicher Kurt Gödel zum Begründer der KI-Theorie und der theoretischen Informatik im Allgemeinen, denn er führte die erste, auf ganzen Zahlen basierende universelle Programmiersprache ein. Mit dieser Coding-Sprache konnte er allgemeine rechnerische Theorembeweiserbeschreiben und die grundlegenden Grenzen der Mathematik, der Computerberechnung und der KI bestimmen. Ein Großteil der späteren Arbeiten bezüglich KI und Expertensystemen in den 1960er- und 1970er-Jahren wandte Gödels Ansatz für Theorembeweise und Deduktion an.
  • Im Jahr 1935 veröffentlichte der amerikanische Mathematiker Alonzo Church eine alternative universelle Sprache namens Lambda-Kalkül und erweiterte damit Gödels Ergebnisse aus dem Jahr 1931, indem er das Entscheidungsproblem löste. Dies bildete die Grundlage der beliebten Programmiersprache Lisp. Alan Turing legte dieses Ergebnis 1936 in Großbritannien mit der Verwendung eines weiteren und ebenso leistungsfähigen theoretischen Konstrukts, das heute als Turingmaschine bezeichnet wird, neu dar (Abbildung 2). Zudem schlug Turing einen subjektiven KI-Test vor.

Abbildung 2: Im Jahr 1936 formulierte Alan Turing die beliebte Programmiersprache Lisp mit einem theoretischen Konstrukt namens Turingmaschine neu. (Quelle: EQRoy/Shutterstock.com)

 

  • Von 1935 bis 1941 baute Konrad Zuse den ersten praktischen, funktionsfähigen, programmgesteuerten Rechner, die Z3. In den 1940er-Jahren entwickelte er zudem die erste höhere Programmiersprache, mit der er das erste allgemeine Schachprogramm schrieb. 1950 lieferte Zuse die Z4 aus – den weltweit ersten kommerziellen Computer, der somit einige Monate früher verfügbar war als der UNIVAC I.
  • Obwohl der Begriff „KI“ 1956 durch John McCarthy auf der Dartmouth Conference geprägt wurde, war das Thema bereits fünf Jahre zuvor auf dem berühmten Kongress zu Rechnern und menschlichem Denken („Les Machines à Calculer et la Pensée Humaine“) in Paris behandelt worden. Herbert Bruderer bezeichnet diese Tagung zu Recht als die erste KI-Konferenz. Auf diesem Kongress, an dem Hunderte führender Experten aus der ganzen Welt teilnahmen, spielte Norbert Wiener eine Schachpartie gegen den zuvor genannten berühmten Schachautomaten von Torres y Quevedo.
  • In den späten 1950er-Jahren entwickelte Frank Rosenblatt Perzeptronen und vereinfachte Lernalgorithmen für „flache neuronale Netze“. Dabei handelte es sich im Wesentlichen um Varianten der alten linearen Regressoren, die Gauß und Legendre um 1800 eingeführt hatten. Später begann Rosenblatt, sich auch mit sogenannten tiefen, also mehrschichtigen lernenden Netzen zu befassen, kam aber nicht sehr weit damit.
  • 1965 veröffentlichten die beiden Ukrainer Alexey Ivakhnenko und Valentin Lapa ihre erste Arbeit über einen Lernalgorithmus für tiefe, mehrschichtige Perzeptronen mit einer beliebigen Anzahl von Schichten. Wennes in Feedforward-Netzwerken einen „Vater des tiefen Lernens“ gibt, dann ist es Ivakhnenko. Seine bis zu acht Schichten tiefen Netze waren selbst für Standards ab den 2000er-Jahren tief. Und wie die heutigen tiefen NNs lernten sie, interne Repräsentationen eingehender Daten zu erstellen, die hierarchisch und verteilt sind. In den letzten Jahrzehnten hat Deep Learning erheblich an Bedeutung gewonnen. Als Teilbereich der künstlichen Intelligenz steht DL in gewisser Weise mit dem menschlichen Gehirn in Verbindung, das über etwa 100 Milliarden Neuronen verfügt, von denen jedes wiederum mit 10.000 anderen Neuronen verbunden ist. Einige davon sind Eingangsneuronen, welche die anderen Neuronen mit Daten versorgen (Gehör, Sehvermögen, Tastsinn, Schmerz, Hunger). Andere sind Ausgangsneuronen, die Muskeln steuern. Die meisten Neuronen befinden sich irgendwo dazwischen, also dort, wo das Denken stattfindet. Das Gehirn lernt durch die Veränderung von Stärke oder Bedeutung der Verbindungen, die alle Erfahrungen im Laufe unsere Leben verschlüsseln und bestimmen, wie stark sich die Neuronen gegenseitig beeinflussen. Auch die Künstlichen Neuronalen Netze (KNN), die heute beim Deep Learning zum Einsatz kommen, wurden davon inspiriert und lernen besser als frühere Methoden.
  • In ihrem berühmten Buch „Perceptrons: An Introduction to Computational Geometry“ aus dem Jahr 1969 über die Grenzen des "Shallow Learning" behandelten Marvin Minsky und Seymour Papert ein Problem, das bereits vier Jahre zuvor von Alexey Ivakhnenko und Valentin Lapa gelöst worden war. Es wurde behauptet, Minskys Buch hätte die NN-bezogene Forschung verlangsamt, aber das stimmt nicht – zumindest nicht, was die Forschung außerhalb der USA betrifft. Viele Forscher, vor allem in Osteuropa, bauten in den folgenden Jahrzehnten auf der Arbeit von Ivakhnenko und anderen auf. Selbst in den 2000er-Jahren wurde seine viel zitierte Methode zum Training von Tiefennetzen noch immer angewandt.

 

Das war die Geschichte der KI bis 1970. In Teil 2 werfen wir einen genaueren Blick auf alle Entwicklungen, die sich seitdem vollzogen haben.

 



« Zurück


Jürgen Schmidhuber is often called the father of modern Artificial Intelligence (AI) by the media. Since age 15 or so, his main goal has been to build a self-improving AI smarter than himself, then retire. His lab's Deep Learning Neural Networks (since 1991) such as Long Short-Term Memory (LSTM) have revolutionized machine learning. By 2017, they were on 3 billion devices, and used billions of times per day through the users of the world's most valuable public companies, e.g., for greatly improved speech recognition on over 2 billion Android phones (since mid 2015), greatly improved machine translation through Google Translate (since Nov 2016) and Facebook (over 4 billion LSTM-based translations per day as of 2017), Apple's Siri and Quicktype on almost 1 billion iPhones (since 2016), the answers of Amazon's Alexa (since 2016), and numerous other applications. In 2011, his team was the first to win official computer vision contests through deep neural nets, with superhuman performance. In 2012, they had the first deep NN to win a medical imaging contest (on cancer detection). All of this attracted enormous interest from industry. His research group also established the fields of metalearning, mathematically rigorous universal AI and recursive self-improvement in universal problem solvers that learn to learn (since 1987). In the 1990s, he introduced unsupervised adversarial neural networks that fight each other in a minimax game to achieve artificial curiosity etc. His formal theory of creativity & curiosity & fun explains art, science, music, and humor. He also generalized algorithmic information theory and the many-worlds theory of physics, and introduced the concept of Low-Complexity Art, the information age's extreme form of minimal art. He is recipient of numerous awards, author of over 350 peer-reviewed papers, frequent keynote speaker at large events, and Chief Scientist of the company NNAISENSE, which aims at building the first practical general purpose AI. He is also advising various governments on AI strategies.


Alle Autoren

Alle anzeigen Alle anzeigen
Blog nach Datum anzeigen