Wie sieht die Geschichte der KI aus?
Künstliche Intelligenz (KI) ist die Fähigkeit einer Maschine (meistens insbesondere eines Computers), menschliche kognitive Prozesse, Problemlösungsfähigkeiten und Handlungen zu imitieren. KI umfasst heute eine Reihe von Fähigkeiten, von prädiktiver KI und Verarbeitung natürlicher Sprache bis hin zu Large Language Models (LLMs) und agentenbasierter KI (Agentic AI).
KI hatte viele Vorläufer, von Automaten in der Antike bis zu den ersten Computern. Und die fortschrittlichsten Modelle von heute basieren auf Theorien und Algorithmen, die vor vielen Jahrzehnten entwickelt wurden.
Wichtige Ereignisse in der Geschichte der KI: Eine Zeitleiste
Obwohl der Begriff „künstliche Intelligenz“ erst aus dem Jahr 1955 stammt, reichen entscheidende Meilensteine ihrer Entwicklung mehrere Jahrhunderte zurück.
Vor dem 20. Jahrhundert
- Um 400 v. Chr.: Laut einigen Quellen aus dem antiken Griechenland soll Archytas von Tarent eine hölzerne Taube gebaut haben, die ihre Flügel schlagen und fliegen konnte.
- Um 1495: Leonardo da Vinci entwirft detaillierte Pläne für einen funktionstüchtigen Automaten in Gestalt eines deutschen Ritters und hat möglicherweise sogar ein solches Modell gebaut (falls ja, ist es jedoch nicht bis heute erhalten geblieben).
- Um 1560: König Philipp II. von Spanien beauftragt den Uhrmacher Juanelo Turriano, einen Automaten nach dem Vorbild des Franziskanermönchs Diego de Alcalá (der später als Heiliger Diego kanonisiert wurde) zu bauen. Der Automat wird durch eine Feder angetrieben und ahmt grundlegende menschliche Bewegungen und Gesten nach.
- 1764–1770: Automaten wie der Canard Digérateur (die „verdauende Ente“) und der Schach spielende Automat (bekannt als „Schachtürke“) begeistern die Öffentlichkeit.. Obwohl sich beide später als Täuschungen herausstellen, erweitern sie die allgemeine Vorstellung davon, was mit Automatisierung möglich ist.
- 1822: Charles Babbage vollendet den Bau der „Differenzmaschine“, eines mechanischen Rechners, der als früher Vorläufer des Computers gilt.
1900–1973
- 1914: Der Mathematiker und Erfinder Leonardo Torres y Quevedo stellt „El Ajedrecista“ vor, einen Automaten, der Schach spielen und unter bestimmten Umständen menschliche Spieler besiegen kann.
- 1943: Der Neurophysiologe Warren McCulloch und der Mathematiker Walter Pitts veröffentlichen „A Logical Calculus of the Ideas Imminent in Nervous Activity“, eine Abhandlung, die eine mathematische Beschreibung von Neuronen liefert Diese Arbeit wird ein entscheidender Schritt auf dem Weg zur Entwicklung von künstlichen neuronalen Netzen sein.
- 1945: Mit dem ENIAC wird der erste digitale Computer vollendet.
- 1949: Der Psychologe Donald Hebb veröffentlicht „The Organization of Behavior“, ein Buch, das sich als großer Einfluss auf die Entwicklung neuronaler Netze erweisen sollte.
- 1950: Der einflussreiche Mathematiker und Informatiker Alan Turing veröffentlicht „Computing Machinery and Intelligence“, eine Arbeit, in der er sich mit der Frage befasst, ob Maschinen denken können oder nicht. Der Artikel beschreibt den berühmten „Turing-Test“, mit dem festgestellt wird, ob eine computergestützte Intelligenz von einer menschlichen Intelligenz nicht mehr zu unterscheiden ist.
- 1951: Dean Edmunds und Marvin Minsky bauen den Stochastic Neural Analog Reinforcement Calculator (SNARC) – das erste künstliche neuronale Netz. Es verfügt über lediglich 40 Neuroneneinheiten.
- 1955: Der Begriff „künstliche Intelligenz“ wird bei einem Workshop des Informatikers John McCarthy geprägt.
- 1957: Der Psychologe und Informatiker Frank Rosenblatt entwickelt das Perzeptron, ein frühes künstliches neuronales Netzwerk.
- 1959: Die Stanford-Forscher Bernard Widrow und Marcian Hoff entwickeln das erste künstliche neuronale Netz mit praktischer Anwendung: MADALINE (Multiple ADAptive LINear Elements), ein Modell zur Echounterdrückung in Telefonleitungen.
- 1966: Der Informatiker Joseph Weizenbaum veröffentlicht das Programm ELIZA, das als erster Chatbot gilt (auch wenn sein Mustererkennungs-Algorithmus nach heutigen Maßstäben recht simpel war).
- 1969: Marvin Minsky und Seymour Papert veröffentlichen „Perceptrons: An Introduction to Computational Geometry“, ein Buch, das neuronale Perzeptron-Netzwerke beschreibt (die zuerst von Frank Rosenblatt entwickelt wurden). Das Buch sorgt für Kontroversen, da es auch die Schwächen von Perzeptrons thematisiert – was rückblickend von einigen Forschern als ein Faktor angesehen wird, der die Finanzierung von KI-Projekten bremste.
KI-Winter und Wiederaufleben: 1973–2000
- 1973: Der erste „KI-Winter“ beginnt, nachdem ein Bericht des britischen Science Research Council feststellt, dass die Arbeiten auf diesem Gebiet ihre Versprechen nicht eingelöst haben, woraufhin die Finanzierung der KI-Forschung im Vereinigten Königreich gekürzt wird. Die KI-Forschung verlangsamt sich daraufhin für den Rest des Jahrzehnts.
- 1980: Die Association for the Advancement of Artificial Intelligence (AAAI) hält ihre erste Konferenz ab. Das Interesse an KI-Forschung beginnt nimmt wieder zu.
- 1982: John Hopfield von Caltech legt der National Academy of Sciences einen Bericht über die Verwendung bidirektionaler Verbindungen zwischen künstlichen Neuronen vor (zuvor wurden nur unidirektionale Verbindungen verwendet). Darüber hinaus startet Japan das Fifth Generation Computer Systems Project (FGCS), was zu mehr Mitteln für die KI-Forschung führt.
- 1987: Der zweite KI-Winter beginnt, eine Zeit, in der aufgrund des schleppenden Fortschritts nur minimale Investitionen in die KI-Forschung getätigt werden.
- 1995: Richard Wallace entwickelt den A.L.I.C.E.-Chatbot, der auf dem Chatbot ELIZA aus den 1960er Jahren aufbaut.
- 1997: Deep Blue, ein Supercomputer von IBM, besiegt den Schachweltmeister Garri Kasparow in einem Schachwettkampf über sechs Partien.
21. Jahrhundert: Der KI-Boom
- 2002: „The Roomba“, eines der ersten Verbraucherprodukte mit vollständig autonomen Fähigkeiten, kommt auf den Markt.
- 2007: Der Informatiker Geoffrey Hinton veröffentlicht „Learning Multiple Layers of Representation“, eine bahnbrechende Arbeit für die Entwicklung des Deep Learning.
- 2009: Die Forscher Rajat Raina, Anand Madhavan und Andrew Ng veröffentlichen die Arbeit „Large-scale Deep Unsupervised Learning using Graphics Processors“, die nahelegt, dass GPUs für Machine Learning besser sind als CPUs. In den kommenden Jahren wird die Umstellung auf GPUs weitaus leistungsfähigere KI-Modelle ermöglichen, als je zuvor entwickelt wurden.
- 2011: IBMs Sprachverarbeitungssystem Watson nimmt an der amerikanischen Game-Show Jeopardy! teil und gewinnt. Ebenfalls 2011 bringt Apple Siri auf den Markt, den ersten weit verbreiteten virtuellen Assistenten.
- 2012: Die Google-Forscher Jeff Dean und Andrew Ng trainieren ein neuronales Netzwerk, das Katzen allein anhand von unbeschrifteten Bildern erkennt. Etwa zu dieser Zeit beginnt der „KI-Boom“.
- 2016: Googles „AlphaGo“-KI schlägt Lee Sedol in Go.
- 2017: Google schlägt ein Framework für Transformer Neural Networks vor – eine Architektur, die den Weg für die Entwicklung von Large Language Models (LLMs) ebnet.
- 2020: OpenAI führt GPT-3 ein, eines der ersten LLMs.
- 2021: Google veröffentlicht Multitask Unified Model (MUM), einen KI-gesteuerten Suchalgorithmus, der Sprache sowohl verstehen als auch generieren kann.
- 2022: Die Version 4.0 von ChatGPT erscheint für die breite Öffentlichkeit und verändert grundlegend das globale Verständnis der Möglichkeiten künstlicher Intelligenz. Weitere LLMs wie Bard, Llama, Bing Chat und Copilot, folgen kurz darauf.
Was ist die „dritte Welle“ der KI?
Aufbauend auf einer Reihe von Durchbrüchen und Fortschritten in der Hardware hat die KI-Entwicklung nach jahrzehntelangem Stillstand und mehreren KI-Wintern in den letzten Jahren stark an Fahrt aufgenommen. Branchenbeobachter haben drei „Wellen“ von KI-Typen identifiziert, die während dieses KI-Booms in schneller Folge in den Mainstream gelangt sind: prädiktive KI, generative KI (wie LLMs), und agentenbasierte KI (Agentic AI).
Agentic AI bzw. agentenbasierte KI ermöglicht die Entwicklung von Computerprogrammen, die Aufgaben eigenständig ausführen können – auch ohne genaue Anweisungen und außerhalb eines konkret promptbasierten Kontexts. KI-„Agenten“ können ihre eigenen Entscheidungen treffen, aus ihren früheren Erfahrungen lernen und ihre Handlungen entsprechend anpassen. Dadurch können sie unabhängig oder mit sehr wenig menschlichem Zutun arbeiten.
Wie sieht die Zukunft für KI aus?
Neue Entdeckungen und leistungsfähigere Hardware haben der KI in jüngster Zeit zu bisher unerreichten Fähigkeiten verholfen. Die Geschichte der KI ist weiter fortgeschritten und die Zukunft könnte noch spannendere Entwicklungen bringen.
Cloudflare gibt Entwicklerinnen und Entwicklern die Werkzeuge an die Hand, um eigene Beiträge zur Geschichte der KI zu leisten. Mit einer weltweit verteilten serverlosen KI-Infrastruktur, kostenlosem Datenausgang für Trainingsdaten, einer verteilten Vektordatenbank und weiteren essenziellen Bausteinen ermöglicht die Cloudflare-Plattform Entwicklerinnen und Entwicklern, an der Spitze der KI-Entwicklung zu arbeiten. Werden Sie Teil der KI-Geschichte und leisten Sie Ihren Beitrag.
Quellen:
- https://cs.stanford.edu/people/eroberts/courses/soco/projects/neural-networks/History/history1.html
- https://www.history.com/articles/7-early-robots-and-automatons
- https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(07)00217-3
- https://www.historyofinformation.com/detail.php?entryid=782
- https://www.historyofinformation.com/detail.php?id=4137
- https://www.techtarget.com/searchenterpriseai/definition/AI-winter
- https://aaai.org/conference/aaai/aaai80/
- https://blog.google/products/search/introducing-mum/
- https://news.harvard.edu/gazette/story/2012/09/alan-turing-at-100/