Künstliche Intelligenz (KI) ist Intelligenz, die von Maschinen demonstriert wird, im Gegensatz zu Intelligenz, die von nichtmenschlichen Tieren und Menschen gezeigt wird. Beispiele für Aufgaben, in denen dies geschieht, umfassen Spracherkennung, Computer Vision und Übersetzung zwischen (natürlichen) Sprachen. Das Oxford English Dictionary definiert KI als „Intelligenz, die von Maschinen gezeigt wird.“

Die Theorie und Entwicklung von Computersystemen, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern, wie visuelle Wahrnehmung, Spracherkennung, Entscheidungsfindung und Übersetzung zwischen Sprachen.

KI-Anwendungen umfassen fortschrittliche Websuchmaschinen, Empfehlungssysteme, das Verstehen menschlicher Sprache, selbstfahrende Autos, automatisierte Entscheidungsfindung und hochrangige Wettbewerbe in strategischen Spielsystemen. Da Maschinen immer leistungsfähiger werden, werden Aufgaben, die früher als erforderend „Intelligenz“ angesehen wurden, häufig aus der Definition von KI entfernt, ein Phänomen, das als KI-Effekt bekannt ist. Beispielsweise wird die optische Zeichenerkennung oft als Routinetechnologie betrachtet und ausgeschlossen von Dingen, die als KI gelten.

Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet und hat seitdem mehrere Hochs und Tiefs durchlaufen, einschließlich Finanzierungseinbrüche (bekannt als „KI-Winter“) und erneuter Finanzierung. Die KI-Forschung hat seit ihrer Gründung viele verschiedene Ansätze ausprobiert und verworfen, darunter die Simulation des Gehirns, die Modellierung menschlicher Problemlösungen, formale Logik, große Wissensdatenbanken und die Nachahmung von Tierverhalten. In den ersten Jahrzehnten des 21. Jahrhunderts hat das mathematisch-statistische maschinelle Lernen das Feld dominiert und hat sich als äußerst erfolgreich erwiesen, indem es viele herausfordernde Probleme in Industrie und Wissenschaft gelöst hat.

Die verschiedenen Teilgebiete der KI-Forschung haben bestimmte Ziele und den Einsatz bestimmter Werkzeuge. Traditionelle Ziele der KI-Forschung sind Argumentation, Wissensrepräsentation, Planung, Lernen, Verarbeitung natürlicher Sprache, Wahrnehmung und die Fähigkeit, Objekte zu bewegen und zu manipulieren. Allgemeine Intelligenz (die Fähigkeit, ein beliebiges Problem zu lösen) gehört zu den langfristigen Zielen des Feldes. Um diese Probleme zu lösen, haben KI-Forscher eine breite Palette von Problemlösungstechniken angepasst und integriert, darunter Suche und mathematische Optimierung, formale Logik, künstliche neuronale Netze und Methoden, die auf Statistik, Wahrscheinlichkeit und Ökonomie basieren. KI basiert auch auf Informatik, Psychologie, Linguistik, Philosophie und vielen anderen Bereichen.

Das Feld der KI wurde auf der Annahme gegründet, dass die menschliche Intelligenz „so genau beschrieben werden kann, dass eine Maschine dazu gebracht werden kann, sie zu simulieren“. Dies hat zu philosophischen Argumenten über den Verstand und die ethischen Konsequenzen der Schaffung künstlicher Wesen mit menschenähnlicher Intelligenz geführt, welche schon seit der Antike von Mythos, Fiktion und Philosophie untersucht wurden. Informatiker und Philosophen haben darauf hingewiesen, dass KI ein existenzielles Risiko für die Menschheit darstellen kann, wenn ihre rationalen Fähigkeiten nicht auf nützliche Ziele ausgerichtet werden.

Geschichte

Künstliche Wesen mit Intelligenz tauchten in der Antike als Mittel zur Erzählung von Geschichten auf und waren in der Fiktion üblich, wie in Mary Shelleys „Frankenstein“ oder Karel Čapeks „RUR“. Diese Charaktere und ihre Schicksale werfen viele der gleichen Probleme auf, die jetzt in der Ethik der künstlichen Intelligenz diskutiert werden.

Das Studium des mechanischen oder „formalen“ Denkens begann bei Philosophen und Mathematikern in der Antike. Das Studium der Mathematischen Logik führte direkt zur Berechnungstheorie von Alan Turing, welche darauf hindeutete, dass eine Maschine durch Mischen von einfachen Symbolen wie „0“ und „1“ jeden denkbaren Akt der Mathematischen Schlussfolgerung simulieren könnte. Diese Einsicht, dass digitale Computer jeden Prozess des formalen Denkens simulieren können, ist als Church-Turing-These bekannt. Dies zusammen mit gleichzeitigen Entdeckungen in Neurobiologie, Informationstheorie und Kybernetik führte die Forscher dazu, die Möglichkeit des Baus eines elektronischen Gehirns in Betracht zu ziehen. Die erste Arbeit, die heute allgemein als KI anerkannt wird, war 1943 McCullouchs und Pitts formales Design für Turing-vollständige „künstliche Neuronen“.

In den 1950er Jahren entstanden zwei Visionen für die Erreichung von KI. Eine Vision, die als symbolische KI oder GOFAI bekannt ist, beinhaltete die Verwendung von Computern, um eine symbolische Darstellung der Welt und Systeme zu erstellen, die über die Welt nachdenken können. Dieser Ansatz war eng verbunden mit dem Ansatz der „heuristischen Suche“, der Intelligenz mit einem Problem der Erforschung eines Raums von Antwortmöglichkeiten verglich. Die zweite Vision, die als konnektionistischer Ansatz bekannt ist, zielte darauf ab, Intelligenz durch Lernen zu erreichen, und nutzte künstliche neuronale Netze als Inspiration. In den letzten Jahrzehnten hat der konnektionistische Ansatz wieder an Bedeutung gewonnen.

Die KI-Forschung wurde 1956 bei einem Workshop am Dartmouth College gegründet und von den Teilnehmern und ihren Schülern weiterentwickelt. Sie produzierten Programme, die in der Presse als „erstaunlich“ beschrieben wurden, wie z.B. Computer, die Damestrategien lernten, Wortaufgaben in Algebra lösten, logische Theoreme bewiesen und Englisch sprachen. Bis Mitte der 1960er Jahre wurde die Forschung stark vom US-Verteidigungsministerium finanziert und Labore wurden weltweit eingerichtet.

In den 1960er und 1970er Jahren glaubten Forscher, dass es möglich sein würde, eine Maschine mit künstlicher allgemeiner Intelligenz zu schaffen, und sahen dies als Ziel ihres Fachgebiets. Herbert Simon und Marvin Minsky prognostizierten, dass dies innerhalb einer Generation erreicht werden könnte. Jedoch wurde der Fortschritt verlangsamt und 1974, aufgrund von Kritik und Finanzierungsdruck, stellten die US-amerikanische und britische Regierung die explorative Forschung in der KI ein. Dies führte zu einer „KI-Winter“ in den nächsten Jahren, in denen es schwierig war, Fördermittel für KI-Projekte zu bekommen.

In den frühen 1980er Jahren erlebte die KI-Forschung durch den kommerziellen Erfolg von Expertensystemen eine Renaissance. Diese Form von KI-Programmen simulierten das Wissen und die analytischen Fähigkeiten von menschlichen Experten. Bis 1985 hatte der Markt für KI über eine Milliarde Dollar erreicht. Dies inspirierte auch die Regierungen der USA und Großbritanniens, die Finanzierung der akademischen Forschung wiederaufzunehmen. Jedoch geriet die KI erneut in Verruf, als der Markt für Lisp-Maschinen 1987 zusammenbrach und ein zweiter, länger andauernder Winter begann.

In den 1980er Jahren begannen viele Forscher, die symbolische KI in Frage zu stellen, da sie der Ansicht waren, dass sie nicht in der Lage sein würde, alle Prozesse der menschlichen Kognition nachzuahmen, insbesondere Wahrnehmung, Robotik, Lernen und Mustererkennung. Stattdessen begannen sie sich mit „subsymbolischen“ Ansätzen für bestimmte KI-Probleme zu befassen. Robotikforscher wie Rodney Brooks wandten sich von der symbolischen KI ab und konzentrierten sich auf grundlegende technische Probleme, die es Robotern ermöglichen würden, sich zu bewegen, zu überleben und ihre Umgebung zu lernen. Das Interesse an neuronalen Netzen und „Verbindungismus“ wurde von Geoffrey Hinton, David Rumelhart und anderen in den 1980er Jahren wiederbelebt. Soft-Computing-Tools wurden ebenfalls entwickelt, wie z.B. neuronale Netze, Fuzzy-Systeme, Grey-System-Theorie, evolutionäre Berechnungen und viele Tools, die aus Statistiken oder mathematischer Optimierung stammen.

Ende der 1990er und Anfang des 21. Jahrhunderts hat die KI ihren Ruf allmählich wiederhergestellt, indem sie spezifische Lösungen für spezifische Probleme gefunden hat. Der enge Fokus ermöglichte es den Forschern, überprüfbare Ergebnisse zu erzielen, mehr mathematische Methoden zu nutzen und mit anderen Bereichen wie Statistik, Wirtschaft und Mathematik zusammenzuarbeiten. Bis zum Jahr 2000 waren von KI-Forschern entwickelte Lösungen weit verbreitet, obwohl sie in den 1990er Jahren selten als „künstliche Intelligenz“ bezeichnet wurden.

Schnellere Computer, algorithmische Verbesserungen und Zugang zu großen Datenmengen ermöglichten Fortschritte im maschinellen Lernen und der Wahrnehmung. Deep-Learning-Methoden, die viel Daten benötigen, begannen um 2012 herum, Genauigkeits-Benchmarks zu dominieren. 2015 wurde als ein wegweisendes Jahr für künstliche Intelligenz betrachtet, mit einer Zunahme der Softwareprojekte, die KI innerhalb von Google verwenden. Dies wurde auf eine Zunahme erschwinglicher neuronaler Netze zurückgeführt, aufgrund von Cloud-Computing-Infrastruktur und einer Zunahme von Forschungswerkzeugen und Datensätzen. In einer Umfrage aus dem Jahr 2017 gab jedes fünfte Unternehmen an, KI in einige Angebote oder Prozesse integriert zu haben. Der Umfang der KI-Forschung hat in den Jahren 2015-2019 um 50% zugenommen.

Zahlreiche akademische Forscher befürchten, dass die KI nicht mehr das ursprüngliche Ziel verfolgt, vielseitige, vollintelligente Maschinen zu schaffen. Ein großer Teil der aktuellen Forschung konzentriert sich auf statistische KI, die hauptsächlich zur Lösung spezifischer Probleme eingesetzt wird, auch mit sehr erfolgreichen Techniken wie Deep Learning. Diese Sorge hat zum Teilgebiet der künstlichen allgemeinen Intelligenz (AGI) geführt, das in den 2010er Jahren mehrere gut finanzierte Institutionen hatte.