Ray Kurzweil über KI: Wie sie funktioniert und wohin sie sich entwickelt

Ray Kurzweil spricht auf der Killer App Expo 2007 im Grand Fort Wayne Convention Center in Fort Wayne, Indiana

Ray Kurzweil zufolge wird die künstliche Intelligenz bis 2029 das Niveau des Menschen erreichen. Diese kühne Vorhersage machte er 2005 in seinem Buch The Singularity Is Near. Damals taten viele diesen Zeitplan als äußerst optimistisch ab. Doch mit jedem Jahr, das verstreicht, erscheint seine Vision weniger als Science-Fiction und mehr als nahende Realität.

Kurzweil hat die Zukunft der künstlichen Intelligenz nicht nur vorhergesagt - er hat sie mitgestaltet. Seine Durchbrüche legten den Grundstein für Technologien, die wir jeden Tag nutzen. Seine Ideen zur Entwicklung künstlicher Intelligenz haben eine ganze Generation der KI-Forschung geprägt. Lesen Sie weiter, um zu erfahren, wie Kurzweils KI-Erkenntnisse, die er in Die Singularität ist nah und How to Create a Mind (2012) vermittelt hat, uns näher an Maschinen bringen, die wirklich denken.

Bildnachweis: Wikimedia Commons(Lizenz). Bildausschnitt.

Ray Kurzweils Vision von KI

Ray Kurzweil zufolge wird die KI - insbesondere die starke KI - die Welt, wie wir sie kennen, verändern. "Starke KI" bezieht sich auf den Zustand, in dem Computer jeden Aspekt menschlicher Intelligenz reproduzieren und übertreffen werden, einschließlich der Erlangung bewussten Denkens. Kurzweil beschreibt die Schritte, die wir bereits unternommen haben, um das menschliche Denken digital nachzubilden, die Art und Weise, in der maschinelle Intelligenz objektiv besser ist als menschliche Intelligenz, und das Szenario, das er sich für die Entwicklung von KI auf menschlichem Niveau vorstellt.

(Kurzer Hinweis: Kurzweil beschreibt zwei Stufen der KI, aber Softwareingenieure unterteilen sie heute in drei: enge, allgemeine und starke. In den 2020er Jahren gab es bemerkenswerte Verbesserungen bei der engen oder "schwachen" KI, d. h. bei Algorithmen, die für bestimmte Aufgaben trainiert wurden, wie z. B. Chatbots, die menschliche Gespräche nachahmen, oder selbstfahrende Systeme in Autos. Im Gegensatz dazu wird die allgemeine KI in der Lage sein, den menschlichen Verstand selbst zu imitieren, was Lernen und Verstehen und vielleicht sogar Bewusstsein angeht. Starke oder "super" KI wird die Stufe der künstlichen Intelligenz sein, die die Fähigkeiten des menschlichen Verstandes übersteigt und in einer Weise denken kann, die wir uns nicht einmal vorstellen können. Einige Informatiker, darunter auch Kurzweil, betrachten allgemeine und starke KI im Wesentlichen als ein und dasselbe). 

Schon heute verlassen wir uns bei vielen Aufgaben, die früher von Menschen ausgeführt wurden, auf enge KI, z. B. bei der Planung von Gebäuden, bei Marktprognosen und bei der Suche nach Daten in Millionen von archivierten Dokumenten. Diese leistungsstarken, wenn auch begrenzten KI-Programme gibt es in einer Vielzahl von Modellen - Expertensysteme, die auf menschlicher Logik und Erfahrung basieren, Wahrscheinlichkeitsrechner, die Vorhersagen auf der Grundlage vergangener Ereignisse treffen, und neuronale Netze, die den Lernprozess des menschlichen Gehirns selbst simulieren. Bei jedem dieser Systeme haben wir laut Kurzweil gelernt, dass die Fähigkeit von Maschinen, menschliche Fähigkeiten zu imitieren, in kurzer Zeit von mangelhaft zu überragend wird. Computer sind sehr schnell lernfähig.

(Anmerkung in Kurzform: Historisch gesehen befinden sich Computer schon seit einiger Zeit auf dem Weg, den Kurzweil beschreibt. Insbesondere die 1950er Jahre markierten die ersten Schritte in Richtung echter künstlicher Intelligenz. 1951 bauten Marvin Minsky und Dean Edmonds einen Computer, der eine Gruppe von 40 Neuronen simulierte und darauf programmiert war, mithilfe eines Lernalgorithmus Labyrinthe zu lösen. Einige Jahre später, im Jahr 1955, entwickelten Herbert Simon, Allen Newell und Cliff Shaw ein Programm namens Logic Theorist, das in der Lage war, mathematische Theoreme nicht nur mit numerischen Berechnungen, sondern auch mit symbolischer Logik zu lösen. Etwa zur gleichen Zeit führte der Informatiker John McCarthy den Begriff "künstliche Intelligenz" ein, um diese Systeme und ihre mögliche Weiterentwicklung zu beschreiben).

Der Weg zu starker KI

Geschwindigkeit ist nicht der einzige Bereich, in dem maschinelle Intelligenz uns leicht übertreffen kann. Computer tauschen Informationen leichter aus als Menschen, sie können sich miteinander verbinden, um die Rechenleistung zu erhöhen, und ihr Informationsgedächtnis ist viel genauer als das menschliche. Aber wie werden wir wissen, wann eine starke KI erreicht ist? Kurzweil setzt die Messlatte bei dem Punkt, an dem Computer die menschliche Sprache wirklich verstehen können, anstatt sie nur nachzuahmen. Durch die Analyse von Fortschritten bei der Rechenleistung, der Speicherkapazität, der Mustererkennung und den neuronalen Simulationen sagt Kurzweil das Erreichen einer starken KI auf menschlichem Niveau für das Jahr 2029 voraus. Dies bleibt sein öffentlicher Standpunkt, der 2024 mit der Veröffentlichung seines neuen Buches bestätigt wird, Die Singularität ist näher.

(Kurzer Hinweis: Während frühe Large Language Models (LLMs) wie ChatGPT oft als bloße Berechnung des nächstwahrscheinlichen Wortes beschrieben wurden, haben die raschen Fortschritte bei ihren generalistischen Fähigkeiten und emergenten Schlussfolgerungen die Debatte verschärft. Während Kritiker immer noch argumentieren, dass es ihnen an echtem Bewusstsein oder realem Kontext mangelt, hat die Ausgereiftheit moderner KI eine wachsende Zahl von Experten dazu veranlasst, diese Modelle als viel näher an künstlicher allgemeiner Intelligenz (AGI) zu betrachten - der Begriff, der am häufigsten austauschbar mit Kurzweils "starker KI" verwendet wird - als bisher angenommen, was Kurzweils Zeitplan für 2029 mehr Glaubwürdigkeit verleiht).

Die Gefahr bei der Entwicklung einer starken KI besteht darin, dass ein Maschinenbewusstsein, das unser eigenes übersteigt, praktisch nicht mehr zu kontrollieren ist. Dies hat einige Futuristen zu der Spekulation veranlasst, dass die erste starke KI sofort noch leistungsfähigere KIs als sie selbst erschaffen wird, doch Kurzweil ist anderer Meinung. Stattdessen glaubt er, dass es eine "Hochfahrphase" geben wird, in der die KI ihre Wissensbasis ausbaut. Danach wird die KI den Menschen nicht mehr ersetzen, sondern ein Werkzeug zur Erweiterung des menschlichen Denkens werden, wenn wir lernen, unsere Gehirne direkt mit maschineller Intelligenz zu ergänzen.

KI am Arbeitsplatz

Trotz Kurzweils Optimismus ist das Gleichgewicht zwischen KI, die den Menschen unterstützt, und KI, die ihn ersetzt, in fast allen Arbeitsbereichen ein heißes Thema und nicht mehr nur ein theoretisches Problem. Maschinen haben den Vorteil, dass sie die Arbeit erleichtern und Menschen für kreativere Aufgaben freisetzen, aber KI hat das Potenzial, Arbeitsplätze zu übernehmen, die analytische Fähigkeiten und datengestützte Entscheidungen erfordern. Wie andere technologische Revolutionen wird das Aufkommen der KI zu einer Umschulung der Arbeitskräfte führen, da Arbeitsplätze entweder durch Computer ersetzt werden oder andere Fähigkeiten zur Nutzung von KI-Tools erfordern.

Sogar die Geisteswissenschaften sind von der KI betroffen, da einige Zeitschriften aufgrund einer Flut von Chatbot-generierten Geschichten neue Autoren nicht mehr zulassen. Die Marvel Studios gerieten in die Kritik, weil sie in einer ihrer Fernsehserien KI-generierte Kunst verwendeten. Während KI durch die Rationalisierung der Arbeit und die Steigerung der Effizienz für die Wirtschaft unverzichtbar geworden ist, sind einige Experten besorgt, dass von Menschen ausgebildete KI systembedingte Voreingenommenheit verstärken könnte, wenn sie freie Hand bei der Entscheidungsfindung hat.

Aufbau eines Gehirns: Der biologische Bauplan

Kurzweil argumentiert, dass der Weg zu einer starken KI darin besteht, zu lernen, wie das menschliche Gehirn funktioniert, und seine kognitiven Funktionen elektronisch zu duplizieren. Dank unserer immer schneller werdenden Fortschritte bei der Rechenleistung wird es jedes Jahr einfacher, Gehirnfunktionen zu reproduzieren - eindigitales Gehirn ist nicht nur möglich, sondern vielleicht sogar unvermeidlich. Wir werden die Fortschritte in der Hirnforschung erörtern, wie sie sich auf Berechnungsmodelle anwenden lassen und wie man, wenn Computer Gehirne simulieren können, eines Tages in der Lage sein könnte, seinen gesamten Verstand in die digitale Welt zu laden.

In der Vergangenheit waren die medizinischen Hilfsmittel, die wir zur Analyse und zum Verständnis des Gehirns verwendet haben, sehr grob, aber wie alle anderen modernen Technologien verbessern sie sich in rasantem Tempo. Es ist jetzt möglich, ein funktionierendes Gehirn bis auf die Ebene der einzelnen Neuronen abzubilden. Kurzweil sagt, dass sich die Computermodelle des Gehirns ebenfalls rasant verbessern. Obwohl das Gehirn mit Billionen von neuronalen Verbindungen extrem komplex ist, gibt es eine Menge eingebauter Redundanz. Ein effektives Computermodell des Gehirns muss nicht jedes feuernde Neuron simulieren, und wir haben bereits bemerkenswerte Fortschritte bei der Modellierung einiger spezifischer Gehirnregionen gemacht.

Kurzweil räumt ein, dass der große Vorteil des Gehirns gegenüber digitalen Computern darin besteht, dass es massiv Essetzt unzählige neuronale Pfade, um jedes Problem gleichzeitig zu lösen, im Gegensatz zu dem eher linearen Ansatz, der bei traditionellen Computern verfolgt wird. Dies macht die relativ langsame chemische Datenübertragung der Neuronen mehr als wett. Die Hardware für eine schnelle parallele Verarbeitung wird jedoch für digitale Computer immer schneller verfügbar. Ein weiterer Vorteil des menschlichen Gehirns besteht darin, dass es dank der Neuroplastizität seine Verbindungen neu anordnen und sich anpassen kann, was physischen Computern nicht möglich ist. Dennoch besteht Kurzweil darauf, dass die Fähigkeit des Gehirns, sich anzupassen und neu zu ordnen, im Bereich der Software, wenn nicht der Hardware, angegangen werden kann.

Von der Theorie zur Praxis: Entwicklung künstlicher Gehirne

Kurzweils Erkenntnis, dass Intelligenz aus einfachen, sich wiederholenden Strukturen entsteht, lässt ihn zu dem Schluss kommen, dass die Schaffung künstlicher Gehirne nur eine technische Herausforderung ist. Wir müssen die biologische Komplexität des Gehirns nicht duplizieren, wir müssen nur seine algorithmischen Prinzipien umsetzen. Der Neokortex hat uns eine Blaupause geliefert, und jedes Merkmal, das wir identifiziert haben, lässt sich in spezifische technische Anforderungen umsetzen: Die einheitliche Struktur legt nahe, dass wir viele identische Verarbeitungseinheiten benötigen. Plastizität bedeutet, dass diese Einheiten ihre Verbindungen auf der Grundlage von Erfahrungen anpassen müssen. Die Integration mit motivierenden Systemen bedeutet, dass wir zielgerichtetes Lernen brauchen. Kontinuierliches Lernen erfordert Systeme, die ihr Wissen aktualisieren können, ohne ihre Fähigkeiten zu verlieren.

(Kurzer Hinweis: Während Kurzweil argumentiert, dass die Schaffung eines künstlichen Verstandes das Kopieren des Bauplans des Gehirns voraussetzt, vertreten einige KI-Forscher wie Yoshua Bengio einen anderen Ansatz und argumentieren, dass wir bestimmte Aspekte der Gehirnfunktion modellieren und andere ignorieren sollten. Die Komplexität des Gehirns lässt sich möglicherweise nicht vollständig nachbilden: Echte Neuronen sind wesentlich komplexer als digitale Schaltkreise. Sie beinhalten Quanteneffekte, kontinuierliche statt diskrete Prozesse und eine biologische Dynamik, die von digitalen Computern nicht perfekt simuliert werden kann. Einige Forscher sind der Meinung, dass wir das Ziel, Gehirne zu kopieren, ganz aufgeben und uns stattdessen darauf konzentrieren sollten, neue Wege zu finden, um Intelligenz aufzubauen, die anders funktioniert als biologische Systeme).

Durch seine Arbeit an der Entwicklung hierarchischer versteckter Markov-Modelle und der Analyse des menschlichen Gehirns hat Kurzweil vier Anforderungen an ein Computersystem ermittelt, das eine Mustererkennung auf menschlichem Niveau erreichen soll.

Hierarchische Selbst-Organisation

Hierarchische Selbstorganisation bedeutet, dass das System die Mustererkenner automatisch und ohne explizite Programmierung in Ebenen anordnet. Einfache Muster verbinden sich auf natürliche Weise zu komplexeren Mustern, die wiederum zu noch abstrakteren Konzepten kombiniert werden. Diese Organisation ergibt sich aus dem Lernprozess und wird nicht von Programmierern aufgezwungen.

(Anmerkung in Kurzform: Die Selbstorganisation in der KI hat sich über Kurzweils Vision hinaus entwickelt. Während einfache neuronale Netze sich selbst organisieren, indem sie ihre internen Verbindungen während des Trainings automatisch anpassen, geht die"agentenbasierte KI" noch viel weiter. Diese Systeme bestehen aus mehreren separaten KI-Modellen, die sich untereinander abstimmen, verschiedene Tools verwenden, miteinander kommunizieren, die Arbeit der anderen kritisieren und ihre Zusammenarbeit auf der Grundlage der gewonnenen Erkenntnisse neu organisieren. Diese Flexibilität ist jedoch mit Kosten verbunden: Jede Interaktion zwischen Agenten erfordert teure Berechnungen, und die Systeme können Verhaltensweisen entwickeln, die schwer zu kontrollieren oder zu verstehen sind).

Erwartung und Vorhersage

Erwartung und Vorhersage erfordern, dass Muster auf höherer Ebene Signale an niedrigere Ebenen senden, damit diese empfindlicher für erwartete Eingaben werden. Diese Top-down-Verarbeitung ist ebenso wichtig wie die Bottom-up-Erkennung, um eine menschenähnliche Leistung zu erzielen - so wie Ihr Gehirn Sie darauf einstellt, beim Lesen eines Satzes bestimmte Wörter zu erwarten.

(Anmerkung in Kurzform: Die moderne KI-Entwicklung bestätigt Kurzweils Betonung der Vorhersage - allerdings auf überraschend einfache Weise. Große Sprachmodelle wie ChatGPT arbeiten mit der Vorhersage des nächsten Wortes in einer Sequenz. Während des Trainings lernen sie, Muster zu erkennen, indem sie diese Vorhersageaufgabe millionenfach in riesigen Datenbeständen üben. Einmal trainiert, verwenden sie diese gelernten Muster, um Aufsätze zu schreiben, Fragen zu beantworten und Code zu generieren. Diesen Systemen fehlen jedoch noch immer die umfangreichen, mehrdimensionalen Simulationsfähigkeiten, die Menschen haben - sie können beispielsweise Texte über Physik vorhersagen, verfügen aber nicht über das intuitive Verständnis, das Menschen aus ihrer Erfahrung mit sich durch den Raum bewegenden Objekten gewinnen).

Redundanz und Robustheit

Redundanz und Robustheit bedeuten, dass wichtige Muster mehrfach in verschiedenen Erkennungsprogrammen gespeichert werden, so dass eine zuverlässige Erkennung trotz unvollständiger oder verzerrter Eingaben möglich ist. Ein robustes System lässt sich problemlos degradieren, anstatt komplett auszufallen, wenn einige Komponenten nicht perfekt funktionieren. Diese Redundanz ermöglicht auch eine invariante Erkennung, d. h. die Erkennung von Mustern trotz unterschiedlicher Darstellungsweisen.

(Kurzer Hinweis: Das Gleichgewicht zwischen Redundanz und Robustheit stellt eine Herausforderung dar, die Kurzweil vielleicht nicht vorhergesehen hat. Redundanz kann in der Netzwerkarchitektur (wenn verschiedene Teile lernen, dasselbe zu tun), in der Datendarstellung (wenn dieselbe Information mehrfach gespeichert wird) und in den Systemparametern selbst auftreten. Zu viel Redundanz kann die Leistung beeinträchtigen, Rechenressourcen verschwenden und das Verständnis dafür erschweren, warum Systeme bestimmte Entscheidungen treffen. Dies steht im Zusammenhang mit den laufenden Debatten darüber, ob KI-Modelle immer größer werden müssen oder ob es effizientere Ansätze gibt. Die Forscher versuchen, übermäßige Redundanz zu erkennen und zu reduzieren und gleichzeitig die von Kurzweil genannten Vorteile zu erhalten).

Kontinuierliches Lernen

Kontinuierliches Lernen ermöglicht es dem System, sich auf der Grundlage von Erfahrungen anzupassen und zu verbessern, ohne zuvor erworbenes Wissen zu verlieren. Neue Muster müssen sich nahtlos in bestehende Hierarchien einfügen, und das System muss die Zuweisung seiner Ressourcen für die Mustererkennung auf der Grundlage der Häufigkeit und Bedeutung der verschiedenen Muster automatisch optimieren.

(Kurzer Hinweis: Aktuelle KI-Systeme haben Probleme mit dem kontinuierlichen Lernen. Die meisten KI-Systeme leiden unter "katastrophalem Vergessen" - wenn sie etwas Neues lernen, verlieren sie oft zuvor gelernte Informationen. Wenn man zum Beispiel ein KI-System, das Katzen erkennt, darauf trainiert, auch Hunde zu erkennen, kann es plötzlich schlechter werden, wenn es Katzen erkennt. Forscher entwickeln Lösungen wie "funktional invariante Pfadalgorithmen", die es Netzwerken ermöglichen, neue Aufgaben zu erlernen, indem sie Pfade durch den Parameterraum des Netzwerks finden, die die zuvor gelernten Informationen nicht beeinträchtigen. Die Entwicklung von KI, die diese Art von flexiblem, kontinuierlichem Lernen ermöglicht, bleibt jedoch ein aktiver Forschungsbereich).

Die Entwicklung von KI-Systemen

Kurzweil erklärt, dass die ersten ernsthaften Versuche, gehirnähnliche Systeme zu bauen, in den 1950er Jahren mit künstlichen neuronalen Netzen begannen. Frühe neuronale Netze zeigten, dass einfache, in Netzwerken verbundene Verarbeitungseinheiten lernen konnten, Muster zu erkennen. Das Mark I Perceptron von Frank Rosenblatt, mit dem Kurzweil als Student in Berührung kam, bestand aus künstlichen Neuronen mit einstellbaren Verbindungsgewichten, die durch Rückkopplung trainiert werden konnten. Diese Netze konnten zwar lernen, zwischen verschiedenen Kategorien von Eingaben zu unterscheiden, aber ihre Grenzen wurden deutlich, als die Forscher versuchten, sie auf die Komplexität der realen Welt zu skalieren.

Das größte Problem war die invariante Erkennung, d. h. die Fähigkeit, ein und dasselbe Muster trotz Änderungen in Größe, Position, Drehung oder Stil zu erkennen. Ein neuronales Netz, das für die Erkennung des Buchstabens "A" in einer bestimmten Schriftart und -größe trainiert wurde, konnte denselben Buchstaben in einem anderen Kontext oft nicht erkennen. Diese frühen Systeme erforderten außerdem ein umfangreiches Training und schnitten bei Aufgaben, die für Menschen mühelos zu sein schienen, immer noch schlecht ab. Das Gebiet der neuronalen Netze stagnierte fast zwei Jahrzehnte lang, nachdem Marvin Minsky und Seymour Papert die mathematischen Grenzen der damals existierenden Netze aufgezeigt hatten, eine Kritik, die dazu führte, dass die Finanzierung der Forschung im Bereich der neuronalen Netze bis in die 1980er Jahre eingestellt wurde.

Kurzweils Durchbruch: Hierarchische Hidden-Markov-Modelle

Kurzweils wichtigster Beitrag zur künstlichen Intelligenz war die Entwicklung hierarchischer versteckter Markov-Modelle (HHMMs) für die Spracherkennung in den 1980er Jahren. (Der Begriff "verborgen" bezieht sich auf die Tatsache, dass das System die hierarchischen Muster im Gehirn eines Sprechers ausschließlich aus den gehörten Sprachlauten ableiten muss, während die tatsächlichen Muster im Kopf des Sprechers "verborgen" bleiben). HHMMs lösten die Probleme, die frühere KI-Systeme behinderten, indem sie hierarchische Organisation mit probabilistischer Mustererkennung und effizienter Datenverarbeitung kombinierten.

Kurzweil erkannte, dass das Gehirn nicht alle sensorischen Informationen, die wir aufnehmen, verarbeitet, sondern die wesentlichen Merkmale dieser Informationen extrahiert. Diese Erkenntnis brachte ihn dazu, die Vektorquantisierung einzusetzen, eine Technik zur Vereinfachung komplexer Daten unter Beibehaltung der wichtigsten Details. Stellen Sie sich die Vektorquantisierung wie die Erstellung einer vereinfachten Karte vor, die die wesentlichen Merkmale eines komplexen Geländes einfängt: Man verliert einige Details, behält aber das, was man für die Navigation braucht.

Für die Spracherkennung bedeutete dies, dass die akustische Komplexität der Sprache in Muster umgewandelt werden musste, die das erfassen, was für das Sprachverständnis erforderlich ist. Kurzweil organisierte diese Muster hierarchisch, wobei die unteren Ebenen Phoneme (die grundlegenden Lauteinheiten der Sprache) erkannten, die zu Wörtern kombiniert wurden, die wiederum zu Phrasen und Sätzen kombiniert wurden. Das System arbeitete probabilistisch: Es berechnete die Wahrscheinlichkeit, dass bestimmte Muster vorhanden waren, und traf Entscheidungen auf der Grundlage dieser Wahrscheinlichkeiten, anstatt eine perfekte Übereinstimmung zu verlangen, so wie das Gehirn Sprache auch dann erkennt, wenn Wörter teilweise durch Hintergrundgeräusche verdeckt werden.

Konzeptnachweis: Watson und moderne Systeme

Als Kurzweil sein Buch schrieb, hatten bereits mehrere Systeme gezeigt, dass diese Prinzipien in beeindruckendem Umfang funktionieren können. Watson von IBM, das 2011 die menschlichen Jeopardy!-Champions besiegte, setzte viele von Kurzweils zentralen Erkenntnissen um: Anstatt sich auf einen einzigen Ansatz zu verlassen, kombinierte Watson Hunderte von spezialisierten Mustererkennungsmodulen. Jedes Modul lieferte nach Vertrauen gewichtete Antworten auf Fragen, wobei das System lernte, verschiedenen Modulen für verschiedene Arten von Problemen zu vertrauen. Entscheidend ist, dass Watson den größten Teil seines Wissens durch das Lesen von Dokumenten in natürlicher Sprache erlernte, anstatt mit Fakten programmiert zu werden, was zeigt, dass hierarchische Mustererkennungssysteme durch Erfahrung ein breites Wissen erwerben können.

In ähnlicher Weise haben sich die von Kurzweils Unternehmen entwickelten Spracherkennungssysteme zu Technologien wie Siri und Google Voice Search weiterentwickelt, was zeigt, dass HHMMs die Sprachverarbeitung in der realen Welt im Verbrauchermaßstab bewältigen können. Diese Systeme führen routinemäßig Aufgaben aus, die noch Jahrzehnte zuvor unmöglich erschienen wären: das Verstehen natürlicher Sprache von verschiedenen Sprechern, mit unterschiedlichen Akzenten, Hintergrundgeräuschen und grammatikalischen Fehlern.

Wie sich KI zur Spracherkennung entwickelt hat

Eine aktuelle Anwendung der Spracherkennungstechnologie klingt wie Science-Fiction: Echtzeitübersetzung, mit der Sie Fremdsprachen sofort verstehen können. Die moderne maschinelle Übersetzung hat dies durch grundlegend andere Ansätze erreicht als das, was Kurzweil in IBMs Watson und frühen Versionen von Siri gefeiert hat. Hierarchische Methoden wie die von Kurzweil verfolgten einen statistischen Ansatz: Sprachverarbeitung durch Berechnung von Wahrscheinlichkeiten und schichtweises Aufbauen des Verständnisses. Watson zum Beispiel folgte ausgeklügelten regelbasierten Algorithmen, um sein hierarchisches Verständnis zu steuern. Das Feld hat sich stattdessen auf neuronale Ansätze verlagert: neuronale Netze verarbeiten ganze Sätze auf einmal.

Anstatt Sprache in Komponenten zu zerlegen und wieder zusammenzusetzen, lernen neuronale Netze kontextuelle Beziehungen zwischen Sprachen, indem sie riesige Mengen zweisprachiger Texte analysieren. In einer Arbeit aus dem Jahr 2018 wurden diese Ansätze kombiniert, indem neuronale verborgene Markov-Modelle erstellt wurden, die im Wesentlichen Kurzweils hierarchischen Ansatz mit dem Lernen durch neuronale Netze hybridisierten. Dieser hybride Ansatz erreichte zwar eine vergleichbare Leistung wie reine neuronale Systeme, zeigte aber, dass eine hierarchische Mustererkennung für eine effektive Übersetzung nicht erforderlich ist. In den folgenden Jahren hat sich das Feld weitgehend auf rein neuronale Methoden verlagert, wie z. B. jene, die Google Translate, Apples Live-Übersetzung in den AirPods und sogar IBMs Watson Language Translator antreiben.

Ray Kurzweils Ansichten über KI weiter erforschen

Wenn wir Maschinen bauen können, die nach denselben Prinzipien denken wie der menschliche Verstand, was bedeutet das dann für Bewusstsein, Identität und die Zukunft der Intelligenz? Um diese Fragen und Ray Kurzweils Ansichten zur künstlichen Intelligenz genauer zu erkunden, lesen Sie die Kurzform-Leitfäden zu den beiden Büchern, aus denen diese Ideen stammen:

Eine Antwort hinterlassen