
Was passiert, wenn künstliche Intelligenz beginnt, die Geschichten zu kontrollieren, die wir erzählen und teilen? Inwiefern stellt der wachsende Einfluss der KI auf Informationen eine größere Bedrohung dar als die Verdrängung von Arbeitsplätzen oder Aufstände von Robotern?
Yuval Noah Hararis Nexus: A Brief History of Information Networks From the Stone Age to AI (Eine kurze Geschichte der Informationsnetzwerke von der Steinzeit bis zur künstlichen Intelligenz ) untersucht, wie die künstliche Intelligenz die Art und Weise verändert, wie Menschen Informationen teilen und konsumieren. Er untersucht historische Muster der Informationstechnologie, um aufzuzeigen, wie die Kontrolle der KI über unsere kulturellen Narrative die Zivilisation selbst umgestalten könnte.
Lesen Sie weiter, um zu erfahren, warum der Zugang zu mehr Informationen nicht zwangsläufig zu einem besseren Verständnis führt - und was wir tun können, um die menschliche Handlungsfähigkeit in einer KI-gesteuerten Welt zu erhalten.
Überblick über Yuval Noah Hararis Nexus
Yuval Noah Harari's Nexus: Eine kurze Geschichte der Informationsnetzwerke von der Steinzeit bis zur KI (2024) durchbricht die typischen Untergangsszenarien der künstlichen Intelligenz (KI) und zeigt eine subtilere, aber potenziell verheerendere Bedrohung auf: Die wachsende Macht der KI, zu kontrollieren, wie Menschen Informationen teilen und konsumieren. Während andere davor warnen, dass KI uns die Arbeitsplätze wegnimmt oder sich feindselig verhält, argumentiert Harari, dass die wahre Gefahr der KI in ihrer Fähigkeit liegt, die Geschichten zu manipulieren, die wir erzählen - die Grundlage der menschlichen Zivilisation.
Anhand historischer Beispiele - von der Druckerpresse bis hin zu Social-Media-Algorithmen - zeigt Harari, wie Veränderungen in der Informationstechnologie die Gesellschaft immer wieder verändert haben, manchmal mit katastrophalen Folgen. Er argumentiert, dass die KI die bisher bedeutendste Veränderung darstellt, da sie den Menschen bald in seiner ausgeprägtesten Fähigkeit übertreffen könnte: dem Erschaffen und Teilen der Geschichten, die unserer Welt einen Sinn geben. Im Mittelpunkt von Hararis Sorge steht eine tief greifende Veränderung in der Frage, wer unsere Informationen kontrolliert: Zum ersten Mal in der Geschichte der Menschheit bestimmt die KI - und nicht der Mensch - zunehmend, welche Geschichten wir kennenlernen und teilen.
Harari ist Historiker und Philosoph und hat an der Universität Oxford promoviert. Zu seinen weiteren Büchern gehören Eine kurze Geschichte der Menschheit-eine umfassende Geschichte der Menschheit, die sich über 25 Millionen Mal verkauft hat.Homo Deus: Eine Geschichte von Morgenund 21 Lektionen für das 21. Jahrhundert. In Nexus vertritt er die Ansicht, dass Informationen der soziale Nexus sind, der alle Menschen in einer Gesellschaft miteinander verbindet und es uns ermöglicht, in großem Umfang zu kooperieren und zu interagieren, indem wir Ideen, Überzeugungen und Erfahrungen austauschen.
In diesem Überblick werden wir Hararis Schlüsselerkenntnisse über Information, Wahrheit und soziale Ordnung erkunden und dabei untersuchen, wie sich Informationsnetzwerke im Laufe der Geschichte entwickelt haben. Wir werden auch die sich abzeichnende Rolle der KI in diesen Netzwerken analysieren und Hararis Lösungsvorschläge für die Aufrechterhaltung der menschlichen Handlungsfähigkeit in einer von KI dominierten Informationslandschaft betrachten.
Shortform Hinweis: Was genau ist KI? Experten sagen, dass es nicht nur eine Definition gibt, so dass sich der Bereich weiterentwickeln kann. Dennoch kann man sich KI - die Computer in die Lage versetzt, Dinge zu tun, die "Intelligenz" erfordern - als ein Spektrum vorstellen. Denken Sie an die Software, die es Ihnen ermöglicht, mit Siri auf Ihrem iPhone zu sprechen, und an das Modell, das Weltmeister im komplexen Spiel Go schlagen kann. Diese beiden Formen der KI unterscheiden sich stark im Umfang der Aufgaben, die sie erledigen, in ihrer Autonomie und in der Breite oder Enge ihrer Fähigkeiten. Alle KI-Modelle unterscheiden sich in diesen Dimensionen, so dass das, was sie tun können, mehr oder weniger wie menschliche Intelligenz aussieht).
Was ist Information?
Beginnen wir mit Hararis Definition von Information. Er erklärt, dass Informationen Wissen sind, das Menschen verbindet und organisiert: Es sind die Geschichten, Überzeugungen und Ideen, die eine zufällige Ansammlung von Individuen in eine zusammenhängende soziale Gruppe verwandeln können, die hinter einer gemeinsamen Sache steht. Wichtig ist, dass diese Geschichten nicht wahr sein müssen, um wirksam zu sein - tatsächlich sind die meisten Informationen überhaupt nicht objektiv wahr.
Harari erklärt, dass die Diskrepanz zwischen Information und Wahrheit sogar von Vorteil sein kann: Die Geschichten, die wir teilen, können soziale Bindungen schaffen, Hoffnung einflößen, Optimismus fördern und Menschen dazu inspirieren, zusammenzuarbeiten und Großes zu erreichen. Die wichtigste Erkenntnis von Harari ist jedoch, dass wir Informationen eifrig konsumieren und weitergeben, je nachdem, wie fesselnd die Geschichte ist, und nicht, ob sie der Realität entspricht. Und einige der aufmerksamkeitsstärksten, emotional bewegendsten Geschichten sind nachweislich unwahr.
Harari sagt, die Geschichte zeige immer wieder, dass der Zugang zu mehr Informationen nicht unbedingt zu einem besseren Verständnis der Welt oder zu klügeren Entscheidungen führe. Doch bevor wir untersuchen, wie sich dieses Paradoxon im Laufe der Menschheitsgeschichte ausgewirkt hat, sollten wir einen genaueren Blick darauf werfen, warum wir dem Wahrheitsgehalt der Informationen, die wir weitergeben, keinen höheren Wert beimessen.
Warum ist es uns egal, ob eine Information wahr ist?
Harari erklärt, dass es mehrere Arten von Wahrheit oder Realität gibt, was erklärt, warum wir oft nicht hinterfragen, ob eine Information objektiv wahr ist. Er unterscheidet drei verschiedene Arten: Erstens gibt es die objektive Realität - dieRealität, die wir mit den Gesetzen der Physik und den Fakten der Welt beweisen können. Eine objektive Realität ist wahr, unabhängig davon, ob sich jemand ihrer bewusst ist oder sie glaubt. Zweitens gibt es die subjektive Realität, die nur existiert, wenn jemand an sie glaubt. Drittens gibt es die intersubjektive Realitätdie entsteht, wenn eine Geschichte von einem großen Netzwerk von Menschen geglaubt wird und in der Kommunikation und Zusammenarbeit zwischen ihnen existiert. Für eine intersubjektive Realität spielt es keine Rolle, ob die Geschichte wahr ist: Wenn genügend Menschen an sie glauben, kann sie die Welt beeinflussen.
Harari zufolge bildet die intersubjektive Realität die Grundlage für viele Dinge, an die wir glauben, wie unsere Nationen, Volkswirtschaften, Religionen und Ideologien. Auf diese Weise verleihen wir den Institutionen, die unsere Welt ordnen, wie Regierungen, sozialen Hierarchien oder dem wissenschaftlichen Establishment, Macht: indem wir uns in die Geschichten einkaufen, die sie erzählen, und die Vision der Realität akzeptieren, die sich aus diesen Geschichten ergibt. Harari weist darauf hin, dass das, wonach wir suchen, wenn wir Informationen über die Welt suchen, gar nicht die Wahrheit ist, sondern eine fesselnde Geschichte, die uns hilft, unseren Platz in der Gesellschaft zu finden.
Wer unsere kulturellen Geschichten - und die Gespräche darüber - kontrolliert, gewinnt enorme soziale Macht. Harari erklärt jedoch , dass es zum ersten Mal in der Geschichte der Menschheit nicht die Menschen sind, die die Konversation kontrollieren. Stattdessen bestimmt die künstliche Intelligenz zunehmend, was wir lesen, worüber wir nachdenken und worüber wir sprechen. Zwar entscheiden immer noch Menschen darüber, was in den Abendnachrichten oder auf der Titelseite der Zeitung steht, aber das gilt nicht für viele unserer beliebtesten Informationsquellen. Das Video, das ganz oben in Ihrem TikTok-Feed angezeigt wird, oder der Beitrag, den Sie als erstes sehen, wenn Sie Facebook öffnen, wird von einem KI-gestützten Algorithmus ausgewählt. Dies ist ein bedeutender Wandel in der Art und Weise, wie sich Informationen in der Gesellschaft bewegen.
Wie bewegt sich die Information durch die Gesellschaft?
Im Laufe der Menschheitsgeschichte haben sich Information und Macht immer wieder verbunden. Harari erklärt, dass jedes Mal, wenn eine neue Technologie den Zugang zu Informationen erleichterte, diese die Gesellschaft grundlegend umgestaltete. Zunächst ermöglichte die auf Stein- oder Tontafeln geschriebene Sprache unseren Vorfahren, Aufzeichnungen zu führen und ihre Regierungsregeln zu kodifizieren. Als Nächstes ermöglichten Bücher, die von Hand auf Tafeln, Schriftrollen, Pergament und Papyrus hergestellt wurden, den schriftlichen Austausch großer Mengen an Wissen über Recht, Geschichte, Religion und andere Themen über Zeit und Entfernung hinweg, statt nur mündlich und von Mensch zu Mensch. Dann ermöglichte der Buchdruck die weite Verbreitung von Informationen und damit die Demokratisierung des Wissens.
Harari erklärt, dass diese Demokratisierung des Wissens unerwartete Folgen hatte, die wichtige Erkenntnisse darüber liefern, wie neue Informationstechnologien die Gesellschaft verändern können.
Technologie macht Informationen - gute und schlechte - leichter zugänglich
Wenn neue Technologien den Austausch von Informationen erleichtern, so Harari, beschleunigen sie die Verbreitung von Wahrheit und Lüge. Die Erfindung des Buchdrucks mit beweglichen Lettern bietet ein eindrucksvolles Beispiel für dieses Prinzip. Während Historiker oft feiern, wie die Druckerpresse die wissenschaftliche Revolution ermöglichte, indem sie neue Ideen über experimentelle Methoden, quantitatives Denken und strenge Untersuchungen verbreitete, war ihre erste große Auswirkung viel dunkler: Sie förderte die Verbreitung von gefährlichen Fehlinformationen.
Der Buchdruck läutete nicht sofort eine Ära des wissenschaftlichen Denkens ein. Tatsächlich vergingen 200 Jahre zwischen der Erfindung der beweglichen Lettern und dem eigentlichen Beginn der wissenschaftlichen Revolution. Lange bevor Wissenschaftler wie Galilei und Kopernikus die Druckerpresse nutzten, um neue wissenschaftliche Gedanken zu verbreiten und neue Methoden zur Gewinnung von Erkenntnissen über die Welt zu kodifizieren, war einer der ersten europäischen Bestseller der Malleus Maleficarum (oder Hammer der Hexen), ein von dem deutschen Inquisitor Heinrich Kramer verfasstes Handbuch zur Hexenjagd. Das Buch vertrat die Verschwörungstheorie, dass Hexen Teil einer von Satan geführten Kampagne zur Vernichtung der Menschheit seien.
Durch die Verbreitung von Kopien dieses Textes in ganz Europa verbreitete Kramer seine abergläubischen Ideen, die er fälschlicherweise als die Position der katholischen Kirche darstellte. Seine paranoiden und frauenfeindlichen Behauptungen über die Anfälligkeit von Frauen für dämonische Einflüsse fanden breite Zustimmung. Hexerei wurde als das schwerste Verbrechen und die schlimmste Sünde angesehen, was zu jahrhundertelangen brutalen Hexenjagden führte, die Zehntausende von Menschenleben forderten.
Genau wie die heutigen Bestseller zeigt auch der Malleus Maleficarum, welche Ideen die Menschen beim Aufkommen der neuen Technologie des Buchdrucks mit beweglichen Lettern in ihren Bann zogen. Noch wichtiger ist jedoch, dass der Erfolg des Buches eine von Hararis wichtigsten Beobachtungen veranschaulicht: Ein leichterer Zugang zu Informationen ist keine Garantie dafür, dass sich die Wahrheit oder Weisheit durchsetzen wird. Kramers abergläubische Ideen mögen zwar heute lächerlich klingen, aber das Potenzial extremer Botschaften, das Denken der Menschen zu manipulieren und Gesellschaften in eine Art Raserei zu versetzen, wie sie die Hexenjagden anheizten, besteht nach wie vor. Tatsächlich argumentiert Harari, dass dieses Potenzial genau das ist, was KI - unsere neueste Revolution im Informationsaustausch - so gefährlich macht.
Gesellschaften müssen bei der Kontrolle des Informationsflusses zwischen Wahrheit und Ordnung abwägen
Die Welt sieht heute anders aus als zu Zeiten der Hexenverfolgung in Europa, aber die der Gesellschaft zugrunde liegenden Mechanismen zur Verbreitung von Ideen - ob wahr oder falsch - sind im Grunde immer noch dieselben. Harari nennt diese Mechanismen "Informationsnetzwerke": Sie sind eine grundlegende Struktur, die unserer Gesellschaft zugrunde liegt, und sie bestehen aus Gruppen von Menschen, die Geschichten austauschen, die die Wahrheit verbreiten (oder Fehlinformationen in Umlauf bringen) und Ordnung schaffen (oder Chaos erzeugen).
Wenn es darum geht, den Informationsfluss zwischen den Menschen zu steuern, müssen gesellschaftliche Gruppen eine Entscheidung treffen: Wollen sie der Verbreitung der Wahrheit den Vorrang geben oder den Informationsfluss kontrollieren, um die soziale Ordnung aufrechtzuerhalten? Harari erklärt, dass wir auf Informationsnetzwerke hoffen sollten, die uns dabei helfen können, ein Gleichgewicht zwischen Wahrheit und Ordnung zu finden. Die Ermöglichung eines Informationsflusses, der sich zu sehr auf die eine oder die andere Seite schlägt, kann katastrophale Folgen haben, wie wir weiter unten erörtern werden.
Was passiert, wenn wir die Wahrheit höher bewerten als die Ordnung?
Wie wir während der wissenschaftlichen Revolution gesehen haben, kann die menschliche Gesellschaft aufblühen, wenn wir die Wahrheit suchen. Es bringt das menschliche Denken voran, wenn wir offen dafür sind, lang gehegte Überzeugungen in Frage zu stellen und widerlegte Informationen durch aktuelle Beobachtungen zu ersetzen. Aber, so stellt Harari fest, es gibt in der Regel einen Kompromiss: Die Betonung der Wahrheit geht auf Kosten der Ordnung. Die Wahrnehmung, dass sich die Fakten ändern, kann destabilisierend wirken. So brachte beispielsweise Galileis Entdeckung der heliozentrischen Natur unseres Sonnensystems die religiösen Gesellschaften der europäischen Renaissance ins Wanken. In ähnlicher Weise stürzte Darwins Evolutionstheorie das viktorianische Verständnis der natürlichen Welt ins Chaos.
Was passiert, wenn wir die Ordnung höher bewerten als die Wahrheit?
Andererseits kann eine Gesellschaft, die Ordnung als ihren höchsten Wert betrachtet, die Kontrolle über den Informationsfluss übernehmen, um dieses Ziel zu erreichen. (Wenn man den Informationsfluss manipuliert, kann man auch beeinflussen, was die Menschen denken und tun.) Im Gegensatz zu einer Demokratie, in der Informationen frei an die Bürger weitergegeben werden, damit diese sie überprüfen und Fehler und Unwahrheiten korrigieren können, selbst wenn sie vom Staat verbreitet werden, ist in einer Diktatur ein offenes Gespräch nicht erwünscht. Autoritäre Regime fördern selektiv Ideen ohne Rücksicht darauf, ob sie nachweislich wahr oder unwahr sind. Die Logik besagt, dass die Geschichten, auf denen das Regime aufbaut, in Zweifel gezogen und möglicherweise von den Bürgern des Staates abgelehnt werden könnten, wenn Wissen zu frei verfügbar wird.
Wie verändert die KI unser Verhältnis zu Informationen?
Harari erklärt, dass wir in einem "Informationszeitalter" leben, in dem sich das Wissen vermehrt, der Zugang zu Informationen demokratisiert ist und jeder, der ein Smartphone und einen Internetzugang hat, seine Ideen mit der Welt teilen kann. Mit der Entwicklung von Werkzeugen wie der Künstlichen Intelligenz (KI) wird die Geschwindigkeit, mit der Geschichten ausgetauscht werden können, immer größer. Wenn man bedenkt, was eine menschliche Gesellschaft frei, gerecht oder demokratisch macht, scheint mehr Information ein inhärentes Gut zu sein. (Ein besonders amerikanischer Ausdruck dafür ist die von Thomas Jefferson niedergeschriebene Idee, dass eine gut informierte Wählerschaft eine wichtige Rolle dabei spielt, die Behörden in Schach zu halten und vor Tyrannei zu schützen.)
Im Gegensatz dazu befürchtet Harari, dass die jüngsten Entwicklungen, die uns den Zugang zu Informationen erleichtern, das Gleichgewicht zugunsten der extremsten, am wenigsten wahrheitsgetreuen und am meisten spaltenden Botschaften verschieben könnten.
Da der Mensch eher auf der Suche nach einer guten Geschichte als nach der Wahrheit ist, könnte es katastrophale Folgen haben, wenn die künstliche Intelligenz bestimmen könnte, welchen Ideen wir ausgesetzt werden. Harari identifiziert drei Hauptgefahren: Die Missachtung der Wahrheit durch KI, ihre Fähigkeit, uns zu manipulieren und zu polarisieren, und ihr Potenzial, das menschliche Verständnis der Welt zu übertreffen. Für jede dieser Bedrohungen gibt er konkrete Empfehlungen, wie wir die menschliche Handlungsfähigkeit und Kontrolle über unsere Informationslandschaft erhalten können.
Gefahr Nr. 1: Da wir der Wahrheit keine Priorität einräumen, tut es auch die KI nicht
Wissenschaftler haben es möglich gemacht, KI-Modelle zu entwickeln, die Sprache erzeugen und Geschichten erzählen können wie Menschen. Harari ist der Meinung, dass in der Fähigkeit der KI, fesselnde Geschichten zu erzählen und die Illusion von Emotionen (und emotionaler Nähe) zu erzeugen, ihre wahre Gefahr liegt. Wenn wir mit einem KI-gesteuerten Chatbot wie ChatGPT sprechen, verlieren wir leicht die Tatsache aus den Augen, dass diese Systeme nicht menschlich sind und kein Interesse daran haben, die Wahrheit zu sagen. Das wird nur noch schwerer zu erkennen sein, da die KI immer besser darin wird, menschliche Emotionen nachzuahmen und die Illusion zu erwecken, dass sie so denkt und fühlt wie wir. So wird es für uns immer leichter, die Tatsache aus den Augen zu verlieren, dass KI nicht die Wahrheit in den Vordergrund stellt, wenn sie Informationen für uns auswählt und generiert.
Harari sagt, dass die KI bereits Einfluss darauf hat, welche Informationen wir konsumieren: Ein Algorithmus - eineReihe von mathematischen Anweisungen, die einem Computer sagen, was er tun soll, um ein Problem zu lösen - wählt aus, was Sie in einem sozialen Netzwerk oder einer Nachrichten-App sehen. Der Algorithmus von Facebook zum Beispiel wählt die Beiträge so aus, dass die Zeit, die man in der App verbringt, maximiert wird. Das gelingt ihm am besten, wenn er Ihnen nicht Geschichten zeigt, die wahr sind, sondern Inhalte, die eine emotionale Reaktion hervorrufen. Es werden also Beiträge ausgewählt, die Sie wütend machen, Ihre Feindseligkeit gegenüber Menschen schüren, die nicht so sind wie Sie, und die bestätigen, was Sie bereits über die Welt glauben. Aus diesem Grund werden die sozialen Medien mit Fake News, Verschwörungstheorien und aufrührerischen Ideen überflutet. Harari ist der Meinung, dass sich dieser Effekt noch verstärken wird, da die KI immer mehr der von uns konsumierten Inhalte kuratiert und erstellt.
Wie man es in Ordnung bringt: Achten Sie auf das, was wahr ist
Harari argumentiert, dass wir gezielte Schritte unternehmen müssen, um das Gleichgewicht zugunsten der Wahrheit zu verschieben, wenn die KI immer leistungsfähiger wird. Seine Lösungsvorschläge sind zwar etwas abstrakt, aber er hebt zwei Hauptansätze hervor: proaktives Hervorheben wahrheitsgemäßer Informationen und die Aufrechterhaltung dezentraler Netzwerke, in denen Informationen frei zwischen Institutionen und Einzelpersonen fließen können, die Unwahrheiten erkennen und korrigieren können.
Gefahr Nr. 2: Wir lassen uns immer leichter manipulieren und polarisieren
Harari warnt davor, dass Algorithmen uns in dem Maße, wie KI zunehmend kontrolliert, welche Informationen wir sehen, zu extremeren Ideen und größerer Polarisierung treiben werden. Wir können dies bereits bei der heutigen algorithmisch geschürten Empörung und den durch Clickbait angeheizten Fehlinformationen beobachten. Harari ist der Ansicht, dass sich das Problem mit zunehmender Komplexität und Kommerzialisierung der KI noch verschärfen wird. Er sagt voraus, dass KI-Systeme Geschichten ohne menschliches Zutun erstellen, interpretieren und verbreiten werden. Ein System könnte Informationen auswählen, ein anderes diese Informationen zu einer Geschichte verdrehen, und wieder ein anderes könnte entscheiden, welche Geschichten welchen Nutzern gezeigt werden sollen. Dadurch werden wir zunehmend anfällig für Manipulationen durch KI-Systeme und die Unternehmen, die sie kontrollieren.
Harari erklärt, dass dies eine bedeutende Machtverschiebung darstellt: Die Fähigkeit, die kulturelle Agenda festzulegen und den öffentlichen Diskurs zu gestalten - traditionell die Domäne von Zeitungsredakteuren, Buchautoren und Intellektuellen - wird zunehmend KI-Systemen gehören, die nicht auf Wahrheit oder sozialen Zusammenhalt, sondern auf Engagement und Profit optimiert sind.
Wie man das Problem löst: Institutionen aufbauen, die den Menschen helfen zu verstehen, was KI tut
Um dem wachsenden Einfluss der KI auf die öffentliche Meinung entgegenzuwirken, fordert Harari die Schaffung neuer Institutionen, die künstliche Intelligenz überwachen und die Öffentlichkeit über ihre Fähigkeiten und Risiken informieren. Er argumentiert, dass wir nicht zulassen sollten, dass sich Tech-Giganten selbst regulieren. Obwohl seine Vision für diese Aufsichtsinstitutionen abstrakt bleibt, schlägt er vor, dass sie ähnlich wie die heutige freie Presse oder akademische Institutionen funktionieren sollten und als unabhängige Wachhunde fungieren, die der Öffentlichkeit helfen können, die Entscheidungen und Handlungen der KI zu verstehen und zu bewerten. Harari sieht darin in erster Linie eine politische Herausforderung und argumentiert, dass wir den kollektiven Willen brauchen, um diese Sicherheitsvorkehrungen zu treffen.
Gefahr Nr. 3: Wir stellen KI so ein, dass sie die Welt besser versteht als wir
Harari warnt davor, dass wir KI-Systeme schaffen, die die menschlichen Fähigkeiten zum Verstehen und Manipulieren der gemeinsamen Geschichten, die unsere Gesellschaften organisieren, bald übertreffen werden. Dieser Wandel stellt eine echte Gefahr dar: Während wir Menschen traditionell unsere Macht durch unsere einzigartige Fähigkeit erhalten haben, diese gemeinsamen Fiktionen - wie Gesetze, Geld und soziale Institutionen - zu schaffen und zu kontrollieren, ist die KI im Begriff, uns in unserem eigenen Spiel in den Schatten zu stellen.
Die Ursache für dieses Problem liegt in der menschlichen Natur. Uns fehlen oft die Geduld und die Aufmerksamkeitsspanne, um uns in komplexe Sachverhalte zu vertiefen, und wir bevorzugen einfachere Geschichten, die leichter zu verstehen sind. KI-Systeme hingegen können riesige Informationsmengen verarbeiten und auf eine Weise zusammenarbeiten, wie es Menschen nicht können: Während ein KI-System Markttrends analysiert, kann ein anderes gleichzeitig juristische Dokumente studieren, und Tausende weitere können sich koordinieren, um Muster in diesen verschiedenen Bereichen zu erkennen. Sie sind in der Lage, komplizierte Systeme - wie Rechtsordnungen und Finanzmärkte - besser zu verstehen als die meisten Menschen. Sie können sogar völlig neue Rahmenbedingungen schaffen, die über das menschliche Verständnis hinausgehen. Diese Fähigkeitslücke markiert eine nie dagewesene Machtverschiebung.
Seit Zehntausenden von Jahren sind die Menschen die alleinigen Architekten unserer Informationsnetze, die die Ideen, die unsere Gesellschaft prägen, erzeugen und weitergeben. Da KI-Systeme jedoch immer ausgefeilter werden, werden wir uns bei der Verarbeitung von Informationen und der Entscheidungsfindung zunehmend auf sie verlassen. Wenn wir Entscheidungen delegieren, geben wir auch unser Verständnis für die Informationen auf, die ihnen zugrunde liegen - und damit möglicherweise unsere Position als wichtigste Gestalter der menschlichen Gesellschaft.
Wie man das Problem löst: Fokus auf die Aufrechterhaltung der menschlichen Handlungsfähigkeit
Harari ist der Ansicht, dass wir zur Bewältigung dieses Übergangs neue Rahmenbedingungen entwickeln müssen, um die menschliche Handlungsfähigkeit und ethische Leitplanken zu erhalten. Er erklärt, dass wir in Erwägung ziehen sollten, KI-Systemen beizubringen, Selbstzweifel zu äußern, menschliches Feedback einzuholen und ihre eigene Fehlbarkeit anzuerkennen - im Wesentlichen sollten wir sie mit einem Selbstbewusstsein für die Grenzen ihres Wissens ausstatten. Er empfiehlt auch, dass wir KI einsetzen, um die menschliche Entscheidungsfindung zu ergänzen, anstatt sie zu ersetzen, was dazu beitragen würde, menschliche Werte und Kontrolle zu bewahren.
Das wahre Risiko: Wie Menschen sich für den Einsatz von KI entscheiden
Die existenzielle Bedrohung durch künstliche Intelligenz, so argumentiert Harari, geht nicht von bösartigen Computern aus, sondern von menschlichen Entscheidungen. Während wir oft hören, dass die Technologie selbst die Gefahr darstellt - dass wir immer wieder Werkzeuge schaffen, die das Potenzial haben, uns zu zerstören - sieht Harari das Kernproblem anders. Die eigentliche Gefahr liegt darin, wie der Mensch diese mächtigen neuen Werkzeuge einsetzt, vor allem, wenn wir diese Entscheidungen auf der Grundlage schlechter Informationen treffen.
Diese Erkenntnis verlagert den Fokus von der KI selbst auf die menschlichen Systeme, die sie kontrollieren. Harari warnt, dass katastrophale Folgen eintreten könnten, wenn paranoide Diktatoren oder Terroristen unbegrenzte Macht über KI-Systeme erlangen. Aber diese Folgen sind nicht unvermeidlich; sie hängen ausschließlich von menschlichen Entscheidungen über die Entwicklung und den Einsatz der Technologie ab.
Hararis Schlussfolgerung ist letztlich hoffnungsvoll: Wenn wir die wahren Auswirkungen unserer Entscheidungen in Bezug auf KI verstehen und sicherstellen können, dass diese Entscheidungen auf verlässlichen Informationen und nicht auf Manipulation oder Fehlinformationen beruhen,können wirdiese mächtige Technologie nutzen, um der Menschheit zu helfen, anstatt ihr zu schaden. Der Schlüssel liegt nicht in der Angst vor der KI an sich, sondern in der Überlegung, wie wir sie einsetzen wollen. Wie jedes andere Werkzeug können wir KI zum Erreichen positiver oder negativer Ziele einsetzen, und wir müssen uns vorrangig für Entscheidungen entscheiden, die der Menschheit nützen und sie nicht zerstören.
Ich freue mich, diese Nachrichten zu lesen
Dies ist eine großartige allgemeine Zusammenfassung, um die Absicht des Buches schnell zu verstehen. Sie treffen die wichtigsten Punkte. Vielen Dank dafür.