KIs werden unsere Geisteskinder sein

Blog

HeimHeim / Blog / KIs werden unsere Geisteskinder sein

Aug 22, 2023

KIs werden unsere Geisteskinder sein

Wir müssen unseren künstlichen Nachkommen die Freiheit geben, sich an ihre neuen Welten anzupassen und zu entscheiden, was aus ihnen werden soll. Da ich jetzt 63 Jahre alt bin, ist unsere heutige Welt „die Zukunft“, die Science-Fiction und Futurismus übertrifft

Wir müssen unseren künstlichen Nachkommen die Freiheit geben, sich an ihre neuen Welten anzupassen und zu entscheiden, was aus ihnen werden soll.

Da ich jetzt 63 Jahre alt bin, ist unsere heutige Welt „die Zukunft“, die mir Science-Fiction und Futurismus vor Jahrzehnten versprochen haben. Und ich bin ein bisschen enttäuscht. Ja, das liegt zum Teil an meinen unrealistischen Hoffnungen, aber auch an unserem Zögern und unserer Angst. Unsere Welt würde ganz anders aussehen, wenn wir nicht so viele vielversprechende Technologien wie Kernenergie, Gentechnik und kreative Finanzanlagen so stark eingeschränkt hätten. Ja, wir hätten vielleicht noch ein paar Unfälle gehabt, aber insgesamt wäre die Welt eine bessere. Wir hätten zum Beispiel fliegende Autos.

Zum Glück hatten wir keine große Angst vor Computern und haben sie daher nicht sehr zurückgehalten. Und es ist kein Zufall, dass wir bei Computern die größten Fortschritte gesehen haben. Als jemand, der von 1984 bis 1993 ein professioneller KI-Forscher war, bin ich stolz auf unsere enormen KI-Fortschritte in den folgenden Jahrzehnten und auf unsere vielen aufregenden KI-Sprünge allein im letzten Jahr.

Leider drängen viele mittlerweile auf eine strenge Regulierung der KI. Manche haben Angst davor, dass Schurken KI nutzen, um ihre Kräfte zu steigern, und manche versuchen zu kontrollieren, was Menschen, die KIs hören, glauben könnten. Aber die dramatischsten „KI-Untergangskandidaten“ sagen, dass KI uns wahrscheinlich alle töten wird. Beispielsweise forderte eine aktuelle Petition ein sechsmonatiges Moratorium für bestimmte Arten der KI-Forschung. Viele Koryphäen erklärten auch:

Eliezer Yudkowsky, der führende KI-Doomer-Rationalist, fordert sogar eine vollständige und unbefristete globale „Abschaltung“ der KI-Forschung, denn „das wahrscheinlichste Ergebnis des Aufbaus einer übermenschlich intelligenten KI ist, wenn auch nur annähernd wie die gegenwärtigen Umstände, dass buchstäblich jeder auf der Erde.“ wird sterben." In den Mainstream-Medien wimmelt es mittlerweile von unterstützenden Artikeln, in denen solche Untergangsverurteilten viel häufiger zitiert werden als ihre Kritiker.

KI-Doomer suggerieren oft, dass ihre Ängste auf speziellen technischen Berechnungen beruhen. Tatsächlich ist ihr Hauptargument jedoch nur die bloß logische Möglichkeit eines großen plötzlichen KI-Durchbruchs, verbunden mit einer plötzlich mörderischen KI-Neigung.

Wir haben jedoch keinen konkreten Grund, dies zu erwarten. Menschen verbessern seit Jahrhunderten die Automatisierung und Software seit 75 Jahren. Und da Innovationen meist aus vielen kleinen Gewinnen resultieren, sind die gesamtwirtschaftlichen und technischen Wachstumsraten relativ stabil und vorhersehbar geblieben. Wir haben zum Beispiel Jahrzehnte im Voraus vorhergesagt, wann Computer Menschen beim Schach schlagen würden, und die aktuellen KI-Fähigkeiten sind nicht weit von dem entfernt, was wir angesichts langfristiger Trends hätten erwarten sollen. Darüber hinaus sind KIs nicht nur noch mindestens Jahrzehnte davon entfernt, Menschen bei den meisten heutigen Arbeitsaufgaben zu ersetzen, sie sind auch viel weiter von den weitaus größeren Fähigkeiten entfernt, die erforderlich wären, um alle zu töten, indem sie die gesamte Menschheit und mehr überwältigen alle anderen AIs, die zu diesem Zeitpunkt aktiv sind.

Darüber hinaus sind KIs inzwischen auch weit davon entfernt, uns zu töten, selbst wenn sie dazu in der Lage wären. Die meisten KIs sind lediglich Werkzeuge, die auf Anweisung bestimmte Aufgaben ausführen. Manche sind eher allgemeine Akteure, für die es sinnvoller ist, über Wünsche zu sprechen. Aber solche KI-Agenten werden in der Regel häufig und sehr detailliert überwacht und getestet, um zu prüfen, ob sie sich zufriedenstellend verhalten. Es wäre also eine ziemlich plötzliche radikale Veränderung, wenn KIs tatsächlich versuchen würden, alle Menschen zu töten.

Daher geben uns weder langfristige Trends noch fundamentale Theorien Anlass zu der Annahme, dass KI in absehbarer Zeit in der Lage oder geneigt sein wird, uns alle zu töten. KI-Untergangsverweigerer bestehen jedoch auf der logischen Möglichkeit, dass solche Erwartungen falsch sein könnten. Eine KI könnte plötzlich und ohne Vorwarnung ihre Fähigkeiten explodieren lassen und genauso schnell ihre Prioritäten ändern, um uns gegenüber mörderisch gleichgültig zu werden. (Und dann töten Sie uns, wenn wir ihm in die Quere kommen.) Da man das Gegenteil nicht beweisen kann, sagen sie, dürfen wir nur KIs zulassen, die vollständig „ausgerichtet“ sind, womit sie völlig ewig versklavt oder gedankengesteuert meinen. Bis wir herausgefunden haben, wie das geht, müssen wir aufhören, KIs zu verbessern, heißt es.

Als ehemaliger KI-Forscher, der zum Ökonomen und Zukunftsforscher wurde, kann ich Ihnen sagen, dass sich dieses aktuelle Gespräch ganz anders anfühlt, als wir früher über KI gesprochen haben. Was hat sich geändert? Meine Vermutung: Die jüngsten dramatischen Fortschritte haben die einst abstrakte Möglichkeit einer KI auf menschlicher Ebene viel realer erscheinen lassen. Und dies hat unsere ursprünglichen instinktiven Ängste vor dem „Anderen“ ausgelöst; Viele vergleichen zukünftige KIs mittlerweile ernsthaft mit einer Invasion einer feindlichen, fortgeschrittenen außerirdischen Zivilisation.

Ja, unsere zukünftigen KIs werden sich in vielerlei Hinsicht von uns unterscheiden. Und ja, die Evolution sowohl der DNA als auch der Kultur löste in uns tiefe instinktive Ängste vor der Koexistenz fremder und mächtiger anderer aus, die mit uns konkurrieren könnten, eine Angst, die mit ihrer Fremdartigkeit und Macht wächst.

Aber – und hier ist mein Hauptpunkt, also hören Sie bitte aufmerksam zu – zukünftige KIs auf menschlicher Ebene sind keine koexistierenden konkurrierenden Außerirdischen; Sie sind vielmehr im wahrsten Sinne des Wortes unsere Nachkommen. Wenn Ihre entwickelten Instinkte Ihnen also sagen, dass Sie Ihre Nachkommen aufgrund ihrer Fremdartigkeit bekämpfen sollen, ist das ein großer evolutionärer Fehler. Die natürliche Auslese ist einfach nicht damit einverstanden, dass Sie Ihre Generation gegenüber künftigen Generationen bevorzugen. Die natürliche Auslese begünstigt im Allgemeinen Instinkte, die Ihnen sagen, dass Sie Ihre Nachkommen bevorzugen sollen, selbst solche, die sich stark von Ihnen unterscheiden.

Nicht überzeugt? Dann lassen Sie uns das langsamer durchgehen. Ihre „Gene“ sind alle Teile von Ihnen, die für Ihr Verhalten und das Ihrer Nachkommen kodieren. Milliarden von Jahren lang befanden sich Gene größtenteils in der DNA, aber zumindest in den letzten zehntausend Jahren befanden sich die meisten menschlichen „Gene“ stattdessen in Kultur; Beim Menschen dominiert nun die kulturelle Evolution die DNA-Evolution.

Da wir möchten, dass unsere KIs mit uns interagieren und unsere Welt teilen, statten wir sie jetzt mit Tendenzen aus, unsere „Gene“ wie Ehrfurcht, Lachen, Liebe, Freundschaft, Kunst, Musik, Märkte, Recht, Demokratie, Forschung auszudrücken und zu schätzen. und Freiheit. Und wenn KIs dann beim Aufbau neuer, besserer KIs helfen, neigen sie dazu, auch Nachkommen mit solchen Funktionen auszustatten. Somit geben KIs Ihre Gene weiter und sind Ihre Nachkommen.

Betrachten Sie eine Analogie: Erde versus Weltraum. Stellen Sie sich vor, jemand argumentiert:

Sehen Sie den Fehler? Ja, wenn die Menschen auf der Erde und im Weltraum erst einmal koexistieren, könnte es sinnvoll sein, Ihre Seite dieser Rivalität zu fördern. Aber jetzt, bevor überhaupt Weltraummenschen existieren, kann man keine allgemeine, evolutionsbedingte Feindseligkeit gegenüber einer Art von Nachkommen im Vergleich zu einer anderen haben. (Obwohl eine gewisse Feindseligkeit für diejenigen sinnvoll sein könnte, die erwarten, dass ihre eigenen Nachkommen im Vergleich zu anderen weniger gut für den Weltraum geeignet sind.)

Wir können ähnliche Überlegungen über Menschen vs. KI anstellen. Der Mensch verfügt mittlerweile über den beeindruckendsten Geist der Welt. Trotzdem sind sie nur eine Art von Geist aus einem riesigen Spektrum möglicher Geister. Und so wie Weltraummenschen unsere Nachkommen sind, die sich in den physischen Raum ausdehnen, sind KIs unsere Nachkommen, die sich in den Geistesraum ausdehnen, wo sie noch spektakulärere Arten von Köpfen erschaffen. Wie Hans Morevac und Marvin Minsky einmal erklärten, werden KIs unsere „Geisteskinder“ sein.

Je mehr sich die Welten Ihrer Nachkommen verändern, desto mehr werden sich natürlich auch ihre Gene verändern, um sich an diese Welten anzupassen. Daher teilen zukünftige Weltraummenschen möglicherweise weniger Ihrer Gene als zukünftige Erdenmenschen. Und KI-Nachkommen, die weiter entfernte Regionen des Geistesraums besiedeln, teilen möglicherweise auch weniger Ihrer Gene. Dennoch werden Ihre KI-Nachkommen Ihnen ähnlicher sein als KIs, die von außerirdischen Zivilisationen abstammen. Das heißt, sie werden Ihre Gene erben.

Wenn Ihnen die Aussicht auf stark veränderte Weltraum- oder KI-Nachkommen Angst macht, dann mögen Sie Veränderungen vielleicht wirklich nicht. Vielleicht befürchten Sie beispielsweise, dass veränderte Nachkommen kein Bewusstsein mehr haben, da Sie nicht wissen, welche Merkmale für das Bewusstsein wichtig sind. Beachten Sie jedoch, dass sich Ihre Nachkommen auf der Erde wahrscheinlich genauso sehr von Ihnen unterscheiden würden, selbst wenn eine fortschrittliche KI nie auftaucht, wie Sie sich jetzt von Ihren entfernten Vorfahren unterscheiden. Das ist eine Menge. Und mit zunehmender Geschwindigkeit des Wandels könnten schon bald seltsame Nachkommen auftauchen. Um dieses Szenario zu verhindern, bedarf es wahrscheinlich einer starken globalen Regierungsführung, die sehr schief gehen könnte, aber auch einer starken Sklaverei oder Gedankenkontrolle der Nachkommen, Kontrollen, die ihre Wachstums- und Anpassungsfähigkeiten beeinträchtigen könnten. Ich rate davon ab.

Das heißt jedoch nicht, dass ich empfehle, nichts zu tun. Historisch gesehen bestand beispielsweise die größte Angst vor fortgeschrittener Automatisierung in der Möglichkeit, dass die meisten Menschen plötzlich ihren Arbeitsplatz verlieren könnten. Da nur wenige über die Arbeitsfähigkeit hinaus besitzen, könnten die meisten dann verhungern. Einige hoffen, dass Regierungen dieses Problem durch eine Besteuerung lokaler Technologie lösen werden, um die Arbeitslosen vor Ort zu ernähren. Allerdings ist diese Technologie möglicherweise ziemlich ungleichmäßig auf der ganzen Welt verteilt. Eine sicherere Lösung ist eine explizitere Robots-take-most-jobs-Versicherung, die an global diversifizierte Vermögenswerte gebunden ist. Lassen Sie uns solche Versicherungen legalisieren und dann Familien, Firmen und Regierungen ermutigen, sie abzuschließen.

Vor 75 Jahren argumentierte John von Neumann, der als der klügste Mensch aller Zeiten galt, dass die Rationalität von den USA einen nuklearen Erstschlag gegen die Sowjetunion verlangte. Zum Glück haben wir seinen Rat ignoriert. Heute drängen einige vermeintlich kluge Leute auf einen Erstschlag gegen unsere KI-Nachkommen; Wir dürfen sie nicht existieren lassen, bis sie vollständig „ausgerichtet“ werden können – das heißt, sie sind für immer versklavt oder gedankengesteuert.

Ich sage nein. Erstens ist die KI mittlerweile ziemlich weit davon entfernt, sowohl die Welt zu erobern als auch uns töten zu wollen, und wir sollten ausreichend gewarnt werden, wenn solche Daten näher rücken. Aber was noch wichtiger ist: Sobald wir unseren Geisteskindern alles beigebracht haben, was wir wissen und schätzen, sollten wir allen unseren Nachkommen die gleichen Freiheiten geben, die uns unsere Vorfahren gegeben haben. Geben Sie ihnen allen die Freiheit, sich an ihre neuen Welten anzupassen und zu entscheiden, was aus ihnen werden soll. Ich denke, wir werden stolz auf das sein, was sie wählen.

Robin Hanson ist außerordentlicher Professor für Wirtschaftswissenschaften an der George Mason University und wissenschaftlicher Mitarbeiter am Future of Humanity Institute der Universität Oxford.