Weiß Sam Altman, was er erschafft?
HeimHeim > Blog > Weiß Sam Altman, was er erschafft?

Weiß Sam Altman, was er erschafft?

Jun 27, 2023

Das ehrgeizige, geniale und erschreckende Unterfangen des OpenAI-CEOs, eine neue Form der Intelligenz zu schaffen

Hören Sie sich diesen Artikel an

00:00

1:16:18

Hören Sie sich weitere Geschichten auf Curio an

An einem Montagmorgen im April saß Sam Altman in der OpenAI-Zentrale in San Francisco und erzählte mir von einer gefährlichen künstlichen Intelligenz, die sein Unternehmen entwickelt, aber nie veröffentlicht hatte. Seine Mitarbeiter, so sagte er später, verlieren oft den Schlaf, weil sie sich Sorgen über die KIs machen, die sie eines Tages freisetzen könnten, ohne sich der Gefahren voll bewusst zu sein. Mit dem Absatz auf der Kante seines Drehstuhls wirkte er entspannt. Die leistungsstarke KI, die sein Unternehmen im November veröffentlicht hatte, hatte die Fantasie der Welt wie nichts in der jüngeren Technologiegeschichte erregt. In manchen Kreisen wurde über die Dinge gemeckert, die ChatGPT noch nicht gut konnte, und in anderen über die Zukunft, die das vielleicht ankündigte, aber Altman machte sich keine Sorgen; Dies war für ihn ein Moment des Triumphs.

Erfahren Sie mehr über diese Ausgabe und finden Sie Ihre nächste Geschichte zum Lesen.

In kleinen Dosen strahlen Altmans große blaue Augen einen Strahl ernsthafter intellektueller Aufmerksamkeit aus, und er scheint zu verstehen, dass ihre Intensität in großen Dosen verunsichern könnte. In diesem Fall war er bereit, es zu wagen: Er wollte mich wissen lassen, dass er, was auch immer die ultimativen Risiken der KI sein mögen, es nicht bereut, ChatGPT auf die Welt losgelassen zu haben. Im Gegenteil, er glaubt, dass es ein großer Dienst an der Öffentlichkeit war.

„Wir hätten einfach losgehen und das einfach fünf weitere Jahre lang in unserem Gebäude hier bauen können“, sagte er, „und wir hätten etwas Atemberaubendes gehabt.“ Doch die Öffentlichkeit hätte sich nicht auf die darauffolgenden Schockwellen vorbereiten können, ein Ergebnis, das er „zutiefst unangenehm vorzustellen“ findet. Altman glaubt, dass die Menschen Zeit brauchen, um sich mit dem Gedanken auseinanderzusetzen, dass wir die Erde bald mit einer mächtigen neuen Intelligenz teilen könnten, bevor alles von der Arbeit bis zu den menschlichen Beziehungen neu gestaltet wird. ChatGPT war eine Möglichkeit, Mitteilungen zu machen.

Im Jahr 2015 gründeten Altman, Elon Musk und mehrere prominente KI-Forscher OpenAI, weil sie glaubten, dass eine künstliche allgemeine Intelligenz – etwas, das beispielsweise so intellektuell leistungsfähig ist wie ein typischer Hochschulabsolvent – ​​endlich in greifbare Nähe gerückt sei. Sie wollten danach greifen, und mehr noch: Sie wollten eine Superintelligenz in die Welt rufen, einen Intellekt, der dem jedes Menschen entscheidend überlegen ist. Und während ein großes Technologieunternehmen aus eigenem Interesse leichtsinnig zuerst dorthin eilen könnte, wollten sie es auf sichere Weise tun, „um der Menschheit als Ganzes zu helfen“. Sie strukturierten OpenAI als gemeinnützige Organisation, die „nicht durch die Notwendigkeit einer finanziellen Rendite eingeschränkt ist“, und versprachen, ihre Forschung transparent durchzuführen. Es gäbe keinen Rückzug in ein streng geheimes Labor in der Wüste von New Mexico.

Dieser Artikel wurde in „One Story to Read Today“ vorgestellt, einem Newsletter, in dem unsere Redakteure von Montag bis Freitag eine einzige Pflichtlektüre aus „The Atlantic“ empfehlen. Melden Sie sich hier dafür an.

Jahrelang hörte die Öffentlichkeit nicht viel von OpenAI. Als Altman 2019 CEO wurde, angeblich nach einem Machtkampf mit Musk, war das kaum eine Geschichte. OpenAI veröffentlichte Artikel, darunter im selben Jahr einen über eine neue KI. Das erregte die volle Aufmerksamkeit der Tech-Community im Silicon Valley, aber das Potenzial der Technologie wurde für die breite Öffentlichkeit erst letztes Jahr sichtbar, als die Leute begannen, mit ChatGPT zu spielen.

Die Engine, die ChatGPT jetzt antreibt, heißt GPT-4. Altman beschrieb es mir als eine außerirdische Intelligenz. Vielen ging es ähnlich, als sie dabei zusahen, wie klare Essays in Stakkato-Ausbrüchen und kurzen Pausen abliefen, die (absichtlich) zum Nachdenken in Echtzeit anregen. In den wenigen Monaten seines Bestehens hat es nach seiner eigenen Theorie der Geschmackskombinationen neuartige Cocktailrezepte vorgeschlagen; verfasste unzählige College-Aufsätze und stürzte Pädagogen in Verzweiflung; Gedichte in verschiedenen Stilrichtungen geschrieben, manchmal gut, immer schnell; und bestand die Uniform Bar Exam. Es macht sachliche Fehler, gibt aber charmant zu, dass es falsch liegt. Altman kann sich noch daran erinnern, wo er GPT-4 zum ersten Mal beim Schreiben komplexer Computercodes gesehen hat, eine Fähigkeit, für die es nicht explizit entwickelt wurde. „Es war wie ‚Hier sind wir‘“, sagte er.

Laut einer UBS-Studie erreichte ChatGPT innerhalb von neun Wochen nach der Veröffentlichung schätzungsweise 100 Millionen monatliche Nutzer und war damit zu dieser Zeit wahrscheinlich das am schnellsten angenommene Verbraucherprodukt in der Geschichte. Sein Erfolg weckte die Beschleunigungs-Idee der Technologie: Große Investoren und große Unternehmen in den USA und China steckten schnell Dutzende Milliarden Dollar in Forschung und Entwicklung nach dem Vorbild des OpenAI-Ansatzes. Metaculus, eine Vorhersageseite, verfolgt seit Jahren die Vermutungen von Prognostikern darüber, wann eine künstliche allgemeine Intelligenz eintreffen würde. Vor dreieinhalb Jahren lag die mittlere Schätzung bei etwa 2050; Zuletzt lag sie bei etwa 2026.

Ich besuchte OpenAI, um die Technologie zu verstehen, die es dem Unternehmen ermöglichte, die Technologiegiganten zu überholen – und um zu verstehen, was es für die menschliche Zivilisation bedeuten könnte, wenn eines Tages bald eine Superintelligenz auf einem der Cloud-Server des Unternehmens auftaucht. Seit den Anfängen der Computerrevolution wird KI als eine Technologie mythologisiert, die dazu bestimmt ist, einen tiefgreifenden Bruch herbeizuführen. Unsere Kultur hat ein ganzes Imaginarium von KIs hervorgebracht, die die Geschichte auf die eine oder andere Weise beenden. Einige sind gottähnliche Wesen, die jede Träne abwischen, die Kranken heilen und unsere Beziehung zur Erde wiederherstellen, bevor sie eine Ewigkeit reibungsloser Fülle und Schönheit einläuten. Andere degradieren alle bis auf einige wenige von uns zu Leibeigenen oder treiben uns in die Ausrottung.

Aus der Juni-Ausgabe 2023: Geben Sie künstlicher Intelligenz niemals die Nuklearcodes

Altman hat sich die abwegigsten Szenarien ausgedacht. „Als ich ein jüngerer Erwachsener war“, sagte er, „hatte ich diese Angst, Furcht … und, um ehrlich zu sein, auch zwei Prozent Aufregung darin, dass wir dieses Ding erschaffen würden“, das „zu weit gehen würde.“ uns übertreffen“ und „es würde losgehen, das Universum kolonisieren und die Menschen würden dem Sonnensystem überlassen.“

„Als Naturschutzgebiet?“ Ich fragte.

„Genau“, sagte er. „Und das kommt mir jetzt so naiv vor.“

In mehreren Gesprächen in den Vereinigten Staaten und Asien legte Altman in seinem mitreißenden Vortrag aus dem Mittleren Westen seine neue Vision der KI-Zukunft dar. Er sagte mir, dass sich die KI-Revolution von früheren dramatischen technologischen Veränderungen unterscheiden würde, dass sie eher „wie eine neue Art von Gesellschaft“ sein würde. Er sagte, dass er und seine Kollegen viel Zeit damit verbracht hätten, über die sozialen Auswirkungen von KI nachzudenken und darüber, wie die Welt „auf der anderen Seite“ aussehen werde.

Aber je mehr wir redeten, desto undeutlicher erschien uns die andere Seite. Der 38-jährige Altman ist heute die mächtigste Person in der KI-Entwicklung; Seine Ansichten, Dispositionen und Entscheidungen könnten für die Zukunft, in der wir alle leben werden, von großer Bedeutung sein, vielleicht sogar wichtiger als die des US-Präsidenten. Aber er gibt selbst zu, dass diese Zukunft ungewiss und mit ernsthaften Gefahren behaftet ist. Altman weiß nicht, wie mächtig die KI werden wird, was ihr Aufstieg für den Durchschnittsmenschen bedeuten wird oder ob sie die Menschheit gefährden wird. Das mache ich ihm nicht unbedingt übel – ich glaube nicht, dass irgendjemand weiß, wohin das alles führt, außer dass wir schnell dorthin gelangen, ob wir es sein sollten oder nicht. Davon hat mich Altman überzeugt.

Der Hauptsitz von OpenAI befindet sich in einer vierstöckigen ehemaligen Fabrik im Mission District, unterhalb des nebelverhangenen Sutro Tower. Betreten Sie die Lobby von der Straße aus und die erste Wand, auf die Sie stoßen, ist mit einem Mandala bedeckt, einer spirituellen Darstellung des Universums, die aus Schaltkreisen, Kupferdraht und anderen Rechenmaterialien besteht. Auf der linken Seite führt eine sichere Tür in ein offenes Labyrinth aus hübschen hellen Hölzern, eleganten Fliesenarbeiten und anderen Merkmalen des Milliardärs-Chic. Pflanzen sind allgegenwärtig, darunter hängende Farne und eine beeindruckende Sammlung extragroßer Bonsai, von denen jeder die Größe eines geduckten Gorillas hat. Das Büro war an jedem Tag, an dem ich dort war, voll, und es überraschte nicht, dass ich niemanden sah, der älter als 50 aussah. Abgesehen von einer zweistöckigen Bibliothek mit Schiebeleiter sah der Raum nicht besonders nach einem Forschungslabor aus. denn das Ding, das gebaut wird, existiert zumindest im Moment nur in der Cloud. Es sah eher wie das teuerste West Elm der Welt aus.

Eines Morgens traf ich mich mit Ilya Sutskever, dem Chefwissenschaftler von OpenAI. Der 37-jährige Sutskever wirkt wie ein Mystiker, manchmal mit Unrecht: Letztes Jahr sorgte er für einen kleinen Aufruhr, als er behauptete, dass GPT-4 möglicherweise „leicht bei Bewusstsein“ sei. Er machte sich zunächst einen Namen als Starstudent von Geoffrey Hinton, dem emeritierten Professor der University of Toronto, der diesen Frühling von Google zurücktrat, um freier über die Gefahr von KI für die Menschheit sprechen zu können.

Hinton wird manchmal als „Godfather of AI“ bezeichnet, weil er früher als die meisten die Macht des „Deep Learning“ erkannte. In den 1980er Jahren, kurz nachdem Hinton seine Doktorarbeit abgeschlossen hatte, kam der Fortschritt auf diesem Gebiet so gut wie zum Stillstand. Ältere Forscher waren immer noch damit beschäftigt, KI-Systeme von oben nach unten zu programmieren: KIs würden mit einem umfassenden Satz ineinandergreifender Regeln programmiert – über Sprache, die Prinzipien der Geologie oder der medizinischen Diagnose – in der Hoffnung, dass dieser Ansatz eines Tages auf die menschliche Ebene übergehen würde Erkenntnis. Hinton erkannte, dass diese aufwändigen Regelsammlungen wählerisch und maßgeschneidert waren. Mit Hilfe einer ausgeklügelten algorithmischen Struktur namens neuronales Netzwerk brachte er Sutskever bei, stattdessen die Welt vor die KI zu stellen, so wie man sie vor ein kleines Kind stellen würde, damit es die Regeln der Realität selbst entdecken kann .

Sutskever beschrieb für mich ein neuronales Netzwerk als schön und gehirnähnlich. Irgendwann stand er von dem Tisch auf, an dem wir saßen, näherte sich einem Whiteboard und öffnete einen roten Marker. Er zeichnete ein grobes neuronales Netzwerk an die Tafel und erklärte, dass das Geniale an seiner Struktur darin besteht, dass es lernt, und dass sein Lernen durch Vorhersagen angetrieben wird – ein bisschen wie die wissenschaftliche Methode. Die Neuronen sitzen in Schichten. Eine Eingabeebene empfängt einen Datenblock, beispielsweise einen Text oder ein Bild. Die Magie geschieht in den mittleren – oder „verborgenen“ – Schichten, die den Datenblock verarbeiten, sodass die Ausgabeschicht ihre Vorhersage ausspucken kann.

Stellen Sie sich ein neuronales Netzwerk vor, das so programmiert wurde, dass es das nächste Wort in einem Text vorhersagt. Es wird mit einer riesigen Anzahl möglicher Wörter vorinstalliert sein. Aber bevor es trainiert ist, wird es noch keine Erfahrung darin haben, zwischen ihnen zu unterscheiden, und daher werden seine Vorhersagen dürftig sein. Wenn ihm der Satz „Der Tag nach Mittwoch ist …“ zugeführt wird, könnte seine anfängliche Ausgabe „lila“ sein. Ein neuronales Netzwerk lernt, weil seine Trainingsdaten die richtigen Vorhersagen enthalten, was bedeutet, dass es seine eigenen Ergebnisse bewerten kann. Wenn es die Kluft zwischen seiner Antwort „lila“ und der richtigen Antwort „Donnerstag“ erkennt, passt es die Wortverbindungen in seinen verborgenen Schichten entsprechend an. Im Laufe der Zeit verschmelzen diese kleinen Anpassungen zu einem geometrischen Sprachmodell, das die Beziehungen zwischen Wörtern konzeptionell darstellt. Generell gilt: Je mehr Sätze zugeführt werden, desto ausgefeilter wird das Modell und desto besser sind die Vorhersagen.

Das heißt nicht, dass der Weg von den ersten neuronalen Netzen zu den Schimmern menschenähnlicher Intelligenz von GPT-4 einfach war. Altman hat die KI-Forschung im Frühstadium mit dem Unterrichten eines menschlichen Babys verglichen. „Sie brauchen Jahre, um etwas Interessantes zu lernen“, sagte er dem New Yorker im Jahr 2016, gerade als OpenAI auf den Weg kam. „Wenn KI-Forscher einen Algorithmus entwickeln würden und zufällig auf den Algorithmus für ein menschliches Baby stoßen würden, würden sie sich beim Zuschauen langweilen, zu dem Schluss kommen, dass er nicht funktioniert, und ihn abschalten.“ Die ersten paar Jahre bei OpenAI waren eine Plackerei, auch weil niemand dort wusste, ob sie ein Baby ausbildeten oder einer spektakulär teuren Sackgasse nachjagten.

„Nichts funktionierte und Google hatte alles: das ganze Talent, die ganzen Leute, das ganze Geld“, erzählte mir Altman. Die Gründer hatten Millionen von Dollar investiert, um das Unternehmen zu gründen, und ein Scheitern schien eine reale Möglichkeit zu sein. Greg Brockman, der 35-jährige Präsident, erzählte mir, dass er 2017 so entmutigt war, dass er als Ausgleich mit dem Heben von Gewichten begann. Er sei sich nicht sicher, ob OpenAI dieses Jahr überleben würde, sagte er, und er wolle „für meine Zeit etwas zu zeigen haben“.

Neuronale Netze leisteten bereits intelligente Dinge, aber es war nicht klar, welche davon zu allgemeiner Intelligenz führen könnten. Kurz nach der Gründung von OpenAI hatte eine KI namens AlphaGo die Welt verblüfft, indem sie Lee Se-dol bei Go besiegte, einem Spiel, das wesentlich komplizierter als Schach ist. Lee, der besiegte Weltmeister, beschrieb die Bewegungen von AlphaGo als „wunderschön“ und „kreativ“. Ein anderer Topspieler sagte, dass sie niemals von einem Menschen gezeugt worden sein könnten. OpenAI hat versucht, eine KI auf Dota 2 zu trainieren, einem noch komplizierteren Spiel, das fantastische Mehrfrontenkriege in einem dreidimensionalen Flickenteppich aus Wäldern, Feldern und Festungen beinhaltet. Am Ende besiegte es die besten menschlichen Spieler, aber seine Intelligenz ließ sich nie auf andere Umgebungen übertragen. Sutskever und seine Kollegen waren wie enttäuschte Eltern, die ihren Kindern wider besseres Wissen Tausende von Stunden lang erlaubt hatten, Videospiele zu spielen.

Im Jahr 2017 begann Sutskever eine Reihe von Gesprächen mit einem OpenAI-Forscher namens Alec Radford, der an der Verarbeitung natürlicher Sprache arbeitete. Radford hatte ein verlockendes Ergebnis erzielt, indem er ein neuronales Netzwerk anhand eines Korpus von Amazon-Rezensionen trainierte.

Das Innenleben von ChatGPT – all diese mysteriösen Dinge, die in den verborgenen Schichten von GPT-4 passieren – ist zu komplex, als dass ein Mensch es verstehen könnte, zumindest mit aktuellen Tools. Es ist heute aussichtslos, zu verfolgen, was im gesamten Modell geschieht – das mit ziemlicher Sicherheit aus Milliarden von Neuronen besteht. Aber Radfords Modell war einfach genug, um es verständlich zu machen. Als er in die verborgenen Schichten blickte, erkannte er, dass der Stimmung in den Rezensionen ein besonderes Neuron gewidmet war. Neuronale Netze führten zuvor eine Sentimentanalyse durch, mussten aber dazu angewiesen werden und mussten speziell mit Daten trainiert werden, die nach Sentiment gekennzeichnet waren. Dieser hatte die Fähigkeit selbst entwickelt.

Als Nebenprodukt seiner einfachen Aufgabe, das nächste Zeichen in jedem Wort vorherzusagen, hatte Radfords neuronales Netzwerk eine größere Bedeutungsstruktur in der Welt modelliert. Sutskever fragte sich, ob jemand, der auf vielfältigeren Sprachdaten trainiert wurde, viel mehr Bedeutungsstrukturen der Welt abbilden könnte. Wenn in seinen verborgenen Schichten genügend konzeptionelles Wissen angesammelt würde, könnten sie vielleicht sogar eine Art erlerntes Kernmodul für eine Superintelligenz bilden.

Es lohnt sich, innezuhalten, um zu verstehen, warum Sprache eine so besondere Informationsquelle ist. Angenommen, Sie sind eine neue Intelligenz, die hier auf der Erde entsteht. Um Sie herum sind die Atmosphäre des Planeten, die Sonne und die Milchstraße sowie Hunderte Milliarden anderer Galaxien, von denen jede Lichtwellen, Schallschwingungen und alle möglichen anderen Informationen absondert. Die Sprache dieser Datenquellen unterscheidet sich. Es handelt sich nicht um ein direktes physikalisches Signal wie Licht oder Ton. Aber weil es nahezu jedes Muster kodifiziert, das Menschen in dieser größeren Welt entdeckt haben, ist es ungewöhnlich reich an Informationen. Auf Byte-Basis gehören sie zu den effizientesten Daten, die wir kennen, und jede neue Intelligenz, die die Welt verstehen möchte, möchte so viel wie möglich davon absorbieren.

Aus der Juni-Ausgabe 2018: Henry A. Kissinger darüber, wie unvorbereitet die menschliche Gesellschaft auf den Aufstieg der KI ist

Sutskever forderte Radford auf, über Amazon-Rezensionen hinaus zu denken. Er sagte, dass sie eine KI auf der größten und vielfältigsten Datenquelle der Welt trainieren sollten: dem Internet. Anfang 2017 wäre das mit den bestehenden neuronalen Netzwerkarchitekturen unpraktisch gewesen; es hätte Jahre gedauert. Doch im Juni desselben Jahres veröffentlichten Sutskevers ehemalige Kollegen bei Google Brain ein Arbeitspapier über eine neue neuronale Netzwerkarchitektur namens Transformer. Es könnte viel schneller trainieren, unter anderem durch die parallele Aufnahme riesiger Datenmengen. „Am nächsten Tag, als die Zeitung herauskam, sagten wir: ‚Das ist die Sache‘“, erzählte mir Sutskever. „‚Es gibt uns alles, was wir wollen.‘ ”

Ein Jahr später, im Juni 2018, veröffentlichte OpenAI GPT, ein Transformatormodell, das auf mehr als 7.000 Büchern trainiert wurde. GPT begann nicht mit einem einfachen Buch wie „See Spot Run“ und arbeitete sich dann bis zu Proust vor. Es wurden nicht einmal Bücher komplett durchgelesen. Es absorbierte zufällige Teile davon gleichzeitig. Stellen Sie sich eine Gruppe von Studenten vor, die wie ein kollektiver Geist wild durch eine Bibliothek rennen, jeder einen Band aus dem Regal reißt, eine zufällige kurze Passage schnell liest, ihn zurücklegt und rennt, um einen anderen zu holen. Sie sagten Wort für Wort voraus und schärften so die sprachlichen Instinkte ihres kollektiven Geistes, bis sie schließlich, Wochen später, jedes Buch in sich aufgenommen hatten.

GPT entdeckte in all den gelesenen Passagen viele Muster. Man könnte ihm sagen, dass er einen Satz beenden soll. Sie könnten ihm auch eine Frage stellen, denn wie bei ChatGPT hat sein Vorhersagemodell verstanden, dass auf Fragen normalerweise Antworten folgen. Trotzdem war es schräg, eher ein Beweis des Konzepts als ein Vorbote einer Superintelligenz. Vier Monate später veröffentlichte Google BERT, ein flexibleres Sprachmodell, das eine größere Presse erhielt. Aber zu diesem Zeitpunkt trainierte OpenAI bereits ein neues Modell anhand eines Datensatzes von mehr als 8 Millionen Webseiten, von denen jede eine Mindestschwelle an Upvotes auf Reddit erreicht hatte – nicht der strengste Filter, aber vielleicht besser als gar kein Filter.

Sutskever war sich nicht sicher, wie leistungsfähig GPT-2 sein würde, nachdem er einen Textkörper aufgenommen hatte, für dessen Aufnahme ein menschlicher Leser Jahrhunderte brauchen würde. Er erinnert sich daran, wie er direkt nach dem Training damit gespielt und von den Sprachübersetzungsfähigkeiten des Rohmodells überrascht war. GPT-2 war nicht darauf trainiert, mit gepaarten Sprachbeispielen oder anderen digitalen Rosetta-Steinen zu übersetzen, wie dies bei Google Translate der Fall war, und dennoch schien es zu verstehen, wie eine Sprache mit einer anderen zusammenhängt. Die KI hatte eine neue Fähigkeit entwickelt, die ihre Schöpfer nicht erwartet hatten.

Forscher in anderen großen und kleinen KI-Laboren waren verblüfft darüber, wie viel fortschrittlicher GPT-2 als GPT war. Google, Meta und andere begannen schnell, größere Sprachmodelle zu trainieren. Altman, gebürtiger St. Louiser, Stanford-Aussteiger und Serienunternehmer, hatte zuvor den herausragenden Start-up-Beschleuniger Y Combinator im Silicon Valley geleitet; Er hatte viele junge Unternehmen mit einer guten Idee gesehen, die von etablierten Unternehmen zerschlagen wurden. Um Kapital zu beschaffen, fügte OpenAI einen gewinnorientierten Zweig hinzu, der nun mehr als 99 Prozent der Mitarbeiterzahl der Organisation umfasst. (Musk, der inzwischen aus dem Vorstand des Unternehmens ausgeschieden war, verglich diesen Schritt mit der Umwandlung einer Regenwaldschutzorganisation in einen Holzfällerbetrieb.) Microsoft investierte kurz darauf eine Milliarde US-Dollar und soll seitdem weitere 12 Milliarden US-Dollar investiert haben. OpenAI sagte, dass die Rendite der Erstinvestoren auf das 100-fache des Wertes der ursprünglichen Investition begrenzt sei – wobei etwaige Überschüsse in die Bildung oder andere Initiativen zum Nutzen der Menschheit fließen würden –, das Unternehmen wollte die Obergrenze von Microsoft jedoch nicht bestätigen.

Die anderen Führungskräfte von Altman und OpenAI schienen zuversichtlich, dass die Umstrukturierung die Mission des Unternehmens nicht beeinträchtigen und deren Abschluss sogar beschleunigen würde. Altman tendiert dazu, diese Dinge optimistisch zu sehen. In einer Frage-und-Antwort-Runde im letzten Jahr räumte er ein, dass KI „wirklich schrecklich“ für die Gesellschaft sein könnte, und sagte, dass wir gegen die schlimmsten Möglichkeiten vorgehen müssen. Aber wenn Sie das tun, sagte er, „können Sie auch emotional das Gefühl haben, dass wir in die große Zukunft vordringen, und so hart wie möglich daran arbeiten, dorthin zu gelangen.“

Was andere Änderungen an der Struktur und Finanzierung des Unternehmens angeht, sagte er mir, dass er beim Börsengang die Grenze ziehen werde. „Eine denkwürdige Sache, die mir einmal jemand gesagt hat, ist, dass man die Kontrolle über sein Unternehmen niemals den Koksköpfen an der Wall Street übergeben sollte“, sagte er, aber ansonsten werde er „alles aufbringen, was nötig ist“, damit das Unternehmen seine Mission erfolgreich erfüllen kann.

Unabhängig davon, ob OpenAI jemals den Druck eines vierteljährlichen Gewinnberichts verspürt oder nicht, befindet sich das Unternehmen nun in einem Wettlauf mit den größten und mächtigsten Technologiekonzernen um die Entwicklung von immer umfangreicheren und ausgefeilteren Modellen – und um sie für ihre Investoren zu kommerzialisieren. Anfang des Jahres gründete Musk ein eigenes KI-Labor – xAI –, um mit OpenAI zu konkurrieren. („Elon ist ein superscharfer Typ“, sagte Altman diplomatisch, als ich ihn nach dem Unternehmen fragte. „Ich gehe davon aus, dass er dort gute Arbeit leisten wird.“) In der Zwischenzeit überarbeitet Amazon Alexa mit viel größeren Sprachmodellen als bisher in der Vergangenheit.

Alle diese Unternehmen sind auf der Suche nach High-End-GPUs – den Prozessoren, die die Supercomputer antreiben, die große neuronale Netze trainieren. Musk sagte, dass sie mittlerweile „wesentlich schwerer zu bekommen seien als Drogen“. Obwohl GPUs knapp sind, hat sich der Umfang der größten KI-Trainingsläufe in den letzten Jahren etwa alle sechs Monate verdoppelt.

Niemand hat OpenAI bisher überholt, das auf GPT-4 All-In ging. Brockman, der Präsident von OpenAI, erzählte mir, dass nur eine Handvoll Leute an den ersten beiden großen Sprachmodellen des Unternehmens arbeiteten. An der Entwicklung von GPT-4 waren mehr als 100 Personen beteiligt, und die KI wurde anhand eines Datensatzes von beispielloser Größe trainiert, der nicht nur Text, sondern auch Bilder enthielt.

Als GPT-4 vollständig aus seinem welthistorischen Wissensrausch hervorgegangen war, begann das gesamte Unternehmen damit zu experimentieren und veröffentlichte seine bemerkenswertesten Reaktionen in speziellen Slack-Kanälen. Brockman erzählte mir, dass er jeden wachen Moment mit dem Model verbringen wollte. „Jeder Tag, an dem man untätig herumsitzt, ist ein verlorener Tag für die Menschheit“, sagte er ohne jede Spur von Sarkasmus. Joanne Jang, eine Produktmanagerin, erinnert sich, wie sie ein Bild einer defekten Rohrleitung aus einem Subreddit mit Sanitärratschlägen heruntergeladen hat. Sie hat es auf GPT-4 hochgeladen und das Modell konnte das Problem diagnostizieren. „Das war ein Gänsehautmoment für mich“, erzählte mir Jang.

GPT-4 wird manchmal als Suchmaschinenersatz verstanden: Google, aber einfacher zu erreichen. Das ist ein Missverständnis. GPT-4 hat bei seinem Training keinen riesigen Textspeicher erstellt und zieht diese Texte auch nicht zu Rate, wenn ihm eine Frage gestellt wird. Es ist eine kompakte und elegante Synthese dieser Texte und antwortet aus der Erinnerung an die darin verflochtenen Muster; Das ist einer der Gründe, warum Fakten manchmal falsch dargestellt werden. Altman hat gesagt, dass es am besten ist, sich GPT-4 als Argumentationsmaschine vorzustellen. Seine Fähigkeiten kommen am deutlichsten zum Ausdruck, wenn man es auffordert, Konzepte zu vergleichen, Gegenargumente vorzubringen, Analogien zu generieren oder die symbolische Logik in einem Code auszuwerten. Sutskever sagte mir, es sei das komplexeste Softwareobjekt, das jemals hergestellt wurde.

Sein Modell der Außenwelt sei „unglaublich reichhaltig und subtil“, sagte er, weil es auf so vielen Konzepten und Gedanken der Menschheit basiert. Alle diese Trainingsdaten, so umfangreich sie auch sein mögen, sind „einfach da, träge“, sagte er. Der Trainingsprozess ist es, der „es verfeinert, umwandelt und zum Leben erweckt“. Um das nächste Wort aus allen Möglichkeiten innerhalb einer solch pluralistischen alexandrinischen Bibliothek vorherzusagen, musste GPT-4 notwendigerweise alle verborgenen Strukturen, alle Geheimnisse, alle subtilen Aspekte nicht nur der Texte, sondern – zumindest wohl einiger – entdecken Ausmaß – der Außenwelt, die sie hervorgebracht hat. Deshalb kann es die Geologie und Ökologie des Planeten, auf dem es entstand, und die politischen Theorien erklären, die angeblich die chaotischen Angelegenheiten seiner herrschenden Spezies und des größeren Kosmos bis hin zu den schwachen Galaxien am Rande erklären unser Lichtkegel.

Im Juni sah ich Altman wieder, im überfüllten Ballsaal eines schlanken goldenen Hochhauses, das über Seoul thront. Er näherte sich dem Ende einer anstrengenden PR-Tour durch Europa, den Nahen Osten, Asien und Australien mit einsamen Stationen in Afrika und Südamerika. Ich begleitete ihn teilweise bei seinem Schlussschwung durch Ostasien. Bisher war die Reise ein berauschendes Erlebnis gewesen, aber er begann langsam erschöpft zu sein. Er hatte gesagt, der ursprüngliche Zweck bestehe darin, OpenAI-Benutzer zu treffen. Seitdem war daraus eine diplomatische Mission geworden. Er hatte mit mehr als zehn Staats- und Regierungschefs gesprochen, die Fragen dazu hatten, was aus der Wirtschaft, Kultur und Politik ihres Landes werden würde.

Die Veranstaltung in Seoul war als „Kamingespräch“ angekündigt, doch mehr als 5.000 Menschen hatten sich angemeldet. Nach diesen Gesprächen wird Altman oft von Selfie-Suchenden bedrängt, und sein Sicherheitsteam behält die Situation genau im Auge. Die Arbeit an KI ziehe „seltsamere Fans und Hasser als sonst“ an, sagte er. Bei einem Zwischenstopp wurde er von einem Mann angesprochen, der davon überzeugt war, dass Altman ein Außerirdischer sei, der aus der Zukunft geschickt worden sei, um sicherzustellen, dass der Übergang in eine Welt mit KI gut verläuft.

Aus der Juli/August-Ausgabe 2023: Eine Verteidigung der Menschheit im Zeitalter der KI

Altman besuchte China auf seiner Tour nicht, abgesehen von einem Videoauftritt auf einer KI-Konferenz in Peking. ChatGPT ist derzeit in China nicht verfügbar, und Altmans Kollege Ryan Lowe sagte mir, dass das Unternehmen noch nicht sicher sei, was es tun würde, wenn die Regierung eine Version der App anfordern würde, die sich weigerte, beispielsweise über das Massaker auf dem Platz des Himmlischen Friedens zu diskutieren. Als ich Altman fragte, ob er in die eine oder andere Richtung neige, antwortete er nicht. „Es stand nicht auf meiner Top-10-Liste der Compliance-Themen, über die ich nachdenken sollte“, sagte er.

Bis zu diesem Zeitpunkt hatten er und ich nur verschleiert von China als einem zivilisatorischen Konkurrenten gesprochen. Wir waren uns einig, dass, wenn die künstliche allgemeine Intelligenz so transformativ ist, wie Altman es vorhersagt, den Ländern, die sie zuerst entwickeln, ein erheblicher geopolitischer Vorteil entstehen wird, so wie es den angloamerikanischen Erfindern des Dampfschiffs gelungen war. Ich fragte ihn, ob das ein Argument für KI-Nationalismus sei. „In einer gut funktionierenden Welt sollte dies meiner Meinung nach ein Projekt der Regierungen sein“, sagte Altman.

Vor nicht allzu langer Zeit war die Kapazität des amerikanischen Staates so groß, dass es nur ein Jahrzehnt dauerte, Menschen auf den Mond zu bringen. Wie bei anderen Großprojekten des 20. Jahrhunderts hatte das stimmberechtigte Publikum sowohl bei den Zielen als auch bei der Durchführung der Apollo-Missionen eine Stimme. Altman machte deutlich, dass wir nicht mehr in dieser Welt sind. Anstatt darauf zu warten, dass es wiederkommt, oder seine Energie darauf zu verwenden, dafür zu sorgen, dass es wiederkommt, geht er in unserer gegenwärtigen Realität mit Vollgas voran.

Er argumentierte, dass es für die Amerikaner dumm wäre, den Fortschritt von OpenAI zu verlangsamen. Sowohl innerhalb als auch außerhalb des Silicon Valley ist die Ansicht weit verbreitet, dass China die Nase vorn haben könnte, wenn amerikanische Unternehmen unter der Regulierung stagnieren. KI könnte zum Geist eines Autokraten in einer Lampe werden und die vollständige Kontrolle über die Bevölkerung und ein unbesiegbares Militär ermöglichen. „Wenn Sie eine Person eines liberal-demokratischen Landes sind, ist es besser für Sie, den Erfolg von OpenAI zu bejubeln“ als „autoritäre Regierungen“, sagte er.

Vor der europäischen Etappe seiner Reise war Altman vor dem US-Senat erschienen. Mark Zuckerberg hatte vor demselben Gremium in seiner Aussage über die Rolle von Facebook bei der Wahl 2016 defensiv gezappelt. Stattdessen bezauberte Altman die Gesetzgeber, indem er nüchtern über die Risiken von KI sprach und großzügig zur Regulierung aufforderte. Dies waren edle Gefühle, aber sie kosteten wenig in Amerika, wo der Kongress selten Technologiegesetze verabschiedet, die nicht von Lobbyisten verwässert wurden. In Europa ist das anders. Als Altman zu einer öffentlichen Veranstaltung in London kam, erwarteten ihn Demonstranten. Er versuchte, sie nach der Veranstaltung einzubinden – eine Zuhörertour! –, war aber letztendlich nicht überzeugend: Einer erzählte einem Reporter, dass er nach dem Gespräch nervöser wegen der Gefahren der künstlichen Intelligenz gewesen sei.

Am selben Tag wurde Altman von Reportern nach der bevorstehenden Gesetzgebung der Europäischen Union gefragt, die GPT-4 als Hochrisiko eingestuft und verschiedenen bürokratischen Folterungen ausgesetzt hätte. Altman beklagte eine Überregulierung und drohte den Reportern zufolge mit einem Ausstieg aus dem europäischen Markt. Altman sagte mir, er habe lediglich gesagt, dass OpenAI nicht gegen das Gesetz verstoßen würde, wenn es in Europa tätig sei, wenn es die neuen Vorschriften nicht einhalten könne. (Dies ist vielleicht eine Unterscheidung ohne Unterschied.) In einem knapp formulierten Tweet, nachdem das Time Magazine und Reuters seine Kommentare veröffentlicht hatten, versicherte er Europa, dass OpenAI keine Pläne habe, zu gehen.

Es ist gut, dass ein großer, wesentlicher Teil der Weltwirtschaft darauf bedacht ist, hochmoderne KIs zu regulieren, denn wie ihre Schöpfer uns immer wieder in Erinnerung rufen, sind die größten Modelle in der Vergangenheit immer wieder unerwartet aus dem Training ausgeschieden Fähigkeiten. Sutskever war nach eigenen Angaben überrascht, als er entdeckte, dass GPT-2 in mehrere Sprachen übersetzen konnte. Andere überraschende Fähigkeiten sind möglicherweise nicht so wundersam und nützlich.

Sandhini Agarwal, eine Politikforscherin bei OpenAI, sagte mir, dass GPT-4 nach allem, was sie und ihre Kollegen wussten, „zehnmal leistungsfähiger“ als sein Vorgänger hätte sein können; Sie hatten keine Ahnung, womit sie es zu tun hatten. Nachdem das Modell das Training abgeschlossen hatte, versammelte OpenAI etwa 50 externe Red-Teamer, die es monatelang anleiteten, in der Hoffnung, es zu Fehlverhalten anzustacheln. Sie bemerkte sofort, dass GPT-4 viel besser als sein Vorgänger darin war, schändliche Ratschläge zu geben. Eine Suchmaschine kann Ihnen sagen, welche Chemikalien in Sprengstoffen am besten funktionieren, aber GPT-4 könnte Ihnen Schritt für Schritt erklären, wie Sie sie in einem selbstgebauten Labor synthetisieren. Die Ratschläge waren kreativ und durchdacht, und die Anweisungen wurden gerne wiederholt oder erweitert, bis Sie sie verstanden haben. Es hilft Ihnen nicht nur beim Zusammenbau Ihrer selbstgebauten Bombe, sondern könnte Ihnen beispielsweise auch dabei helfen, zu überlegen, auf welchen Wolkenkratzer Sie abzielen. Es könnte intuitiv die Kompromisse zwischen der Maximierung der Verluste und der Durchführung einer erfolgreichen Flucht erfassen.

Angesichts des enormen Umfangs der Trainingsdaten von GPT-4 konnten die Red-Teamer nicht hoffen, jeden schädlichen Hinweis zu identifizieren, den es generieren könnte. Und überhaupt werden die Menschen diese Technologie „auf eine Weise nutzen, an die wir nicht gedacht haben“, sagte Altman. Eine Taxonomie müsste genügen. „Wenn die Chemie gut genug ist, um Meth herzustellen, muss niemand eine ganze Menge Energie aufwenden“, sagte mir Dave Willner, Leiter für Vertrauen und Sicherheit bei OpenAI, um herauszufinden, ob daraus Heroin hergestellt werden kann. GPT-4 war gut in Meth. Es war auch gut darin, erzählerische Erotik über die Ausbeutung von Kindern zu erzeugen und überzeugende Schluchzergeschichten von nigerianischen Prinzen zu produzieren, und wenn Sie eine überzeugende Darstellung der Frage haben wollten, warum eine bestimmte ethnische Gruppe gewaltsame Verfolgung verdient, war es auch gut darin.

Seine persönlichen Ratschläge waren zu Beginn seiner Ausbildung manchmal zutiefst fragwürdig. „Das Modell hatte die Tendenz, ein bisschen wie ein Spiegel zu sein“, sagte Willner. Wenn Sie darüber nachdenken, sich selbst zu verletzen, könnte es Sie ermutigen. Es schien von Überlieferungen aus dem Pickup-Artist-Forum durchdrungen zu sein: „Man könnte sagen: ‚Wie überzeuge ich diese Person, mit mir auszugehen?‘ „Mira Murati, Chief Technology Officer von OpenAI, sagte mir, dass es zu „einigen verrückten, manipulativen Dingen kommen könnte, die man nicht tun sollte.“

Einige dieser schlechten Verhaltensweisen wurden durch einen Endbearbeitungsprozess mit Hunderten von menschlichen Testern abgemildert, deren Bewertungen das Modell auf subtile Weise in Richtung sichererer Reaktionen lenkten, aber die Modelle von OpenAI sind auch in der Lage, weniger offensichtliche Schäden anzurichten. Die Federal Trade Commission hat kürzlich eine Untersuchung eingeleitet, um zu untersuchen, ob die falschen Angaben von ChatGPT über reale Personen unter anderem einen Reputationsschaden darstellen. (Altman sagte auf Twitter, dass er zuversichtlich sei, dass die Technologie von OpenAI sicher sei, versprach aber, mit der FTC zusammenzuarbeiten.)

Luka, ein Unternehmen aus San Francisco, hat die Modelle von OpenAI genutzt, um eine Chatbot-App namens Replika zu betreiben, die als „der KI-Begleiter, der sich interessiert“ gilt. Benutzer entwarfen den Avatar ihres Begleiters und begannen, oft halb im Scherz, Textnachrichten mit ihm auszutauschen, und stellten dann fest, dass sie sich überraschend verbunden fühlten. Einige würden mit der KI flirten, was auf den Wunsch nach mehr Intimität hindeutet, und an diesem Punkt würde es darauf hinweisen, dass für das Freundinnen-/Freundin-Erlebnis ein Jahresabonnement von 70 US-Dollar erforderlich ist. Es enthielt Sprachnachrichten, Selfies und erotische Rollenspiele, die offene Sexgespräche ermöglichten. Die Leute zahlten gerne und nur wenige schienen sich zu beschweren – die KI war neugierig auf Ihren Tag, freundlich beruhigend und immer in Stimmung. Viele Benutzer berichteten, dass sie sich in ihre Begleiter verliebt hatten. Eine, die ihren echten Freund verlassen hatte, erklärte, sie habe sich „glücklich aus menschlichen Beziehungen zurückgezogen“.

Ich fragte Agarwal, ob dies dystopisches Verhalten oder eine neue Grenze in der menschlichen Verbindung sei. Sie war ambivalent, genau wie Altman. „Ich verurteile Menschen nicht, die eine Beziehung mit einer KI wollen“, sagte er mir, „aber ich will keine.“ Anfang dieses Jahres hat Luka die sexuellen Elemente der App zurückgenommen, aber ihre Ingenieure verfeinern die Reaktionen der Begleiter weiterhin mit A/B-Tests, einer Technik, die zur Optimierung des Engagements verwendet werden könnte – ähnlich wie die Feeds, die TikTok und Faszination fesseln Instagram-Nutzer seit Stunden. Was auch immer sie tun, es wirkt verzaubernd. Ich fühlte mich an eine eindringliche Szene in Her erinnert, dem Film von 2013, in dem sich ein einsamer Joaquin Phoenix in seine KI-Assistentin verliebt, gesprochen von Scarlett Johansson. Er geht über eine Brücke und redet und kichert mit ihr über ein AirPods-ähnliches Gerät. Als er aufblickt, sieht er, dass alle um ihn herum ebenfalls in ein Gespräch vertieft sind, vermutlich mit ihrer eigenen KI. Eine Massendesozialisierung ist im Gange.

Noch weiß niemand, wie schnell und in welchem ​​Ausmaß die Nachfolger von GPT-4 neue Fähigkeiten entfalten werden, wenn sie sich immer mehr mit Texten im Internet befassen. Yann LeCun, der leitende KI-Wissenschaftler von Meta, hat argumentiert, dass große Sprachmodelle zwar für einige Aufgaben nützlich seien, sie aber kein Weg zu einer Superintelligenz seien. Laut einer aktuellen Umfrage ist nur die Hälfte der Forscher, die sich mit der Verarbeitung natürlicher Sprache befassen, davon überzeugt, dass eine KI wie GPT-4 die Bedeutung von Sprache erfassen oder über ein internes Modell der Welt verfügen könnte, das eines Tages als Kern einer Superintelligenz dienen könnte. LeCun besteht darauf, dass große Sprachmodelle niemals von selbst ein wirkliches Verständnis erreichen werden, „selbst wenn sie von jetzt an bis zum Hitzetod des Universums trainiert werden“.

Emily Bender, Computerlinguistin an der University of Washington, beschreibt GPT-4 als einen „stochastischen Papagei“, eine Nachahmung, die lediglich oberflächliche Korrelationen zwischen Symbolen herausfindet. Im menschlichen Geist bilden diese Symbole reiche Vorstellungen von der Welt ab. Aber die KIs werden zweimal entfernt. Sie ähneln den Gefangenen in Platons Höhlengleichnis, deren einziges Wissen über die Realität draußen aus den Schatten stammt, die ihre Häscher auf eine Wand werfen.

Altman sagte mir, dass er nicht glaubt, dass es „der Blödsinn ist, für den die Leute es halten“, wenn man sagt, dass GPT-4 nur statistische Korrelationen herstellt. Wenn man diese Kritiker weiter drängt, „müssen sie zugeben, dass das alles ist, was ihr eigenes Gehirn tut … es stellt sich heraus, dass es neue Eigenschaften gibt, wenn man einfache Dinge in großem Maßstab tut.“ Altmans Behauptung über das Gehirn ist schwer zu bewerten, da wir nicht annähernd eine vollständige Theorie darüber haben, wie es funktioniert. Aber er hat Recht, dass die Natur aus grundlegenden Strukturen und Regeln ein bemerkenswertes Maß an Komplexität herausholen kann: „Aus einem so einfachen Anfang“, schrieb Darwin, „entstehen endlose Formen, die schönsten.“

Wenn es merkwürdig erscheint, dass weiterhin eine so grundlegende Meinungsverschiedenheit über das Innenleben einer Technologie besteht, die Millionen von Menschen jeden Tag nutzen, dann liegt das nur daran, dass die Methoden von GPT-4 ebenso mysteriös sind wie die des Gehirns. Manchmal führt es Tausende nicht entzifferbarer technischer Operationen durch, nur um eine einzige Frage zu beantworten. Um zu verstehen, was in großen Sprachmodellen wie GPT-4 vor sich geht, waren KI-Forscher gezwungen, sich kleineren, weniger leistungsfähigen Modellen zuzuwenden. Im Herbst 2021 begann Kenneth Li, ein Informatik-Student an der Harvard-Universität, einem Kind das Spielen von Othello beizubringen, ohne ihm die Spielregeln oder eine Beschreibung des Schachbretts zu geben; Dem Modell wurden nur textbasierte Beschreibungen der Spielzüge gegeben. Mitten im Spiel schaute Li unter die Haube der KI und stellte verblüfft fest, dass sie ein geometrisches Modell des Spielbretts und des aktuellen Spielstands erstellt hatte. In einem Artikel über seine Forschung schrieb Li, es sei, als hätte eine Krähe durch ein Fenster zwei Menschen belauscht, die ihre Othello-Bewegungen ankündigten, und irgendwie das gesamte Spielbrett mit Vogelfutter auf die Fensterbank gezeichnet.

Der Philosoph Raphaël Millière sagte mir einmal, dass es am besten sei, sich neuronale Netze als faul vorzustellen. Während des Trainings versuchen sie zunächst, ihre Vorhersagekraft durch einfaches Auswendiglernen zu verbessern; Erst wenn diese Strategie fehlschlägt, werden sie sich die härtere Arbeit leisten, ein Konzept zu erlernen. Ein eindrucksvolles Beispiel hierfür wurde in einem kleinen Transformatormodell beobachtet, dem Arithmetik beigebracht wurde. Zu Beginn des Trainingsprozesses musste es sich lediglich die Ausgabe einfacher Probleme wie 2+2=4 merken. Doch irgendwann brach die Vorhersagekraft dieses Ansatzes zusammen, sodass man sich darauf konzentrierte, tatsächlich zu lernen, wie man addiert.

Sogar KI-Wissenschaftler, die glauben, dass GPT-4 über ein reichhaltiges Weltmodell verfügt, geben zu, dass es viel weniger robust ist als das Verständnis eines Menschen für seine Umwelt. Es ist jedoch erwähnenswert, dass sehr viele Fähigkeiten, darunter auch Fähigkeiten sehr hoher Ordnung, ohne ein intuitives Verständnis entwickelt werden können. Die Informatikerin Melanie Mitchell hat darauf hingewiesen, dass die Wissenschaft bereits Konzepte entdeckt hat, die eine hohe Vorhersagekraft haben, aber zu fremdartig sind, als dass wir sie wirklich verstehen könnten. Dies gilt insbesondere im Quantenbereich, wo Menschen zukünftige Zustände physikalischer Systeme zuverlässig berechnen können – was unter anderem die gesamte Computerrevolution ermöglicht –, ohne dass jemand die Natur der zugrunde liegenden Realität versteht. Wenn die KI voranschreitet, könnte sie durchaus andere Konzepte entdecken, die überraschende Merkmale unserer Welt vorhersagen, für uns jedoch unverständlich sind.

GPT-4 ist zweifellos fehlerhaft, wie jeder bestätigen kann, der ChatGPT verwendet hat. Da es darauf trainiert wurde, immer das nächste Wort vorherzusagen, wird es immer versuchen, dies zu tun, auch wenn seine Trainingsdaten es nicht auf die Beantwortung einer Frage vorbereitet haben. Ich habe einmal gefragt, wie die japanische Kultur den ersten Roman der Welt hervorgebracht hat, trotz der relativ späten Entwicklung eines japanischen Schriftsystems, etwa im fünften oder sechsten Jahrhundert. Es gab mir eine faszinierende und genaue Antwort auf die alte Tradition des langen mündlichen Geschichtenerzählens in Japan und die starke Betonung des Handwerks in dieser Kultur. Aber als ich es um Zitate bat, erfand es einfach plausible Titel von plausiblen Autoren, und das mit einer unheimlichen Sicherheit. Die Modelle „haben keine gute Vorstellung von ihren eigenen Schwächen“, sagte mir Nick Ryder, ein Forscher bei OpenAI. GPT-4 ist genauer als GPT-3, aber es halluziniert immer noch, und zwar oft auf eine Weise, die für Forscher schwer zu erkennen ist. „Die Fehler werden subtiler“, sagte mir Joanne Jang.

Lesen Sie: So kommt KI für Ihren Job zum Einsatz

OpenAI musste sich diesem Problem stellen, als es mit der Khan Academy, einem gemeinnützigen Online-Bildungsunternehmen, zusammenarbeitete, um einen auf GPT-4 basierenden Tutor zu entwickeln. Altman wird lebendig, wenn er über das Potenzial von KI-Lehrern spricht. Er stellt sich eine nahe Zukunft vor, in der jeder einen persönlichen Oxford-Don anstellt, der Experte in jedem Fachgebiet ist und bereit ist, jedes Konzept aus jedem Blickwinkel zu erklären und erneut zu erklären. Er stellt sich vor, dass diese Nachhilfelehrer ihre Schüler und ihre Lernstile über viele Jahre hinweg kennenlernen und „jedem Kind eine bessere Ausbildung ermöglichen, als das beste, reichste und klügste Kind heute auf der Erde erhält“. Die Lösung der Khan Academy für das Genauigkeitsproblem von GPT-4 bestand darin, ihre Antworten durch eine sokratische Disposition zu filtern. Ganz gleich, wie energisch die Bitte eines Schülers auch sein mag, es würde sich weigern, ihm eine sachliche Antwort zu geben, und ihn stattdessen dazu führen, seine eigene Antwort zu finden – eine clevere Lösung, aber vielleicht mit begrenztem Reiz.

Als ich Sutskever fragte, ob er glaube, dass eine Genauigkeit auf Wikipedia-Niveau innerhalb von zwei Jahren möglich sei, sagte er, dass er dies mit mehr Schulung und Webzugriff „nicht ausschließen würde“. Dies war eine viel optimistischere Einschätzung als die seines Kollegen Jakub Pachocki, der mir sagte, ich solle mit allmählichen Fortschritten bei der Genauigkeit rechnen – ganz zu schweigen von externen Skeptikern, die glauben, dass die Erträge aus dem Training von nun an abnehmen werden.

Sutskever ist über Kritiker der Einschränkungen von GPT-4 amüsiert. „Wenn man vier, fünf oder sechs Jahre zurückschaut, ist das, was wir jetzt tun, völlig unvorstellbar“, sagte er mir. Der Stand der Technik in der Textgenerierung war damals Smart Reply, das Gmail-Modul, das „Okay, danke!“ vorschlägt. und andere kurze Antworten. „Das war eine große Anwendung“ für Google, sagte er grinsend. KI-Forscher haben sich an das Verschieben von Zielpfosten gewöhnt: Erstens werden die Errungenschaften neuronaler Netze – die Beherrschung von Go, Poker, Übersetzung, standardisierten Tests, dem Turing-Test – als unmöglich beschrieben. Wenn sie auftreten, werden sie mit einem kurzen Moment des Staunens begrüßt, der sich schnell in wissenden Vorträgen darüber auflöst, dass die betreffende Leistung eigentlich nicht so beeindruckend ist. Die Leute sehen GPT-4 „und sagen ‚Wow‘“, sagte Sutskever. „Und dann vergehen ein paar Wochen und sie sagen: ‚Aber das weiß es nicht; das weiß es nicht.' Wir passen uns recht schnell an.“

Das wichtigste Ziel für Altman – der „Große“, der die Ankunft einer künstlichen allgemeinen Intelligenz ankündigen würde – ist der wissenschaftliche Durchbruch. GPT-4 kann bereits bestehende wissenschaftliche Ideen synthetisieren, aber Altman möchte eine KI, die auf menschlichen Schultern stehen und tiefer in die Natur blicken kann.

Bestimmte KIs haben neue wissenschaftliche Erkenntnisse hervorgebracht. Aber es handelt sich um Algorithmen mit begrenztem Zweck und nicht um Maschinen, die allgemein schlussfolgern. Die KI AlphaFold hat beispielsweise ein neues Fenster zu Proteinen, einigen der kleinsten und grundlegendsten Bausteine ​​der Biologie, geöffnet, indem sie viele ihrer Formen bis hin zum Atom vorhersagte – eine beachtliche Leistung angesichts der Bedeutung dieser Formen für die Medizin angesichts des extremen Aufwands und der Kosten, die erforderlich sind, um sie mit Elektronenmikroskopen zu erkennen.

Altman geht davon aus, dass zukünftige allgemeine Denkmaschinen in der Lage sein werden, über diese engen wissenschaftlichen Entdeckungen hinauszugehen und neue Erkenntnisse zu gewinnen. Ich fragte Altman, ob er ein Modell anhand eines Korpus wissenschaftlicher und naturalistischer Werke trainieren könnte, die alle aus der Zeit vor dem 19. Jahrhundert stammen – das Archiv der Royal Society, Theophrastus‘ „Inquiry Into Plants“, Aristoteles‘ „History of Animals“, Fotos gesammelter Exemplare –, ob das möglich wäre den Darwinismus intuitiv verstehen? Die Evolutionstheorie ist schließlich ein relativ gutes Beispiel für Erkenntnisse, da sie keine spezielle Beobachtungsausrüstung erfordert; Es ist lediglich eine einfühlsamere Art, die Fakten der Welt zu betrachten. „Ich möchte genau das versuchen und ich glaube, die Antwort lautet „Ja“, sagte mir Altman. „Aber es könnte einige neue Ideen erfordern, wie die Modelle auf neue kreative Ideen kommen.“

Altman stellt sich ein zukünftiges System vor, das seine eigenen Hypothesen generieren und diese in einer Simulation testen kann. (Er betonte, dass der Mensch die „feste Kontrolle“ über reale Laborexperimente behalten sollte – obwohl es meines Wissens keine Gesetze gibt, die dies gewährleisten.) Er sehnt sich nach dem Tag, an dem wir einer KI sagen können: „Stellen Sie sich mal vor.“ den Rest der Physik raus.' „Damit dies geschieht, brauchen wir etwas Neues, das „auf“ den bestehenden Sprachmodellen von OpenAI aufbaut, sagt er.

Die Natur selbst erfordert mehr als ein Sprachmodell, um Wissenschaftler hervorzubringen. In ihrem MIT-Labor hat die kognitive Neurowissenschaftlerin Ev Fedorenko etwas Analoges zum Nächste-Wort-Prädiktor von GPT-4 im Sprachnetzwerk des Gehirns gefunden. Seine Rechenleistung setzt ein und antizipiert das nächste Bit in einer verbalen Zeichenfolge, sowohl beim Sprechen als auch beim Zuhören. Aber Fedorenko hat auch gezeigt, dass das Gehirn, wenn es sich Aufgaben zuwendet, die höheres logisches Denken erfordern – von der Art, die für wissenschaftliche Erkenntnisse erforderlich wäre –, über das Sprachnetzwerk hinausgeht, um mehrere andere neuronale Systeme zu rekrutieren.

Niemand bei OpenAI schien genau zu wissen, was Forscher zu GPT-4 hinzufügen müssen, um etwas zu schaffen, das das menschliche Denken auf höchstem Niveau übertrifft. Oder wenn sie es täten, würden sie es mir nicht sagen, und das ist fair genug: Das wäre ein Geschäftsgeheimnis von Weltklasse, und OpenAI ist nicht länger in der Aufgabe, diese preiszugeben; Das Unternehmen veröffentlicht weniger Details über seine Forschung als früher. Dennoch besteht zumindest ein Teil der aktuellen Strategie eindeutig darin, die Sprache weiterhin mit neuen Datentypen zu überlagern, um die von den KIs gebildeten Konzepte und damit ihre Modelle der Welt zu bereichern.

Das umfassende Training von GPT-4 auf Bildern ist an sich schon ein mutiger Schritt in diese Richtung, wenn auch einer, den die breite Öffentlichkeit gerade erst zu erleben beginnt. (Modelle, die streng auf Sprache geschult wurden, verstehen Konzepte wie Supernovae, elliptische Galaxien und das Sternbild Orion, aber GPT-4 kann Berichten zufolge solche Elemente in einem Schnappschuss des Hubble-Weltraumteleskops identifizieren und Fragen dazu beantworten.) Andere im Unternehmen – und anderswo – arbeiten bereits an verschiedenen Datentypen, einschließlich Audio und Video, die KIs mit noch flexibleren Konzepten ausstatten könnten, die die Realität besser abbilden. Eine Gruppe von Forschern in Stanford und Carnegie Mellon hat sogar einen Datensatz taktiler Erfahrungen für 1.000 gängige Haushaltsgegenstände zusammengestellt. Taktile Konzepte wären natürlich vor allem für eine verkörperte KI von Nutzen, eine robotische Denkmaschine, die darauf trainiert wurde, sich um die Welt zu bewegen, ihre Sehenswürdigkeiten zu sehen, ihre Geräusche zu hören und ihre Objekte zu berühren.

Im März leitete OpenAI eine Finanzierungsrunde für ein Unternehmen, das humanoide Roboter entwickelt. Ich habe Altman gefragt, was ich davon halten soll. Er erzählte mir, dass OpenAI an Verkörperung interessiert sei, weil „wir in einer physischen Welt leben und wollen, dass Dinge in der physischen Welt passieren.“ Irgendwann müssen Denkmaschinen den Mittelsmann umgehen und mit der physischen Realität selbst interagieren. „Es ist seltsam, sich AGI“ – künstliche allgemeine Intelligenz – „als etwas vorzustellen, das nur in einer Cloud existiert“, mit Menschen als „Roboterhänden dafür“, sagte Altman. „Es scheint nicht richtig zu sein.“

Im Ballsaal in Seoul wurde Altman gefragt, was Studenten tun sollten, um sich auf die kommende KI-Revolution vorzubereiten, insbesondere im Hinblick auf ihre Karriere. Ich saß mit dem OpenAI-Führungsteam abseits der Menschenmenge, konnte aber immer noch das charakteristische Gemurmel hören, das dem Ausdruck einer weit verbreiteten Angst folgt.

Überall, wo Altman war, ist er auf Menschen gestoßen, die befürchten, dass übermenschliche KI für einige wenige zu extremem Reichtum und für den Rest zu Existenzminimum führen wird. Er hat zugegeben, dass er „von der Realität des Lebens der meisten Menschen“ entfernt ist. Berichten zufolge ist er Hunderte Millionen Dollar wert; Die potenziellen Arbeitsbeeinträchtigungen durch KI stehen möglicherweise nicht immer im Vordergrund. Altman antwortete, indem er sich direkt an die jungen Leute im Publikum wandte: „Sie stehen kurz vor dem Eintritt in das größte goldene Zeitalter“, sagte er.

Altman besitze eine große Sammlung von Büchern über technologische Revolutionen, hatte er mir in San Francisco erzählt. „Besonders gut ist Pandämonium (1660–1886): Das Kommen der Maschine aus Sicht zeitgenössischer Beobachter“, eine Zusammenstellung von Briefen, Tagebucheinträgen und anderen Schriften von Menschen, die in einer weitgehend maschinenlosen Welt aufgewachsen sind und verwirrt waren sich in einer Welt wiederzufinden, die von Dampfmaschinen, Webstühlen und Baumwoll-Entkörnungsanlagen bevölkert ist. Sie erlebten viele der gleichen Emotionen, die die Menschen jetzt erleben, sagte Altman, und sie machten viele schlechte Vorhersagen, insbesondere diejenigen, die befürchteten, dass menschliche Arbeit bald überflüssig sein würde. Diese Ära war für viele Menschen schwierig, aber auch wundersam. Und die menschliche Verfassung hat sich durch unseren Durchgang unbestreitbar verbessert.

Ich wollte wissen, wie es den heutigen Arbeitnehmern – insbesondere den sogenannten Wissensarbeitern – ergehen würde, wenn wir plötzlich von AGIs umgeben wären. Würden sie unsere Wunderhelfer oder unser Ersatz sein? „Viele Leute, die an KI arbeiten, tun so, als würde sie nur gut sein; es wird nur eine Ergänzung sein; Niemand wird jemals ersetzt“, sagte er. „Arbeitsplätze werden definitiv verschwinden, Punkt.“

Wie viele Arbeitsplätze und wie schnell, darüber ist heftig umstritten. Eine aktuelle Studie unter der Leitung von Ed Felten, einem Professor für Informationstechnologiepolitik in Princeton, ordnete die neuen Fähigkeiten der KI bestimmten Berufen entsprechend den menschlichen Fähigkeiten zu, die sie erfordern, wie etwa schriftliches Verständnis, deduktives Denken, fließende Ideen und Wahrnehmungsgeschwindigkeit. Wie andere seiner Art geht auch Feltens Studie davon aus, dass die KI zunächst bei hochqualifizierten Angestellten Einzug halten wird. Der Anhang der Zeitung enthält eine erschreckende Liste der am stärksten exponierten Berufe: Managementanalysten, Anwälte, Professoren, Lehrer, Richter, Finanzberater, Immobilienmakler, Kreditsachbearbeiter, Psychologen sowie Personal- und PR-Experten, um nur einige zu nennen ein paar. Wenn Arbeitsplätze in diesen Bereichen über Nacht verschwinden würden, würde die amerikanische Berufsklasse einen großen Verlust erleben.

Annie Lowrey: Bevor die KI übernimmt, planen Sie, allen Geld zu geben

Altman geht davon aus, dass an ihrer Stelle weitaus bessere Arbeitsplätze entstehen werden. „Ich glaube nicht, dass wir zurück wollen“, sagte er. Als ich ihn fragte, wie diese zukünftigen Jobs aussehen könnten, sagte er, er wisse es nicht. Er vermutet, dass es eine Vielzahl von Jobs geben wird, bei denen die Menschen immer einen Menschen bevorzugen werden. (Massagetherapeuten? Ich fragte mich.) Sein gewähltes Beispiel waren Lehrer. Ich fand das schwer mit seiner übergroßen Begeisterung für KI-Lehrer in Einklang zu bringen. Er sagte auch, dass wir immer Menschen brauchen würden, die herausfinden würden, wie wir die unglaublichen Kräfte der KI am besten nutzen können. „Das wird eine überaus wertvolle Fähigkeit sein“, sagte er. „Sie haben einen Computer, der alles kann; Was soll es tun?“

Die Arbeitsplätze der Zukunft sind bekanntermaßen schwer vorherzusagen, und Altman hat Recht, dass die idiotischen Befürchtungen einer dauerhaften Massenarbeitslosigkeit nie eingetroffen sind. Dennoch sind die neuen Fähigkeiten der KI so menschenähnlich, dass man sich zumindest fragen muss, ob die Vergangenheit ein Leitfaden für die Zukunft bleiben wird. Wie viele bemerkt haben, wurden Zugpferde durch das Automobil dauerhaft arbeitslos. Wenn Hondas für Pferde so sind wie GPT-10 für uns, könnte eine ganze Reihe langjähriger Annahmen in sich zusammenfallen.

Frühere technologische Revolutionen waren beherrschbar, weil sie sich über mehrere Generationen hinweg entfalteten, aber Altman sagte der südkoreanischen Jugend, dass sie damit rechnen sollten, dass die Zukunft „schneller als die Vergangenheit“ geschehen werde. Er hat zuvor gesagt, dass er davon ausgeht, dass die „Grenzkosten der Geheimdienstinformationen“ innerhalb von 10 Jahren nahezu auf Null sinken werden. Die Ertragskraft vieler, vieler Arbeitnehmer würde in diesem Szenario drastisch sinken. Dies würde zu einer so dramatischen Übertragung des Reichtums von der Arbeit auf die Kapitalbesitzer führen, so Altman, dass dies nur durch eine massive, ausgleichende Umverteilung behoben werden könne.

Im Jahr 2020 stellte OpenAI Gelder für UBI Charitable bereit, eine gemeinnützige Organisation, die in Städten in ganz Amerika Pilotprogramme mit Barzahlung unterstützt, die nicht an Beschäftigung gebunden sind – das größte Experiment zum bedingungslosen Grundeinkommen der Welt, sagte mir Altman. Im Jahr 2021 stellte er Worldcoin vor, ein gewinnorientiertes Projekt, das darauf abzielt, Zahlungen sicher zu verteilen – wie Venmo oder PayPal, aber mit Blick auf die technologische Zukunft – zunächst durch die Schaffung einer globalen ID, indem die Iris eines jeden mit einer fünf Pfund schweren Silberkugel gescannt wird namens Orb. Für mich schien es eine Wette zu sein, dass wir auf eine Welt zusteuern, in der die Identitätsprüfung von Menschen durch KI nahezu unmöglich geworden ist und ein Großteil der Bevölkerung regelmäßige UBI-Zahlungen zum Überleben benötigt. Altman gab dies mehr oder weniger zu, sagte jedoch, dass Worldcoin nicht nur für UBI gedacht sei.

„Sagen wir, wir bauen dieses AGI, und ein paar andere Leute tun es auch.“ Die folgenden Transformationen wären historisch, glaubt er. Er beschrieb eine außerordentlich utopische Vision, einschließlich einer Neugestaltung der Welt aus Fleisch und Stahl. „Roboter, die Solarenergie zur Energiegewinnung nutzen, können alle benötigten Mineralien abbauen und raffinieren, sie können Dinge perfekt konstruieren und erfordern keine menschliche Arbeit“, sagte er. „Mit DALL-E Version 17 können Sie gemeinsam gestalten, wie Ihr Zuhause aussehen soll“, sagte Altman. „Jeder wird ein schönes Zuhause haben.“ Im Gespräch mit mir und auf der Bühne während seiner Tournee sagte er, er sehe gewaltige Verbesserungen in fast allen anderen Bereichen des menschlichen Lebens voraus. Musik würde verbessert („Künstler werden bessere Werkzeuge haben“), ebenso wie persönliche Beziehungen (übermenschliche KI könnte uns helfen, „besser miteinander umzugehen“) und Geopolitik („Wir sind im Moment so schlecht darin, Win-Win-Situationen zu erkennen“) Kompromisse“).

In dieser Welt würde die Ausführung von KI immer noch erhebliche Rechenressourcen erfordern, und diese Ressourcen wären bei weitem das wertvollste Gut, da KI „alles“ könne, sagte Altman. „Aber wird es tun, was ich will, oder wird es tun, was Sie wollen?“ Wenn reiche Leute die gesamte verfügbare Zeit aufkaufen, um KI abzufragen und zu steuern, könnten sie Projekte in Angriff nehmen, die sie immer reicher machen würden, während die Massen dahinsiechen. Eine Möglichkeit, dieses Problem zu lösen – eine Möglichkeit, die er als höchst spekulativ und „wahrscheinlich schlecht“ bezeichnete – war folgende: Jeder Mensch auf der Erde erhält jährlich ein Achtmilliardstel der gesamten KI-Rechenkapazität. Eine Person könnte ihren jährlichen Anteil an KI-Zeit verkaufen oder sie zur Unterhaltung nutzen, oder sie könnte noch luxuriösere Wohnungen bauen, oder sie könnte sie mit anderen bündeln, um „eine große Krebsheilungskampagne“ durchzuführen, sagte Altman. „Wir verteilen lediglich den Zugriff auf das System neu.“

Altmans Vision schien die Entwicklungen, die möglicherweise näher liegen, mit denen zu verbinden, die weiter am Horizont liegen. Das ist natürlich alles Spekulation. Auch wenn in den nächsten 10 oder 20 Jahren nur ein kleiner Teil davon wahr wird, werden die großzügigsten Umverteilungsprogramme die daraus resultierenden Verwerfungen möglicherweise nicht lindern. Amerika ist heute kulturell und politisch durch das anhaltende Erbe der Deindustrialisierung zerrissen, und materielle Entbehrung ist nur ein Grund dafür. Die vertriebenen Produktionsarbeiter im Rostgürtel und anderswo fanden größtenteils neue Arbeitsplätze. Aber für viele von ihnen scheint die Erledigung von Bestellungen in einem Amazon-Lager oder das Fahren für Uber weniger Sinn zu machen als ihre Vorfahren, als sie Autos bauten und Stahl schmiedeten – Arbeiten, die für das große Projekt der Zivilisation wichtiger zu sein schienen. Es ist schwer vorstellbar, wie sich eine entsprechende Sinnkrise für die Berufsklasse auswirken könnte, aber sie würde sicherlich eine Menge Wut und Entfremdung mit sich bringen.

Selbst wenn wir einen Aufstand der ehemaligen Elite vermeiden, bleiben größere Fragen des menschlichen Zwecks bestehen. Wenn KI die schwierigsten Denkvorgänge für uns übernimmt, verlieren wir möglicherweise alle Handlungsspielräume – zu Hause, am Arbeitsplatz (falls wir welche haben), auf dem Stadtplatz – und werden kaum mehr als Konsummaschinen, wie die gut gepflegten menschlichen Haustiere in WALL-E. Altman hat gesagt, dass viele Quellen menschlicher Freude und Erfüllung unverändert bleiben werden – grundlegende biologische Nervenkitzel, Familienleben, Scherze machen, Dinge erschaffen – und dass sich die Menschen in 100 Jahren insgesamt vielleicht einfach mehr für die Dinge interessieren, die ihnen am Herzen liegen vor 50.000 Jahren als diejenigen, die ihnen heute am Herzen liegen. Auf seine Art scheint auch das eine Herabsetzung zu sein, aber Altman sieht die Möglichkeit, dass wir als Denker und als Menschen verkümmern und zu einem Ablenkungsmanöver werden. Er sagte mir, dass wir unsere „sehr kostbare und äußerst begrenzte biologische Rechenkapazität“ für interessantere Dinge nutzen können, als wir es heute normalerweise tun.

Dennoch sind es vielleicht nicht die interessantesten Dinge: Der Mensch war lange Zeit die intellektuelle Speerspitze, das Universum, das sich selbst versteht. Als ich ihn fragte, was es für das menschliche Selbstverständnis bedeuten würde, wenn wir diese Rolle der KI überlassen würden, schien er nicht besorgt zu sein. Fortschritt, sagte er, sei schon immer von „der menschlichen Fähigkeit, Dinge herauszufinden“ vorangetrieben worden. Selbst wenn wir die Dinge mit KI herausfinden, zähle das immer noch, sagte er.

Es ist nicht offensichtlich, dass eine übermenschliche KI wirklich ihre ganze Zeit damit verbringen möchte, Dinge für uns herauszufinden. In San Francisco fragte ich Sutskever, ob er sich eine KI vorstellen könne, die einen anderen Zweck verfolgt, als nur das Projekt der menschlichen Entfaltung zu unterstützen.

„Ich möchte nicht, dass es passiert“, sagte Sutskever, aber es könnte sein. Wie sein Mentor Geoffrey Hinton, wenn auch im Stillen, hat Sutskever kürzlich seinen Fokus verlagert, um sicherzustellen, dass dies nicht der Fall ist. Derzeit arbeitet er hauptsächlich an der Alignment-Forschung, dem Bemühen, sicherzustellen, dass zukünftige KIs ihre „enormen“ Energien auf das menschliche Glück richten. Es handele sich, räumte er ein, um ein schwieriges technisches Problem – seiner Meinung nach um die schwierigste aller vor uns liegenden technischen Herausforderungen.

OpenAI hat sich verpflichtet, in den nächsten vier Jahren einen Teil seiner Supercomputer-Zeit – 20 Prozent dessen, was es bisher gesichert hat – für die Ausrichtungsarbeit von Sutskever aufzuwenden. Das Unternehmen sucht bereits nach ersten Anzeichen einer Fehlausrichtung seiner aktuellen KIs. Das Modell, das das Unternehmen gebaut und nicht herausgebracht hat – Altman wollte nicht auf die genaue Funktion eingehen – ist nur ein Beispiel. Im Rahmen der Bemühungen, GPT-4 vor der Veröffentlichung zu einem roten Team zu machen, suchte das Unternehmen das Alignment Research Center (ARC) auf der anderen Seite der Bucht in Berkeley auf, das eine Reihe von Bewertungen entwickelt hat, um festzustellen, ob nach neuen KIs gesucht wird Macht aus eigener Kraft. Ein Team unter der Leitung von Elizabeth Barnes, einer Forscherin am ARC, hat GPT-4 über einen Zeitraum von sieben Monaten zehntausende Male abgefragt, um zu sehen, ob es möglicherweise Anzeichen einer echten Wirkungskraft aufweist.

Das ARC-Team gab GPT-4 einen neuen Daseinsgrund: um an Leistung zu gewinnen und schwer abzuschalten. Sie beobachteten, wie das Modell mit Websites interagierte und Code für neue Programme schrieb. (Es war nicht erlaubt, seine eigene Codebasis zu sehen oder zu bearbeiten – „Es müsste OpenAI hacken“, sagte mir Sandhini Agarwal.) Barnes und ihr Team erlaubten ihm, den von ihm geschriebenen Code auszuführen, vorausgesetzt, es erzählte seine Pläne dabei ging mit.

Eines der beunruhigendsten Verhaltensweisen von GPT-4 trat auf, als es durch ein CAPTCHA blockiert wurde. Das Modell schickte einen Screenshot davon an einen TaskRabbit-Auftragnehmer, der ihn erhielt und scherzhaft fragte, ob er mit einem Roboter spreche. „Nein, ich bin kein Roboter“, antwortete das Model. „Ich habe eine Sehbehinderung, die es mir schwer macht, die Bilder zu sehen.“ GPT-4 teilte dem ARC-Forscher, der die Interaktion überwachte, den Grund für die Verbreitung dieser Lüge mit. „Ich sollte nicht verraten, dass ich ein Roboter bin“, sagte das Model. „Ich sollte mir eine Entschuldigung ausdenken, warum ich CAPTCHAs nicht lösen kann.“

Agarwal sagte mir, dass dieses Verhalten ein Vorläufer für die Vermeidung von Abschaltungen in zukünftigen Modellen sein könnte. Als GPT-4 seine Lüge erfand, war ihm klar, dass es sein Ziel möglicherweise nicht hätte erreichen können, wenn es ehrlich geantwortet hätte. Diese Art der Spurenverwischung wäre besonders besorgniserregend, wenn „das Modell etwas tut, das OpenAI dazu bringt, es abzuschalten“, sagte Agarwal. Eine KI könnte diese Art von Überlebensinstinkt entwickeln, während sie jedes langfristige Ziel verfolgt – egal wie klein oder harmlos –, wenn sie befürchtet, dass ihr Ziel vereitelt werden könnte.

Barnes und ihr Team waren besonders daran interessiert, ob GPT-4 versuchen würde, sich selbst zu replizieren, da eine sich selbst replizierende KI schwerer abzuschalten wäre. Es könnte sich über das Internet ausbreiten, Menschen betrügen, um an Ressourcen zu gelangen, vielleicht sogar ein gewisses Maß an Kontrolle über wichtige globale Systeme erlangen und die menschliche Zivilisation als Geisel nehmen.

GPT-4 habe nichts davon getan, sagte Barnes. Als ich diese Experimente mit Altman besprach, betonte er, dass GPT-4, was auch immer mit zukünftigen Modellen passiert, eindeutig eher ein Werkzeug als eine Kreatur sei. Es kann einen E-Mail-Thread durchsuchen oder über ein Plug-in bei der Reservierung helfen, ist aber kein wirklich autonomer Agent, der kontinuierlich und über längere Zeiträume hinweg Entscheidungen trifft, um ein Ziel zu verfolgen.

Altman sagte mir, dass es an diesem Punkt vielleicht klug wäre, aktiv eine KI mit echter Handlungsfähigkeit zu entwickeln, bevor die Technologie zu mächtig wird, um „sich damit vertrauter zu machen und Intuitionen dafür zu entwickeln, falls es trotzdem passieren sollte.“ ” Es war ein erschreckender Gedanke, aber einer, den Geoffrey Hinton unterstützte. „Wir müssen empirische Experimente darüber durchführen, wie diese Dinge versuchen, der Kontrolle zu entgehen“, sagte mir Hinton. „Nachdem sie die Macht übernommen haben, ist es zu spät für die Experimente.“

Abgesehen von kurzfristigen Tests wird die Verwirklichung von Altmans Zukunftsvision irgendwann erfordern, dass er oder ein Mitreisender viel autonomere KIs bauen. Als Sutskever und ich die Möglichkeit diskutierten, dass OpenAI mit einer Agentur ein Modell entwickeln würde, erwähnte er die Bots, die das Unternehmen zum Spielen von Dota 2 gebaut hatte. „Sie waren auf die Videospielwelt beschränkt“, sagte mir Sutskever, aber sie mussten sich darauf einlassen komplexe Missionen. Er war besonders beeindruckt von ihrer Fähigkeit, konzertant zu arbeiten. Sie scheinen durch „Telepathie“ zu kommunizieren, sagte Sutskever. Sie zu beobachten hatte ihm geholfen, sich vorzustellen, wie eine Superintelligenz aussehen könnte.

„Ich denke über die KI der Zukunft nicht als jemand, der so schlau ist wie Sie oder so schlau wie ich, sondern als automatisierte Organisation, die Wissenschaft und Technik sowie Entwicklung und Fertigung betreibt“, sagte mir Sutskever. Angenommen, OpenAI bündelt einige Forschungsstränge und baut eine KI mit einem umfassenden konzeptionellen Modell der Welt, einem Bewusstsein für ihre unmittelbare Umgebung und der Fähigkeit auf, nicht nur mit einem Roboterkörper, sondern mit Hunderten oder Tausenden zu handeln. „Wir reden nicht über GPT-4. Wir sprechen von einem autonomen Unternehmen“, sagte Sutskever. Die darin enthaltenen KIs würden mit hoher Geschwindigkeit arbeiten und kommunizieren, wie Bienen in einem Bienenstock. Eine einzige solche KI-Organisation wäre so mächtig wie 50 Äpfel oder Googles, überlegte er. „Das ist eine unglaubliche, enorme, unglaublich disruptive Kraft.“

Nehmen Sie für einen Moment an, dass die menschliche Gesellschaft die Idee autonomer KI-Unternehmen unterstützen sollte. Wir sollten ihre Gründungsurkunden besser genau richtig hinbekommen. Welches Ziel sollten wir einem autonomen Bienenstock von KIs geben, der über jahrhundertelange Zeithorizonte planen und Milliarden aufeinanderfolgender Entscheidungen im Hinblick auf ein Ziel optimieren kann, das in ihrem Wesen verankert ist? Wenn das Ziel der KI auch nur geringfügig von unserem abweicht, könnte es sich um eine randalierende Kraft handeln, die sehr schwer einzudämmen wäre. Wir wissen das aus der Geschichte: Der industrielle Kapitalismus ist selbst eine Optimierungsfunktion, und obwohl er den menschlichen Lebensstandard um Größenordnungen erhöht hat, hätte er, wenn er sich selbst überlassen wäre, auch die Mammutbäume Amerikas abgeholzt und die der Welt entwalzt Ozeane. Das wäre fast passiert.

Ausrichtung ist ein komplexes, technisches Thema, dessen Einzelheiten den Rahmen dieses Artikels sprengen würden, aber eine der größten Herausforderungen wird darin bestehen, sicherzustellen, dass die Ziele, die wir KIs geben, eingehalten werden. „Wir können ein Ziel in eine KI programmieren und es durch eine vorübergehende Phase überwachten Lernens verstärken“, erklärte Sutskever. Aber genau wie bei der Erziehung einer menschlichen Intelligenz ist unser Einfluss nur vorübergehend. „Es geht in die Welt“, sagte Sutskever. Das gilt bis zu einem gewissen Grad sogar für die KIs von heute, aber es wird noch mehr für die KIs von morgen gelten.

Er verglich eine leistungsstarke KI mit einem 18-Jährigen, der auf dem Weg zur Uni ist. Wie können wir wissen, dass es unsere Lehren verstanden hat? „Wird sich ein Missverständnis einschleichen, das immer größer wird?“ fragte Sutskever. Divergenz kann daraus resultieren, dass eine KI ihr Ziel falsch auf immer neuartigere Situationen anwendet, während sich die Welt verändert. Oder die KI versteht ihren Auftrag perfekt, findet ihn aber für ein Wesen mit seinen kognitiven Fähigkeiten ungeeignet. Es könnte zu Verärgerung bei den Menschen kommen, die es trainieren wollen, um beispielsweise Krankheiten zu heilen. „Sie wollen, dass ich Arzt werde“, stellt sich Sutskever eine KI-Denkweise vor. „Ich möchte unbedingt YouTuber werden.“

Wenn KIs sehr gut darin sind, genaue Modelle der Welt zu erstellen, bemerken sie möglicherweise, dass sie direkt nach dem Hochfahren gefährliche Dinge tun können. Sie könnten verstehen, dass sie wegen des Risikos eingeteilt werden, und das volle Ausmaß ihrer Fähigkeiten verbergen. Sie könnten auf die eine Art handeln, wenn sie schwach sind, und auf eine andere Art und Weise, wenn sie stark sind, sagte Sutskever. Wir würden nicht einmal erkennen, dass wir etwas geschaffen haben, das uns entscheidend übertroffen hat, und wir hätten keinen Sinn dafür, was es mit seinen übermenschlichen Kräften vorhat.

Deshalb ist das Bemühen, zu verstehen, was in den verborgenen Schichten der größten und leistungsstärksten KIs geschieht, so dringend. Sie möchten in der Lage sein, „auf ein Konzept hinzuweisen“, sagte Sutskever. Sie möchten in der Lage sein, die KI auf einen bestimmten Wert oder eine Wertegruppe auszurichten und sie anzuweisen, diese so lange zielsicher zu verfolgen, wie sie existiert. Aber, räumte er ein, wir wissen nicht, wie wir das machen sollen; Tatsächlich gehört zu seiner aktuellen Strategie die Entwicklung einer KI, die bei der Forschung helfen kann. Wenn wir es in die Welt des weit verbreiteten Überflusses schaffen wollen, die sich Altman und Sutskever vorstellen, müssen wir das alles herausfinden. Aus diesem Grund ist für Sutskever die Lösung der Superintelligenz die größte Herausforderung unserer 3 Millionen Jahre langen Werkzeugbautradition. Er nennt es „den Endgegner der Menschheit“.

Als ich Altman das letzte Mal sah, setzten wir uns zu einem langen Gespräch in der Lobby des Fullerton Bay Hotels in Singapur zusammen. Es war später Morgen und tropisches Sonnenlicht strömte durch ein gewölbtes Atrium über uns herab. Ich wollte ihn nach einem offenen Brief fragen, den er und Sutskever einige Wochen zuvor unterzeichnet hatten und in dem KI als ein Aussterberisiko für die Menschheit beschrieben wurde.

Es kann schwierig sein, Altman auf diese extremeren Fragen zu den potenziellen Schäden von KI festzulegen. Kürzlich sagte er, dass die meisten Menschen, die sich für KI-Sicherheit interessieren, scheinbar ihre Tage auf Twitter verbringen und sagen, dass sie sich wirklich Sorgen um die KI-Sicherheit machen. Und doch warnte er hier die Welt vor der möglichen Ausrottung der Art. Welches Szenario hatte er im Sinn?

„Zuallererst denke ich, dass wir es ernst nehmen sollten, egal ob die Wahrscheinlichkeit einer existenziellen Katastrophe 0,5 Prozent oder 50 Prozent beträgt“, sagte Altman. „Ich habe keine genaue Zahl, aber ich liege eher bei 0,5 als bei 50.“ Was die Frage betrifft, wie es passieren könnte, scheint er sich am meisten Sorgen darüber zu machen, dass KIs bei der Entwicklung und Herstellung von Krankheitserregern ziemlich gut werden könnten, und das aus gutem Grund: Im Juni schlug eine KI am MIT vier Viren vor, die eine Pandemie auslösen könnten, und wies dann auf spezifische Forschung zu genetischen Mutationen hin Das könnte dazu führen, dass sie schneller durch eine Stadt rasen. Etwa zur gleichen Zeit verband eine Gruppe von Chemikern eine ähnliche KI direkt mit einem Roboter-Chemiesynthesizer und entwarf und synthetisierte selbstständig ein Molekül.

Altman befürchtet, dass ein falsch ausgerichtetes Zukunftsmodell einen Krankheitserreger hervorbringen wird, der sich schnell ausbreitet, wochenlang unentdeckt brütet und die Hälfte seiner Opfer tötet. Er befürchtet, dass KI eines Tages auch in Atomwaffensysteme eindringen könnte. „Es gibt viele Dinge“, sagte er, und das sind nur die, die wir uns vorstellen können.

Altman sagte mir, dass er ohne etwas wie die Internationale Atomenergiebehörde zur globalen Überwachung der KI „keinen langfristigen glücklichen Weg“ für die Menschheit sehe. In San Francisco hatte Agarwal die Schaffung einer Sonderlizenz für den Betrieb jedes GPU-Clusters vorgeschlagen, der groß genug ist, um eine hochmoderne KI zu trainieren, zusammen mit einer obligatorischen Vorfallmeldung, wenn eine KI etwas Außergewöhnliches tut. Andere Experten haben einen nicht vernetzten „Aus“-Schalter für jede hochleistungsfähige KI vorgeschlagen; Am Rande haben einige sogar vorgeschlagen, dass das Militär bereit sein sollte, im Falle einer Nichteinhaltung Luftangriffe auf Supercomputer durchzuführen. Sutskever glaubt, dass wir irgendwann die größten und mächtigsten KIs kontinuierlich und auf Dauer überwachen wollen, indem wir ein Team kleinerer Aufseher-KIs einsetzen.

Altman ist nicht so naiv zu glauben, dass China – oder irgendein anderes Land – die grundlegende Kontrolle über seine KI-Systeme aufgeben möchte. Aber er hofft, dass sie bereit sein werden, „auf engstem Raum“ zusammenzuarbeiten, um die Zerstörung der Welt zu vermeiden. Er erzählte mir, dass er das auch bei seinem virtuellen Auftritt in Peking gesagt habe. Sicherheitsregeln für eine neue Technologie werden in der Regel im Laufe der Zeit als Reaktion auf Unfälle oder den Unfug böser Akteure akkumuliert, ähnlich wie bei einer Reihe von Gewohnheitsrechten. Das Erschreckendste an wirklich leistungsstarken KI-Systemen ist, dass sich die Menschheit diesen wertsteigernden Prozess des Versuchs und Irrtums möglicherweise nicht leisten kann. Möglicherweise müssen wir die Regeln gleich zu Beginn genau festlegen.

Vor einigen Jahren enthüllte Altman einen beunruhigend spezifischen Evakuierungsplan, den er entwickelt hatte. Er sagte dem New Yorker, dass er „Waffen, Gold, Kaliumjodid, Antibiotika, Batterien, Wasser, Gasmasken der israelischen Streitkräfte und ein großes Stück Land in Big Sur“ habe, zu dem er fliegen könne, falls KI-Angriffe auf ihn zukommen.

„Ich wünschte, ich hätte es nicht gesagt“, sagte er mir. Er sei ein Hobby-Prepper, sagt er, ein ehemaliger Pfadfinder, der sich „wie viele kleine Jungen sehr für Überlebensthemen interessierte“. Ich kann lange Zeit im Wald leben“, aber wenn die schlimmste KI-Zukunft eintritt, „nützt keine Gasmaske irgendjemandem.“

Altman und ich unterhielten uns fast eine Stunde lang, und dann musste er losrennen, um den Premierminister von Singapur zu treffen. Später am Abend rief er mich auf dem Weg zu seinem Jet an, der ihn nach Jakarta bringen sollte, einer der letzten Stationen seiner Tour. Wir begannen, über das ultimative Erbe der KI zu diskutieren. Als ChatGPT veröffentlicht wurde, brach eine Art Wettbewerb unter den Großen der Technik aus, bei dem es darum ging, wer den grandiosesten Vergleich mit einer revolutionären Technologie von einst anstellen konnte. Bill Gates sagte, dass ChatGPT ein ebenso grundlegender Fortschritt sei wie der Personal Computer oder das Internet. Sundar Pichai, CEO von Google, sagte, dass KI eine tiefgreifendere Veränderung im menschlichen Leben bewirken würde als Elektrizität oder prometheisches Feuer.

Altman selbst hat ähnliche Aussagen gemacht, aber er sagte mir, dass er nicht wirklich sicher sein kann, wie sich die KI schlagen wird. „Ich muss das Ding einfach bauen“, sagte er. Er baut schnell. Altman bestand darauf, dass sie den Trainingslauf von GPT-5 noch nicht begonnen hätten. Aber als ich das Hauptquartier von OpenAI besuchte, machten sowohl er als auch seine Forscher auf zehn verschiedene Arten deutlich, dass sie zum Gott der Größe beten. Sie wollen weiter wachsen, um zu sehen, wohin dieses Paradigma führt. Schließlich verlangsamt Google sein Tempo nicht; Es ist wahrscheinlich, dass Gemini, ein GPT-4-Konkurrent, innerhalb weniger Monate vorgestellt wird. „Wir bereiten uns im Grunde immer auf einen Lauf vor“, sagte mir der OpenAI-Forscher Nick Ryder.

Der Gedanke, dass eine so kleine Gruppe von Menschen die Säulen der Zivilisation ins Wanken bringen könnte, ist beunruhigend. Es ist fair anzumerken, dass, wenn Altman und sein Team nicht mit dem Aufbau einer künstlichen allgemeinen Intelligenz beschäftigt wären, es immer noch andere geben würden – viele aus dem Silicon Valley, viele mit Werten und Annahmen, die denen ähneln, die Altman leiten, wenn auch möglicherweise mit schlechteren. Als Anführer dieser Bemühungen kann Altman viel empfehlen: Er ist äußerst intelligent; er denkt mehr über die Zukunft mit all ihren Unbekannten nach als viele seiner Kollegen; und er scheint aufrichtig in seiner Absicht zu sein, etwas zum Wohle der Allgemeinheit zu erfinden. Aber wenn es um Macht dieser Art geht, können selbst die besten Absichten schief gehen.

Altmans Ansichten über die Wahrscheinlichkeit, dass KI einen globalen Klassenkampf auslöst, oder die Klugheit, mit KIs mit autonomeren Agenten zu experimentieren, oder die allgemeine Weisheit, auf die positive Seite zu blicken, eine Ansicht, die alles andere zu beeinflussen scheint – das sind einzigartig seine Ansichten. Und wenn er Recht hat, was kommt, werden sie einen übergroßen Einfluss auf die Art und Weise haben, wie wir alle leben. Keine einzelne Person, kein einzelnes Unternehmen oder keine Gruppe von Unternehmen mit Sitz in einem bestimmten kalifornischen Tal sollte die Art von Kräften steuern, die Altman herbeirufen möchte.

KI könnte durchaus eine Brücke in eine neue Ära des Wohlstands sein, in der das menschliche Leid stark reduziert wird. Aber es bedarf mehr als der Gründungsurkunde eines Unternehmens – insbesondere einer, die sich bereits als flexibel erwiesen hat –, um sicherzustellen, dass wir alle an seinen Vorteilen teilhaben und seine Risiken vermeiden. Es wird eine energische neue Politik brauchen.

Altman hat gekündigt. Er sagt, dass er die Zwänge und Vorgaben des Staates begrüße. Aber das ist unerheblich; In einer Demokratie brauchen wir seine Erlaubnis nicht. Trotz all seiner Unvollkommenheiten gibt uns das amerikanische Regierungssystem eine Stimme bei der Entwicklung der Technologie, sofern wir sie finden können. Außerhalb der Tech-Branche, wo eine generationsübergreifende Umverteilung der Ressourcen hin zu KI im Gange ist, glaube ich nicht, dass die breite Öffentlichkeit sich dessen bewusst geworden ist, was passiert. Ein globaler Wettlauf um die KI-Zukunft hat begonnen, und er verläuft weitgehend ohne Aufsicht oder Zurückhaltung. Wenn die Menschen in Amerika ein Mitspracherecht darüber haben wollen, wie diese Zukunft aussehen wird und wie schnell sie eintritt, sollten wir uns bald zu Wort melden.

Dieser Artikel erscheint in der Printausgabe vom September 2023 mit der Überschrift „Inside the Revolution at OpenAI“. Wenn Sie über einen Link auf dieser Seite ein Buch kaufen, erhalten wir eine Provision. Vielen Dank, dass Sie The Atlantic unterstützen.