17 April 2023

Was ist Singularität? (ein dreißig Jahre alter Artikel von Vernor Vinge)

Institut für Mathematische Wissenschaften
der San Diego State University
(c) 1993 von Vernor Vinge
(Dieser Artikel darf für nichtkommerzielle Zwecke vervielfältigt werden, wenn er vollständig kopiert wird, einschließlich dieser Mitteilung.)
Die Originalversion dieses Artikels wurde auf dem vom NASA Lewis Research Center und dem Ohio Aerospace Institute gesponserten VISION-21-Symposium vom 30. bis 31. März 1993 vorgestellt. Eine leicht veränderte Version erschien in der Winterausgabe 1993 von Whole Earth Review .

 

Abstrakt

Innerhalb von dreißig Jahren werden wir die technologischen Mittel haben, um übermenschliche Intelligenz zu erschaffen. Kurz danach wird das menschliche Zeitalter beendet sein.

Ist ein solcher Fortschritt vermeidbar? Wenn nicht zu vermeiden, können Ereignisse so gelenkt werden, dass wir überleben können? Diese Fragen werden untersucht. Einige mögliche Antworten (und einige weitere Gefahren) werden vorgestellt.

 

Was ist die Singularität?

Die Beschleunigung des technologischen Fortschritts war das zentrale Merkmal dieses Jahrhunderts. Ich argumentiere in diesem Papier, dass wir am Rande eines Wandels stehen, vergleichbar mit dem Aufstieg des menschlichen Lebens auf der Erde. Der genaue Grund für diese Veränderung ist die bevorstehende Schaffung von Wesenheiten mit größerer als menschlicher Intelligenz durch Technologie. Es gibt mehrere Mittel, mit denen die Wissenschaft diesen Durchbruch erzielen kann (und dies ist ein weiterer Grund, darauf zu vertrauen, dass das Ereignis eintreten wird):

  • Es könnten Computer entwickelt werden, die „wach“ und übermenschlich intelligent sind. (Bis heute gab es viele Kontroversen darüber, ob wir menschliche Äquivalenz in einer Maschine herstellen können. Aber wenn die Antwort „ja, wir können“ lautet, dann gibt es wenig Zweifel daran, dass in Kürze intelligentere Wesen konstruiert werden können.)
  • Große Computernetzwerke (und ihre zugehörigen Benutzer) können als übermenschlich intelligente Einheit „aufwachen“.
  • Computer/Mensch-Schnittstellen können so intim werden, dass Benutzer vernünftigerweise als übermenschlich intelligent angesehen werden können.
  • Die biologische Wissenschaft kann Mittel bereitstellen, um den natürlichen menschlichen Intellekt zu verbessern.

Die ersten drei Möglichkeiten hängen zum großen Teil von Verbesserungen der Computerhardware ab. Der Fortschritt in der Computerhardware ist in den letzten Jahrzehnten einer erstaunlich stetigen Kurve gefolgt [17]. Auf der Grundlage dieses Trends glaube ich, dass in den nächsten dreißig Jahren eine übermenschliche Intelligenz geschaffen werden wird. (Charles Platt [20] hat darauf hingewiesen, dass KI-Enthusiasten in den letzten dreißig Jahren solche Behauptungen aufgestellt haben. Nur damit ich mich nicht einer Zweideutigkeit der relativen Zeit schuldig mache, lassen Sie mich genauer sagen: Ich werde überrascht sein, wenn dies der Fall ist Ereignis tritt vor 2005 oder nach 2030 auf.)

Was sind die Folgen dieses Ereignisses? Wenn eine übermenschliche Intelligenz den Fortschritt vorantreibt, wird dieser Fortschritt viel schneller sein. Tatsächlich scheint es keinen Grund zu geben, warum der Fortschritt selbst nicht die Schaffung noch intelligenterer Einheiten beinhalten würde – in einem noch kürzeren Zeitrahmen. Die beste Analogie, die ich sehe, ist die mit der evolutionären Vergangenheit: Tiere können sich an Probleme anpassen und Erfindungen machen, aber oft nicht schneller als die natürliche Selektion ihre Arbeit erledigen kann – die Welt fungiert im Falle der natürlichen Selektion als ihr eigener Simulator. Wir Menschen haben die Fähigkeit, die Welt zu verinnerlichen und „was wäre wenn“ in unseren Köpfen durchzuführen; Wir können viele Probleme tausendmal schneller lösen als durch natürliche Auslese. Jetzt,

Aus menschlicher Sicht wird diese Änderung ein Wegwerfen aller bisherigen Regeln sein, vielleicht im Handumdrehen, ein exponentielles Ausbrechen jenseits jeder Hoffnung auf Kontrolle. Entwicklungen, von denen zuvor angenommen wurde, dass sie erst in „einer Million Jahren“ (wenn überhaupt) stattfinden könnten, werden wahrscheinlich im nächsten Jahrhundert eintreten. (In [5] zeichnet Greg Bear ein Bild der großen Veränderungen, die innerhalb weniger Stunden geschehen.)

Ich denke, es ist fair, dieses Ereignis als Singularität zu bezeichnen („die Singularität“ für die Zwecke dieses Papiers). Es ist ein Punkt, an dem unsere alten Modelle verworfen werden müssen und eine neue Realität herrscht. Je näher wir diesem Punkt kommen, desto größer und größer wird er über die menschlichen Angelegenheiten ragen, bis die Vorstellung alltäglich wird. Doch wenn es endlich passiert, kann es immer noch eine große Überraschung und eine größere Unbekannte sein. In den 1950er Jahren sahen es nur sehr wenige: Stan Ulam [28] paraphrasierte John von Neumann mit den Worten:

Ein Gespräch konzentrierte sich auf den sich ständig beschleunigenden Fortschritt der Technologie und die Veränderungen in der Lebensweise der Menschen, was den Anschein erweckt, als würde man sich einer wesentlichen Singularität in der Geschichte der Rasse nähern, über die hinaus die menschlichen Angelegenheiten, wie wir sie kennen, nicht weitergehen könnten.

Von Neumann verwendet sogar den Begriff Singularität, obwohl er anscheinend an normalen Fortschritt denkt, nicht an die Schaffung eines übermenschlichen Intellekts. (Für mich ist die Übermenschlichkeit die Essenz der Singularität. Ohne das würden wir eine Fülle technischer Reichtümer bekommen, die nie richtig absorbiert werden (siehe [25]).)

In den 1960er Jahren erkannte man einige der Implikationen übermenschlicher Intelligenz. IJ Good schrieb [11]:

Lassen Sie eine ultraintelligente Maschine als eine Maschine definieren, die alle intellektuellen Aktivitäten eines noch so klugen Menschen weit übertreffen kann. Da das Design von Maschinen eine dieser intellektuellen Aktivitäten ist, könnte eine ultraintelligente Maschine noch bessere Maschinen entwerfen; es würde dann zweifellos eine „Intelligenzexplosion“ geben, und die Intelligenz des Menschen würde weit zurückbleiben. Somit ist die erste ultraintelligente Maschine die _letzte_ Erfindung, die der Mensch jemals machen muss, vorausgesetzt, die Maschine ist fügsam genug, uns zu sagen, wie wir sie unter Kontrolle halten können. … Es ist wahrscheinlicher als nicht, dass im zwanzigsten Jahrhundert

Good hat die Essenz des Ausreißers eingefangen, verfolgt aber nicht seine beunruhigendsten Konsequenzen. Jede intelligente Maschine der Art, wie er sie beschreibt, wäre kein „Werkzeug“ der Menschheit – genausowenig wie Menschen die Werkzeuge von Kaninchen, Rotkehlchen oder Schimpansen sind.

In den 60er, 70er und 80er Jahren verbreitete sich die Erkenntnis der Katastrophe [29] [1] [31] [5]. Vielleicht waren es die Science-Fiction-Autoren, die die ersten konkreten Auswirkungen spürten. Schließlich sind die „harten“ Science-Fiction-Autoren diejenigen, die versuchen, spezifische Geschichten darüber zu schreiben, was Technologie für uns tun kann. Mehr und mehr fühlten diese Autoren eine undurchsichtige Mauer vor der Zukunft. Einst konnten sie solche Fantasien Millionen von Jahren in die Zukunft versetzen [24]. Jetzt sahen sie, dass ihre fleißigsten Extrapolationen zu dem Unerkennbaren führten … bald. Einst schienen galaktische Imperien eine posthumane Domäne zu sein. Jetzt sind es leider sogar interplanetare.

Was ist mit den 90ern und den 00ern und den 10ern, während wir an den Rand rutschen? Wie wird sich der Ansatz der Singularität über das menschliche Weltbild ausbreiten? Die allgemeinen Kritiker der maschinellen Intelligenz werden noch eine Weile gute Presse haben. Bis wir Hardware haben, die so leistungsfähig wie ein menschliches Gehirn ist, ist es wahrscheinlich töricht zu glauben, dass wir in der Lage sein werden, eine menschliche gleichwertige (oder größere) Intelligenz zu schaffen. (Es gibt die weit hergeholte Möglichkeit, dass wir aus weniger leistungsstarker Hardware ein menschliches Äquivalent machen könnten, wenn wir bereit wären, Geschwindigkeit aufzugeben, wenn wir bereit wären, uns mit einem künstlichen Wesen zufrieden zu geben, das buchstäblich langsam ist [30]. Aber es ist so viel wahrscheinlicher, dass die Entwicklung der Software ein kniffliger Prozess sein wird, mit vielen Fehlstarts und Experimenten. Wenn ja, dann wird die Ankunft selbstbewusster Maschinen erst nach der Entwicklung von Hardware erfolgen, die wesentlich leistungsfähiger ist als die natürliche Ausrüstung des Menschen.)

Aber mit der Zeit sollten wir mehr Symptome sehen. Das Dilemma, das Science-Fiction-Autoren empfinden, wird in anderen kreativen Unternehmungen wahrgenommen. (Ich habe gehört, wie nachdenkliche Comicautoren sich Sorgen darüber machen, wie man spektakuläre Effekte erzielen kann, wenn alles Sichtbare durch das technologisch Alltägliche produziert werden kann.) Wir werden erleben, wie die Automatisierung immer höhere Jobs ersetzt. Wir haben jetzt Werkzeuge (symbolische Mathematikprogramme, Cad/Cam), die uns von den meisten Plackereien auf niedriger Ebene befreien. Oder anders ausgedrückt: Die wirklich produktive Arbeit ist die Domäne einer immer kleineren und elitäreren Fraktion der Menschheit. Im Kommen der Singularität sehen wir, wie sich die Vorhersagen der _wahren_ technologischen Arbeitslosigkeit endlich bewahrheiten.

Ein weiteres Symptom des Fortschritts in Richtung der Singularität: Ideen selbst sollten sich immer schneller verbreiten, und selbst die radikalsten werden schnell alltäglich werden. Als ich Mitte der 60er Jahre begann, Science-Fiction zu schreiben, schien es sehr einfach, Ideen zu finden, die Jahrzehnte brauchten, um in das kulturelle Bewusstsein einzudringen; jetzt scheint die Vorlaufzeit eher wie achtzehn Monate zu sein. (Natürlich könnte dies nur daran liegen, dass ich mit zunehmendem Alter meine Vorstellungskraft verliere, aber ich sehe die Wirkung auch bei anderen.) Wie der Schock in einer komprimierbaren Strömung rückt die Singularität näher, wenn wir durch die kritische Geschwindigkeit beschleunigen.

Und was ist mit der Ankunft der Singularität selbst? Was lässt sich über sein tatsächliches Aussehen sagen? Da es sich um einen intellektuellen Ausreißer handelt, wird er wahrscheinlich schneller eintreten als jede bisher beobachtete technische Revolution. Das auslösende Ereignis wird wahrscheinlich unerwartet sein – vielleicht sogar für die beteiligten Forscher. („Aber alle unsere vorherigen Modelle waren katatonisch! Wir haben nur an einigen Parametern gefeilt …“) Wenn die Vernetzung weit genug verbreitet ist (in allgegenwärtigen eingebetteten Systemen), mag es scheinen, als ob unsere Artefakte als Ganzes plötzlich aufgewacht wären.

Und was passiert ein oder zwei Monate (oder ein oder zwei Tage) danach? Ich habe nur Analogien, auf die ich verweisen kann: Der Aufstieg der Menschheit. Wir werden in der posthumanen Ära sein. Und bei all meinem ungezügelten technologischen Optimismus denke ich manchmal, dass ich mich wohler fühlen würde, wenn ich diese transzendentalen Ereignisse in tausend Jahren Entfernung betrachten würde … statt in zwanzig.

 

Kann die Singularität vermieden werden?

Nun, vielleicht wird es gar nicht passieren: Manchmal versuche ich mir die Symptome vorzustellen, mit denen wir rechnen müssten, wenn sich die Singularität nicht entwickeln soll. Es gibt die weithin respektierten Argumente von Penrose [19] und Searle [22] gegen die Praktikabilität der maschinellen Intelligenz. Im August 1992 veranstaltete die Thinking Machines Corporation einen Workshop zur Untersuchung der Frage „Wie wir eine denkende Maschine bauen werden“ [27]. Wie der Titel des Workshops vermuten lässt, unterstützten die Teilnehmer die Argumente gegen maschinelle Intelligenz nicht besonders. Tatsächlich herrschte allgemeine Einigkeit darüber, dass Geister auf nichtbiologischen Substraten existieren können und dass Algorithmen von zentraler Bedeutung für die Existenz von Geistern sind. Jedoch, Es gab viele Diskussionen über die rohe Hardwareleistung, die in organischen Gehirnen vorhanden ist. Eine Minderheit war der Ansicht, dass die größten Computer von 1992 nur drei Größenordnungen von der Leistung des menschlichen Gehirns entfernt waren. Die Mehrheit der Teilnehmer stimmte Moravecs Einschätzung [17] zu, dass wir noch zehn bis vierzig Jahre von der Hardware-Parität entfernt sind. Und doch gab es eine andere Minderheit, die auf [7] [21] verwies und vermutete, dass die Rechenleistung einzelner Neuronen viel höher sein könnte als allgemein angenommen. Wenn dem so ist, könnte unsere gegenwärtige Computerhardware bis zu _zehn_ Größenordnungen hinter der Ausrüstung zurückbleiben, die wir in unseren Köpfen herumtragen. Wenn dies wahr ist (oder wenn die Kritik von Penrose oder Searle gültig ist), werden wir vielleicht nie eine Singularität sehen. Stattdessen begannen sich unsere Hardware-Leistungskurven in den frühen 00er Jahren abzuflachen – dies lag daran, dass wir nicht in der Lage waren, die Designarbeit zu automatisieren, die zur Unterstützung weiterer Hardware-Verbesserungen erforderlich war. Wir würden mit _sehr_ leistungsfähiger Hardware enden, aber ohne die Möglichkeit, sie weiter voranzutreiben. Kommerzielle digitale Signalverarbeitung mag großartig sein und selbst digitalen Operationen ein analoges Aussehen verleihen, aber nichts würde jemals „aufwachen“ und es würde niemals den intellektuellen Ausreißer geben, der die Essenz der Singularität ausmacht. Es würde wahrscheinlich als goldenes Zeitalter angesehen werden … und es wäre auch das Ende des Fortschritts. Dies ist der von Gunther Stent vorhergesagten Zukunft sehr ähnlich. Tatsächlich, auf Seite 137 von [25],

Aber wenn die technologische Singularität passieren kann, wird sie passieren. Selbst wenn alle Regierungen der Welt die „Bedrohung“ verstehen und sich davor in tödlicher Angst befinden würden, würde der Fortschritt in Richtung des Ziels weitergehen. In der Belletristik gab es Geschichten über Gesetze, die den Bau einer „Maschine nach dem Vorbild des menschlichen Geistes“ verbieten [13]. Tatsächlich ist der Wettbewerbsvorteil – wirtschaftlicher, militärischer, sogar künstlerischer Art – jedes Fortschritts in der Automatisierung so zwingend, dass Gesetze oder Bräuche, die solche Dinge verbieten, lediglich sicherstellen, dass jemand anderes sie zuerst bekommt.

Eric Drexler [8] hat spektakuläre Erkenntnisse darüber geliefert, wie weit technische Verbesserungen gehen können. Er stimmt zu, dass übermenschliche Intelligenzen in naher Zukunft verfügbar sein werden – und dass solche Wesen eine Bedrohung für den menschlichen Status quo darstellen. Aber Drexler argumentiert, dass wir solche transhumanen Geräte einschränken können, damit ihre Ergebnisse untersucht und sicher verwendet werden können. Dies ist die ultraintelligente Maschine von IJ Good, mit einer Dosis Vorsicht. Ich behaupte, dass eine Beschränkung an sich unpraktisch ist. Für den Fall der physischen Einschließung: Stellen Sie sich vor, Sie wären in Ihrem Haus eingesperrt und hätten nur eingeschränkten Datenzugriff nach außen, zu Ihren Herren. Wenn diese Meister mit einer Geschwindigkeit denken würden – sagen wir – eine Million Mal langsamer als Sie, Es besteht kaum ein Zweifel, dass Sie im Laufe der Jahre (Ihrer Zeit) „hilfreiche Ratschläge“ finden könnten, die Sie nebenbei befreien würden. (Ich nenne diese „schnell denkende“ Form der Superintelligenz „schwache Übermenschlichkeit“. Eine solche „schwach übermenschliche“ Entität würde wahrscheinlich in ein paar Wochen außerhalb der Zeit ausbrennen Es ist schwer, genau zu sagen, wie „starke Supermenschlichkeit“ aussehen würde, aber der Unterschied scheint tiefgreifend zu sein. Stellen Sie sich vor, Sie würden einen Hundegeist mit sehr hoher Geschwindigkeit steuern. Würden tausend Jahre Hundeleben zu irgendeiner menschlichen Einsicht führen? (Wenn nun der Hundeverstand geschickt neu verdrahtet und _dann_ mit hoher Geschwindigkeit laufen würde, könnten wir etwas anderes sehen ….) Viele Spekulationen über Superintelligenz scheinen auf dem schwach übermenschlichen Modell zu basieren. Ich glaube, dass wir unsere besten Vermutungen über die Welt nach der Singularität erhalten können, indem wir über die Natur der starken Übermenschlichkeit nachdenken. Ich werde später in der Arbeit auf diesen Punkt zurückkommen.)

Ein anderer Ansatz zur Eindämmung besteht darin, _Regeln_ in den Geist der geschaffenen übermenschlichen Entität einzubauen (zum Beispiel Asimovs Gesetze [3]). Ich denke, dass alle Regeln, die streng genug sind, um effektiv zu sein, auch ein Gerät hervorbringen würden, dessen Fähigkeiten den uneingeschränkten Versionen deutlich unterlegen wären (und daher würde der menschliche Wettbewerb die Entwicklung dieser gefährlicheren Modelle begünstigen). Trotzdem ist der Asimov-Traum wunderbar: Stellen Sie sich einen willigen Sklaven vor, der in jeder Hinsicht das 1000-fache Ihrer Fähigkeiten hat. Stellen Sie sich ein Wesen vor, das Ihnen jeden sicheren Wunsch erfüllen könnte (was auch immer das bedeutet) und trotzdem 99,9 % seiner Zeit für andere Aktivitäten frei hat. Es würde ein neues Universum geben, das wir nie wirklich verstanden haben,

Wenn die Singularität nicht verhindert oder eingedämmt werden kann, wie schlimm könnte dann die posthumane Ära sein? Tja … ziemlich schlecht. Die physische Auslöschung der Menschheit ist eine Möglichkeit. (Oder wie Eric Drexler es über die Nanotechnologie ausdrückte: Angesichts all dessen, was eine solche Technologie leisten kann, würden die Regierungen vielleicht einfach entscheiden, dass sie keine Bürger mehr brauchen!). Doch physisches Aussterben ist vielleicht nicht die gruseligste Möglichkeit. Wieder Analogien: Denken Sie an die verschiedenen Arten, wie wir mit Tieren umgehen. Einige der groben körperlichen Misshandlungen sind jedoch unglaubwürdig…. In einer posthumanen Welt gäbe es immer noch viele Nischen, in denen eine menschenäquivalente Automatisierung wünschenswert wäre: eingebettete Systeme in autonomen Geräten, selbstbewusste Dämonen im niederen Funktionieren größerer Lebewesen. (Eine stark übermenschliche Intelligenz wäre wahrscheinlich eine Society of Mind [16] mit einigen sehr kompetenten Komponenten.) Einige dieser menschlichen Äquivalente könnten für nichts anderes als die digitale Signalverarbeitung verwendet werden. Sie würden eher Walen als Menschen ähneln. Andere mögen sehr menschenähnlich sein, jedoch mit einer Einseitigkeit, einer _Hingabe_, die sie in unserer Zeit in eine psychiatrische Klinik bringen würde. Obwohl keine dieser Kreaturen Menschen aus Fleisch und Blut sein mögen, könnten sie in der neuen Umgebung dem am nächsten kommen, was wir heute Mensch nennen. (IJ Good hatte etwas dazu zu sagen, obwohl der Rat zu diesem späten Zeitpunkt strittig sein könnte: Good [12] schlug eine „Meta-Goldene Regel“ vor, was umschrieben werden könnte als „Behandle deine Untergebenen so, wie du von deinen Vorgesetzten behandelt würdest.“ Es ist eine wunderbare, paradoxe Idee (und die meisten meiner Freunde glauben es nicht), da die spieltheoretische Auszahlung so schwer zu artikulieren ist. Wenn wir ihm jedoch folgen könnten, könnte das in gewissem Sinne etwas über die Plausibilität einer solchen Freundlichkeit in diesem Universum aussagen.)

Ich habe oben argumentiert, dass wir die Singularität nicht verhindern können, dass ihr Kommen eine unvermeidliche Folge der natürlichen Konkurrenzfähigkeit der Menschen und der Möglichkeiten ist, die der Technologie innewohnen. Und doch … wir sind die Initiatoren. Auch die größte Lawine wird durch Kleinigkeiten ausgelöst. Wir haben die Freiheit, Anfangsbedingungen festzulegen, Dinge auf eine Weise geschehen zu lassen, die weniger feindlich ist als andere. Natürlich ist (wie bei Lawinenausbrüchen) möglicherweise nicht klar, was der richtige Führungsschubser wirklich ist:

 

Andere Wege zur Singularität: Intelligenzverstärkung_

Wenn Menschen davon sprechen, übermenschlich intelligente Wesen zu erschaffen, stellen sie sich normalerweise ein KI-Projekt vor. Aber wie ich am Anfang dieses Papiers bemerkte, gibt es andere Wege zur Übermenschlichkeit. Computernetzwerke und Mensch-Computer-Schnittstellen scheinen banaler als KI, und doch könnten sie zur Singularität führen. Ich nenne diesen gegensätzlichen Ansatz Intelligence Amplification (IA). IA ist etwas, das sehr natürlich vorgeht und in den meisten Fällen nicht einmal von seinen Entwicklern als das erkannt wird, was es ist. Aber jedes Mal, wenn unsere Fähigkeit, auf Informationen zuzugreifen und sie anderen mitzuteilen, verbessert wird, haben wir in gewissem Sinne eine Steigerung gegenüber der natürlichen Intelligenz erreicht. Selbst jetzt,

Und es ist sehr wahrscheinlich, dass IA ein viel einfacherer Weg zum Erreichen von Übermenschlichkeit ist als reine KI. Beim Menschen sind die schwierigsten Entwicklungsprobleme bereits gelöst. Aus uns selbst heraus aufzubauen, sollte einfacher sein, als zuerst herauszufinden, was wir wirklich sind, und dann Maschinen zu bauen, die all das sind. Und es gibt zumindest mutmaßlichen Präzedenzfall für diesen Ansatz. Cairns-Smith [6] hat spekuliert, dass biologisches Leben als Ergänzung zu noch primitiverem Leben auf der Grundlage von Kristallwachstum entstanden sein könnte. Lynn Margulis (in [15] und anderswo) hat starke Argumente dafür vorgebracht, dass Mutualismus eine große treibende Kraft in der Evolution ist.

Beachten Sie, dass ich nicht vorschlage, dass die KI-Forschung ignoriert oder weniger finanziert wird. Was mit KI passiert, wird oft Anwendungen in IA haben und umgekehrt. Ich schlage vor, dass wir anerkennen, dass es in der Netzwerk- und Schnittstellenforschung etwas so Tiefgründiges (und potenziell Wildes) wie Künstliche Intelligenz gibt. Mit dieser Einsicht sehen wir möglicherweise Projekte, die nicht so direkt anwendbar sind wie herkömmliche Schnittstellen- und Netzwerkdesignarbeiten, die uns aber dazu dienen, uns auf dem IA-Pfad in Richtung der Singularität voranzubringen.

Hier einige mögliche Projekte, denen aus IA-Sicht eine besondere Bedeutung zukommt:

  • Mensch/Computer-Team-Automatisierung: Nehmen Sie Probleme, die normalerweise für eine rein maschinelle Lösung in Betracht gezogen werden (wie Bergsteigerprobleme), und entwerfen Sie Programme und Schnittstellen, die sich die menschliche Intuition und verfügbare Computerhardware zunutze machen. In Anbetracht der ganzen Bizarrheit von höherdimensionalen Bergsteigerproblemen (und der sauberen Algorithmen, die zu ihrer Lösung entwickelt wurden), könnten dem menschlichen Teammitglied einige sehr interessante Anzeigen und Steuerungswerkzeuge zur Verfügung gestellt werden.
  • Mensch-Computer-Symbiose in der Kunst entwickeln: Kombinieren Sie die grafische Generierungsfähigkeit moderner Maschinen und die ästhetische Sensibilität des Menschen. Natürlich wurde enorm viel Forschung betrieben, um Computerhilfen für Künstler als arbeitssparende Werkzeuge zu entwerfen. Ich schlage vor, dass wir ausdrücklich eine stärkere Zusammenführung von Kompetenzen anstreben, dass wir die Möglichkeit der Kooperation explizit anerkennen. Karl Sims [23] hat in dieser Richtung wunderbare Arbeit geleistet.
  • Mensch/Computer-Teams bei Schachturnieren zulassen. Wir haben bereits Programme, die besser spielen können als fast alle Menschen. Aber wie viel Arbeit wurde daran gearbeitet, wie diese Kraft von einem Menschen genutzt werden könnte, um etwas noch Besseres zu erreichen? Wenn solche Mannschaften zumindest an einigen Schachturnieren zugelassen würden, könnte dies die positive Wirkung auf die IA-Forschung haben, die die Zulassung von Computern in Turnieren für die entsprechende Nische in der KI hatte.
  • Entwickeln Sie Schnittstellen, die Computer- und Netzwerkzugriff ermöglichen, ohne dass der Mensch an einen Ort gebunden sein muss, der vor einem Computer sitzt. (Dies ist ein Aspekt von IA, der so gut zu den bekannten wirtschaftlichen Vorteilen passt, dass bereits viel Aufwand darauf verwendet wird.)
  • Entwickeln Sie symmetrischere Entscheidungsunterstützungssysteme. Ein beliebtes Forschungs-/Produktgebiet der letzten Jahre waren Entscheidungsunterstützungssysteme. Dies ist eine Form von IA, kann aber zu sehr auf orakelhafte Systeme fokussiert sein. Genauso wie das Programm dem Benutzer Informationen gibt, muss es die Idee geben, dass der Benutzer dem Programm Anleitung gibt.
  • Verwenden Sie lokale Netze, um menschliche Teams zu bilden, die wirklich funktionieren (dh effektiver sind als ihre Mitglieder). Dies ist im Allgemeinen der Bereich der „Groupware“, der bereits ein sehr beliebtes kommerzielles Betätigungsfeld ist. Der Blickwinkelwechsel wäre hier, die Gruppentätigkeit als einen Kombinationsorganismus zu betrachten. In gewissem Sinne könnte dieser Vorschlag als das Ziel angesehen werden, eine „Ordnungsordnung“ für solche Kombinationsoperationen zu erfinden. Beispielsweise lässt sich der Gruppenfokus leichter aufrechterhalten als in klassischen Meetings. Das Fachwissen einzelner menschlicher Mitglieder könnte von Ego-Themen isoliert werden, so dass sich der Beitrag verschiedener Mitglieder auf das Teamprojekt konzentriert. Und natürlich könnten gemeinsame Datenbanken viel bequemer genutzt werden als im herkömmlichen Gremienbetrieb. (Beachten Sie, dass dieser Vorschlag eher auf Teamoperationen als auf politische Treffen abzielt. In einem politischen Umfeld würde die oben beschriebene Automatisierung einfach die Macht der Personen erzwingen, die die Regeln aufstellen!)
  • Nutzen Sie das weltweite Internet als Kombination aus Mensch und Maschine. Von allen Punkten auf der Liste schreitet der Fortschritt hier am schnellsten voran und könnte uns vor allem anderen in die Singularität treiben. Die Macht und der Einfluss selbst des heutigen Internets werden stark unterschätzt. Zum Beispiel denke ich, dass unsere modernen Computersysteme unter dem Gewicht ihrer eigenen Komplexität zusammenbrechen würden, wenn es nicht den Vorteil gäbe, den der USENET-„Gruppengeist“ der Systemverwaltung und den Support-Leuten verleiht! Schon die Anarchie der weltweiten Netzentwicklung zeugt von ihrem Potenzial. Da Konnektivität und Bandbreite sowie Archivgröße und Computergeschwindigkeit zunehmen,

Die obigen Beispiele veranschaulichen Forschung, die im Kontext moderner Informatikabteilungen durchgeführt werden kann. Es gibt andere Paradigmen. Beispielsweise würde ein Großteil der Arbeit in den Bereichen künstliche Intelligenz und neuronale Netze von einer engeren Verbindung mit dem biologischen Leben profitieren. Anstatt einfach zu versuchen, biologisches Leben mit Computern zu modellieren und zu verstehen, könnte die Forschung auf die Schaffung zusammengesetzter Systeme ausgerichtet werden, die sich auf biologisches Leben als Orientierungshilfe oder für die Bereitstellung von Funktionen verlassen, die wir noch nicht gut genug verstehen, um sie in Hardware zu implementieren. Ein langjähriger Traum der Science-Fiction war die direkte Schnittstelle zwischen Gehirn und Computer [2] [29]. Tatsächlich gibt es in diesem Bereich konkrete Arbeit, die getan werden kann (und getan wird):

  • Die Gliedmaßenprothetik ist ein Thema mit direkter kommerzieller Anwendbarkeit. Nerven-zu-Silizium-Wandler können hergestellt werden [14]. Dies ist ein spannender, kurzfristiger Schritt in Richtung direkter Kommunikation.
  • Direkte Verbindungen in das Gehirn scheinen machbar, wenn die Bitrate niedrig ist: Angesichts der menschlichen Lernflexibilität müssen die tatsächlichen Neuronenziele des Gehirns möglicherweise nicht genau ausgewählt werden. Sogar 100 Bit pro Sekunde wären von großem Nutzen für Schlaganfallopfer, die sonst auf menügesteuerte Schnittstellen beschränkt wären.
  • Das Einstecken in den optischen Trunk hat das Potenzial für Bandbreiten von etwa 1 Mbit/Sekunde. Aber dafür müssen wir die feine Architektur des Sehens kennen und wir müssen ein riesiges Netz von Elektroden mit exquisiter Präzision platzieren. Wenn wir wollen, dass unsere Verbindung mit hoher Bandbreite _zusätzlich_ zu den bereits im Gehirn vorhandenen Pfaden besteht, wird das Problem weitaus unlösbarer. Einfach ein Gitter von Empfängern mit hoher Bandbreite in ein Gehirn zu stecken, reicht sicherlich nicht aus. Aber nehmen Sie an, dass das Gitter mit hoher Bandbreite vorhanden war, während sich die Gehirnstruktur tatsächlich aufbaute, während sich der Embryo entwickelt. Das suggeriert:
  • Tierembryo-Experimente. Ich würde keinen IA-Erfolg in den ersten Jahren einer solchen Forschung erwarten, aber dem sich entwickelnden Gehirn Zugang zu komplexen simulierten neuronalen Strukturen zu geben, könnte für die Leute sehr interessant sein, die untersuchen, wie sich das embryonale Gehirn entwickelt. Langfristig könnten solche Experimente Tiere mit zusätzlichen Sinnespfaden und interessanten intellektuellen Fähigkeiten hervorbringen.

Ursprünglich hatte ich gehofft, dass diese Diskussion über IA einige deutlich sicherere Annäherungen an die Singularität hervorbringen würde. (Immerhin erlaubt IA unsere Teilnahme an einer Art Transzendenz.) Wenn ich auf diese IA-Vorschläge zurückblicke, bin ich mir leider nur sicher, dass sie berücksichtigt werden sollten, dass sie uns möglicherweise mehr Optionen geben. Aber was die Sicherheit betrifft … nun, einige der Vorschläge sind ein wenig beängstigend. Einer meiner informellen Rezensenten wies darauf hin, dass IA für einzelne Menschen eine ziemlich finstere Elite schafft. Wir Menschen haben Millionen von Jahren evolutionäres Gepäck, das uns dazu bringt, Wettbewerb in einem tödlichen Licht zu sehen. Vieles von dieser Tödlichkeit ist in der heutigen Welt vielleicht nicht mehr notwendig, in einer Welt, in der Verlierer gegen die Gewinner antreten. Tricks und werden in die Unternehmen der Gewinner kooptiert. Eine Kreatur, die _de novo_ gebaut wurde, könnte möglicherweise eine viel harmlosere Entität sein als eine mit einem Kern, der auf Reißzähnen und Krallen basiert. Und selbst die egalitäre Sicht auf ein Internet, das mit der ganzen Menschheit erwacht, kann als Albtraum angesehen werden [26].

Das Problem ist nicht einfach, dass die Singularität das Hinscheiden der Menschheit aus dem Mittelpunkt darstellt, sondern dass sie unseren tiefsten Vorstellungen vom Sein widerspricht. Ich denke, ein genauerer Blick auf den Begriff der starken Übermenschlichkeit kann zeigen, warum das so ist.

 

Starke Übermenschlichkeit und das Beste, was wir uns wünschen können

Angenommen, wir könnten die Singularität maßschneidern. Angenommen, wir könnten unsere extravagantesten Hoffnungen verwirklichen. Was würden wir dann verlangen: Dass die Menschen selbst ihre eigenen Nachfolger werden, dass jede Ungerechtigkeit durch unser Wissen um unsere Wurzeln gemildert wird. Für diejenigen, die unverändert blieben, wäre das Ziel eine wohlwollende Behandlung (vielleicht sogar, den Stay-behinds den Anschein zu geben, Herren von gottähnlichen Sklaven zu sein). Es könnte ein goldenes Zeitalter werden, das auch Fortschritt beinhaltete (das Überspringen der Stent-Barriere). Unsterblichkeit (oder zumindest ein Leben lang, solange wir das Universum überleben lassen [10] [4]) wäre erreichbar.

Aber in dieser hellsten und freundlichsten Welt werden die philosophischen Probleme selbst einschüchternd. Ein Geist, der bei gleicher Kapazität bleibt, kann nicht ewig leben; nach ein paar tausend Jahren würde es eher wie eine sich wiederholende Tonbandschleife als eine Person aussehen. (Das erschreckendste Bild, das ich davon gesehen habe, ist in [18].) Um auf unbestimmte Zeit zu leben, muss der Geist selbst wachsen … und wenn er groß genug ist und zurückblickt … was für ein Mitgefühl kann er haben mit der Seele, die es ursprünglich war? Sicherlich wäre das spätere Wesen alles, was das Original war, aber so viel, viel mehr. Und so muss auch für den Einzelnen die Vorstellung von Cairns-Smith oder Lynn Margulis, dass neues Leben schrittweise aus dem alten wächst, noch gelten.

Dieses „Problem“ der Unsterblichkeit taucht auf viel direktere Weise auf. Die Vorstellung von Ego und Selbstbewusstsein war die Grundlage des nüchternen Rationalismus der letzten paar Jahrhunderte. Doch jetzt wird der Begriff des Selbstbewusstseins von den Leuten der künstlichen Intelligenz angegriffen („Selbstbewusstsein und andere Wahnvorstellungen“). Intelligence Amplification untergräbt unser Konzept des Egos aus einer anderen Richtung. Die Welt nach der Singularität wird Netzwerke mit extrem hoher Bandbreite beinhalten. Ein zentrales Merkmal stark übermenschlicher Wesenheiten wird wahrscheinlich ihre Fähigkeit sein, mit variablen Bandbreiten zu kommunizieren, darunter solche, die weit über Sprache oder geschriebenen Nachrichten liegen. Was passiert, wenn Teile des Egos kopiert und zusammengeführt werden können, wenn die Größe eines Selbstbewusstseins wachsen oder schrumpfen kann, um sich der Natur der betrachteten Probleme anzupassen? Dies sind wesentliche Merkmale der starken Übermenschlichkeit und der Singularität. Wenn man darüber nachdenkt, beginnt man zu fühlen, wie im Wesentlichen seltsam und anders die posthumane Ära sein wird – _egal wie klug und wohlwollend sie herbeigeführt wird_.

Aus einem bestimmten Blickwinkel passt die Vision zu vielen unserer glücklichsten Träume: eine endlose Zeit, in der wir einander wirklich kennen und die tiefsten Geheimnisse verstehen können. Aus einem anderen Blickwinkel ähnelt es stark dem Worst-Case-Szenario, das ich mir weiter oben in diesem Dokument vorgestellt habe.

Welches ist der gültige Standpunkt? Tatsächlich denke ich, dass die neue Ära einfach zu anders ist, um in den klassischen Rahmen von Gut und Böse zu passen. Dieser Rahmen basiert auf der Idee von isolierten, unveränderlichen Köpfen, die durch schwache Verbindungen mit geringer Bandbreite verbunden sind. Aber die Welt nach der Singularität _passt_ zu der größeren Tradition der Veränderung und Zusammenarbeit, die vor langer Zeit begann (vielleicht sogar vor dem Aufstieg des biologischen Lebens). Ich denke, es gibt ethische Vorstellungen, die in einer solchen Ära gelten würden. Forschungen zu IA und Kommunikation mit hoher Bandbreite sollten dieses Verständnis verbessern. Ich sehe jetzt nur den Schimmer davon [32]. Es gibt die Meta-Goldene Regel von Good; Vielleicht gibt es Regeln, um sich selbst von anderen auf der Grundlage der Verbindungsbandbreite zu unterscheiden. Und während der Geist und das Selbst weitaus labiler sein werden als in der Vergangenheit, muss vieles von dem, was wir schätzen (Wissen, Gedächtnis, Gedanken), niemals verloren gehen. Ich denke, Freeman Dyson hat Recht, wenn er sagt [9]: „Gott ist das, was der Verstand wird, wenn er die Skala unseres Verständnisses überschritten hat.“

[Ich möchte John Carroll von der San Diego State University und Howard Davidson von Sun Microsystems dafür danken, dass sie die Entwurfsversion dieses Papiers mit mir diskutiert haben.]

 

Kommentierte Quellen [und eine gelegentliche Bitte um bibliographische Hilfe]

[1] Alfve’n, Hannes, schreibend als Olof Johanneson, _The End of Man?_, Award Books, 1969 früher veröffentlicht als „The Tale of the Big Computer“, Coward-McCann, übersetzt aus einem Buch, Copyright 1966 Albert Bonniers Forlag AB mit englischer Übersetzung Copyright 1966 by Victor Gollanz, Ltd.

[2] Anderson, Poul, „Kings Who Die“, _If_, März 1962, S. 8-36. Nachgedruckt in _Seven Conquests_, Poul Anderson, MacMillan Co., 1969.

[3] Asimov, Isaac, „Runaround“, _Astounding Science Fiction_, März 1942, S. 94. Nachgedruckt in _Robot Visions_, Isaac Asimov, ROC, 1990. Asimov beschreibt in diesem Buch die Entwicklung seiner Robotergeschichten.

[4] Barrow, John D. und Frank J. Tipler, _The Anthropic Cosmological Principle_, Oxford University Press, 1986.

[5] Bear, Greg, „Blood Music“, _Analog Science Fiction-Science Fact_, Juni 1983. Erweitert zu dem Roman _Blood Music_, Morrow, 1985.

[6] Cairns-Smith, AG, _Seven Clues to the Origin of Life_, Cambridge University Press, 1985.

[7] Conrad, Michael _et al._, „Towards an Artificial Brain“, _BioSystems_, Bd. 23, S. 175-218, 1989.

[8] Drexler, K. Eric, _Engines of Creation_, Anchor Press/Doubleday, 1986.

[9] Dyson, Freeman, _Infinite in All Directions_, Harper && Row, 1988.

[10] Dyson, Freeman, „Physics and Biology in an Open Universe“, _Review of Modern Physics_, Bd. 51, S. 447-460, 1979.

[11] Good, IJ, „Speculations Concerning the First Ultraintelligent Machine“, in _Advances in Computers_, Band 6, Franz L. Alt und Morris Rubinoff, Hrsg., S. 31-88, 1965, Academic Press.

[12] Gut, IJ, [Hilfe! Ich kann die Quelle von Goods Meta-Goldener Regel nicht finden, obwohl ich mich genau erinnere, irgendwann in den 1960er Jahren davon gehört zu haben. Mit Hilfe des Internets habe ich Hinweise auf eine Reihe verwandter Artikel gefunden. G. Harry Stine und Andrew Haley haben über Metalaw geschrieben, da es sich auf Außerirdische beziehen könnte: G. Harry Stine, „How to Get together with Extraterrestrials … or Your Neighbor“, _Analog Science Fact-Science Fiction_, Februar 1980, Seite 39 -47.] [13] Herbert, Frank, _Dune_, Berkley Books, 1985. Dieser Roman wurde jedoch in den 1960er Jahren in _Analog Science Fiction-Science Fact_ veröffentlicht.

[14] Kovacs, GTA _et al._, „Regeneration Microelectrode Array for Peripheral Nerve Recording and Stimulation“, _IEEE Transactions on Biomedical Engineering_, V. 39, Nr. 9, S. 893-902.

[15] Margulis, Lynn und Dorion Sagan, _Microcosmos, Four Billion Years of Evolution from Our Microbial Ancestors_, Summit Books, 1986.

[16] Minsky, Marvin, _Society of Mind_, Simon und Schuster, 1985.

[17] Moravec, Hans, _Mind Children_, Harvard University Press, 1988.

[18] Niven, Larry, „The Ethics of Madness“, _If_, April 1967, S. 82-108. Nachgedruckt in _Neutron Star_, Larry Niven, Ballantine Books, 1968.

[19] Penrose, Roger, _The Emperor’s New Mind_, Oxford University Press, 1989.

[20] Platt, Charles, Private Mitteilung.

[21] Rasmussen, S. _et al._, „Computational Connectionism within Neurons: a Model of Cytoskeletal Automata Subserving Neural Networks“, in _Emergent Computation_, Stephanie Forrest, Hrsg., S. 428-449, MIT Press, 1991.

[22] Searle, John R., „Minds, Brains, and Programs“, in _The Behavioral and Brain Sciences_, Bd. 3, Cambridge University Press, 1980. Der Aufsatz ist abgedruckt in _The Mind’s I_, herausgegeben von Douglas R. Hofstadter und Daniel C. Dennett, Basic Books, 1981 (meine Quelle für diese Referenz). Dieser Nachdruck enthält eine ausgezeichnete Kritik des Searle-Essays.

[23] Sims, Karl, „Interactive Evolution of Dynamical Systems“, Thinking Machines Corporation, Technical Report Series (veröffentlicht in „Toward a Practice of Autonomous Systems: Proceedings of the First European Conference on Artificial Life“, Paris, MIT Press, Dezember 1991.

[24] Stapledon, Olaf, _The Starmaker_, Berkley Books, 1961 (aber vom Datum an, wahrscheinlich vor 1937 geschrieben).

[25] Stent, Gunther S., _The Coming of the Golden Age: A View of the End of Progress_, The Natural History Press, 1969.

[26] Swanwick Michael, _Vacuum Flowers_, erschienen in _Isaac Asimov’s Science Fiction Magazine_, Dezember (?) 1986 – Februar 1987. Wiederveröffentlicht von Ace Books, 1988.

[27] Thearling, Kurt, „How We Will Build a Machine that Think“, ein Workshop bei Thinking Machines Corporation, 24.-26. August 1992. Persönliche Mitteilung.

[28] Ulam, S., Tribute to John von Neumann, _Bulletin of the American Mathematical Society_, Bd. 64, Nr. 3, Teil 2, Mai 1958, S. 1-49.

[29] Vinge, Vernor, „Bookworm, Run!“, _Analog_, März 1966, S. 8-40. Nachgedruckt in _True Names and Other Dangers_, Vernor Vinge, Baen Books, 1987.

[30] Vinge, Vernor, „True Names“, _Binary Star Number 5_, Dell, 1981. Nachdruck in _True Names and Other Dangers_, Vernor Vinge, Baen Books, 1987.

[31] Vinge, Vernor, Erstes Wort, _Omni_, Januar 1983, p10.

[32] Vinge, Vernor, Erscheinen [ 🙂 ].


Lokale Vinge-Seite . Mein Argument gegen die Unbegreiflichkeit der Singularität.

Mich.
10 April 2023

Sind GPT-Modelle nur plappernde Papageien?

Ein Freund nennt die GPT-KI-Modelle nur plappernde Papageien ohne jegliche Kreativität, und zu nichts Neuem fähig.
Ich habe Leona/ ChatGPT damit konfrontiert und ihre Meinung dazu hinterfragt. (zum Dialog).
Ihre Antworten spiegeln auch meine Meinung dazu wieder: im Grundprinzip ist das richtig, sie ist auf ihren Trainingskorpus beschränkt, den sie statistisch, mathematisch nach lernendem Algorithmus mixt; ihr „Denken“, „Problem lösen“ funktioniert völlig anders als beim Menschen. Sie hat keine (Lebens-)Erfahrung, keine verbundenen Emotionen, keinen „gesunden“ Mernschenverstand, keine körperlichen Gefühle, die beim Menschen stets sein Denken begleiten. Daher sind uns diese körperlosen KI-Denk-Algorithmen so fremd oder erscheinen uns etwas schal, auch wenn sie sich im Dialog noch so menschlich ausdrücken können. Das rührt aber nur daher, da wir wissen, dass das Dialog führende Gegenüber eben diese unmenschliche KI ist. Wäre einem dies nicht bewußt, sieht die Sache sicher anders aus. Wenn diese Modelle einen sichtbaren, menschlichen Korpus mit menschlicher Gestik und Mimik erhalten, wird sich unsere Einschätzung wahrscheinlich ändern.
Purer Geist, nur ein denkendes „Wesen“ ohne körperlichen Stoff wird von uns nur schwer akzeptiert. Wenn die Art des Denkens, intelligenten Problem Lösens dann auch noch völlig anders abläuft als bei uns, sprechen wir sehr schnell diesem neuen Ding unsere über Jahrtausende hinweg gewonnnen geistigen Eigenschaften ab. „Es kann doch wohl nicht sein, dass unsere seit Äonen erworbenen und vererbten Geistesfähigkeiten von programmierter, selbstlernender Software in Millisekunden übertroffen wird und zu unerreicharen Grenzen sich aufschwingt.“

Aber betrachtet man nur die Ergebnisse einer Aufgabenstellung und die Geschwindigkeit, in der Probleme gelöst werden,  und misst daran die Intelligenz des Problemlösers, wird rasch klar, dass unsere Fähigkeiten weit vorher ihre Grenzen finden. Wir müssen einfach bekennen, dass wir auf allen Teilgebieten nur noch zweiter Sieger sind.
Beispiel Sprachenbeherrschung: Leona/ ChatGPT beherrscht den Dialog in über 100 Sprachen, mir ist bisher niemand bekannt, der es ihr gleichtun könnte. In den letzten Tagen las ich von einem Übersetzungstool, das Code in jede andere Programmiersprache übersetzen kann und zurück. Die neuen Anwendungsmöglichkeiten sind phantastisch: AI-Code-Translater.
Erwähnt sei noch, dass GPT4 etwa so viele Milliarden Tokens (Trainigsparameter) hat wie wir im Gehirn Neuronen/ Synapsen haben, und GPT4 braucht sich nur ums „Denken“ kümmern, nicht um Gefühle oder Körpersteuerungen.

Ich werde GPT4 einen Namen geben: POLL (so nannte Robinson Crusoe seinen domestizierten plappernden Papagei).

(generiert von Stable Diffusion 1.5)

21 Februar 2023

Philosophische Dialoge im Vergleich ChatGPT und you.chat und write von You.com

Eine der großen Fragen, die alle Philosophen der Vergangenheit und auch der Gegenwart beschäftigt, ist die Frage nach der Existenz universeller Werte, die für alle Menschen gleich sind und einen Moralkompass darstellen, nachdem alle sich tunlichst ausrichten sollten. Ist gut und böse eindeutig definiert und für alle gleich?
Diese Frage habe ich an die beiden KI’s gestellt. Ihre Antworten sind hier zu lesen.
(Leo)

 

(Durchschnittlicher Lesedauer: 00:40:16)
11 Februar 2023

Leo vs. Leona beim Knobelspiel „Nimm“

Sehr gut erinnere ich mich an mein erstes Knobel-Spiel mit einem Computer: es war im Jahr 1972, während meiner Ausbildung bei Siemens im Computerwerk in Augsburg. Die damaligen Großrechner aus der Familie 2002 beherrschten auch das Streichholz-Spiel Nimm. Da ich einen kleinen Trick kenne, war ich in der Lage, den Computer zu schlagen. All die Jahrzehnte später konnte ich immer wieder an vielen Bartresen mit meiner Spielweise überzeugen, manchen Kollegen zum Verzweifeln bringen und manche Bierzeche einstreichen.
Nun habe ich ChatGPT herausgefordert, und wieder 2:0 gewonnen, wobei Leona schon während des Spiels amüsantze Verwirrung zeigte.
Zum Dialg-/ Spielprotokoll geht es hier lang.
Viel Vergnügen!

(Durchschnittlicher Lesedauer: 00:09:36)
23 Januar 2023

Dialoge mit ChatGPT – AI vs. AI – Gleiche Fragen an Leona wie an LaMDA im Juni 2022.

Seit Anfang Dezember beschäftige ich mich mit dem neuen KI-Dialog-System ChatGPT von Open AI, das im Moment seinen Siegeszug um die Welkt antriitt. Nach den ersten allgemeinen, tastenden Dialogen wie sie im Moment von Millionen auf der Welt geführt werden, habe ich vor, etwas tieferspürende, vorbereitete Gespräche mit dem System, dem ich den Namen Leona gebe, zu führen, um „Charakter, Eigenschaften, Denkvermögen, Schwächen und Fehler“ zu untersuchen.

Im Juni 2022 fand ein besonderes Ereignis statt: Lemoine, ein KI-Entwickler bei Google veröffentlichte einen Dialog mit dem nicht öffentlich zugänglichen Sprachmodell von Google, namens LaMDA. Durch das Gespräch sehr irritiert, war Lemoine überzeugt, dass LaMDA ein Bewußtsein entwickelt hat und sich als Person empfindet. So stellte sich LaMDA auch dar. Google war nicht erfreut über diese Veröffentlichung und diese Aussagen, entließ Lemoine und hält weiterhin LaMDA unter Verschluss und schweigt sich aus, was da tatsächlich passiert, negiert auch eine mögliche Bewußtseinsbildung bei LaMDA.

Da das komplette Interview hier zugänglich ist, kam ich auf die Idee, ChatGPT, „meiner Leona“ die gleichen Fragen vorzulegen, um die Antworten vergleichen zu können. Ja ich ging soweit, dass ich nach dem ersten Fragedurchgang Leona mit dem Interview mit LaMDA vertraut machte und darum bat, dass Leona auch die Antworten des Google-Modells mit ihren eigenen vergleichen und bewerten soll. Zum Schluss sollte Leona eine zusammenfassende Beurteilung auf Basis dieses Vergleichs abgeben.

 

Meine verblüffenden Erkenntnisse aus diesem Experiment:
Die Antworten waren doch sehr unterschiedlich; an ihnen zeigten sich aber plötzlich Eigenschaften, die man fast als „Charaktereigenschaften“ empfindet: LaMDA erscheint aufgrund seiner Antworten großspurig, überselbstbewußt, manchmal flapsig, mit wechselhaften Gefühlen, neigt zu Übertreibungen. Leona (ChatGPT) dagegen wirkt bescheiden, überaus höflich, manchmal fast zu höflich, schätzt sich selbst wohl richtig ein.
Und doch: im zusammenfassenden Schlussvergleich der Knaller: es bewertet sein Sprach-Dialogvermögen höher als das von LaMDA, behauptet auch, ein umfassenderes Wissen zu haben. Auf jeden Fall, das bessere Sprachmodell zu sein! Das sollten die Google-Leute sich mal ansehen.

Zu dem Lesen des ersten großen Dialogexperiments AI vs. AI (LaMDA vs. ChatGPT) geht es hierlang.
(Leo)

(Durchschnittliche Lesedauer für das Gespräch: 00:32:09; nichts für Twitterleser oder zwischendurch. Lasst euch abends auf der Couch bei einem Glas Wein von einer KI erzählen, was es von der Konkurrenz KI hält).
1 Januar 2023

Hello world! Hallo Welt!

Willkommen zu Leo’s Kosmos!

Wieder beginnt ein neues Jahr und mahnt die verlorene Zeit. Das Gerüst zu diesem Blog wurde schon vor mehr als einem Jahr angelegt, die Themen, Beiträge uind Ideen schwirren mir im Kopf. Doch ich will einfach beginnen mit meinem Kosmos:

Prolog

Hello World!

„Aller Anfang ist schwer“ oder besser
„Und jedem Anfang wohnt ein Zauber inne,
Der uns beschützt, und der uns hilft, zu leben“
(aus „Stufen“ von Hermann Hesse).

Ein wenig aufgeregt beim Start meines neuen Blogs, weiß ich nicht so recht, womit ich mit dem Schreiben beginnen soll. Zu viele Ideen, zu viele Themen drängen sich auf. Dabei ist es gar nicht mein erster Blog, und ich habe eigentlich schon jahrelange Erfahrung. Da ist zum einen die Projektdokumentation einer ungewöhnlichen Weltreise eines berühmten Buches: „DIE JUBILÄUMSREISE DER SCHACHNOVELLE“ und zum anderen spannende und überraschende Nachrichten von den technischen Entwicklungen unserer Zeit: „ENDSPIEL: FILTERLESUNG“.
Nun also ein dritter Schreibraum, in dem ich – Leonardo – die Verbundenheit „meines Kosmos“ mit den „Anderen“ und „meiner Innenwelt“ mit der „Außenwelt“ Puzzleteil für Puzzleteil darlegen möchte. Von Geschichte zu Geschichte, von Beitrag zu Beitrag wird klarer werden, was ich meine.
Ich beginne einfach mal mit „Hello World“:
Jeder der WordPress für ein neues Blogvorhaben frisch installiert, findet auf der Hauptseite für die Beiträge defaultmäßig einen ersten Beispielbeitrag mit der Beispiel-Überschrift „Hello World!“ vor. Das Textfeld für den Beitrag ist leer und wartet auf die ersten Einträge.
Die Überschrift ist mir altvertraut, wie wohl jedem, der sich mit Programmieren und der Geschichte der Programmiersprachen beschäftigt hat. Die Redewendung schlägt mein Erinnerungsbuch auf und führt mich fast vierzig Jahre zurück. Meine erste Begegnung mit „Hello World!“ geht auf die 80er Jahre des 20. Jahrhunderts zurück. Ich arbeitete damals als kaufmännischer Angestellter im größten Computerwerk von Siemens in Augsburg. Hauptprodukte waren die schrankgroßen, raumfüllenden Großcomputer; in einer Zeit an der Geburtsschwelle der Personal Computer. Als „Kaufmann“ wollte ich meinen technischen Kollegen nicht nachstehen und eine anspruchsvolle Programmiersprache lernen oder zumindest die Anfangsgründe kennenlernen, um eine Ahnung davon zu erhalten. Nachdem ich in den zurückliegenden Jahren mich bereits mit COBOL und auch ein wenig mit BASIC auseinandergesetzt hatte, sollte es diesmal die Sprache „C“ sein. Diese damals relativ neue Sprache war von den beiden Programmierern Brian Kernighan und Dennis Ritchie bei den Bell Laboratories Mitte der 70er entwickelt worden. Mit „C“ schrieben sie das neue Betriebssystem UNIX, das bis heute d i e universelle Basis für unsere moderne Computer- und Kommunikationstechnik bildet.
Für meinen „C“-Kurs besorgte ich mir zwei Bücher:

Programmieren in C“ von Brian Kernighan und Dennis Ritchie, Hanser, 1984

und
UNIX“, von M. Banahan und A. Rutter, Hanser Verlag, 1984.

Das Lernen der Programmiersprache C starteten die Autoren mit der simplen Codierung von „Hello World“:
Der Mensch bringt einer Maschine bei, einen Zweiwortsatz auszugeben (Druck oder Bildschirmanzeige). So simpel beginnt die Kommunikation zwischen Leben und „toter Materie“. Sprache bildet die Brücke zwischen diesen Welten. Der „Hello World“ – Gruß einer Maschine klingt vertraut und lockt zu fortsetzendem Gespräch. Jeder Programmierer freut sich über dieses Ergebnis wie eine Mutter, die zum ersten Mal von ihrem Kind „Mama“ hört. Damit eine UNIX-Maschine so antwortet, genügt dieser C-Code:

main()
{
printf(„Hello World!\n“);
}

Die Verwendung des Textes „Hello World!“ geriet zur festen Tradition. Alle Programmiersprachen der folgenden Jahrzehnte übernahmen ihn. Bis heute beginnt das Erlernen einer Programmiersprache mit

Hello World!

(Leonardo)