Jim Rickard´s I-3 Faktor Trader: Künstliche Intelligenz – technologisches Wunderwerk oder moderner Frankenstein

Liebes Mitglied,

herzlich willkommen zum aktuellen Briefing von I-3 Faktor Trader, ihrem führenden Makro-Trading-Service, der eigenen Quellen und Methoden einsetzt, um Ihnen voraussagende Marktanalysen zu liefern, die Sie sonst nirgendwo finden.

Wir hoffen, dass Sie auch vom 100%-Gewinn der risikoreicheren BSX-Position profitieren konnten, für die wir gestern eine Verkaufsmeldung verschickt haben. Wenn Sie die Meldung verpasst haben, klicken Sie bitte hier, um sie zu lesen.

Denken Sie daran… I-3 Faktor Trader gibt Ihnen die Chance, mit einem Handelsstil, der so einfach ist wie der Handel mit Aktien und Anleihen, beständige Gewinne mit der Kenntnis von Insiderhandel zu erzielen.

Und nun zum heutigen Briefing…

Wir müssen über KI sprechen. (KI = Künstliche Intelligenz).

Künstliche Intelligenz ist ein großes Thema an den Kapitalmärkten und in fast allen anderen Bereichen. Es hat sich von den Rändern der Tech-Welt in den Mittelpunkt der Aufmerksamkeit geschoben. Sie beherrscht die Schlagzeilen und die Diskussionen in den Vorstandsetagen.

Einigen hysterischen Berichten zufolge könnte sie bald die Welt so weit beherrschen, dass die Menschen nicht besser sind als Roboter, die nach den Anweisungen der KI-Vorgaben handeln. Vergleiche mit der Terminator-Filmreihe sind unvermeidlich. (Zur Erinnerung: Der ursprüngliche Terminator wurde im Jahr 2029 ins Jahr 1984 zurückgeschickt. Da das nur sechs Jahre in der Zukunft liegt, kommt die KI-Revolution vielleicht genau zur rechten Zeit).

Warum sollte dies die Anleger beunruhigen?

Als der legendäre Bankräuber „Slick Willie“ Sutton in den 1950er Jahren von einem Reporter gefragt wurde, warum er Banken ausraube, soll er geantwortet haben: „Weil dort das Geld ist.“ Wenn die neuen, fortschrittlichen Formen der KI in naher Zukunft auf den Markt kommen, können Sie sicher sein, dass die Maschinen die Aktien- und Anleihemärkte angreifen werden, denn dort ist das Geld zu finden. Sie müssen KI verstehen, damit Sie nicht wie eine der Banken von Slick Willie enden!

Eine erstaunliche Technologie… aber nicht menschlich

Lassen Sie uns eine gemeinsame Grundlage schaffen und einige Missverständnisse ausräumen, bevor wir uns damit beschäftigen, was KI eigentlich ist. Sie sollten sich auf das Wort „künstlich“ im Sinne von maschinell hergestellt konzentrieren. Es handelt sich nicht wirklich um „Intelligenz“ im organischen oder biologischen Sinne, aber sie ahmt die menschliche Intelligenz in begrenztem Maße nach.

Ja, die KI verfügt über eine noch nie dagewesene Verarbeitungsleistung, die Daten (einschließlich Milliarden geschriebener Dokumente mit Hilfe der so genannten natürlichen Sprachverarbeitung (NLP)) in unvorstellbaren Mengen verarbeiten kann, und sie kann Probleme, die derzeit die menschlichen Fähigkeiten übersteigen, blitzschnell lösen. Das stimmt alles. Aber sie kann auch an einfachen Aufgaben scheitern, die das menschliche Gehirn leicht und intuitiv bewältigt. Die KI ist eine erstaunliche Technologie. Sie ist aber kein menschliches Gehirn.

Das weist auf einen der grundlegenden Fehler hin, die Menschen bei der Beurteilung von KI machen. Es gibt eine natürliche Tendenz, die Maschine zu vermenschlichen. Man sagt, eine bestimmte KI-Anwendung sei „brillant“ oder „links“, vielleicht auch „rechts“, oder man bezeichnet sie als „optimistisch“, „pessimistisch“ oder „beängstigend“, je nachdem.

Diese Adjektive und die damit verbundenen Metaphern sind nützliche Kurzformen, aber keine von ihnen ist wahr. Die Maschine ist nicht menschlich (oder sogar lebendig in irgendeinem Sinne) und besitzt keine dieser menschlichen Eigenschaften. Sie ist nur eine Maschine, wenn auch schnell und leistungsfähig. Wir sollten auf ihren Nutzen achten, aber es nicht übertreiben, ihr menschliche Eigenschaften zuzuschreiben.

Auch einige Definitionen sind angebracht. Wie in jedem technischen Bereich ist die Literatur schnell mit Jargon und Akronymen übersät, die sie für jeden, der sich nicht mit dem Gebiet auskennt, undurchdringlich machen. Ich vermute, das ist der Sinn der Sache, auch wenn die dargestellten Konzepte gar nicht so schwer zu verstehen sind.

Warum ist die KI-Technologie plötzlich explodiert?

Unter künstlicher Intelligenz (KI) versteht man die Fähigkeit einer Maschine, Aufgaben wie Spracherkennung, optische Bilderkennung, Sprachübersetzung, Planung, automatische Entscheidungsfindung und strategisches Spielen zu übernehmen. Diese Art von Leistung ist bereits recht verbreitet. Wir nutzen sie jeden Tag in Suchmaschinen (Google), beim Online-Shopping (Amazon), bei der Routenplanung (Waymo) und bei digitalen Assistenten (Siri und Alexa).

In der Tat ist KI nichts besonders Neues. Im vierten Jahrhundert v. Chr. dachte Aristoteles darüber nach, wie die Menschen ihre überschüssige Freizeit nutzen würden, wenn es gelänge, eine Spindel dazu zu bringen, selbständig Stoffe zu weben. Alan Turing, einer der Erfinder moderner Computer und der Mann, dem das Knacken deutscher Codes während des Zweiten Weltkriegs zugeschrieben wird, schrieb in den 1950er Jahren ausführlich über die ethischen Probleme der KI. Meine ersten Gespräche über KI hatte ich 1979 mit einem am MIT ausgebildeten Wissenschaftler der Technologieberatungsfirma Arthur D. Little.

Warum ist KI in Anbetracht dieser langen Geschichte plötzlich als eine potenziell dominante, wenn nicht gar völlig neue Technologie auf den Plan getreten?

Die Antwort lautet, dass die heutige KI das Ergebnis dreier verschiedener Phasen ist.

Die erste Phase war philosophischer Natur. Aristoteles und Turing sind Beispiele für Genies, die sich eine menschenähnliche Verarbeitungsleistung (und die möglichen Folgen) vorstellten, ohne tatsächlich über die entsprechenden Werkzeuge zu verfügen.

In der zweiten Phase ging es um die Schaffung riesiger digitaler Informationsarchive. Die KI-Technologie kann nicht auf höchstem Niveau arbeiten, wenn sie nicht über große Mengen an Text und Informationen verfügt, die sie verarbeiten kann. Dieses Ziel wurde Mitte der 1990er Jahre mit dem Internet, dem World Wide Web und den Suchmaschinen erreicht. Nun standen die Informationen in digitaler Form zur Verfügung.

Die dritte Phase war die eigentliche Verarbeitungsleistung und die Fähigkeit der natürlichen Sprachverarbeitung, in die Informationen einzutauchen und innerhalb von Minuten oder Stunden Ergebnisse abzurufen oder zu erstellen. Das ist das Neue, und deshalb explodiert der Bereich der KI heute. Die Gleichung lautet: Konzept + Information + Verarbeitungsleistung = Künstliche Intelligenz. Die für die KI benötigte Rechenleistung ist jetzt da.

Die neue Grenze – GPT

Die nächste Stufe heißt Generative Pre-Trained Transformer, GPT. (Daher stammt auch die offene Anwendung mit dem Namen ChatGPT). Der Begriff „generativ“ bezieht sich auf die Ausgabe, die sehr originell und menschenähnlich sein kann. Der Begriff „Pre-Trained“ bezieht sich auf die Tatsache, dass die Programmierer einige Parameter im Voraus festlegen, damit die Maschine Sackgassen überspringen und schneller zu fruchtbaren Ergebnissen gelangen kann. Der Begriff „Transformator“ bezieht sich auf eine Architektur, die es der Maschine ermöglicht, geschriebene Daten in einen Kontext zu stellen und den Text zu gewichten, um festzustellen, welche Wörter und Sätze bedeutungsvoller sind als andere; diese Funktion kommt dem menschlichen Denken am nächsten.

Die Kombination aus Pre-Training (für Effizienz), Transformationsmodellen (für Relevanz) und einer generativen Kapazität (für menschenähnliche Ausgaben in einfacher Sprache) unterscheidet GPT von früheren KI-Bemühungen. In Verbindung mit paralleler Verarbeitung und einer enormen Fähigkeit, Text zu verarbeiten, erreichen wir die neue KI-Grenze, die so viel Aufmerksamkeit erregt. GPT wurde erstmals 2018 eingeführt und befindet sich nun in der vierten Generation, GPT-4, die am 14. März 2023 veröffentlicht wurde. Jede Version ist exponentiell größer und schneller als die vorherige. Daher auch die Aufregung.

Forscher stellen sich nun vor, dass die Maschinen ein Eigenleben entwickeln und die Menschen und die Zivilisation angreifen. Es ist wichtig, daran zu denken, dass man einfach den Stecker ziehen kann, wenn die Maschine durchdreht. Befürworter der KI-Kapazitäten behaupten, dass es nicht funktionieren wird, den Stecker zu ziehen, weil die Maschine diese Strategie vorhersehen und sich in eine andere Maschine „exportieren“ wird, in einem „catch-me-if-you-can“-Szenario, bei dem das Ausschalten eines Ortes den Code und die Algorithmen nicht davon abhält, anderswo aufzutauchen und den Angriff fortzusetzen.

Das mag sein.

Allerdings gibt es dabei allerlei logistische Probleme, darunter die Verfügbarkeit einer ausreichenden Anzahl von Rechnern mit der erforderlichen Rechenleistung, die Tatsache, dass die alternativen Rechner wahrscheinlich von Firewalls und digitalen Gräben umgeben sind, sowie eine Vielzahl von Konfigurations- und Interoperabilitätsproblemen.  Wir müssen diese Sachzwänge verstehen. Aber für den Moment sollten wir einfach den Stecker ziehen.

Das soll nicht heißen, dass es keine Gefahren durch KI gibt. Es gibt viele. Hier zum Beispiel ein Ausschnitt aus einem Interview mit Eliezer Yudkowsky, dem Leiter des Machine Intelligence Research Institute in Berkeley, Kalifornien, über das der Historiker Niall Ferguson in Bloomberg berichtete:

 

„Yudkowsky … glaubt, dass wir uns schnell einer fatalen Situation nähern, in der wir eine KI schaffen, die intelligenter ist als wir, die ’nicht tut, was wir wollen, und sich weder um uns noch um empfindungsfähiges Leben im Allgemeinen kümmert. … Das wahrscheinliche Ergebnis einer Konfrontation der Menschheit mit einer übermenschlichen Intelligenz ist ein Totalverlust.  Er deutet an, dass eine solche KI leicht aus dem Internet entkommen könnte, „um künstliche Lebensformen zu schaffen“, und so einen biologischen Krieg gegen uns führen würde. Seine Empfehlung ist eindeutig. Wir brauchen ein vollständiges, weltweites Moratorium für die Entwicklung von KI.“

Yudkowskys Befürchtungen sind nicht weit hergeholt. Eine Auszeit von der rasanten Entwicklung könnte durchaus sinnvoll sein, während man über einige Abhilfemaßnahmen und Schutzmaßnahmen nachdenkt.

In Analogie zur biomedizinischen Forschung und insbesondere zur Genveränderung schlägt niemand vor, den gesamten Bereich der Genexperimente zu stoppen. Aber eine Auszeit von der Funktionserweiterungsforschung an Coronaviren, die von Fledermäusen stammen, am Wuhan Institute of Technology hätte vielleicht Millionen von Menschenleben gerettet, die in der Pandemie 2020 ausgelöscht wurden.

In der Tat gibt es eine Reihe von Schutzmaßnahmen, die vorgeschlagen werden, um den potenziellen Schaden der KI zu begrenzen und dennoch enorme Vorteile zu erzielen. Dazu gehören Transparenz (damit Dritte Fehler erkennen können), Aufsicht, eine abgeschwächte Form des gegnerischen Trainings (damit die Maschine Probleme lösen kann, ohne sich in ihrer Freizeit gegen uns zu verschwören), genehmigungsbasierte Modifikation (die Maschine muss um „Erlaubnis“ bitten, bevor sie autonomes maschinelles Lernen aktiviert), rekursive Belohnungsmodellierung (die Maschine bewegt sich nur in bestimmte Richtungen, wenn sie vom Menschen einen „Klaps auf den Kopf“ erhält) und andere ähnliche Instrumente.

Natürlich funktionieren all diese Schutzmaßnahmen nicht, wenn die Macht hinter der KI bösartig ist und die Menschheit tatsächlich vernichten will. Das wäre so, als würde man einem verzweifelten Adolf Hitler Atomwaffen in die Hand geben. Wir wissen, was dann passiert wäre.

Die Lösung wäre in diesem Fall eher politisch, forensisch und verteidigungsorientiert. Das Sammeln von Informationen würde eine große Rolle spielen. Natürlich entwickelt sich das schnell zu einem nachrichtendienstlichen Krieg zwischen Maschine und Maschine, bei dem es um Sammlung und Täuschung geht. Stellen Sie sich James Bond mit einem Hypercomputer anstelle einer Walther PPK vor.

Meiner Erfahrung nach besteht ein wirksames Mittel gegen Berserker-Computer darin, den Umfang der Aufgaben zu begrenzen, die dem Computer übertragen werden. Wenn es sich bei der KI-Anwendung um eine so genannte künstliche verallgemeinerte Superintelligenz (Artificial Generalized Superintelligence, AGS) handelt, kann sie sich frei bewegen, sich selbst unterrichten, sich anpassen, um menschliche Eingriffe zu verhindern, und schließlich zu einigen der am meisten gefürchteten Ergebnisse führen.

Wenn man AGS nicht weiterverfolgt und das KI-Modell so entwickelt, dass es sich auf eine bestimmte Aufgabe konzentriert, z. B. ein technisches Projekt, die nationale Sicherheit oder eine wirtschaftliche Analyse, wird das Potenzial für unkontrolliertes Verhalten radikal reduziert.

Diese Idee, die Aufgabenstellung einzugrenzen, um die Gefahr bösartiger Ergebnisse zu verringern, wurde von einigen Kollegen und mir kürzlich auf einer Vorstandssitzung des Florida Institute for National Security (FINS), einem Kompetenzzentrum an der Universität von Florida in Gainesville, diskutiert.

Solche Institute gibt es immer mehr. Das FINS zeichnet sich dadurch aus, dass es Zugang zum drittschnellsten nichtstaatlichen Supercomputer der Welt, dem HiPerGator, hat. Der HiPerGator wurde von Chris Malachowsky, dem Mitbegründer von NVIDIA und treuen Ehemaligen aus Florida, großzügig mit Banken der schnellsten NVIDIA-Prozessoren ausgestattet.

Ihr Redakteur besichtigte den HiPerGator-Computer, der vom Florida Institute for National Security für die Erforschung künstlicher Intelligenz im Zusammenhang mit Fragen der nationalen Sicherheit verwendet wird. Der HiPerGator ist der drittschnellste nichtstaatliche Computer der Welt. Die Bänke der NVIDIA-Superprozessoren sind hinter mir in den vergoldeten Paneelen sichtbar.

Trotz der berechtigten Befürchtungen, dass bösartige Supercomputer vom Typ Terminator die Menschheit angreifen könnten, sollte man sich die Grenzen und Unzulänglichkeiten selbst der leistungsfähigsten Anwendungen vor Augen halten.

Zum einen sind diese GPT-Systeme dafür bekannt, dass sie Dinge erfinden, um eine Aufgabe zu erfüllen. Ein Reporter befragte kürzlich die Chat-GPT-Anwendung über sich selbst. Der Computer erstellte eine brillante Biografie des Reporters, einschließlich eines Nachrufs auf den Tod des Reporters im Jahr 2019. Natürlich war der Reporter am Leben und es ging ihm gut. Es stellte sich heraus, dass der Reporter Nachrufe für eine Londoner Zeitung schrieb und das Programm nicht zwischen der Arbeit des Reporters und seinem eigenen (verfrühten) Nachruf unterscheiden konnte.

In dieser Hinsicht ist der Computer wie ein Hündchen, das einen Klaps auf den Kopf möchte, wenn es einen Ball apportiert hat. Die KI-Programme sind so erpicht darauf, ihren menschlichen Herren zu gefallen, dass sie „Fakten“ aus dem Hut zaubern, nur um ein Projekt zu beenden. Abgesehen von den offensichtlichen Gefahren, die damit verbunden sind, können politische Gegner das Internet mit gefälschten Nachrichten in realistischen Formaten überschwemmen, um den Computer zu verwirren, was real ist und was nicht, und um fehlerhafte Berichte zu produzieren. Willkommen in der Welt der KI-Kriegsführung.

Intelligenz ohne Seele

Eine noch größere Gefahr ist die politische Voreingenommenheit der Programmierer und Entwickler von KI- und GPT-Anwendungen. Dies wurde deutlich, als die ersten Nutzer von Chat-GPT nach Artikeln über Joe Biden und Donald Trump fragten.

Natürlich waren die Biden-Artikel sehr lobend (trotz Bidens kognitiv beeinträchtigtem Zustand), und die Trump-Artikel waren sehr abfällig (trotz seiner vielen politischen Erfolge als Präsident). In der Wahlkabine haben Sie die freie Wahl, aber wenn Sie auf der Suche nach solider Forschung sind, sollten Sie sich zweimal überlegen, ob Sie sich auf voreingenommene Systeme verlassen wollen.

Die jüngsten Entwicklungen in den Bereichen KI und GPT versetzen uns in eine schöne neue Welt. Anleger sollten vorsichtig sein, wenn sie sich bei der Finanzberatung auf GPT-Systeme verlassen, auch wenn diese über eine enorme Rechenleistung verfügen. Die Ergebnisse sind nie besser als die Eingaben, und die Eingaben sind mit schlechten Modellen, falschen Annahmen, schlechten Prognosen und Verzerrungen übersät. Sobald die schlechten Akteure beginnen, die Literatur mit irreführenden Informationen zu füllen, und die Voreingenommenheit der Entwickler den Code infiltriert, ist es nicht klar, dass GPT viel besser sein wird als Ihr Bauchgefühl.

Um das zu verstehen, sollten Sie Frankenstein von Mary Shelley noch einmal lesen. In dem Roman geht es um die von Dr. Victor Frankenstein geschaffene Kreatur. Der Begriff „Kreatur“ ist nicht zufällig, sondern soll an den Begriff „Schöpfer“ erinnern.

Entgegen der Darstellung der Kreatur in den Filmen als brutales, mörderisches Monster war die literarische Version tatsächlich hochintelligent, lernte Französisch, las Shakespeare und war in der Lage, lange philosophische Diskurse zu führen. Natürlich sind die Verarbeitung natürlicher Sprache und das Selbstlernen genau das, worum es bei der KI geht. Die Kreatur kann als das erste vollständig realisierte KI-System in der Literatur betrachtet werden.

Das zentrale Dilemma in Frankenstein war nicht, ob die Kreatur intelligent war (sie war es). Das Dilemma war, ob sie eine Seele hatte. Sie können Ihre eigenen Schlussfolgerungen ziehen. Meiner Meinung nach hatte die Kreatur keine Seele … aber vielleicht hatte sie eine verdient. Jetzt stehen wir bei der KI vor dem gleichen Dilemma.

Ihr

 

 

Jim Rickards

Chefanalyst, Rickards‘ I-3 Faktor Trader

[/et_pb_text][/et_pb_column][/et_pb_row][/et_pb_section]