Nervös wegen ChatGPT?  Probieren Sie ChatGPT mit einem Hammer aus

Blog

HeimHeim / Blog / Nervös wegen ChatGPT? Probieren Sie ChatGPT mit einem Hammer aus

Mar 17, 2024

Nervös wegen ChatGPT? Probieren Sie ChatGPT mit einem Hammer aus

Bruce Schneier Nathan Sanders Letzten März, nur zwei Wochen nach der Veröffentlichung von GPT-4, kündigten Forscher bei Microsoft stillschweigend einen Plan zur Kompilierung von Millionen von APIs an – Tools, die alles können

Bruce Schneier Nathan Sanders

Letzten März, nur zwei Wochen nach der Veröffentlichung von GPT-4, kündigten Forscher bei Microsoft stillschweigend einen Plan an, Millionen von APIs – Tools, die alles tun können, von der Bestellung einer Pizza über das Lösen physikalischer Gleichungen bis hin zur Steuerung des Fernsehers in Ihrem Wohnzimmer – in einem zu kompilieren Kompendium, das für große Sprachmodelle (LLMs) zugänglich gemacht werden soll. Dies war nur ein Meilenstein im Wettlauf zwischen Industrie und Wissenschaft, die besten Möglichkeiten zu finden, LLMs den Umgang mit Werkzeugen beizubringen, was das Potenzial der KI stärker steigern würde als alle beeindruckenden Fortschritte, die wir bisher gesehen haben.

Ziel des Microsoft-Projekts ist es, der KI beizubringen, alle digitalen Tools auf einen Schlag zu nutzen – ein cleverer und effizienter Ansatz. Heutzutage können LLMs Ihnen recht gute Pizzabeläge empfehlen, wenn Sie Ihre Ernährungspräferenzen beschreiben und einen Dialog entwerfen, den Sie bei einem Anruf im Restaurant nutzen können. Doch die meisten KI-Tools können die Bestellung nicht aufgeben, auch nicht online. Im Gegensatz dazu kann Googles sieben Jahre altes Assistant-Tool eine Stimme am Telefon synthetisieren und ein Online-Bestellformular ausfüllen, aber kein Restaurant auswählen oder Ihre Bestellung erraten. Durch die Kombination dieser Fähigkeiten könnte eine Werkzeug-verwendende KI jedoch alles erledigen. Ein LLM mit Zugriff auf Ihre vergangenen Gespräche und Tools wie Kalorienrechner, eine Restaurant-Menüdatenbank und Ihr digitales Zahlungsportfolio könnte durchaus zu dem Schluss kommen, dass Sie abnehmen möchten und eine kalorienarme Option wünschen, und das nächstgelegene Restaurant mit den Belägen finden, die Sie mögen und geben Sie den Lieferauftrag auf. Wenn es Zugriff auf Ihren Zahlungsverlauf hat, könnte es sogar erraten, wie großzügig Sie normalerweise Trinkgeld geben. Wenn es Zugriff auf die Sensoren Ihrer Smartwatch oder Ihres Fitness-Trackers hat, kann es möglicherweise erkennen, wann Ihr Blutzuckerspiegel niedrig ist, und den Kuchen bestellen, bevor Sie überhaupt merken, dass Sie hungrig sind.

Nathan Sanders ist ein Datenwissenschaftler am Berkman Klein Center der Harvard University. Er schreibt ausführlich über die Auswirkungen von KI auf die Demokratie.

Bruce Schneider ist Sicherheitstechnologe. Er hat über ein Dutzend Bücher geschrieben, darunter „A Hacker's Mind: Wie die Reichen und Mächtigen die Regeln der Gesellschaft beugen und wie man sie zurückdreht“. Er unterrichtet an der Harvard Kennedy School und lebt in Massachusetts.

Die vielleicht überzeugendsten potenziellen Anwendungen des Werkzeugeinsatzes sind diejenigen, die KIs die Möglichkeit geben, sich selbst zu verbessern. Angenommen, Sie bitten zum Beispiel einen Chatbot um Hilfe bei der Interpretation eines Aspekts des antiken römischen Rechts, von dem niemand gedacht hatte, dass er Beispiele in die ursprüngliche Schulung des Modells aufnehmen würde. Ein LLM, der befugt ist, akademische Datenbanken zu durchsuchen und seinen eigenen Schulungsprozess auszulösen, könnte sein Verständnis des römischen Rechts verfeinern, bevor er antwortet. Der Zugriff auf spezielle Tools könnte einem solchen Modell sogar dabei helfen, sich besser zu erklären. Während LLMs wie GPT-4 ihre Argumentation auf Nachfrage bereits recht gut erläutern können, stammen diese Erklärungen aus einer „Black Box“ und sind anfällig für Fehler und Halluzinationen. Aber ein Werkzeug verwendendes LLM könnte seine eigenen Interna analysieren und empirische Bewertungen seiner eigenen Argumentation und deterministische Erklärungen dafür liefern, warum es die Antwort lieferte, die es lieferte.

Wenn ein LLM, der Tools nutzt, Zugriff auf Tools erhält, mit denen er menschliches Feedback einholen kann, könnte er sogar Fachwissen generieren, das noch nicht im Internet erfasst ist. Es könnte eine Frage auf Reddit oder Quora posten oder eine Aufgabe an einen Menschen auf Amazons Mechanical Turk delegieren. Es könnte sogar durch Umfrageforschung nach Daten über menschliche Vorlieben suchen, entweder um Ihnen direkt eine Antwort zu geben oder um das eigene Training zu verfeinern, um in Zukunft Fragen besser beantworten zu können. Mit der Zeit könnten werkzeugnutzende KIs den werkzeugnutzenden Menschen sehr ähnlich sehen. Ein LLM kann Code viel schneller generieren als jeder menschliche Programmierer, sodass er die Systeme und Dienste Ihres Computers problemlos manipulieren kann. Es könnte auch die Tastatur und den Cursor Ihres Computers so verwenden, wie es ein Mensch tun würde, sodass er jedes Programm verwenden könnte, das Sie verwenden. Und es könnte seine eigenen Fähigkeiten verbessern, indem es Tools nutzt, um Fragen zu stellen, Recherchen durchzuführen und Code zu schreiben, um ihn in sich selbst zu integrieren.

Es ist leicht zu erkennen, dass diese Art der Werkzeugnutzung mit enormen Risiken verbunden ist. Stellen Sie sich vor, ein LLM könnte die Telefonnummer einer Person finden, sie anrufen und heimlich ihre Stimme aufzeichnen, anhand der größten Anbieter in ihrer Region erraten, welche Bank sie nutzt, sich bei einem Telefonat mit dem Kundendienst als die Person ausgeben, um ihr Passwort zurückzusetzen, und ihre Identität auflösen Konto, um einer politischen Partei eine Spende zu leisten. Jede dieser Aufgaben ruft ein einfaches Tool auf – eine Internetsuche, einen Sprachsynthesizer, eine Bank-App – und das LLM schreibt die Abfolge der Aktionen mithilfe der Tools.

Wir wissen noch nicht, wie erfolgreich einer dieser Versuche sein wird. So bemerkenswert flüssig LLMs auch sind, sie wurden nicht speziell für die Bedienung von Werkzeugen entwickelt, und es bleibt abzuwarten, wie sich ihre frühen Erfolge bei der Werkzeugnutzung auf zukünftige Anwendungsfälle wie die hier beschriebenen übertragen werden. Daher könnte es ein wenig so sein, als würde man ein Kleinkind in einem Waffendepot freilassen, wenn man der aktuellen generativen KI plötzlich Zugriff auf Millionen von APIs gewährt – wie Microsoft es vorhat.

Angela Wasserschneider

Julian Chokkattu

Lexi Pandell

Will Knight

Unternehmen wie Microsoft sollten besonders vorsichtig sein, wenn es darum geht, KIs Zugriff auf bestimmte Kombinationen von Tools zu gewähren. Der Zugriff auf Tools zum Nachschlagen von Informationen, zum Durchführen spezieller Berechnungen und zum Untersuchen realer Sensoren birgt ein gewisses Risiko. Die Möglichkeit, Nachrichten über den unmittelbaren Benutzer des Tools hinaus zu übermitteln oder APIs zu verwenden, die physische Objekte wie Schlösser oder Maschinen manipulieren, birgt viel größere Risiken. Die Kombination dieser Werkzeugkategorien erhöht die jeweiligen Risiken.

Die Betreiber der fortschrittlichsten LLMs wie OpenAI sollten weiterhin vorsichtig vorgehen, wenn sie beginnen, die Nutzung von Tools zu ermöglichen, und die Nutzung ihrer Produkte in sensiblen Bereichen wie Politik, Gesundheitswesen, Banken und Verteidigung einschränken. Aber es scheint klar zu sein, dass diese Branchenführer ihren Vorsprung bei der LLM-Technologie bereits weitgehend verloren haben – Open Source holt auf. Meta hat diesen Trend erkannt und hat den Ansatz „Wenn Sie sie nicht schlagen können, schließen Sie sich ihnen an“ gewählt und sich teilweise der Rolle der Bereitstellung von Open-Source-LLM-Plattformen verschrieben.

Auf politischer Ebene scheinen nationale – und regionale – KI-Vorschriften zwecklos zu sein. Europa ist die einzige bedeutende Gerichtsbarkeit, die bedeutende Fortschritte bei der Regulierung des verantwortungsvollen Einsatzes von KI gemacht hat, aber es ist nicht ganz klar, wie die Regulierungsbehörden dies durchsetzen werden. Und die USA holen auf und scheinen dazu bestimmt zu sein, selbst Risiken, die die EU als „inakzeptabel“ erachtet, viel freizügiger zuzulassen. Mittlerweile hat keine Regierung in ein KI-Modell mit „öffentlicher Option“ investiert, das eine Alternative zu Big Tech bieten würde, die reaktionsfähiger und rechenschaftspflichtiger gegenüber ihren Bürgern ist.

Regulierungsbehörden sollten darüber nachdenken, was KIs autonom tun dürfen, etwa ob ihnen Grundstückseigentum zugewiesen oder ein Unternehmen angemeldet werden kann. Möglicherweise sollten sensiblere Transaktionen einen verifizierten Menschen erfordern, der auf dem Laufenden ist, auch wenn dies zu zusätzlichen Reibungsverlusten führt. Unser Rechtssystem mag unvollkommen sein, aber wir wissen weitgehend, wie wir Menschen für Missetaten zur Rechenschaft ziehen können; Der Trick besteht darin, sie ihre Verantwortung nicht auf künstliche Dritte abwälzen zu lassen. Wir sollten weiterhin KI-spezifische Regulierungslösungen verfolgen und uns gleichzeitig darüber im Klaren sein, dass diese allein nicht ausreichen.

Wir müssen uns auch auf die wohltuenden Auswirkungen vorbereiten, die die instrumentelle KI auf die Gesellschaft haben könnte. Im besten Fall könnte ein solches LLM einen Bereich wie die Arzneimittelforschung rasch beschleunigen, und das Patentamt und die FDA sollten sich auf einen dramatischen Anstieg der Zahl legitimer Arzneimittelkandidaten einstellen. Wir sollten die Art und Weise, wie wir mit unseren Regierungen interagieren, umgestalten, um KI-Instrumente zu nutzen, die uns allen deutlich mehr Möglichkeiten geben, unserer Stimme Gehör zu verschaffen. Und wir sollten sicherstellen, dass die wirtschaftlichen Vorteile superintelligenter, arbeitssparender KI gerecht verteilt werden.

Wir können darüber diskutieren, ob LLMs wirklich intelligent oder bewusst sind oder Entscheidungsfreiheit haben, aber KIs werden in beiden Fällen immer leistungsfähigere Werkzeugnutzer. Manche Dinge sind mehr als die Summe ihrer Teile. Eine KI mit der Fähigkeit, selbst einfache Werkzeuge zu manipulieren und mit ihnen zu interagieren, wird weitaus leistungsfähiger sein als die Werkzeuge selbst. Stellen wir sicher, dass wir für sie bereit sind.

WIRED Opinion veröffentlicht Artikel von externen Mitwirkenden, die ein breites Spektrum an Standpunkten vertreten. Weitere Meinungen lesen Sie hier. Senden Sie einen Kommentar unter[email protected].

Nathan SandersBruce Schneider[email protected]