Sam Altman hat eine Idee, um KI dazu zu bringen, die Menschheit zu lieben, sie zu verwenden, um Milliarden von Menschen nach ihren Wertschätzungssystemen zu befragen.

Er ist zuversichtlich, dass diese Eigenschaft in KI-Systeme integriert werden könnte – aber nicht sicher.

„Ich denke schon“, antwortete Altman, als er während eines Interviews mit der stellvertretenden Dekanin der Harvard Business School, Debora Spar, nach der Frage gefragt wurde. Die Frage nach einem Aufstand der KI war einst ausschließlich der Science-Fiction von Isaac Asimov oder den Actionfilmen von James Cameron vorbehalten. Aber seit dem Aufstieg der KI ist es zu einem Thema geworden, das ernsthaft in Betracht gezogen werden sollte. Was einst als die Gedankenspiele eines Verrückten angesehen wurde, ist jetzt eine echte regulatorische Frage. Die Beziehung von OpenAI zur Regierung sei „recht konstruktiv“ gewesen, sagte Altman. Er fügte hinzu, dass ein so weitreichendes und umfangreiches Projekt wie die Entwicklung von KI ein Regierungsprojekt hätte sein sollen. „In einer gut funktionierenden Gesellschaft wäre dies ein Regierungsprojekt“, sagte Altman. „Da dies nicht der Fall ist, denke ich, dass es besser ist, dass es auf diese Weise als amerikanisches Projekt geschieht.“ Die Bundesregierung hat noch keine wesentlichen Fortschritte bei der Gesetzgebung zur Sicherheit von KI gemacht. Es gab einen Versuch in Kalifornien, ein Gesetz zu verabschieden, das KI-Entwickler für katastrophale Ereignisse haftbar gemacht hätte, wie z.B. die Verwendung zur Entwicklung von Massenvernichtungswaffen oder zur Attacke auf kritische Infrastrukturen. Dieses Gesetz wurde von der Legislative verabschiedet, aber von Kaliforniens Gouverneur Gavin Newsom zurückgewiesen. Einige der herausragendsten Persönlichkeiten in der KI haben davor gewarnt, dass es eine kritische Frage sei, sicherzustellen, dass sie vollständig im Einklang mit dem Wohl der Menschheit stehe. Der Nobelpreisträger Geoffrey Hinton, bekannt als der Pate der KI, sagte, er könne „keinen Weg erkennen, der die Sicherheit garantiert“. Tesla-CEO Elon Musk hat regelmäßig davor gewarnt, dass KI zur Auslöschung der Menschheit führen könnte. Musk war maßgeblich an der Gründung von OpenAI beteiligt, indem er der Non-Profit-Organisation zu Beginn erhebliche Mittel zur Verfügung stellte. Für diese Mittel ist Altman „dankbar“, obwohl Musk ihn verklagt. In den letzten Jahren sind mehrere Organisationen, wie das gemeinnützige Unternehmen das Alignment Research Center und das Startup Safe Superintelligence, das von dem ehemaligen Chief Science Officer von OpenAI gegründet wurde, entstanden, die sich ausschließlich mit dieser Frage befassen. OpenAI hat nicht auf eine Anfrage nach Stellungnahme reagiert. Die KI ist derzeit gut für die Ausrichtung geeignet, sagte Altman. Deshalb argumentiert er, dass es einfacher wäre als es scheinen könnte, sicherzustellen, dass die KI der Menschheit keinen Schaden zufügt. „Eine der überraschend gut funktionierenden Dinge war die Fähigkeit, ein KI-System dazu zu bringen, sich auf eine bestimmte Weise zu verhalten“, sagte er. „Also, wenn wir formulieren können, was das in verschiedenen Fällen bedeutet, dann ja, ich denke, wir können das System dazu bringen, sich so zu verhalten.“ Altman hat auch eine typisch einzigartige Idee, wie genau OpenAI und andere Entwickler diese Prinzipien und Ideale „formulieren“ könnten, die nötig sind, um sicherzustellen, dass die KI auf unserer Seite bleibt: Die KI verwenden, um die breite Öffentlichkeit zu befragen. Er schlug vor, die Nutzer von KI-Chatbots nach ihren Werten zu fragen und dann diese Antworten zu verwenden, um zu bestimmen, wie man eine KI ausrichten kann, um die Menschheit zu schützen. „Ich interessiere mich für das Gedankenexperiment [in dem] eine KI ein paar Stunden lang mit Ihnen über Ihr Wertesystem spricht“, sagte er. „Das macht es mit mir, mit allen anderen. Und sagt dann: ‚Ok, ich kann nicht immer alle glücklich machen.'“ Altman hofft, dass die KI, indem sie mit Milliarden von Menschen „auf einer tiefen Ebene“ kommuniziert und sie versteht, Herausforderungen identifizieren kann, die die Gesellschaft insgesamt betreffen. Von dort aus könnte die KI einen Konsens darüber erreichen, was sie tun müsste, um das allgemeine Wohlbefinden der Öffentlichkeit zu erreichen. Die KI verfügt über ein internes Team, das der Superalignierung gewidmet ist und die Aufgabe hat sicherzustellen, dass zukünftige digitale Superintelligenz nicht aus dem Ruder läuft und unermesslichen Schaden anrichtet. Im Dezember 2023 veröffentlichte die Gruppe ein frühes Forschungspapier, das zeigte, dass sie an einem Prozess arbeitete, bei dem ein großes Sprachmodell ein anderes überwachen würde. Im Frühjahr verließen die Leiter dieses Teams, Sutskever und Jan Leike, OpenAI. Ihr Team wurde gemäß Berichten von CNBC zu diesem Zeitpunkt aufgelöst. Leike sagte, er sei über zunehmende Meinungsverschiedenheiten mit der Führung von OpenAI bezüglich seines Engagements für die Sicherheit gegangen, während das Unternehmen auf künstliche Allgemeine Intelligenz hinarbeitete, ein Begriff, der sich auf eine KI bezieht, die so klug ist wie ein Mensch. „Den Bau von klügeren Maschinen als Menschen ist ein von Natur aus gefährliches Unterfangen“, schrieb Leike auf X. „OpenAI trägt eine enorme Verantwortung im Namen der gesamten Menschheit. Aber in den letzten Jahren haben Sicherheitskultur und Prozesse hinter glänzenden Produkten zurückgestanden.“ Als Leike ging, schrieb Altman auf X, dass er „sehr dankbar für [seine] Beiträge zur Alignierungsforschung von OpenAI und zur Sicherheitskultur“ sei.

LESEN  Verdächtige Teerkugeln an den Stränden von Sydney sind tatsächlich mit Kot gefüllte "Fettberge"

Wie viele Grade der Trennung gibt es zwischen Ihnen und den mächtigsten Geschäftsleuten der Welt? Erfahren Sie, wer es auf unsere brandneue Liste der 100 mächtigsten Menschen im Geschäft geschafft hat. Außerdem erfahren Sie, welche Metriken wir verwendet haben, um sie zu erstellen.

Schreibe einen Kommentar