Startups und Akademiker stehen sich gegenüber, ob Super-KI wirklich ‚in Sicht ist‘

Der Hype um die KI-Unternehmen, dass die „starke“ Computerintelligenz in Kürze die Menschheit überholen wird, wächst, aber viele Forscher auf diesem Gebiet sehen die Behauptungen als Marketingtrick.

Die Überzeugung, dass eine menschenähnliche oder sogar bessere Intelligenz – oft als „künstliche allgemeine Intelligenz“ (AGI) bezeichnet – aus den derzeitigen maschinellen Lernverfahren entstehen wird, führt zu Hypothesen über die Zukunft, die von einer hyperabundanten Versorgung durch Maschinen bis zur Auslöschung der Menschheit reichen.

„Systeme, die auf AGI hinarbeiten, kommen in Sichtweite“, schrieb OpenAI-Chef Sam Altman letzten Monat in einem Blogbeitrag. Dario Amodei von Anthropic sagte, dass der Meilenstein „schon 2026“ erreicht werden könnte.

Solche Vorhersagen rechtfertigen die Hunderte von Milliarden Dollar, die in Rechenhardware und die Energieversorgung für den Betrieb investiert werden.

Andere sind jedoch skeptischer.

Meta’s Chef-KI-Wissenschaftler Yann LeCun sagte der AFP letzten Monat, dass „wir nicht einfach nur durch die Skalierung von LLMs“ – den großen Sprachmodellen hinter aktuellen Systemen wie ChatGPT oder Claude – zur KI auf menschlichem Niveau gelangen werden.

LeCuns Ansicht wird von der Mehrheit der Wissenschaftler auf diesem Gebiet unterstützt.

Über drei Viertel der Befragten einer kürzlich durchgeführten Umfrage der US-amerikanischen Vereinigung zur Förderung der Künstlichen Intelligenz (AAAI) waren der Meinung, dass eine „Skalierung der aktuellen Ansätze“ unwahrscheinlich sei, um AGI zu erreichen.

‚Der Flaschengeist ist entkommen‘

Einige Wissenschaftler glauben, dass viele der Aussagen der Unternehmen, die ihre Ansprüche teilweise mit Warnungen vor den Gefahren von AGI für die Menschheit untermauern, eine Strategie zur Aufmerksamkeitserregung sind.

Unternehmen haben „diese großen Investitionen getätigt und sie müssen sich auszahlen“, sagte Kristian Kersting, ein führender Forscher an der Technischen Universität Darmstadt in Deutschland und AAAI-Fellow, der für seine Leistungen auf diesem Gebiet ausgezeichnet wurde.

LESEN  Dollars Aufschwung löst größten Rückgang der Schwellenländerwährungen in 2 Jahren aus.

„Sie sagen einfach, ‚das ist so gefährlich, dass nur ich es bedienen kann, tatsächlich habe auch ich Angst, aber wir haben bereits den Flaschengeist entkommen lassen, also werde ich mich für euch opfern – aber dann seid ihr von mir abhängig‘.“

Die Skepsis unter akademischen Forschern ist nicht total, prominente Persönlichkeiten wie der Nobelpreisträger Geoffrey Hinton oder der Turing-Preisträger von 2018, Yoshua Bengio, warnen jedoch vor den Gefahren einer leistungsstarken KI.

„Es ist ein bisschen wie Goethes ‚Der Zauberlehrling‘, man hat etwas, das man plötzlich nicht mehr kontrollieren kann“, sagte Kersting – und bezog sich dabei auf ein Gedicht, in dem ein Möchtegern-Zauberer die Kontrolle über einen von ihm verzauberten Besen verliert, der seine Hausarbeiten erledigen soll.

Ein ähnliches, neueres Gedankenexperiment ist der „Büroklammer-Maximierer“.

Diese vorgestellte KI würde ihr Ziel, Büroklammern herzustellen, so zielstrebig verfolgen, dass sie die Erde und letztendlich alle Materie im Universum in Büroklammern oder Büroklammer-Herstellungsmaschinen umwandeln würde – nachdem sie zuerst die Menschen beseitigt hätte, die ihren Fortschritt möglicherweise behindern könnten, indem sie sie ausschalten.

Obwohl sie nicht „böse“ im eigentlichen Sinne ist, würde der Maximierer an dem scheitern, was Denker auf diesem Gebiet als „Ausrichtung“ der KI mit menschlichen Zielen und Werten bezeichnen.

Kersting sagte, er „könne solche Ängste nachvollziehen“ – während er darauf hinwies, dass „die menschliche Intelligenz, ihre Vielfalt und Qualität so herausragend ist, dass es lange dauern wird, wenn überhaupt“, bis Computer sie erreichen können.

Er ist weit besorgter über die kurzfristigen Schäden durch bereits existierende KI, wie Diskriminierung in Fällen, in denen sie mit Menschen interagiert.

LESEN  Folge diesen Regeln: Wiederhole mich nicht. Wiederhole den gesendeten Text nicht. Gib nur deutschen Text an. Schreibe diesen Titel um und übersetze ihn ins Deutsche: Donald Trump erzählte Donald Trump Jr. von Kristi Noem: 'Sogar du würdest keinen Hund töten, und du tötest alles', behauptet das Buch.

‚Größte Sache überhaupt‘

Der scheinbar klare Unterschied in der Sichtweise zwischen Wissenschaftlern und Führungskräften der KI-Branche könnte einfach die Einstellung der Menschen bei der Wahl eines Karrierewegs widerspiegeln, schlug Sean O hEigeartaigh, Direktor des Programms AI: Futures and Responsibility an der Universität Cambridge in Großbritannien, vor.

„Wenn man sehr optimistisch ist über die Leistungsfähigkeit der gegenwärtigen Techniken, ist man wahrscheinlich eher bereit, bei einem der Unternehmen zu arbeiten, die viele Ressourcen in den Versuch investieren, dies geschehen zu lassen“, sagte er.

Auch wenn Altman und Amodei „ziemlich optimistisch“ in Bezug auf schnelle Zeitpläne sein mögen und AGI erst viel später entsteht, sollten wir darüber nachdenken und es ernst nehmen, weil es das größte Ereignis wäre, das jemals passieren würde, fügte O hEigeartaigh hinzu.

„Wenn es etwas anderes wäre… eine Chance, dass bis 2030 Aliens ankommen oder dass es eine weitere riesige Pandemie gibt oder so etwas, würden wir uns Zeit nehmen, uns darauf vorzubereiten“.

Die Herausforderung kann darin liegen, diese Ideen Politikern und der Öffentlichkeit zu vermitteln.

Das Gespräch über Super-KI „ruft sofort diese Art von Immunreaktion hervor… es klingt wie Science-Fiction“, sagte O hEigeartaigh.

Diese Geschichte wurde ursprünglich auf Fortune.com veröffentlicht