Der Mensch wird laut Open AI nicht in der Lage sein, eine digitale «Superintelligenz» zu kontrollieren. Das Unternehmen arbeitet deshalb an einem Verfahren.
Der Chatbot ChatGPT von der Entwicklerfirma OpenAI produziert auch falsche Aussagen. (Archivbild)
Der Chatbot ChatGPT von der Entwicklerfirma OpenAI produziert auch falsche Aussagen. (Archivbild) - sda - KEYSTONE/DPA/HANNES P ALBERT

Das Wichtigste in Kürze

  • Open AI arbeitet an der Kontrolle einer digitalen «Superintelligenz».
  • Der Mensch werde nicht in der Lage sein, eine viel klügere Intelligenz zu kontrollieren.
  • Deshalb soll ein automatisiertes Verfahren ausgearbeitet werden.
Ad

Die ChatGPT-Entwicklerfirma OpenAI macht sich Gedanken darüber, wie Menschen eine potenzielle digitale «Superintelligenz» kontrollieren könnten. Das Ziel sei, die zentralen technischen Herausforderungen für ein solches System binnen vier Jahren zu bewältigen, hiess es.

«Menschen werden nicht in der Lage sein, verlässlich Systeme mit Künstlicher Intelligenz zu beaufsichtigen, die viel klüger als wir sind», stellte die Firma aus San Francisco in einem Blogeintrag am Mittwoch fest. Deshalb solle ein automatisiertes Verfahren dafür ausgearbeitet werden.

italien chatgpt
ChatGPT kann Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. - Philipp Brandstädter/dpa

OpenAI wolle dafür ein Fünftel der zur Verfügung stehenden Rechenkapazität aufwenden. Das Entwicklerteam solle vom Chefwissenschaftler Ilya Sutskever mit angeführt werden.

«Superintelligenz» noch in diesem Jahrzehnt möglich

Auch wenn die «Superintelligenz» aus dem Computer derzeit noch in weiter Ferne zu sein scheine, halte OpenAI sie noch in diesem Jahrzehnt für möglich. Sie werde viele Probleme lösen helfen und die folgenschwerste Erfindung der Menschheit sein.

Der Vorstoss folgt auf eine Warnung von Branchenexperten, aus deren Sicht Künstliche Intelligenz mit dem Risiko existenzieller Gefahren verbunden ist. Zu den Unterzeichnern gehört auch OpenAI-Chef Sam Altman.

ChatGPT gibt teils völlige falsche Informationen aus

Die angebliche Bedrohung wurde dabei nicht näher erläutert – und Kritiker hielten den Experten vor, solche Warnungen lenkten von bereits heute existierenden Problemen Künstlicher Intelligenz wie Diskriminierung in Algorithmen ab.

OpenAI entwickelte unter anderem den Chatbot ChatGPT, der einen neuen Hype rund um Künstliche Intelligenz auslöste. Das Programm kann Sätze kreieren, die von denen eines Menschen kaum zu unterscheiden sind.

Es wurde dafür mit gewaltigen Datenmengen trainiert und schätzt auf dieser Basis Wort für Wort ab, wie ein Satz weitergehen sollte. Dieses Prinzip sorgt allerdings auch dafür, dass ChatGPT mitunter völlig falsche Informationen ausgibt.

Ad
Ad

Mehr zum Thema:

Künstliche IntelligenzComputer