OpenAI-Chef: KI kann negative Folgen haben
Der OpenAI-Chef Sam Altman warnt vor möglichen negativen Folgen des KI-Booms. Es brauche eine regulierende Rolle von Regierungen.
Das Wichtigste in Kürze
- Sam Altman warnte auf einer Intel-Veranstaltung vor möglichen negativen Folgen der KI.
- Es wäre zum Beispiel eine negative Auswirkung auf Wahlen möglich.
- Regierungen müssten jetzt eine Regulierungsrolle etablieren.
Am Mittwoch trat Sam Altman bei einer Veranstaltung des Halbleiter-Herstellers Intel auf. Der CEO des ChatGPT-Entwicklers OpenAI äusserte: Zukünftig werde es mehr von Künstlicher Intelligenz erstellte Inhalte als von Menschen geben.
Die Gesellschaft müsse sich mit den Entwicklungen auf die möglichen negativen Folgen der Technologie vorbereiten. Wie Altman erläuterte, nehme man etwa bei Cybersicherheit und Biowaffen die Risiken ernster. Er warnte auch vor etwaigen negativen Auswirkungen auf Wahlen in absehbarer Zukunft.
Künstliche Intelligenz werde «keine nur gute Geschichte sein», sagte Altman im Gespräch mit Intel-Chef Pat Gelsinger. Aber unterm Strich werde es eine positive Entwicklung, zeigte er sich überzeugt.
Wissenschaftliche Forschung mithilfe Künstlicher Intelligenz beschleunigen
Denn mit Hilfe Künstlicher Intelligenz werde man wissenschaftliche Forschung beschleunigen, Krankheiten heilen und Bildung verbessern können, betonte Altman. «Ich denke, es ist schwierig, sich heute vorzustellen, wie viel besser die Zukunft sein wird.»
Man brauche aber noch mehr als bei anderen Technologien eine regulierende Rolle von Regierungen. Diese müssten sich jetzt etablieren, während die KI-Modelle noch relativ schwach seien.
Als Szenario nannte er die Entwicklung einer KI «heimlich im Keller», die schlauer als Menschen ist. Dass diese dann plötzlich auf die Welt losgelassen werde, dürfe nicht so laufen. Die Gesellschaft und ihre Institutionen müssten die Zeit bekommen, sich schrittweise an die Entwicklung anzupassen.
ChatGPT löste vor gut einem Jahr den Hype um Künstliche Intelligenz aus. Solche KI-Chatbots werden mit gewaltigen Mengen an Informationen angelernt und können Texte auf dem sprachlichen Niveau eines Menschen formulieren. Auch können sie Software-Code schreiben und Informationen zusammenfassen. Das Prinzip dahinter ist, dass sie Wort für Wort abschätzen, wie ein Satz weitergehen sollte.
Ein Nachteil: Die Software gibt manchmal auch völlig falsche Antworten aus, selbst wenn sie nur korrekte Informationen als Basis hatte. Am Dienstag etwa produzierte ChatGPT durch einen Programmierfehler zeitweise zum Teil völlig sinnlose Sätze. Die Software-Entwicklung wird inzwischen oft mit KI-Hilfe erfolgreich automatisiert.
Altman widerspricht Medienbericht zur Halbleiter-Order
OpenAI wisse, dass das aktuelle GPT4-Modell hinter ChatGPT «nicht besonders gut» sei, räumte Altman ein. Aber die Technologie werde sich mit jeder Generation verbessern.
Der OpenAI-Chef widersprach einem jüngst erschienenen Medienbericht: Diesem nach wollte die Firma Kapital für die Bestellung von Halbleitern im Wert von mehreren Billionen Dollar mobilisieren. Es stimme aber, dass die Welt viel mehr Rechenleistung für Künstliche Intelligenz als heute brauchen werde.