OpenAI stoppt fünf staatlich unterstützte Desinformationsversuche, die seine KI missbrauchen wollten.
Das Logo von OpenAI, dem Hersteller von ChatGPT, auf dem Bildschirm eines Smartphones.
Das Logo von OpenAI, dem Hersteller von ChatGPT, auf dem Bildschirm eines Smartphones. - Richard Drew/AP/dpa

Der ChatGPT-Entwickler OpenAI hat nach eigenen Angaben in den vergangenen drei Monaten fünf Desinformations-Kampagnen staatlich unterstützter Akteure gestoppt, welche die Künstliche Intelligenz (KI) von ChatGPT für betrügerische Aktivitäten nutzen wollten.

OpenAI teilte am Donnerstag in einem Blogeintrag mit, die vereitelten Kampagnen hätten ihren Ursprung in Russland, China, im Iran und bei der israelischen Handelsgesellschaft STOIC gehabt.

Die fraglichen Akteure versuchten demnach, die Sprachmodelle von OpenAI für Aufgaben wie die Generierung von Kommentaren, Artikeln, Profilen in Online-Netzwerken und das Austesten von Codes für Bots und Websites zu nutzen.

«Diese Operationen scheinen durch unsere Dienste nicht von deutlich stärkerer Nutzeraktivitäten oder höherer Reichweite profitiert zu haben», erklärte das Unternehmen von Konzernchef Sam Altman.

KI-Firmen wie OpenAI stehen angesichts bedeutender Wahlen in diesem Jahr unter strenger Beobachtung. Befürchtet wird, dass Apps wie ChatGPT oder der Bildgenerator Dall-E binnen Sekunden und in grossem Umfang betrügerische Inhalte produzieren können.

Länder setzen auf Online-Desinformation

Länder wie Russland, China und der Iran nutzen gezielt Online-Plattformen zur Desinformation, um Wahlen zu manipulieren.

Zu den durchkreuzten Desinformations-Versuchen gehörten laut OpenAI «Bad Grammar», eine zuvor unbekannte russische Kampagne, die sich gegen die Ukraine, Moldau, die baltischen Staaten und die USA richtete. Sie nutzte OpenAI-Modelle und -Werkzeuge, um kurze politische Kommentare in Englisch und Russisch auf Telegram zu generieren.

Das bekannte russische «Doppelgänger»-Netzwerk nutzte die KI von OpenAI, um Kommentare auf Plattformen wie X auf Deutsch, Englisch, Französisch, Italienisch und Polnisch zu erzeugen.

OpenAI demontierte zudem die chinesische Desinformations-Operation «Spamouflage», die Firmenmodelle missbrauchte.

Effektive Zusammenarbeit gegen Missbrauch

Um unter anderem Online-Netzwerke zu durchsuchen und mehrsprachige Texte zu generieren. Laut OpenAI machen es Zusammenarbeit der Austausch von Geheimdienstinformationen und in ihre Anwendungen eingebaute Schutzvorrichtungen möglich Missbrauch zu durchkreuzen.

Ad
Ad

Mehr zum Thema:

Künstliche Intelligenz