„Doppelganger“ und „Spamouflage“ – OpenAI nimmt Einflussnetzwerke in China und Russland ins Visier
OpenAI unterbindet Einflussnetzwerke in China und Russland. Diese nutzten die KI des Unternehmens, um öffentliche Meinung zu manipulieren.
Russland und China haben die KI von OpenAI in verdeckten Kampagnen genutzt. Der Iran und ein israelisches Unternehmen nutzten die Tools ebenfalls, um Fake News zu verbreiten, aber keines davon erlangte großen Anklang. Dies meldet die New York Times.
OpenAI hat nach eigenen Angaben in den letzten drei Monaten fünf verdeckte Einflussnetzwerke abgeschaltet. Diese Netzwerke nutzten die KI-Produkte des Unternehmens, um die öffentliche Meinung zu manipulieren oder politische Ergebnisse zu formen, während sie ihre wahre Identität verbargen.
OpenAI entlarvt den Missbrauch von KI für gefälschte Online-Inhalte
Die von OpenAI identifizierten Operationen setzten KI ein, um Texte und Bilder in größerem Umfang und mit weniger sprachlichen Fehlern zu erzeugen, als es Menschen allein möglich gewesen wäre. Diese Materialien wurden neben traditionelleren Formaten wie manuell verfassten Texten oder Memes auf großen sozialen Medien verwendet. Einige Netzwerke nutzten die Produkte von OpenAI auch, um ihre Produktivität zu steigern, indem sie Artikel zusammenfassten oder Code für Bots debuggten. OpenAI ist nach eigenen Angaben auch einem neuen Trend auf der Spur, dem sogenannten „Faking Engagement“. Wie Ben Nimmo, der Hauptermittler im Intelligence and Investigations Team von OpenAI, sagt: „Warum sollte man sich mit gefälschten Kommentaren zufrieden geben, wenn man auch alle Antworten darauf generieren kann“.
OpenAI im Kampf gegen KI-Missbrauch
Ben Nimmo erklärte: „In den vergangenen anderthalb Jahren gab es viele Fragen dazu, was passieren könnte, wenn generative KI missbräuchlich genützt werden sollte.“ Weiterhin sagte er: „Mit diesem Bericht wollen wir wirklich beginnen, einige Lücken zu schließen.“ OpenAI will nun gezielt gegen verdeckte „Einflussoperationen“ vorgehen. Diese sind nach Meinung des Unternehmens „täuschende Versuche, die öffentliche Meinung zu manipulieren oder politische Ergebnisse zu beeinflussen, ohne die wahre Identität oder Absichten der dahinterstehenden Akteure zu offenbaren.“
Globale Herausforderungen erkennen
Die Gruppen unterschieden sich von Desinformationsnetzwerken, da sie oft faktisch korrekte Informationen förderten, jedoch auf täuschende Weise. Während Propagandanetzwerke schon lange soziale Medien nutzen, ist der Einsatz von generativen KI-Werkzeugen relativ neu. OpenAI betonte, dass es seine eigenen KI-Tools nutzt, um solche Einflussoperationen zu identifizieren und sich dagegen zu verteidigen.
Die internationale Dimension
Die fünf von OpenAI identifizierten Netzwerke umfassten Gruppen wie das pro-russische „Doppelganger“, das pro-chinesische Netzwerk „Spamouflage“ und eine iranische Operation, bekannt als International Union of Virtual Media oder IUVM. Zusätzlich flaggte OpenAI zuvor unbekannte Netzwerke aus Russland und Israel, die das Start-up zum ersten Mal identifiziert hat. Die russische Gruppe, von OpenAI „Bad Grammar“ genannt, verwendete die KI-Modelle des Start-ups sowie die Messaging-App Telegram, um eine Content-Spamming-Pipeline einzurichten.
Effekte und Auswirkungen
In den meisten Fällen scheinen die Botschaften der Netzwerke keine große Verbreitung gefunden zu haben, oder menschliche Nutzer erkannten den von KI generierten Inhalt. Trotz der begrenzten Reichweite betonte Nimmo: „Dies ist nicht die Zeit für Selbstzufriedenheit. Die Geschichte zeigt, dass Einflussoperationen, die jahrelang nirgendwohin führten, plötzlich durchbrechen können, wenn niemand nach ihnen sucht.“
Zukunftsaussichten und Kooperationen
OpenAI gab bekannt, dass es wichtige Indikatoren für Bedrohungen mit anderen Unternehmen der Branche teilt. Ziel des Berichts ist es, anderen Organisationen dabei zu helfen, ähnliche Überwachungsmaßnahmen durchzuführen. Das Unternehmen plant, auch in Zukunft weitere Berichte zu veröffentlichen. Andere Firmen, wie Meta Platforms Inc., haben ebenfalls regelmäßig Informationen über Einflussoperationen freigegeben, was die Bedeutung der Zusammenarbeit in der gesamten Branche betont.
Was du dir merken solltest:
- OpenAI hat fünf verdeckte Netzwerke, u.a. aus China und Russland, aufgedeckt, die KI nutzen, um global Meinungen und politische Entscheidungen zu manipulieren.
- Diese Netzwerke setzten KI ein, um überzeugendere Täuschungen zu erzeugen, fanden jedoch wenig Anklang.
- OpenAI teilt Bedrohungsindikatoren mit Branchenpartnern, um solche Manipulationen aufzudecken und wird weiterhin Berichte zu diesem Thema veröffentlichen.
Übrigens: Elon Musk will für sein KI-Start-up xAI den weltweit größten Supercomputer zu entwickeln. Wozu dieser fähig wäre und warum Musk trotz Milliardeninvestitionen vor der KI warnt, erfährst du in unserem Artikel.
Bild: © Midjourney
1 thought on “„Doppelganger“ und „Spamouflage“ – OpenAI nimmt Einflussnetzwerke in China und Russland ins Visier”