Überwachung durch KI: Warum OpenAI jetzt im Zentrum der Kritik steht

OpenAI steht im Fokus der Kritik. Experten warnen vor massiver Überwachung und Datenrisiken. Die Sicherheitsbedenken wachsen.

OpenAI Überwachung

OpenAI steht aufgrund möglicher Überwachungsgefahren und Sicherheitsbedenken rund um seine KI-Technologien zunehmend im Fokus der Kritik. © Wikimedia

Sam Altman, der CEO von OpenAI, treibt die Entwicklungen im Bereich der Künstlichen Intelligenz (KI) stetig voran. Das Unternehmen hat mit Tools wie ChatGPT, dem Bildgenerator DALL-E und dem Videotool Sora Maßstäbe gesetzt und ist damit ein dominierender Akteur auf dem Markt. Doch Altman hat bereits die Zukunft im Blick und bezeichnet die bestehenden Tools als „unglaublich dumm“. Er plant eine KI, die alles über den Nutzer weiß – von E-Mails bis zu Gesprächen. Diese Vision stößt jedoch auf erhebliche Bedenken, besonders im Hinblick auf eine mögliche Überwachung durch OpenAI. Dies berichtet die NZZ.

Experten warnen eindringlich vor OpenAI und Überwachung

Gary Marcus, ein renommierter Tech-Experte und emeritierter Neurologie-Professor der Universität New York, äußerte in einem Blogbeitrag starke Bedenken. Er warnte davor, dass OpenAI auf dem Weg sei, das „erschreckendste Überwachungsunternehmen der Welt“ zu werden, heißt es im NZZ-Bericht. Diese Befürchtungen mögen übertrieben klingen, sind aber nicht unbegründet, wie Martin Steiger, ein Schweizer Anwalt und Sprecher des Vereins Digitale Gesellschaft, betont. Die Vorstellung, dass eine KI Zugang zu E-Mails, Dokumenten und Online-Kalendern hat, könnte enorme Mengen an persönlichen Daten sammeln und verarbeiten.

Sicherheitsrisiken durch OpenAI: Datenlecks und Überwachung drohen

Während solche KI-Tools für den Nutzer attraktiv erscheinen mögen, da sie den Alltag erleichtern können, gibt es ernsthafte Sicherheitsbedenken. Steiger weist darauf hin, dass Sicherheitsbehörden dadurch einen zusätzlichen Informationskanal erhalten könnten. Zudem bergen solche Systeme das Risiko von Hacks und Datenleaks, da sie in der Cloud betrieben werden, die oft unverschlüsselt ist. Die Gefahr, dass private Daten im Darknet landen, ist real. Diese Bedenken betreffen nicht nur die direkten Nutzer solcher KI-Tools, sondern auch die Personen, mit denen diese Nutzer kommunizieren.

Ein weiteres Problem stellt die mangelnde Kontrolle über die eigenen Daten dar, insbesondere in der Kommunikation mit Dritten. Wenn ein Nutzer seine E-Mails von einer KI bearbeiten lässt, kann die betroffene Drittperson nicht mehr bestimmen, wie ihre Daten verwendet werden. Dies führt zu einem erheblichen Eingriff in die Privatsphäre, der durch das geltende Datenschutzrecht kaum reguliert wird.

Kritiker sehen Datenschutz gefährdet

Experten wie Wouter Lueks, Forscher am Cispa-Helmholtz-Zentrum für Informationssicherheit, bezeichnen solche KI-Anwendungen als „sehr gruselig“. Die Sicherheit und der Schutz dieser Systeme hängen stark vom Vertrauen der Nutzer in die Unternehmen ab, die diese Technologien entwickeln. OpenAI steht hier besonders in der Kritik, da es, laut Florian Tramèr, einem Sicherheitsexperten der ETH Zürich, noch nicht das gleiche Sicherheitsniveau erreicht hat wie etablierte Unternehmen wie Google.

Die Sicherheitsbedenken sind nicht unbegründet. Erst im Februar 2023 wurde bekannt, dass ChatGPT versehentlich die Telefonnummer eines Nutzers herausgegeben hat. Dies verdeutlicht, dass solche Systeme anfällig für Manipulationen sind, und es genügen bereits einfache Texteingaben, um Informationen zu erhalten. David Haber, Gründer des Schweizer KI-Sicherheitsunternehmens Lakera, weist darauf hin, dass im Gegensatz zu anderen Technologien wie Google Search, bei ChatGPT theoretisch jeder Nutzer die Möglichkeit hat, das System zu „hacken“.

Personalprobleme und gerichtliche Auseinandersetzungen

Neben den Sicherheitsbedenken wird OpenAI auch intern von Herausforderungen erschüttert. Mehrere prominente Mitarbeiter, darunter Mitgründer John Schulman, haben das Unternehmen verlassen, um zum Konkurrenten Anthropic zu wechseln. Der Abgang von führenden Sicherheitsexperten hat bei vielen die Frage aufgeworfen, ob OpenAI die Sicherheit seiner Produkte ernst genug nimmt.

Zusätzlich dazu hat Elon Musk, einer der Mitgründer von OpenAI, kürzlich eine Klage gegen das Unternehmen reaktiviert. Musk wirft OpenAI vor, den ursprünglichen, nicht profitorientierten Zweck der Organisation verraten zu haben. Er kritisiert, dass OpenAI nun Produkte vermarkte und dabei den Profit über das Wohlergehen der Menschheit stelle, heißt es im NZZ-Artikel. Diese Klage könnte die ohnehin angespannte Situation weiter verschärfen.

Unsichere Zukunft für OpenAI

Trotz der Herausforderungen bleibt OpenAI ein zentraler Akteur in der KI-Branche. Das Unternehmen konnte kürzlich eine Partnerschaft mit Apple verkünden, was als bedeutender Erfolg gewertet wird. Dennoch steht die Frage im Raum, wie tragfähig das Geschäftsmodell von OpenAI ist. Das Unternehmen schreibt derzeit hohe Verluste, wird aber dennoch mit 80 Milliarden Dollar bewertet.

Was du dir merken solltest:

  • OpenAI gerät wegen potenzieller Überwachung und Sicherheitsrisiken durch KI in die Kritik.
  • Experten warnen davor, dass die geplanten KI-Tools von OpenAI enorme Mengen an persönlichen Daten sammeln und verarbeiten könnten.
  • Zusätzlich zu Sicherheitsbedenken kämpft OpenAI mit internen Problemen und rechtlichen Herausforderungen.

Übrigens: Scarlett Johansson erhebt schwere Vorwürfe gegen OpenAI, da eine KI-Stimme ihrer eigenen „unheimlich ähnlich“ sei. Mehr dazu in unserem Artikel.

Bild: © Jernej Furman via Wikimedia unter CC BY 2.0

1 thought on “Überwachung durch KI: Warum OpenAI jetzt im Zentrum der Kritik steht

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert