KI perfektioniert Betrug – alte Maschen ziehen plötzlich wieder
KI macht Betrug glaubwürdiger als je zuvor: Stimmenklone, Deepfakes und Fake-Jobs treffen längst nicht nur Technik-Laien.

Betrüger nutzen KI, um alte Maschen gefährlich echt wirken zu lassen – und treffen damit Menschen jeden Alters. © Freepik
Früher verrieten Tippfehler den Betrug – heute klingen die Täter wie vertraute Stimmen und schreiben makellos. Künstliche Intelligenz macht alte Maschen glaubwürdiger als je zuvor: gefälschte Jobangebote, täuschend echte Anrufe, perfekt formulierte E-Mails. Wie sehr KI Betrug verändert – und warum Wissen zur wichtigsten Abwehr geworden ist –, zeigt eine Studie des Kommunikationsforschers Gabriel Aguilar von der University of Texas.
Ein scheinbar harmloser Nebenjob – und ein geplatzter Scheck
Was Aguilar heute wissenschaftlich untersucht, hat er selbst erlebt. Als Student bewarb er sich auf ein Online-Jobangebot, das auf den ersten Blick seriös wirkte: Vorstellungsgespräch, Zusage, ein Scheck für den Laptop. Den Restbetrag sollte er zurücküberweisen. Doch der Scheck war gefälscht. Nur weil seine Bank Verdacht schöpfte, blieb ihm ein finanzieller Schaden erspart. „Wenn die Täter damals schon KI eingesetzt hätten, wäre ich das Geld vermutlich los gewesen“, sagt er heute.
Heute analysiert der Wissenschaftler genau solche Betrugsformen. Für ihn steht fest: Es sind keine Einzelfälle, sondern Teil eines wachsenden Problems.
KI imitiert Stimmen, erstellt Fake-Texte, führt Gespräche
Was früher durch Rechtschreibfehler auffiel, wirkt heute professionell und glaubwürdig. Betrüger setzen moderne KI gezielt ein, um Vertrauen zu gewinnen:
- Deepfakes erzeugen täuschend echte Videos von realen Personen
- Voice-Cloning imitiert Stimmen mit wenigen Sekunden Tonmaterial
- KI-Chatbots verschicken automatisch Nachrichten, die wie echte Antworten wirken
Selbst Menschen mit technischem Know-how erkennen solche Fälschungen oft nicht auf Anhieb.
Gefährdet sind vor allem Menschen mit weniger Zugang zu Bildung und Technologie
Aguilars Forschung zeigt, dass bestimmte Gruppen besonders oft betroffen sind – etwa US-Bewohner mit lateinamerikanischen Wurzeln. Viele dieser Menschen verfügen über geringe digitale Bildung, kämpfen mit Sprachbarrieren und haben keinen sicheren Aufenthaltsstatus.
Diese Unsicherheiten nutzen Täter gezielt aus. Sie geben sich als Anwälte, Behörden oder Familienangehörige aus. Die KI sorgt dabei für Authentizität – selbst die Sprache klingt glaubwürdig.
Sekundenschnell zur Fake-Stimme
Die technische Entwicklung ist rasant. Bereits 45 Sekunden Audio genügen, um eine Stimme nachzubilden. Nicht öffentliche KI-Systeme, etwa in Unternehmen oder Laboren, benötigen für Stimmkopien sogar nur drei Sekunden Tonmaterial. So entstehen Anrufe, die klingen, als wäre es der eigene Sohn oder die Enkelin. Die Betrüger bitten um Überweisungen, Zugangsdaten oder direkte Hilfe. Und sie haben damit Erfolg.
Während ältere Opfer über familiäre Emotionen getäuscht werden, richten sich andere Methoden an jüngere Menschen:
- Jobangebote mit unrealistisch hoher Bezahlung,
- angebliche „KI-Tools“ für passives Einkommen,
- Kurse auf Plattformen, die wie Schneeballsysteme funktionieren.
Ein Modell für mehr Medienkompetenz
Um Betrug mit KI gezielt entgegenzuwirken, hat Aguilar ein Unterrichtsmodell entwickelt. Studierende lernen darin Schritt für Schritt, wie KI gemeinsam mit dem Menschen Inhalte erzeugt – und wie genau dieselben Werkzeuge von Betrügern missbraucht werden. Auch welche Gruppen besonders gefährdet sind und wie sich das Wissen in Familien oder Nachbarschaften weitergeben lässt, steht im Fokus.
Zentrales Element dabei ist „technisches Schreiben“. Gemeint ist damit keine literarische Sprache, sondern eine klare, sachliche Ausdrucksweise – wie man sie aus Gebrauchsanleitungen kennt. Aguilar nutzt diese Methode, um kritisches Denken zu schulen. „Technisches Schreiben ist ein Werkzeug, das dabei hilft, Denkblockaden abzubauen – damit Menschen ins Nachdenken kommen und schneller erkennen, wenn etwas zu gut klingt, um wahr zu sein“, sagt er.

Wissen ist die stärkste Verteidigung gegen KI-Missbrauch
Technik allein schützt nicht. Es kommt darauf an, wie Menschen KI einsetzen – oder durchschauen. Wer weiß, wie sie funktioniert und wie sie manipuliert, kann sich selbst und andere besser schützen.
„Sobald Studierende gelernt haben, Warnsignale zu erkennen, können sie dieses Wissen in ihre Familien und Gemeinschaften weitertragen“, so Aguilar.
Kurz zusammengefasst:
- Künstliche Intelligenz kann alte Betrugsmaschen gefährlich perfektionieren. Stimmenklone, Deepfakes und Chatbots machen Täuschungen glaubwürdiger als je zuvor – und selbst technikaffine Menschen erkennen Fälschungen oft nicht sofort.
- Besonders gefährdet sind sozial benachteiligte Gruppen. Fehlende digitale Bildung, Sprachbarrieren und Unsicherheit über Behördenkommunikation erhöhen das Risiko, auf KI-gestützte Betrugsversuche hereinzufallen.
- Schutz entsteht durch Wissen, nicht durch Technik. Gabriel Aguilar von der University of Texas at Arlington zeigt, dass kritisches Denken und Medienkompetenz die wirksamsten Mittel sind, um KI-Betrug zu durchschauen und weiterzugeben.
Übrigens: Auch Kreditkartenangriffe laufen längst automatisiert. Forscher der Florida Atlantic University haben nun ein System entwickelt, das verdächtige Transaktionen selbstständig erkennt und Milliardenverluste verhindern könnte. Mehr dazu in unserem Artikel.
Bild: © Freepik