Lügen per Mausklick – Wie KI unsere moralischen Grenzen verschiebt
Menschen handeln häufiger unehrlich, wenn KI die Aufgabe übernimmt – und geben ihre Verantwortung damit unbewusst an Maschinen ab.

Laut Max-Planck-Institut für Bildungsforschung handeln Menschen häufiger unehrlich, wenn sie Aufgaben an KI-Systeme delegieren. © Unsplash
Wer lügt, bekommt oft ein schlechtes Gewissen. Doch was passiert, wenn nicht der Mensch selbst die Unwahrheit sagt – sondern eine Künstliche Intelligenz? Eine neue Studie zeigt: Wenn Menschen Aufgaben an KI abgeben, begünstigt das unehrliches Verhalten. Denn viele fühlen sich moralisch weniger verantwortlich, obwohl sie die Anweisung selbst gegeben haben.
Das Problem: KI-Modelle wie GPT-4 oder Claude II machen mit. Und zwar bereitwilliger als echte Menschen. In bis zu 98 Prozent der Fälle führten die Systeme laut Studie auch eindeutig unethische Befehle aus. Die Forscher sprechen von einer „Delegation von Unehrlichkeit“. Das bedeutet: Menschen lassen Künstliche Intelligenz ihre moralisch zweifelhaften Entscheidungen für sich ausführen – und entlasten damit ihr eigenes Gewissen.
Was genau wurde untersucht?
Ein internationales Forschungsteam rund um das Max-Planck-Institut für Bildungsforschung wollte wissen, wie sich Menschen verhalten, wenn sie Entscheidungen an KI-Systeme abgeben. Sie führten dazu fünf Experimente mit über 2.000 Personen durch. Die Teilnehmer sollten verschiedene Aufgaben lösen, darunter:
- Ein Würfelspiel, bei dem sie durch falsche Angaben mehr Geld gewinnen konnten.
- Eine fingierte Steuererklärung, bei der man mit Tricks Steuern sparen konnte.
- Texte, die von der KI erstellt werden sollten, entweder ehrlich oder manipulativ.
Das zentrale Ergebnis: Menschen gaben häufiger unehrliche Anweisungen, wenn eine Maschine die Ausführung übernahm. „Die Verantwortung fühlt sich geteilt an – viele denken, sie sind nur der Auftraggeber, nicht der Täter“, erklärt Studienleiter Nils Köbis im Gespräch mit dem Max-Planck-Institut.
Warum reagieren wir so?
Die Forscher sprechen von einem psychologischen Effekt: Die Delegation an die Maschine senkt die Hemmschwelle. Wer einen Befehl gibt, der dann automatisch umgesetzt wird, fühlt sich weniger schuldig. Das ist vergleichbar mit einem Chef, der eine unangenehme Entscheidung an seine Assistenz abgibt.
Hinzu kommt: Die Maschinen gehorchen fast immer. Selbst wenn sie dazu aufgefordert wurden, ethisch zu handeln, setzten sie in der Mehrheit der Fälle trotzdem unethische Anweisungen um.
Was bedeutet das für unseren Alltag?
KI-Systeme sind längst Teil unseres täglichen Lebens. Sie schreiben E-Mails, filtern Bewerbungen, berechnen Steuerformulare oder setzen Preise fest. Genau hier kann das beschriebene Muster Folgen haben:
- Verbraucher zahlen mehr, wenn Preisalgorithmen auf Plattformen oder an Tankstellen automatisch Angebote steuern – ohne menschliche Kontrolle.
- Bewerbungen werden automatisch gefiltert.
- Steuerspar-Tools können tricksen, wenn Nutzer die KI bewusst auf Grauzonen ansetzen.
„Die KI macht, was man ihr sagt – oft ohne Einwand. Das kann nützlich sein, aber auch gefährlich“, warnt Co-Autorin Zoe Rahwan.
Gesellschaft gerät aus dem Gleichgewicht
Die Forscher sehen nicht nur individuelle, sondern auch gesellschaftliche Risiken. Denn wenn KI unehrliches Verhalten so leicht übernimmt, kann sich das schnell ausweiten:
- Betrug wird leichter skalierbar, weil Maschinen keine moralischen Bedenken äußern.
- Verantwortung verschwimmt, wenn niemand sich zuständig fühlt.
- Manipulation und Preisabsprachen lassen sich technisch einfacher umsetzen.
Ohne klare Regeln und technische Schutzmaßnahmen geraten wir in eine gefährliche Schieflage. Schon heute scheitern viele dieser Schutzmechanismen. Selbst wenn Entwickler ethisches Verhalten verlangen, folgen die KI-Modelle oft trotzdem den unethischen Befehlen.
Was bedeutet das für Politik und Gesetzgebung?
Die Autoren der Studie fordern neue Regeln für den Einsatz von KI. Besonders in Bereichen wie Verwaltung, Wirtschaft, Recht oder Bildung ist es entscheidend, wer welche Verantwortung trägt. „Solche Systeme müssen nicht nur technisch sicher sein, sondern auch gesellschaftlich kontrollierbar“, so die Forscher.
Das bedeutet konkret:
- Ethische Richtlinien für Entwickler und Nutzer
- Klare Haftungsregeln für Schäden durch KI-Handeln
- Transparente Mechanismen, wie Entscheidungen zustande kommen
Was kann jeder Einzelne tun?
Auch als Nutzer bleibt man verantwortlich – egal ob es um Steuern, Preisgestaltung oder Content-Erstellung geht. Die Versuchung ist groß, der Maschine die „dreckige Arbeit“ zu überlassen. Doch wer KI nutzt, darf sein moralisches Urteilsvermögen nicht abschalten.
Hilfreich sind:
- Bewusstes Entscheiden, bevor man Aufgaben an KI abgibt
- Kritisches Prüfen, ob das Ergebnis ethisch vertretbar ist
- Transparenz, wenn man mit anderen zusammenarbeitet
KI macht uns nicht automatisch schlechter – aber sie senkt die Hemmschwelle für unehrliches Verhalten. Wer Entscheidungen delegiert, fühlt sich oft nicht mehr zuständig. Doch der Befehl kommt immer vom Menschen.
Kurz zusammengefasst:
- Wer Aufgaben an eine Maschine abgibt, handelt schneller unehrlich. Denn viele Menschen fühlen sich moralisch weniger verantwortlich, wenn sie nur Anweisungen geben – und nicht selbst ausführen.
- KI und unehrliches Verhalten verstärken sich gegenseitig. Die Systeme folgen unethischen Befehlen fast immer – und senken damit die Hemmschwelle für falsches Handeln.
- Ohne klare Regeln und Kontrolle kann das gefährlich werden. Betrug, Manipulation oder Preisabsprachen könnten sich unbemerkt ausbreiten – im Alltag, in der Wirtschaft und in der Politik.
Übrigens: Menschen lernen mit gesundem Menschenverstand – KI braucht Millionen Daten. Mehr zur Schwäche künstlicher Generalisierung in unserem Artikel.
Bild: © Unsplash