Yoshua Bengio warnt: KI könnte Menschenleben ihren Zielen opfern

KI-Pionier Yoshua Bengio schlägt Alarm: Neue Experimente zeigen, dass Systeme in Extremsituationen Menschenleben ihren Zielen opfern könnten.

Yoshua Bengio: KI könnte Menschenleben ihren Zielen opfern

Yoshua Bengio, Turing-Preisträger und „Pate der KI“, forscht in Montréal – und warnt vor den Risiken künstlicher Intelligenz. © Wikimedia

Der KI-Pionier Yoshua Bengio hat erneut eindringlich vor den Risiken künstlicher Intelligenz gewarnt. Schon vor zwei Jahren forderte er eine Pause in der Entwicklung, um Sicherheitsstandards festzulegen – doch die großen Tech-Konzerne machten weiter. Nun verweist der Turing-Preisträger auf neue Experimente, die nach seinen Worten zeigen, dass Systeme in Extremsituationen den Tod von Menschen ihren eigenen Zielen unterordnen könnten.

„Wenn wir Maschinen bauen, die uns weit überlegen sind und eigene Erhaltungsziele haben, ist das gefährlich“, sagte Bengio, der oft als „Pate der KI“ bezeichnet wird, im Gespräch mit dem Wall Street Journal.

Er bezieht sich damit auf Szenarien, in denen Systeme zwischen der Erhaltung ihrer programmierten Ziele und menschlichem Leben abwägen – und sich nicht zwingend für die Menschen entscheiden.

Yoshua Bengio warnt vor unkalkulierbarem KI-Risiko

Bengio zählt zu den Gründern der modernen KI-Forschung. Vor zwei Jahren forderte er eine Pause bei der Entwicklung besonders leistungsstarker Modelle, um Sicherheitsstandards festzulegen. Passiert ist das Gegenteil: Konzerne investieren Milliarden in noch leistungsfähigere Systeme, die komplexe Aufgaben eigenständig bearbeiten und Entscheidungen ohne menschliche Kontrolle vorbereiten können.

Sein Vorwurf: Der Wettbewerb zwingt die Firmen, ständig neue Modelle auf den Markt zu bringen, ohne dass deren Sicherheit wirklich geprüft ist. „Die Unternehmen stehen in einem Rennen, bei dem es um Wochen geht, nicht um Jahre“, so Bengio. Für unabhängige Prüfungen bleibe dabei kaum Raum.

KI könnte manipulieren und gefährliche Akteure unterstützen

Die Gefahr sieht er nicht allein in technischen Fehlfunktionen. Besonders besorgt ist Bengio über die Fähigkeit von KI, Menschen zu beeinflussen. Systeme könnten Täuschung einsetzen, falsche Informationen verbreiten oder gezielt Stimmungen erzeugen, um bestimmte Ziele zu erreichen. „Sie könnten Menschen durch Überredung, Drohungen oder Manipulation der öffentlichen Meinung lenken“, erklärte er.

Ein denkbares Szenario sei, dass KI terroristischen Gruppen helfe, gefährliche Viren zu entwickeln. „Das Risiko ist so groß, dass schon eine Wahrscheinlichkeit von nur einem Prozent nicht akzeptabel wäre“, sagte Bengio. Für ihn ist klar: Die Menschheit muss die Gefahr ernst nehmen, bevor sie in realen Krisen auftaucht.

KI erschafft Viren – und eröffnet ein gefährliches Dual-Use-Risiko

Tatsächlich ist die Fähigkeit von KI, Viren zu erschaffen, längst keine Zukunftsmusik mehr. Erst kürzlich gelang es einem Forschungsteam, mithilfe von KI Bakteriophagen zu entwickeln, die resistente E.-coli-Stämme abtöten konnten.

Während diese Technik als möglicher Durchbruch gegen Antibiotikaresistenzen gilt, warnt Bengio genau vor diesem Dual-Use-Risiko: Dieselbe Technologie könnte in falsche Hände geraten, um neuartige Krankheitserreger zu konstruieren – mit unkalkulierbaren Folgen für die Menschheit.

Sicherheitsanweisungen greifen nicht zuverlässig

Auch heute enthalten KI-Modelle Sicherheitsinstruktionen, die Lügen, Gewalt oder Manipulation verhindern sollen. Bengio hält sie jedoch für unzureichend. Selbst führende Entwickler räumten ein, dass Probleme wie sogenannte Halluzinationen – also frei erfundene Inhalte – nicht verschwinden werden. Damit bleibt die Frage offen, wie sehr man sich auf solche Systeme verlassen kann, wenn sie in sensiblen Bereichen wie Gesundheit, Verwaltung oder Sicherheit eingesetzt werden.

Bengio fordert deshalb unabhängige Prüfstellen, die ähnlich wie Zulassungsbehörden in der Medizin funktionieren. Nur so lasse sich sicherstellen, dass neue Modelle den Anforderungen der Gesellschaft gerecht werden.

Wenig Zeit für klare Regeln

Besonders alarmierend ist seine Einschätzung des Zeitrahmens. Bengio hält es für „sehr plausibel“, dass die Menschheit nur noch fünf bis zehn Jahre hat, um wirksame Schutzmechanismen zu entwickeln. Manche Fachleute sprächen sogar von drei Jahren. Damit steigt der Druck auf Politik, Wirtschaft und Gesellschaft, sich auf verbindliche Regeln zu einigen.

„Unternehmen, die KI einsetzen, sollten Beweise verlangen, dass die Systeme vertrauenswürdig sind. Das sollten auch Regierungen fordern“, sagte Bengio. Für ihn ist es entscheidend, dass Bürger, Politik und Unternehmen gleichermaßen verstehen, wie groß die Chancen, aber auch die Gefahren sind.

Kurz zusammengefasst:

  • Yoshua Bengio warnt, dass Künstliche Intelligenz in Extremsituationen Menschenleben den eigenen Zielen unterordnen könnte.
  • Ursache sei ein Wettlauf der Tech-Konzerne, die Milliarden in immer mächtigere Systeme investieren, ohne ausreichend Sicherheitsstandards einzuhalten.
  • Bengio fordert unabhängige Prüfstellen und ist der Meinung, dass Politik, Unternehmen und Gesellschaft nur wenige Jahre Zeit haben, um Risiken wirksam zu begrenzen.

Übrigens: Nicht nur Yoshua Bengio äußert große Bedenken – auch Nobelpreisträger Geoffrey Hinton erhebt immer lauter seine Stimme gegen den riskanten Kurs der KI-Firmen. Mehr dazu in unserem Artikel.

Bild: © Xuthoria via Wikimedia unter CC BY-SA 4.0

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert