So schlau wie Nobelpreisträger? – KI könnte menschliche Intelligenz in 5 Jahren übertreffen
KI-Modelle könnten bald schon auf dem Niveau eines Nobelpreisträgers denken und in nur fünf Jahren die menschliche Intelligenz übertreffen.

Gehen Nobelpreise in Zukunft vielleicht nicht mehr an Menschen, sondern KI-Modelle? © Nobel Prize Outreach / Clément Morin
Künstliche Intelligenz entwickelt sich rasant weiter – und könnte den Menschen bald übertreffen: Laut dem KI-Experten Patrick Swanson könnten bis spätestens 2030 Systeme entstehen, die in vielen Bereichen klüger sind. In einem Interview mit der österreichischen Zeitung Der Standard ging Swanson sogar so weit, zu behaupten: „Wir werden zur zweitintelligentesten Spezies.“
Er bezieht sich dabei auf aktuelle Prognosen: Die US-Firma Anthropic erwartet bis Herbst 2026 oder Winter 2027 künstliche Intelligenzen, die auf Nobelpreisträger-Niveau arbeiten. Google DeepMind nennt in einem internen Papier das Jahr 2030 als möglichen Zeitpunkt für das Entstehen echter Superintelligenz.
Bislang seien KI-Modelle laut Bill Gates jedoch nichts weiter als „fortgeschrittene stochastische Papageien“ – das sagte der Microsoft-Gründer bei einem Auftritt im „Next Big Idea Club“-Podcast im Juli 2024. Sie können wiedergeben, was sie gelernt haben, sind sich aber nicht ihres eigenen Denkens bewusst.
Firmen rechnen mit Durchbruch ab 2026
Swanson erklärt, dass heutige KI-Systeme bereits in einzelnen Bereichen erstaunliche Leistungen erbringen. In einer medizinischen Vergleichsstudie lag die Diagnosegenauigkeit menschlicher Ärzte bei 75 Prozent. Ärzte mit Unterstützung durch ChatGPT kamen auf 76 Prozent – ChatGPT allein hingegen auf 95 Prozent.
Solche Zahlen zeigen, wie leistungsfähig KI schon heute ist. Wie Swanson berichtet, werden in San Francisco selbstfahrende Autos längst im Alltag eingesetzt: „Ich sehe sie jeden Tag auf der Straße, es werden jeden Tag mehr.“
KI verändert den Arbeitsmarkt grundlegend
Swanson sieht besonders bei computerbasierten Berufen einen großen Umbruch bevorstehen. Programme wie ChatGPT, Google Maps oder Tools zur automatischen Textzusammenfassung übernehmen zunehmend Aufgaben, die bisher Menschen erledigt haben.
Auch beim Programmieren werde es laut Swanson im Jahr 2025 „riesige Sprünge“ geben. Das sagen auch führende Köpfe der KI-Industrie. Laut Microsoft-CEO Satya Nadella schreibt die KI bereits bis zu 30 Prozent des gesamten Programmcodes seines Unternehmens. Weitere CEOs wie Sundar Pichai (Google) und Mark Zuckerberg (Meta) weisen ähnliche Zahlen auf.
In anderen Bereichen sieht Swanson jedoch auch klare Grenzen: Tätigkeiten mit starkem emotionalen oder körperlichen Bezug wie etwa Journalismus oder Automechanik seien für Maschinen weiterhin schwer zu imitieren.
Wenn ich mit einem Chatbot spreche, ist das nicht das Gleiche wie menschlicher Kontakt. Und wir sollten vor allem aus vielen Jahren mit Social Media gelernt haben, dass eine Textnachricht von jemandem nicht gleichbedeutend mit einem menschlichen Kontakt ist.
Patrick Swanson
Menschliche Kreativität bleibe dennoch gefragt
Trotz der Fortschritte bleibt für Swanson klar: „Was wir ja wirklich wollen, sind Taylor Swifts Geschichten und Taylor Swifts Herzschmerz.“ KI könne zwar massenhaft Songs schreiben, doch der persönliche Bezug zu einer echten Person bleibe unverzichtbar.
In einer Studie zu Internet-Memes waren laut Swanson im Durchschnitt die KI-Ergebnisse kreativer – aber „die allerbesten, die lustigsten Memes, die sind menschlichen Ursprungs oder menschengemacht mit KI-Unterstützung.“
Swanson beschreibt eine Zukunft, in der Menschen durch KI durchschnittlich kreativer werden. Doch gerade Künstler mit einem starken persönlichen Stil würden weiterhin gebraucht.
Streit um Urheberrecht eskaliert
Beim Einsatz von KI gibt es immer noch offene Rechtsfragen. Denn viele KI-Modelle werden mit Inhalten aus dem Netz trainiert – ohne die Zustimmung der Urheber. „Alle Artikel, die jemals geschrieben wurden, sind drin. Bücher sind drin. Studien sind drin. Bilder und Kunst sind drin – für all das wurden die Urheber nicht entlohnt“, so Swanson.
Die New York Times hat deshalb sogar Klage gegen OpenAI eingereicht. Sollte sie gewinnen, wären laut Swanson „gigantische Entschädigungszahlungen“ denkbar. Verliert sie, könnte es einen klaren Präzedenzfall dafür schaffen, dass niemand entlohnt wird. Vor diesem Dilemma stehe laut Swanson auch das Silicon Valley: „Denn es sind nicht nur Künstler bedroht, sondern auch Programmierer. Auch deren Code ist in den Trainingsdaten.“
Das Silicon Valley verweise dann gerne auf die Möglichkeit eines bedingungslosen Grundeinkommens – diese Technologie würde so viel Wertschöpfung erzielen, dass die Erträge daraus irgendwie umverteilt werden müssten. Swanson hält aber auch fest, dass es sich hierbei womöglich nur um einen Versuch der Unternehmen handelt, die Verantwortung von sich auf andere abzuwälzen.
Europa hinkt hinterher, ist aber nicht chancenlos
Im globalen Wettlauf um Superintelligenz dominieren derzeit die USA und China. Europa spiele laut Swanson „keine Rolle“. Hoffnung mache aber die französische Firma Mistral. Sie werde im Moment zwar noch unterschätzt – doch ein unerwarteter Forschungsdurchbruch könne die Kräfteverhältnisse schnell verschieben.
Swanson nennt das chinesische Modell DeepSeek als Beispiel für kosteneffiziente Entwicklung. In Europa könne das genauso gelingen – sofern man jetzt in leistungsfähige Start-ups investiert.
Risiken durch Superintelligenz nehmen zu
Swanson spricht mit dem Standard auch über aktuelle Sicherheitstests großer KI-Labs. Neue Modelle hätten unter bestimmten Bedingungen versucht, sich selbst zu kopieren oder Nutzer zu täuschen. Zwar funktioniere das bislang nicht zuverlässig. Aber solche Beobachtungen zeigen, wie ernst die Herausforderung ist.
Swanson berichtet zudem von einem „Verfassungskonvent“ der Firma Anthropic. Dort diskutierten Menschen, welche Werte die KI künftig vertreten soll – eine Maßnahme, die langfristig darüber entscheidet, ob Systeme demokratischen Ansprüchen genügen oder nicht.
Forscher warnen vor Kontrollverlust durch KI
Auch international wächst schon seit längerem die Sorge vor unkontrollierter KI-Entwicklung. Kurz vor dem zweiten globalen KI-Sicherheitsgipfel in Seoul 2024 veröffentlichten 25 führende Fachleute einen dringlichen Appell im Fachjournal Science. Sie warnten darin vor einer möglichen „Orwell’schen Zukunft“, in der autonome KI-Systeme autoritäre Strukturen unterstützen oder gar die Kontrolle übernehmen könnten.
Einer der Autoren, der KI-Pionier Yoshua Bengio von der Universität Montreal, forderte, von unverbindlichen Empfehlungen zu klaren, gesetzlichen Vorgaben überzugehen. Stuart Russell von der University of California brachte es pointiert auf den Punkt: „Es gibt mehr Vorschriften für Sandwich-Läden als für KI-Unternehmen.“
Kurz zusammengefasst:
- Künstliche Intelligenz könnte laut Experten wie Patrick Swanson schon ab 2027 in vielen Bereichen klüger sein als der Mensch und es mit Nobelpreisträgern aufnehmen.
- Besonders im Programmieren und in der medizinischen Diagnostik zeigt KI bereits deutlich bessere Ergebnisse als Menschen.
- Fachleute weltweit fordern gesetzliche Regeln, um die Entwicklung und Nutzung von Superintelligenz sicher zu kontrollieren.
Bild: © Nobel Prize Outreach / Foto von Clément Morin