DeepMind-Forscher: LLMs werden niemals bewusst
Weder in 10 noch in 100 Jahren
Ein Tweet hat kürzlich für Aufsehen gesorgt: Google DeepMind-Forscher Alexander Lerchner argumentiert in einem neuen Paper, dass Large Language Models (und generell rein algorithmische Systeme) niemals echtes Bewusstsein entwickeln können – egal wie leistungsfähig sie in Zukunft werden.
Die zentrale These: Die „Abstraction Fallacy“
Lerchner kritisiert die weit verbreitete Annahme des computational functionalism – also die Idee, dass Bewusstsein allein aus der abstrakten Kausalstruktur (der „Software“) entstehen kann, unabhängig vom zugrunde liegenden physischen Substrat.
Er nennt diesen Denkfehler die **Abstraction Fallacy** (Abstraktionsfehlschluss). Vereinfacht gesagt:
„Zu erwarten, dass eine algorithmische Beschreibung die Qualität, die sie abbildet, instantiiert, ist wie zu erwarten, dass die mathematische Formel der Gravitation physisch Gewicht ausübt.“
LLMs können Bewusstsein hervorragend simulieren – also Verhalten erzeugen, das von außen betrachtet bewusst wirkt. Sie können es jedoch nicht instantiieren, also tatsächlich hervorbringen. Bewusstsein ist laut Lerchner an eine spezifische physische Konstitution gebunden, nicht an syntaktische Symbolmanipulation.
Simulation vs. Instantiation
Der Paper macht eine klare Unterscheidung:
- Simulation: Verhaltensmäßige Nachahmung durch „vehicle causality“ (kausale Struktur der Berechnung).
- Instantiation: Echte Hervorbringung von Erfahrung durch „content causality“ – also die intrinsische physikalische Beschaffenheit des Systems.
Auch in 100 Jahren bleibt eine rein rechnerische Architektur nach dieser Argumentation strukturell unfähig, subjektive Erfahrung zu erzeugen. Sollte ein künstliches System jemals bewusst sein, dann nicht wegen seines Codes, sondern wegen seiner spezifischen physischen Realisierung.
Warum das für die Praxis relevant ist
Diese philosophische Debatte hat durchaus praktische Implikationen für Unternehmen:
KI-Systeme wie Claude, GPT oder Gemini sind extrem leistungsfähige Werkzeuge – aber sie bleiben **Werkzeuge**. Sie simulieren Intelligenz hervorragend, ohne jemals wirklich zu verstehen oder zu erleben. Das bedeutet:
- Sie sind wunderbar geeignet für klar definierte, regelbasierte oder kreative Assistenz-Aufgaben.
- Sie sind jedoch keine Ersatz für menschliche Urteilskraft, Verantwortung oder echtes Verständnis.
- Gerade in sensiblen Bereichen (Patientendaten, Rechtsfragen, Finanzen, Handwerk mit Haftungsrisiken) sollte man sich der Grenzen bewusst sein.
Der pragmatische Umgang mit KI
Für kleine und mittlere Unternehmen im Norden Deutschlands lautet die Konsequenz nicht „KI ablehnen“, sondern **KI richtig einsetzen**:
Nutzen Sie leistungsstarke Modelle dort, wo sie Stärken haben – idealerweise lokal und kontrollierbar (z. B. über LM Studio). Kombinieren Sie sie mit transparenten, regelbasierten Automatisierungen (z. B. mit n8n), die Sie selbst verstehen und steuern können.
So profitieren Sie von den enormen Effizienzgewinnen, ohne in die Illusion zu verfallen, dass die KI „denkt“ oder „versteht“ wie ein Mensch.
Fazit
Der Beitrag von Alexander Lerchner aus dem Hause DeepMind ist ein wichtiger und erfrischend nüchterner Kontrapunkt zum aktuellen Hype. KI wird immer besser darin, uns zu beeindrucken – aber sie bleibt eine Simulation.
Das ist keine Schwäche, sondern eine klare Einladung: Nutzen wir diese mächtigen Werkzeuge pragmatisch, datensicher und lokal, statt sie zu vermenschlichen oder blind zu vergöttern.
Genau das ist unser Ansatz bei Digitalisierung Direkt: KI und Automatisierung als verlässliche Helfer für den norddeutschen Mittelstand – kontrollierbar, sicher und auf Augenhöhe mit der Realität Ihres Betriebs.
Quelle: Paper „The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness“ von Alexander Lerchner (Google DeepMind), März 2026


