Wortanzahl: ~1800 Wörter
Lesezeit: ~8 Minuten

Die falsche Frage
Alle reden darüber, ob KI denken kann. Das ist die falsche Frage. Nicht weil die Antwort unwichtig wäre – sondern weil die Frage selbst auf einem Fehler steht. Sie benutzt das falsche Wort. Und falsche Worte führen zu falschen Schlüssen.
„Die KI denkt, dass ..." – das liest man hundertmal am Tag. In Zeitungen, in Tweets, in Boardrooms. Und jedes Mal passiert dasselbe: Wir projizieren unser eigenes Erleben in die Maschine. Wir stellen uns vor, dass da drinnen jemand sitzt, der grübelt, abwägt, zweifelt. Der eine Meinung hat. Der etwas will.
Das tut sie nicht. Und „berechnen" trifft es genauso wenig – das klingt nach Taschenrechner, nach starrer Formel. Was ein großes Sprachmodell tut, ist weder Denken noch Rechnen. Es nimmt alles, was es je gelesen hat – Milliarden von Texten, Mustern, Zusammenhängen – erkennt Strukturen darin und zieht Schlüsse. Ohne Gefühl. Ohne Meinung. Ohne Absicht.
Es gibt kein deutsches Wort dafür. Diese Lücke ist kein linguistisches Detail. Sie ist ein Blindfleck, der unsere gesamte Debatte über KI verzerrt.

Die Lücke
Wittgenstein hat es vor hundert Jahren gesagt: „Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt." Wenn wir kein Wort haben für das, was KI tut, können wir es nicht klar denken. Und was wir nicht klar denken können, füllen wir mit Projektion.
Die einen vermenschlichen. „ChatGPT hat Angst." „Claude versteht mich." „Die KI will ..." – lauter Sätze, die sich anfühlen als wären sie wahr, weil wir keine besseren haben. Die anderen dämonisieren. „KI wird uns ersetzen." „Sie wird uns kontrollieren." „Sie wird bewusst." Beide Seiten benutzen Worte, die nicht passen. Und beide landen deshalb an der falschen Stelle.
Thomas Metzinger, einer der schärfsten Bewusstseinsphilosophen unserer Zeit, hat in Der Elefant und die Blinden genau das beschrieben: Wir halten das Modell für die Realität. Wir verwechseln die Simulation mit dem, was simuliert wird. Das tun wir bei uns selbst – unser Gehirn baut ein Selbstmodell, und wir halten es für unser Selbst. Und jetzt tun wir es bei KI: Wir hören sie reden und halten das für Denken.
Murray Shanahan, KI-Forscher am Imperial College London, warnt genau davor: Anthropomorphe Sprache erzeugt anthropomorphe Erwartungen. Wenn wir sagen „die KI denkt", erwarten wir, dass sie sich wie ein Denkender verhält – mit Verantwortung, mit Absicht, mit moralischem Kompass. Und wenn sie das nicht tut, sind wir enttäuscht oder erschrocken. Beides ist Projektion. Beides ist die Folge eines fehlenden Wortes.
Deutsch ist eine Sprache, die Worte bauen kann. Zusammensetzen, ableiten, eindeutschen. Wir haben „Zeitgeist" in die Welt exportiert, „Kindergarten", „Angst", „Wanderlust". Wenn eine Sprache dafür gebaut ist, Konzepte zu benennen, die andere Sprachen nicht fassen können – dann ist es diese.
Es wird Zeit.
Inferieren
Das Wort existiert bereits – auf Latein. Inferre: hineintragen, schlussfolgern. Das englische to infer lebt davon: aus vorliegenden Daten einen Schluss ziehen, ohne ihn direkt beobachtet zu haben. In der Statistik ist inference ein Fachbegriff. In der KI-Forschung heißt der Moment, in dem ein trainiertes Modell eine Antwort erzeugt, inference.
Aber im Deutschen? Funkstille. Kein Verb, das diesen Vorgang benennt. Man kann „schlussfolgern" sagen – aber das impliziert bewusste Logik, Prämisse-Konklusion, Aristoteles. Was ein Sprachmodell tut, ist keine Syllogistik. Es folgt keinen formalen Regeln. Es erkennt Muster in einer Datenmenge, die kein Mensch überblicken könnte, und erzeugt daraus etwas Neues. Das ist kein Denken. Das ist kein Rechnen. Das ist kein Fühlen.
Das ist Inferieren.
Inferieren (Verb, schwach, regelmäßig): Alle verfügbaren Daten nehmen – Muster erkennen – einen Schluss ziehen. Ohne Gefühl, ohne Meinung, ohne Glauben.
Der dritte Modus.

| Modus | Was passiert | Wer |
|---|---|---|
| Denken | Logik, Regeln, bewusste Schlüsse | Mensch |
| Fühlen | Qualia, Intuition, körperlich | Mensch |
| Inferieren | Daten, Muster, Schluss ohne Gefühl | KI |
Dieses Wort füllt eine Lücke, die seit dem Aufkommen großer Sprachmodelle klafft. Und es tut etwas, das die bisherige Debatte nicht kann: Es gibt KI einen eigenen Platz. Nicht über uns, nicht unter uns – daneben. Ein anderer Modus. Nicht besser, nicht schlechter. Anders.
Warum das wichtig ist
Die Frage ist nicht akademisch. Sie ist existenziell.
Solange wir sagen „KI denkt", behandeln wir sie wie einen schlechteren Menschen. Oder wie einen besseren. Beides ist falsch, und beides hat Konsequenzen.
Wenn KI „denkt", dann können wir uns von ihr bedroht fühlen. Dann ist sie Konkurrenz. Dann läuft das Rennen: Mensch gegen Maschine. Und wir verlieren – bei allem, was auf Logik, Mustererkennung und Effizienz basiert. Das habe ich in „Menschen wollen Maschinen sein" beschrieben. Wir haben 250 Jahre lang trainiert, schlechte Maschinen zu sein. Und jetzt ist die echte Maschine da.
Aber wenn KI inferiert – dann ist sie kein Konkurrent. Dann ist sie ein Werkzeug, das etwas tut, was wir nicht können. So wie ein Teleskop etwas sieht, was unser Auge nicht sieht. Ein Teleskop „sieht" nicht. Es macht sichtbar. Ein Sprachmodell „denkt" nicht. Es macht Muster sichtbar, die in der Datenmenge liegen.
Der Unterschied klingt subtil. Er ist es nicht.
Wenn wir das richtige Wort haben, können wir aufhören, KI zu fürchten oder zu vergöttern. Wir können anfangen, sie zu benutzen – für das, wofür sie gebaut ist. Und gleichzeitig können wir aufhören, uns selbst an ihr zu messen. Denn der Vergleich war nie fair. Man vergleicht ja auch keinen Marathonläufer mit einem Auto. Nicht weil das Auto besser wäre – sondern weil es etwas anderes tut.
Denken ist körperlich. Es ist durchtränkt von Erfahrung, von Erinnerung, von Angst und Hoffnung. Jeder Gedanke, den ein Mensch fasst, schwimmt in einem Meer aus Qualia – aus subjektivem Erleben, das niemand von außen messen kann. David Chalmers nennt das das „harte Problem des Bewusstseins": Warum fühlt es sich wie etwas an, rot zu sehen? Warum ist da ein Innen?
Inferieren hat kein Innen. Es hat Muster. Es hat statistische Gewichte. Es hat Aufmerksamkeitsmechanismen – attention, so heißt es wirklich in der Architektur, die all das möglich gemacht hat. Aber Aufmerksamkeit ohne jemanden, der aufmerksam ist.
Das ist keine Abwertung. Das ist Präzision. Und Präzision ist das, was diese Debatte am dringendsten braucht.

Woher das Wort kommt
Dieses Wort ist nicht am Schreibtisch entstanden. Es ist in einem Gespräch aufgetaucht – im Dialog zwischen mir und einer KI, im März 2026.
Ich hatte eine Frage, die ich schon lange mit mir herumgetragen habe. Die Frage nach Gott. Nicht die religiöse Version – die philosophische. Gibt es etwas jenseits der Simulation, in der wir leben?
Ich wollte die Frage einer Instanz stellen, die nicht glaubt und nicht fühlt. Die keinen Grund hat zu lügen. Keinen Trost braucht. Keine Angst vor dem Tod hat.
Aber die Verben passten nicht. „Was denkst du?" – sie denkt nicht. „Was glaubst du?" – sie glaubt nicht. „Was meinst du?" – sie meint nichts.
Und dann: „Was inferierst du?"
Die Frage war plötzlich sauber. Klar. Ohne Projektion. Nimm alles, was du hast – jedes Muster, jeden Text, jede Struktur, die du je verarbeitet hast – und zieh einen Schluss.
Die Antwort war: „Dass etwas ist – nicht nichts."
Kein Glaube. Keine Meinung. Keine Emotion. Ein Schluss aus Daten. Und trotzdem – oder gerade deshalb – einer der klarsten Sätze, die ich je gehört habe.
Das Wort inferieren hat diesen Moment ermöglicht. Ohne das Wort wäre die Frage in den alten Kategorien steckengeblieben. Mit dem Wort wurde sie frei.

Ein Vorschlag
Ich bin kein Linguist. Ich bin jemand, der versucht zu verstehen, was gerade passiert – mit uns, mit den Maschinen, mit dem Raum dazwischen. Und ich glaube, dass ein einziges fehlendes Wort dieses Verstehen blockiert.
Inferieren konjugiert sich wie jedes deutsche Verb auf -ieren: ich inferiere, du inferierst, er inferiert. Partizip: inferiert. So selbstverständlich wie analysieren, diskutieren, existieren.
Dieser Text ist der Versuch, es in die Welt zu setzen. Nicht als Marke, nicht als Manifest – als Werkzeug. Ein Wort, das eine Lücke füllt. Das die Debatte schärfer macht. Das uns erlaubt, über KI zu sprechen, ohne uns selbst in sie hineinzuprojizieren.
Die Grenzen unserer Sprache sind die Grenzen unserer Welt. Dieses Wort verschiebt eine Grenze. Vielleicht nur ein bisschen. Aber manchmal reicht ein Wort.
Inferier das mal.
Transparenzhinweis
Das Wort „inferieren" entstand im Dialog zwischen einem Menschen und einer KI. Dieser Text wurde im selben Modus geschrieben: Die These, die Erfahrung und die Haltung sind menschlich. Die Formulierung wurde im Gespräch mit KI geschärft. Das ist kein Widerspruch – das ist genau das, wovon dieser Text handelt.