Large Language Kabbala
Eine kleine Geschichte der Großen Sprachmodelle

Matthes und Seitz, Berlin 2026
ISBN
9783751830607
Kartoniert, 152 Seiten, 16,00
EUR
Klappentext
Nicht Nerds, sondern Schrift-Gelehrte sind es, die das Feld der generativen Künstlichen Intelligenz wie ChatGPT erklären können: Solche "Large Language Models" wurzeln in der Sprachwissenschaft, Literaturkritik, ja sogar in der Auslegung heiliger Texte. Diese These verfolgt Martin Warnke durch eine Archäologie der LLM-Ursprünge - von Zellig S. Harris' statistischer Sprachtheorie über Walter Benjamins Sprachphilosophie bis zur jüdischen Kabbala. Dabei zeigt sich, dass mystische Textauslegungstechniken ähnliche Eigenheiten und damit auch Probleme aufweisen wie heutige Computersysteme: Es sind Sprachstrukturen, keine künstlichen Gehirne, die uns faszinieren und beängstigen. Die "Halluzinationen" der KI sind keine Kinderkrankheiten, sondern zwangsläufige Folge linguistischer Verfahren, die Semantik ohne Weltbezug allein aus Syntax ableiten. Eine Kritik muss daher bei der fundamentalen Frage ansetzen: Was sind das für Systeme, die nur in der Sprache sind und keine Welt haben?
BuchLink. In Kooperation mit den Verlagen (
Info)
Rezensionsnotiz zu
Frankfurter Rundschau, 16.04.2026
Rezensent Björn Hayer kann nicht viel anfangen mit diesem schmalen Buch des Informatikers Martin Warnke. Der Autor nähert sich Sprachmodellen wie Chat GPT hier nicht neurophysiologisch, sondern linguistisch. Zunächst blickt der Autor mit Blick auf die Geschicht der Künstlichen Intelligenz einige Konzepte. Wer allerdings nicht zum Fachpublikum gehört, wird die Modelle, die Warnke anreißt, nicht einfach verstehen, räumt Hayer ein: Zellig Harris' Zeichentheorie etwa, die den Weltbezug unserer Zeichentheorie in den Vordergrund stellt. Ausgehend von der Beobachtung, dass Sprachmodelle Wörter ohne Umweg über die Semantik zu stimmig scheinenden Sätzen verbinden, landet Warnke dann schließlich bei der jüdischen Kabbala, die Sprache absolut setzt, erklärt Hayner. Diese Überlegung, die Maschinen quasi einen "sakralen Status" verleiht, hatte der Kritiker allerdings vor einigen Jahrzehnten bereits bei der Philosophin Sibylle Krämer gelesen. Nicht biel neues verdankt der Kritiker entsprechend diesem so drögen wie "aufgeblasenen Büchlein".
Rezensionsnotiz zu
Die Tageszeitung, 21.03.2026
Rezensent Lukas Franke freut sich, wie dieses Buch mit technoutopischen Mythen über eine denkende und möglicherweise bald allmächtige KI aufräumt. Martin Warnke erzählt darin nach, wie die Forschung zu künstlicher Intelligenz, die zunächst darauf aus war, die Mechanismen des menschlichen Gehirns zu simulieren, sich bald, angeleitet unter anderem vom Linguisten Zellig Sabbettai Harris, umorientierte; und fortan sprachbasierte Modelle ohne jeden Wirklichkeitsbezug ins Zentrum der Aufmerksamkeit rückten. Wie Religionsgelehrte beim Auslegen der Kabbala produziert die KI der Gegenwart immer nur Sprache aus anderer Sprache und wird deshalb, meint Warnke, in der Gegenwart oft überschätzt. Franke liest das alles gern und glaubt, dass der keineswegs platt technikskeptische Autor hier KI-Gläubigkeit auf gerade einmal 160 Seiten als "magisches Denken im wörtlichen Sinn" entlarvt hat.
Rezensionsnotiz zu
Frankfurter Allgemeine Zeitung, 07.02.2026
Rezensent Günter Hack verspricht mit Martin Warnkes Buch eine nicht durchweg wasserdicht argumentierende, aber eine lohnende Lektüre. Der Autor, Physiker und Historiker digitaler Medien geht darin, in KI-kritischer Ausrichtung, den sprachtheoretischen Hintergründen und Angreifbarkeiten von LLMs, also Large Language Models wie ChatGPT, nach. Wie Warnkes Analyse, die sich auf die statistikbasierte Linguistik stützt, dabei helfe, die Möglichkeiten dieser Systeme und auch ihrer Bildgeneratoren besser einschätzen zu können, findet der Kritiker schon lesenswert. Aber das Buch geht darüber hinaus: so verbinde Warnke etwa LLMs, die jüdische Auslegungspraxis der Kabbala und die linguistische Theorie von Zellig S. Harris darüber, dass sie alle qua "Mustererkennung in einem Textkorpus" Sinn herstellen. Auch zu Benjamins "Schwellenkunde" und Übersetzungstheorie spanne der Autor einen Bogen. Diese ideengeschichtlichen Teile geraten dem Kritiker mitunter etwas zu rasant, er hätte sich hier stellenweise mehr Differenzierung gewünscht. Den "technik- und wissenschaftshistorischen" Teil findet er hingegen überzeugend und empfiehlt das Buch als "knappen und stringenten" Einspruch gegen die Intelligenzfähigkeit von LLMs.