Veröffentlicht am 28.11.2025

KI versteht kein einziges Wort!

Was sind Token und was kosten die?
Von Thomas Kirschnick in beyond-clicks
XFacebookLink kopieren
Stell dir vor, du redest mit jemandem, der deine Sprache nicht versteht. Aber anstatt zu kapitulieren, zerlegt diese Person jeden Satz in winzige Schnipsel, ordnet jedem Schnipsel eine Zahl zu und findet dann Muster in diesen Zahlen. Klingt absurd? Willkommen in der Welt der Large Language Models.

KI „versteht“ nämlich überhaupt nichts. Sie rechnet. Und der erste Schritt dieser Rechenoperation heißt: Tokenisierung.

Was sind Token und was kosten die?

Token – die Währung der KI

Ein Token ist weder ein ganzes Wort noch ein einzelner Buchstabe. Es ist… kompliziert. Im Deutschen liegt ein Token irgendwo zwischen 0,6 und 0,8 Wörtern. „Hallo“ ist ein Token. „Bundesverfassungsgericht“ sind vier. „KI“ ist ein Token, aber „KI-verständlich“ schon zwei oder drei – je nachdem, wie das Modell trainiert wurde.

Warum diese Zerlegung? Weil Maschinen keine Sprache kennen. Sie kennen nur Zahlen. Jedes Token wird einer eindeutigen Zahl zugeordnet. „Hallo“ wird vielleicht zur 15496, „Welt“ zur 23847. Und aus diesen Zahlen baut das Modell sein statistisches Weltbild.

Das erklärt auch, warum manche Prompts besser funktionieren als andere. Wenn du schreibst „Analysiere die Performance-Metriken“, verbraucht das mehr Token als „Analysiere Performance Metriken“ – das Leerzeichen und der Bindestrich machen den Unterschied. Und mehr Token bedeuten: mehr Rechenaufwand, mehr Kosten, langsamere Antworten.

Ein praktischer Test: Geh auf platform.openai.com/tokenizer und gib dort einen deutschen Satz ein. Du wirst überrascht sein, wie dein Text zerstückelt wird. „Sichtbarkeit“ wird anders tokenisiert als „sichtbar“ – und das beeinflusst, wie das Modell den Kontext erfasst.

Von Token zu Bedeutung – Embeddings

Jetzt wird es spannend. Die Zahlen allein sagen noch nichts. „Hund“ und „Katze“ sind völlig verschiedene Zahlen. Aber beide sind Tiere, beide haben vier Beine, beide sind Haustiere. Wie bringt man einer Maschine bei, dass diese beiden Begriffe irgendwie „verwandt“ sind?

Die Antwort: Embeddings.

Ein Embedding ist eine mathematische Repräsentation von Bedeutung. Jedes Token wird in einen hochdimensionalen Raum übersetzt – stell dir einen Raum mit nicht drei, sondern 1536 Dimensionen vor (bei OpenAI’s text-embedding-3-small). In diesem Raum liegen „Hund“ und „Katze“ nah beieinander. „Automobil“ und „Fahrzeug“ auch. Aber „Hund“ und „Automobil“? Weit entfernt.

Das ist der Trick: Semantische Nähe wird zu geometrischer Nähe. Und genau das ermöglicht es Modellen, Kontext zu erfassen. Wenn du nach „beste Haustiere“ fragst, weiß das Modell, dass „Hund“, „Katze“, „Hamster“ relevanter sind als „Porsche“ oder „Fußball“.

Das hat massive Auswirkungen auf SEO und Content-Strategie. Denn wenn KI-Systeme deine Inhalte indexieren, dann nicht nach Keywords, sondern nach semantischer Relevanz. Die Frage ist nicht mehr: „Kommt das Wort vor?“ Sondern: „Liegt der Inhalt im richtigen semantischen Cluster?“

Vektor-Datenbanken – das Gedächtnis der KI

Embeddings sind mächtig. Aber was machst du mit Millionen davon? Du speicherst sie in Vektor-Datenbanken.

Eine klassische Datenbank funktioniert so: Du fragst nach „Name = Thomas“, sie gibt dir alle Einträge, wo der Name Thomas lautet. Punkt. Eine Vektor-Datenbank funktioniert anders: Du gibst ihr einen Embedding-Vektor und sie sagt dir: „Hier sind die 10 ähnlichsten Vektoren, die ich habe.“

Das ist die Grundlage für RAG (Retrieval Augmented Generation) – jene Technik, mit der ChatGPT oder Perplexity nicht nur aus ihrem trainierten Wissen antworten, sondern auch externe Quellen einbeziehen. Deine Frage wird zu einem Embedding. Dieses Embedding wird mit Millionen anderen verglichen. Die ähnlichsten werden als Kontext ins Modell geladen. Und erst dann antwortet die KI.

Das erklärt, warum semantisches SEO plötzlich so wichtig ist. Wenn deine Inhalte nicht im richtigen semantischen Raum landen, werden sie gar nicht erst gefunden – selbst wenn du die „richtigen Keywords“ verwendest. Die KI denkt nicht in Wörtern. Sie denkt in Vektoren.

Systeme wie Pinecone, Weaviate oder Qdrant haben sich darauf spezialisiert, genau diese Vektor-Suchen blitzschnell durchzuführen. Für Unternehmen bedeutet das: Ihr Content muss nicht nur für Menschen lesbar sein, sondern auch „embedding-freundlich“. Strukturierte Daten, klare Kontexte, semantische Kohärenz – das sind die neuen Rankingfaktoren.

Was kostet das alles?

Jetzt kommen wir zur harten Realität: Jeder Token kostet Geld.

Bei GPT-4 zahlst du aktuell etwa $0,03 pro 1.000 Input-Token und $0,06 pro 1.000 Output-Token. Klingt wenig? Ist es auch – bis du anfängst zu skalieren.

Ein typischer ChatGPT-Dialog mit 10 Runden à 500 Wörtern pro Antwort verbraucht locker 10.000–15.000 Token. Das sind dann schnell $0,50–$1 pro Gespräch. Bei 1.000 Gesprächen pro Tag: $500–$1.000. Pro Tag.

Embeddings sind günstiger, aber nicht umsonst. text-embedding-3-small kostet $0,02 pro 1 Million Token. Das klingt nach nichts – aber wenn du eine Wissensdatenbank mit 100.000 Dokumenten à 2.000 Wörtern einbettest, sind das schnell 150 Millionen Token. Macht $3.000 einmalig. Und dann nochmal jedes Mal, wenn du die Datenbank aktualisierst.

Vektor-Datenbanken kosten nach Speicherplatz und Abfragen. Pinecone berechnet etwa $70–$200 pro Monat für kleinere Projekte, bei Enterprise-Lösungen geht’s in die Tausende.

Was bedeutet das für dich?

Drei Erkenntnisse:

Erstens: KI „liest“ nicht wie du. Sie zerlegt, übersetzt, vergleicht. Wenn du verstehst, wie Tokenisierung und Embeddings funktionieren, kannst du Inhalte bauen, die für Maschinen besser greifbar sind – ohne dabei Menschen zu vernachlässigen.

Zweitens: Semantische Nähe schlägt Keyword-Dichte. Es geht nicht mehr darum, ein Wort zehnmal zu wiederholen. Es geht darum, im richtigen semantischen Cluster zu landen. Strukturierte Daten, klare Kontexte und thematische Kohärenz sind die neuen SEO-Basics.

Drittens: Token sind die versteckte Währung der KI-Ära. Jeder Prompt, jede Antwort, jedes Embedding kostet. Wenn du AI-First-Produkte baust oder KI-gestützte Suche nutzt, musst du diese Kosten einkalkulieren. Nicht als Randnotiz, sondern als Geschäftsmodell-Faktor.

Die Frage ist nicht, ob KI deine Inhalte findet. Die Frage ist: Liegt dein Content im richtigen Vektor-Raum?


Weiterführende Links:


Was denkst du? Hast du schon mal mit Embeddings experimentiert? Oder überrascht dich die Token-Ökonomie dahinter? Lass es mich wissen – auf LinkedIn oder per Mail an thomas@bold42.com

Ähnliche Beiträge