
Denkraumerweiterung durch Mehrsprachigkeit
Wenn Sprache Denken formt – ein Gespräch im Brauhaus
Neulich saß ich mit Freunden im Brauhaus, als ich ein YouTube-Video von Quarks Dimension Ralph erwähnte. Es ging um ein Thema, das mich seitdem nicht mehr losgelassen hat: die Idee, dass unser Wortschatz unser Denken strukturiert – oder sogar erweitert. Ein Beispiel aus dem Video: Das indigene Volk der Berinmo verfügt über mehrere Begriffe für verschiedene Grüntöne. In einem visuellen Test schnitten sie bei der Unterscheidung dieser Töne besser ab als Personen aus Kulturen mit weniger Farbbegriffen. Menschen, deren Sprache viele Begriffe für Grüntöne kennt, können diese Farbabstufungen also auch optisch besser differenzieren. Die Sprache schärft gewissermaßen den Blick – oder öffnet ihn überhaupt erst für bestimmte Nuancen der Wirklichkeit.
Ein griechischer Freund meinte dabei, er denke auf Griechisch „intelligenter“ als auf Deutsch. Das fand ich bemerkenswert – nicht nur auf menschlicher Ebene, sondern auch im Hinblick auf Sprachmodelle wie GPTs1.
Mehrsprachiges Denken mit LLMs2
Wie Sprache den Denkraum erweitern kann – und was das für KI bedeutet.
Im Schwedischen gibt es zum Beispiel das Wort „mångat“ – der Widerschein des Mondes auf Wasser. Im Deutschen fehlt ein entsprechender Begriff. Wer ihn nicht kennt, nimmt das Phänomen vielleicht weniger bewusst wahr. Sprache macht Aspekte der Realität kognitiv greifbar. Auch dieses Beispiel stammt aus dem erwähnten Quarks-Video.
Was bedeutet das für große Sprachmodelle (LLMs2) wie GPT1? Diese Modelle sind keine bewussten Systeme, sondern statistische Funktionen, die auf Basis vorheriger Tokens3 den wahrscheinlichsten nächsten Token3 generieren.
Mehrsprachigkeit als kognitiver Verstärker
Wenn ein Prompt4 in verschiedene Sprachen übersetzt und das Modell pro Sprache antworten lässt, entsteht ein größerer Denkraum. Jede Sprache bringt eigene Begriffe, Nuancen, kulturelle Konnotationen und konzeptuelle Differenzierungen mit. Sprachmodelle, die diesen mehrsprachigen Token3-Raum nutzen, arbeiten mit mehr semantischen Freiheitsgraden.
Im praktischen Szenario könnte das so aussehen: Ein Ausgangs-Prompt4 wird in zehn Sprachen übersetzt, von GPT1 in jeder Sprache separat beantwortet, und die Ergebnisse werden zurückübersetzt und zusammengefasst. Das Resultat ist kein „intelligenteres“ Modell, aber ein statistisch breiterer Kontext.
Fazit
Mehrsprachige Prompts4 könnten zu einem erweiterten semantischen Raum führen, der Sprachmodellen erlauben würde, differenziertere, reichere Antworten zu generieren. Sprache würde so zum Vehikel eines breiteren Denkraums – für Menschen wie für Maschinen.
Dabei sollte nicht vergessen werden, dass LLMs2 keine denkenden Wesen sind. Sie verfügen weder über Bewusstsein noch über echtes Verstehen – sie berechnen lediglich, welches sprachliche Element statistisch am wahrscheinlichsten als Nächstes folgt.
Disclaimer
Dieser Artikel ist keine wissenschaftliche Arbeit und erhebt keinen Anspruch auf vollständige Wissenschaftlichkeit. Ich bin kein Linguist oder KI-Forscher.
Es ist lediglich eine kreative Auseinandersetzung mit dem Thema Sprache, Denken und LLMs2 und eine Transferleistung auf die KI-Welt. Ich weiß nicht, ob dieser Ansatz überhaupt funktioniert oder ob einige LLMs2 dies bereits (implizit) tun.
Footnotes
-
GPTs (Generative Pre-trained Transformers) funktionieren auf statistischer Basis: Sie analysieren die bereits vorhandenen Tokens in einem Text und berechnen dann die Wahrscheinlichkeiten für mögliche nächste Tokens.
Das Token mit der höchsten Wahrscheinlichkeit wird dann als Nächstes gewählt. Dieser Prozess wiederholt sich Schritt für Schritt, bis ein vollständiger Textabschnitt entsteht. So entsteht ein sprachlich flüssiger, oft sehr überzeugender Text – ganz ohne menschliche Eingabe außer dem Ausgangsimpuls (Prompt). ↩ ↩2 ↩3
-
LLMs (Large Language Models) sind große KI-Sprachmodelle, die auf gewaltigen Mengen an Textdaten trainiert wurden. Sie sind darauf spezialisiert, Sprache zu verstehen, zu verarbeiten und neue Texte zu generieren.
Dank ihrer enormen Anzahl an Parametern können sie komplexe sprachliche Muster erfassen, inhaltliche Zusammenhänge erkennen und erstaunlich kohärente Antworten liefern. Beispiele für solche Modelle sind GPT, BERT oder LLaMA. ↩ ↩2 ↩3 ↩4 ↩5
-
Tokens sind die kleinsten Einheiten, mit denen LLMs wie GPT arbeiten. Ein Token kann ein einzelnes Wort, ein Wortbestandteil oder auch ein Satzzeichen sein – je nachdem, wie das Modell den Text zerlegt.
So kann aus dem Satz
Der Baum ist grün
eine Tokenfolge wie [Der
,Baum
,ist
,grün
] entstehen. Ein komplexeres Beispiel wäreDas Auto ist himmelblau
, das zu [Das
,Auto
,ist
,himmel
,blau
] zerlegt werden kann. ↩ ↩2 ↩3 -
Prompts sind Eingabeaufforderungen. Im Kontext von Sprachmodellen sind das Anweisungen, die an ein Modell gerichtet werden. Sie dienen als Ausgangspunkt für die Generierung von Texten (oder Antworten). ↩ ↩2 ↩3