Texte aus dem Jahr 2026
Mehrdimensionale visuelle Semantik Stand 12.01.2026
Übertragung zweidimensionaler Semantik aus der
Sprachphilosophie auf visuelle Notation
 

Die Sprachphilosophie des 20. Jahrhunderts hat elaborierte Modelle entwickelt, um zu beschreiben, wie sprachliche Ausdrücke Bedeutung erhalten. Besonders die zweidimensionale Semantik (Chalmers, Rabern u.a.) unterscheidet zwischen verschiedenen Dimensionen der Bedeutung: der Art, wie wir einen Ausdruck verstehen (subjektiv, prozessual), und der Art, wie sich dieser Ausdruck auf die Welt bezieht (objektiv, strukturell). Lässt sich ein solches Modell auf visuelle Notationssysteme übertragen?

Diese Frage ist nicht trivial. Die Übertragung von Modellen aus der Sprachphilosophie auf visuelle Systeme ist produktiv – aber nur, wenn die Übertragungsprobleme offengelegt werden. Gerade die Schwierigkeiten zeigen, was visuelle Notation anders macht als Sprache.

nach oben
Zweidimensionale Semantik: Das Ausgangsmodell

David Chalmers und Brian Rabern entwickelten Modelle, die zwischen zwei Dimensionen der Bedeutung unterscheiden: der „primary intension" (wie verstehen wir einen Ausdruck?) und der „secondary intension" (worauf bezieht sich der Ausdruck tatsächlich?).

Ein klassisches Beispiel: "Julius ist der Erfinder des Reißverschlusses."

• Primary intension (Vollzug v): Wie verstehe ich den Ausdruck? – "Julius" bedeutet für mich: „wer auch immer den Reißverschluss erfunden hat." Das ist eine Beschreibung, eine Art, den Namen zu verstehen.

• Secondary intension (Struktur w): Auf wen bezieht sich der Name tatsächlich? – Auf Whitworth C. Judson (oder Gideon Sundbäck, je nach historischer Quelle). Das ist die faktische Referenz in der realen Welt.

Die zweidimensionale Semantik erfasst damit zwei verschiedene Zugänge zur Bedeutung: den epistemischen (wie ich etwas verstehe) und den metaphysischen (wie es sich tatsächlich verhält).

Übertragung auf visuelle Notation: F(v, w)

Lässt sich dieses Modell auf visuelle Notationssysteme übertragen? Versuchsweise:

v (Vollzug): Wie wird der Zustand durchlaufen? Prozessual, subjektiv, variabel. Wie bewegt sich mein Blick? Welche Assoziationen entstehen? Welche Vorerfahrung bringe ich mit?

w (Struktur): Welche Konstellation liegt vor? Relational, beschreibbar, dokumentierbar. Welche Zeichen stehen wo? Welche räumlichen Beziehungen existieren objektiv auf dem Papier?

Die Bedeutung eines visuellen Elements wäre dann: F(v, w) – eine Funktion, die vom Vollzug (v) und von der Struktur (w) abhängt.

nach oben
Aber: Hier entsteht ein Übertragungsproblem. Sprachliche Ausdrücke haben eine feste Referenz in kontrafaktischen Szenarien. "Julius" bezieht sich auf dieselbe Person, egal in welcher möglichen Welt wir sind (solange dort jemand den Reißverschluss erfunden hat). Visuelle Zeichen haben diese Stabilität nicht. Ein Pfeil in einer Zeichnung bezieht sich nicht auf "den Pfeil" als abstraktes Objekt, sondern ist Teil einer spezifischen Konstellation, deren Bedeutung sich mit dem Kontext ändert.

Die zweidimensionale Semantik funktioniert in der Sprachphilosophie, weil Sprache mit stabilen Referenzen arbeitet. Visuelle Notation arbeitet mit relationalen Konstellationen – und die sind nicht so einfach in "primäre" und "sekundäre" Intensionen zu zerlegen.

Erweiterung 1: tau (Abtastsequenz)

Visuelle Notation hat aber eine Dimension, die Sprache nicht hat: die
nicht-lineare Abtastsequenz. Während ich einen Text von links nach rechts, von oben nach unten lese, kann ich eine Zeichnung in beliebiger Reihenfolge betrachten. Ich kann springen, zurückkehren, Bereiche mehrfach ansehen, mich auf Details konzentrieren oder das Ganze überblicken.

Erweitern wir das Modell:
F(v, w, tau) – wobei tau die Abtastsequenz ist, die Art und Weise, wie sich der Blick durch die Zeichnung bewegt.

tau ist variabel – verschiedene Betrachter sehen dieselbe Zeichnung in unterschiedlicher Reihenfolge. Und selbst dieselbe Person sieht dieselbe Zeichnung beim zweiten Mal anders, weil sie andere Bereiche fokussiert, andere Verbindungen herstellt.

Micro-Movements: Der Blick liest dasselbe Element mehrfach in verschiedenen Kontexten. Ein Zeichen links oben wird einmal im Verhältnis zu seinem direkten Nachbarn gesehen, dann im Verhältnis zu einem Zeichen unten rechts, dann als Teil einer Gesamtkonstellation. Jedes Mal entsteht eine andere Bedeutungsnuance.

nach oben
Macro-Movements: Der Blick springt zwischen weit entfernten Bereichen hin und her. Diese großen Sprünge verbinden Konstellationen, die räumlich getrennt sind, aber semantisch zusammengehören (könnten).

Konstellationen: Die kleinsten interpretierbaren Einheiten in visueller Notation sind nicht einzelne Zeichen, sondern Konstellationen – Gruppen von Zeichen, die in einer bestimmten räumlichen Beziehung zueinander stehen. Diese Konstellationen haben keine scharfen Grenzen, sie überlappen sich, sie können je nach Abtastsequenz unterschiedlich gruppiert werden.

Erweiterung 2: Verschachtelung (Nesting)

Aber selbst das reicht noch nicht. Denn die Bedeutung eines visuellen Elements hängt nicht nur von seiner Position in der aktuellen Zeichnung ab, sondern auch davon, auf welcher
Verschachtelungsebene ich es betrachte.

Verschachtelung entsteht auf mehreren Ebenen:

(a) Temporale Verschachtelung durch Micro-Movements: Wenn ich meinen Blick durch eine Zeichnung bewege, lese ich dasselbe Zeichen mehrmals in unterschiedlichen Kontexten. Würde man das filmen, sähe man eine klare Sequenz – ähnlich wie Klammern in einem Text, die ineinander verschachtelt sind. Der Blick kehrt zurück, umschließt, rahmt neu.

nach oben
(b) Räumliche Verschachtelung: Zeichen können sich überlagern, sich gegenseitig durchstreichen, übereinander geschichtet sein (Zeichnung auf Zeichnung), in 3D-Installationen in verschiedenen Ebenen angeordnet sein. Das geht über Text hinaus – Text kann keine echte räumliche Tiefe erzeugen.

(c) Verschachtelung durch Macro-Movements: Wenn der Blick zwischen weit entfernten Bereichen hin- und herspringt, entstehen Verschachtelungseffekte. Ein Zeichen wird in einem Kontext gelesen, dann in einem anderen, dann wieder im ersten – aber jetzt mit dem Wissen aus dem zweiten Kontext.

(d) Epistemische Verschachtelung durch Serienkenntnis: Wenn ich mehrere Zeichnungen aus derselben Serie kenne, lese ich jede einzelne Zeichnung anders. Ich erkenne wiederkehrende Muster, Variationen, Entwicklungen. Die Bedeutung eines Zeichens hängt davon ab, ob ich es zum ersten Mal sehe oder ob ich schon hundert ähnliche Zeichnungen kenne.

(e) Verschachtelung durch Konzeptkenntnis: Wenn ich weiß, dass die Zeichen "Darsteller" genannt werden und dass sie ein systematisches Notationssystem bilden, lese ich sie anders als wenn ich sie für spontane Kritzeleien halte.

(f) Verschachtelung durch Zugang zum Darstellerlexikon: Wenn ich Zugang zum Darstellerlexikon habe (online oder in einer Ausstellung), kann ich nachschlagen, wie ein bestimmtes Zeichen in anderen Kontexten verwendet wurde. Das verändert meine Interpretation.

(g) Verschachtelung durch Langzeitkenntnis: Wenn ich Überblick über die gesamte 30-jährige Praxis habe (~7000 Zeichnungen), lese ich jede einzelne Zeichnung in einem anderen Kontext als jemand, der nur eine handvoll kennt.

nach oben
Diese Verschachtelungsebenen sind differenziell verfügbar. Nicht jeder Betrachter hat Zugang zu allen Ebenen. Die Bedeutung eines Zeichens ist relativ zu dem Kontext-Wissen, das der Betrachter mitbringt.

Das ist ein entscheidender Unterschied zu Text: Ein Wort im Wörterbuch hat eine relativ stabile Bedeutung. Ein Zeichen in einem visuellen Notationssystem hat eine Bedeutung, die sich radikal ändert, je nachdem, auf welcher Verschachtelungsebene ich es betrachte.

Text und Bild: Beide notieren Konzepte – aber unterschiedlich

Es gibt eine verbreitete Annahme, dass Text "eindeutig" und Bild "mehrdeutig" sei. Aber das ist zu simpel. Beide – Text und Bild – notieren
Konzepte, nicht direkte Erfahrungen. Aber sie tun es auf unterschiedliche Weise.

Text ist keineswegs immer eindeutig. Der Wiener Kreis versuchte in den 1920er Jahren, eine perfekt logische Sprache zu entwickeln, in der jeder Satz eindeutig wahr oder falsch wäre. Das Projekt scheiterte. Wittgenstein, der anfangs dazu beitrug, erkannte später, dass Sprache nicht so funktioniert. Bedeutung entsteht durch Gebrauch, durch Kontext, durch implizite Regeln, die nie vollständig explizit gemacht werden können.

Und selbst in "normaler" Sprache gibt es ein Spektrum: Mathematische Notation ist extrem eindeutig (im Rahmen ihrer Axiome). Lyrik ist bewusst mehrdeutig, arbeitet mit Assoziationen, Klang, mehrfachen Bedeutungsschichten. Dazwischen liegt alles andere.

nach oben
Das Bild ist nicht per se "mehrdeutiger" als Text. Der Unterschied liegt im Zugang zu den Konzepten:

Text arbeitet
linear, explizit, isolierbar, kontrollierbar. Ich kann Wörter einzeln nachschlagen, Sätze zerlegen, Definitionen liefern. Die Syntax erzwingt eine Reihenfolge. Die Bedeutung entsteht sequenziell.

Visuelle Notation arbeitet
nicht-linear, partiell-vage, vernetzt, weniger kontrollierbar. Ich kann Zeichen nicht einfach "nachschlagen". Die Bedeutung entsteht durch räumliche Beziehungen, durch Konstellationen, durch Abtastsequenzen, durch Verschachtelungsebenen. Manche Bedeutungsnuancen lassen sich gar nicht explizit machen – sie entstehen nur im Vollzug.

Turtle all the way down: Ein Text verweist auf andere Texte, die wiederum auf andere Texte verweisen. "Turtles all the way down." Aber diese Verweisketten sind explizit – ich kann Fußnoten setzen, Zitate belegen, Quellen angeben.

In visueller Notation gibt es dieselbe Struktur – jedes Zeichen verweist auf andere Zeichnungen, andere Konstellationen, die Gesamtpraxis. Aber diese Verweisketten sind
implizit. Sie entstehen durch Wiederholung, durch Variation, durch Ähnlichkeit – nicht durch explizite Referenz.

nach oben
"Unter dem Zensurradar": Das ist ein epistemischer Vorteil. Visuelle Notation kann Konzepte zugänglich machen, die sich schwer explizit formulieren lassen – nicht weil sie "unsagbar" wären, sondern weil die Formulierung sie verzerren würde, sie zu sehr festlegen würde, sie zu stark vereinfachen würde.

Sprachlich formulieren: "Ich mag Pfefferminzdragées nicht, aber meine Partnerin liebt sie" – das ist explizit, klar benennbar. Oder: "A hat eine ambivalente Beziehung zu B" – wo A ein Protagonist ist, die Beziehung positiv (mag, schätzt) oder negativ (findet unangenehm, vermeidet) sein kann, und B alles Mögliche: ein anderer Protagonist, ein Pfefferminzdragée, ein Auto, eine Situation (Zuhause, Landschaft).

Zeichnerisch notieren: Zwei Zeichen mit Pfeilen, die in verschiedene Richtungen zeigen, vielleicht mit unterschiedlichen Farben – vager, weniger explizit. Man kann das zeichnen, ohne es klar benennen zu müssen, ohne zu entscheiden, ob es "Ablehnung" oder "Vermeidung" oder "Unbehagen" ist.

Das ist kein Nachteil, sondern eine andere Art des Zugangs.

Zwei Richtungen: Von Text her denken vs. von Bild her denken

Historisch gab es zwei Richtungen, mit dieser Differenz umzugehen:

(1) Von Text her denken: Man versucht, die Logik von Text zu universalisieren. Man entwickelt Bildgrammatiken, visuelle Syntax-Regeln, Zeichenlexika mit festen Definitionen. Man will das Bild so behandeln, als wäre es ein Text – nur mit anderen Symbolen. Das war das Projekt von HfG Ulm, von Anton Stankowski, von vielen Designtheoretikern der 1960er Jahre.

Das kann funktionieren – für Piktogramme, für Verkehrsschilder, für technische Diagramme. Aber es scheitert bei komplexeren visuellen Systemen, weil es die nicht-lineare, relationale, verschachtelte Struktur von visueller Notation ignoriert.

nach oben
(2) Von Bild her denken: Man akzeptiert, dass visuelle Notation anders funktioniert als Text – und versucht nicht, sie in Text zu übersetzen, sondern systematisiert sie im Bildraum selbst. Man entwickelt keine Grammatik, sondern eine Praxis. Man definiert keine Zeichen, sondern lässt sie durch Wiederholung und Variation Bedeutung gewinnen.

Das ist schwieriger zu theoretisieren, weil es keine expliziten Regeln gibt, die man aufschreiben könnte. Die "Regeln" sind implizit, sie zeigen sich im Vollzug.

Asymmetrie: Es gibt einen Sonderforschungsbereich "Schriftbildlichkeit" (SFB 1391, Freie Universität Berlin), der untersucht, wie Schrift nicht nur semantisch, sondern auch visuell funktioniert. Aber es gibt keinen SFB "Bildschriftlichkeit", der untersucht, wie Bilder nicht nur visuell, sondern auch notational funktionieren. Diese Asymmetrie zeigt, wo das akademische Interesse liegt – und wo es fehlt.

nach oben
Wo das Modell nicht passt

Die zweidimensionale Semantik funktioniert für Eigennamen in der Sprache, weil Namen eine stabile Referenz haben. "Julius" bezieht sich auf denjenigen, der den Reißverschluss erfunden hat – egal in welcher möglichen Welt. Das ist eine
feste Referenz.

Aber was ist mit visueller Notation? Ein Pfeil in einer Zeichnung bezieht sich nicht auf "den Pfeil" als abstraktes Objekt. Er ist Teil einer Konstellation, und seine Bedeutung ändert sich mit der Konstellation.

Das Namensproblem zeigt sich auch in anderen visuellen Systemen. Die ägyptischen Hieroglyphen nutzten "Kartuschen" – ellipsenförmige Felder, in die Namen von Pharaonen silben- und lautschriftlich geschrieben wurden. Die Maya lösten das ähnlich. Interessanterweise half das beim Entziffern beider Schriften, weil man die Herrschernamen aus anderen Quellen kannte – die Kartuschen waren erkennbare "Fremdkörper" im System.

Auch die Gebärdensprache kennt dieses Problem: Für viele Begriffe gibt es Gebärden, aber wenn neue Fachbegriffe auftauchen (etwa in der Physik), dann gibt es oft noch keine etablierte Gebärde. Dann "fingert" man den Begriff – buchstabiert ihn mit dem Fingeralphabet. Das funktioniert nur, wenn Gehörlose neben der Gebärdensprache auch die Schriftsprache beherrschen.

nach oben
Für die Darsteller-Systematik stellt sich die gleiche Frage: Wie notiert man "William C. Whitworth", "Berlin", "Pfefferminz-dragées"? Mögliche Lösungen: (a) Buchstabenketten einführen (wie Kartuschen), (b) ein eigenes Meta-Zeichen für "Name/Bezeichnung" mit Verweis auf externe Liste, oder (c) hybride Notation akzeptieren – wo nötig auf Text zurückgreifen, wie das Fingeralphabet.

Diese strukturelle Grenze ist aufschlussreich: Sie zeigt, wo rein visuelle Notation an ihre Grenzen stößt – nicht bei Konzepten (die lassen sich visualisieren), sondern bei arbiträren Referenzen ohne Bedeutungsgehalt.

Visuelle Zeichen funktionieren nicht über stabile Referenz, sondern über
relationale Positionierung. Ihre Bedeutung ist nicht festgelegt, sondern entsteht im Kontext, in der Konstellation, in der Abtastsequenz, in der Verschachtelung.

Deshalb passt die zweidimensionale Semantik nicht direkt. Aber die Übertragung zeigt, wo sie nicht passt – und das ist produktiv. Es zeigt, was visuelle Notation anders macht.

nach oben
Zusammenfassung: Ein erweitertes Modell

Wenn wir die zweidimensionale Semantik auf visuelle Notation übertragen wollen, brauchen wir ein erweitertes Modell:

F(v, w, tau) + Nesting + Konstellationen

v (Vollzug): Wie wird der Zustand durchlaufen? Prozessual, subjektiv.

w (Struktur): Welche Konstellation liegt vor? Relational, objektiv dokumentierbar.

tau (Abtastsequenz): In welcher Reihenfolge wird die Zeichnung betrachtet? Nicht-linear, variabel.

Nesting (Verschachtelung): Auf welcher Ebene wird die Zeichnung gelesen? Temporal (Micro-Movements), räumlich (Überlagerung), epistemisch (Serienkenntnis, Konzeptkenntnis, Langzeitkenntnis).

Konstellationen: Kleinste interpretierbare Einheiten, keine scharfen Grenzen, überlappend.

Dieses Modell ist komplexer als die zweidimensionale Semantik der Sprachphilosophie. Aber es erfasst besser, wie visuelle Notation funktioniert – nicht als Übersetzung von Text in Bilder, sondern als eigenständige Form der Notation.

Die Sprachphilosophie ist dabei nicht das Ziel, sondern der Baum, an dem ich mich reibe. Die Übertragung funktioniert nicht reibungslos – aber gerade das Reiben zeigt, was anders ist. Und das ist der eigentliche Erkenntnisgewinn.
nach oben

 Zum Seitenanfang



[ Home | Zeichnungsgenerator | Aktuell | Zeichnungen | Projekte | Texte | Service ]
[ Impressum | Mail an Hannes Kater ]