(Note: In: P.Anreiter, P.Ernst & I.Hausner
(Hrsg.) 2002. Namen, Sprachen und Kulturen; Imena, Jeziki in Kulture.
Festschrift für Heinz Dieter Pohl zum 60. Geburtstag, 203-220. Wien: Edition
Praesens. In case of
any discrepancy with the printed version, the printed version will be the
`authorized' version.)
Kognitive Ökonomie -
sprachliche Universalien[1]
Zum Aufbau des
Vortrages
Vorausschicken möchte ich
ein paar Worte zum Aufbau des Vortrages. Zuerst werde ich kurz die Zielsetzung
meiner Arbeiten[2]
skizzieren und das theoretische Umfeld, in welchem sie sich bewegen - es geht,
um es vorwegzunehmen und wie schon im Titel angekündigt - um den Nachweis eines
hohen Erklärungswertes kognitiver Ökonomieprinzipien für bestimmte sprachliche
Universalien.
Innerhalb dieses Rahmens
möchte ich auf drei Aspekte genauer eingehen:
·
auf Ökonomieprinzipien, die
sowohl in der Kognition als auch in der Kommunikation ihren Niederschlag
finden
·
auf das Prinzip des
konstanten Informationsflusses
·
auf die Beziehung zwischen
den Variablen „Häufigkeit“ und „Geläufigkeit“.
Nach diesem eher allgemeinen
und theoretischen Rahmen soll gezeigt werden, inwieweit sprachliche Universalien
unter dem Prinzip des konstanten Informationsflusses zur Deckung gebracht werden
können, inwieweit sie unter dieses Prinzip passen, oder noch anders ausgedrückt,
wie dieses allgemeine Prinzip zur Erklärung von Universalien herangezogen werden
kann.
Unter den Universalien, die
aus dieser Perspektive besonders interessant sind, ist zum einen die von ZIPF
(1929) vorgeschlagene Formel zu erwähnen. Vereinfacht lautet sie: Je häufiger
ein Zeichen, desto kürzer ist es. Mir geht es aber im Folgenden darum, dieses
Prinzip am Beispiel phonologischer Reduktionsprozesse zu demonstrieren, und, was
noch wichtiger ist, die in allen Sprachen festzustellende Kurzkodierung häufiger
Formen als Ergebnis von Reduktionsprozessen zu erklären.
Des weiteren scheint relativ
unabhängig von der jeweiligen Einzelsprache zu gelten, dass alte Information vor
neuer, also "Thema vor Rhema", "Topic vor Comment" steht, und dass das Subjekt
bevorzugt die Anfangstellung einnimmt.
Auch diese universellen
Tendenzen lassen sich, wie ich glaube, auf die Konstanz im sprachlichen
Informationsfluß zurückführen. Ebenso kann das Ökonomieprinzip des konstanten
Informationsflusses für die Reihenfolge in Binomialen eine plausible Erklärung
bieten. Eine einschlägige Arbeit möchte ich im zweiten Teil etwas ausführlicher
vorstellen, weil darin die beiden universellen Tendenzen, Häufiges kurz zu
kodieren und Häufiges an den Anfang zu stellen, systematisch-empirisch
aufeinander bezogen werden.
Nach diesem kurzen Überblick
möchte ich nun mit den Ausführungen zum theoretischen Rahmen
beginnen.
Die Suche nach
Gemeinsamkeiten und Unterschieden in den Sprachen der Welt ist ein zentrales
und, wie ich meine, eines der interessantesten Anliegen der allgemeinen
Sprachwissenschaft. Inwieweit und worin unterscheiden sich die Sprachen? Worin
besteht die Variation, d.h. welche Dimensionen der Variation gibt es und wo
liegen die Grenzen dieser Variation? Mit den Möglichkeiten der Variation befaßt
sich primär die Sprachtypologie, hingegen fällt die Beschäftigung mit den
Grenzen der Variation in den Bereich der Universalienforschung; wobei aber eine
methodische und konzeptuelle Trennung zwischen diesen beiden Forschungsgebieten
gar nicht so leicht möglich ist. Oder anders ausgedrückt: Diese beiden
Kerndisziplinen der Sprachwissenschaft sind durch ihre Beschäftigung mit der
Sprachvariation eng aufeinander bezogen.
Die Universalienforschung
hat sich bislang vor allem auf das Auffinden und Beschreiben von Universalien
konzentriert. Sie beschreibt verschiedene Arten von Universalien, wie absolute,
tendenzielle oder statistische, und schließlich Implikationsuniversalien. Sie
hat interessante Korrelationen zwischen unterschiedlichen Parametern aufgezeigt,
wie z.B. zwischen der Wortfolge und Adpositionen. Sprachen mit der dominanten
Wortfolge „Verbum vor Subjekt vor Objekt“ haben ausschließlich Präpositionen.
Hingegen impliziert die Wortfolge SOV mit mehr als Zufallswahrscheinlichkeit
Postpositionen.
Besonders interessant wird
es aber, wenn man sich nicht nur mit dem Herausfiltern und Beschreiben von
Universalien begnügt, sondern nach Gründen bzw. Erklärungen für solche
Universalien sucht, also auch nach Erklärungen für bereits beschriebene
universelle Tendenzen. Eine Frage könnte z.B. lauten: Warum werden bestimmte
Möglichkeiten der Serialisierung von Subjekt, Objekt, Verb in den Sprachen kaum
oder nicht genützt? Vom rein kombinatorischen Standpunkt aus sind ja sechs
verschiedene Arten der Serialisierung von S, O, V möglich: nämlich SOV, SVO,
VSO, VOS, OSV, OVS. Von diesen logischen Möglichkeiten sind zwei sehr häufig:
90% der Sprachen haben als dominante Wortfolge SOV oder SVO. VSO- oder VOS-
Wortfolge ist schon viel seltener, und Objektanfangstellung kommt in pragmatisch
neutralen Aussagesätzen kaum oder überhaupt nicht vor. Jetzt kann man nach den
Gründen für diese Verteilungsunterschiede fragen. Ich werde unter Punkt 2.2.1.
versuchen, diese Frage zu beantworten.
Welcher Art können solche
Erklärungen sein? Meines Erachtens sind solche Erklärungen wohl am ehesten auf
einer sehr allgemeinen, die Sprachwissenschaft übergreifenden Ebene zu suchen,
und zwar in Form von Ökonomieprinzipien. Solche Prinzipien werden von der
Kognitionstheorie für den Verstand und von der formalen Informationstheorie für
die Verständigung formuliert.
Solche Erklärungen sind dann
naheliegend, wenn man Sprache als ein System sieht, welches sich gemeinsam - in
Koevolution - mit dem kognitiven System entwickelt, wenn man also davon ausgeht,
dass die Entstehung und Weiterentwicklung der natürlichen Sprche einen
bestimmten Entwicklungsstand in kognitiver Hinsicht zur Voraussetzung hat, und
dass umgekehrt ein fortgeschrittener Entwicklungsstand von Sprache positive
Rückwirkungen auf die kognitiven Leistungen hat. (Diese interaktionistische
Sichtweise paßt natürlich auch auf den Spracherwerb der Kinder). Das heißt aber
auch, dass die zu jedem wählbaren Zeitpunkt wirksamen Beschränkungen oder
Limitierungen unserer kognitiven Ressourcen einen präformierenden oder
regulierenden Faktor für die Sprachentwicklung darstellen. Eine Seite dieser
Koevolution ist also, dass sich Sprache in Anpassung an allgemeine kognitive
Möglichkeiten entwickelt.
Damit bin ich eigentlich
schon beim engeren Thema meines Vortrages angelangt: Kann man sprachliche
Universalien auf Prinzipien der Ökonomie in Kognition und Kommunikation
zurückführen?
1.1.
Ökonomie in Kognition und
Kommunikation
Es kann davon ausgegangen
werden, und das wird kaum jemand in Frage stellen, dass unsere kognitiven
Ressourcen in irgendeiner Weise limitiert sind. Wir können pro Zeit nur eine
bestimmte Menge an Information verarbeiten. Daher ist für unsere Verständigung
zu fordern, dass die durch die Kapazitätslimits bedingte Obergrenze nicht
überschritten wird. Auf der anderen Seite aber würde eine allzuhohe Redundanz
nicht nur die für die Verständigung verfügbare Kapazität ungenützt lassen -
sondern sie wäre (sogar) mit einem unökonomischen, luxuriösen Aufwand an
Zeichen, Zeit und Energie verbunden. Hieraus resultiert eine
Untergrenze.
Dieser Tatbestand wird in den Abbildungen 1 und 2 illustrier. Und diesem Tatbestand entspricht die von MANDELBROT (1954) als ökonomisch eingestufte Tendenz, häufig vorkommende Zeichen in kurze Speicherzeichen zu übersetzen.
1.2. Das Prinzip des
konstanten informationsflusses
Von einem
Verständigungssystem, welches die Übermittlung von Nachrichten ohne Verluste
erlauben soll, ist daher nicht nur ein durchschnittliches Redundanzniveau zu
fordern, welches die Kurzspeicherkapazität nicht übersteigt, sondern auch, dass
sich die Information möglichst gleichmäßig auf kleine Abschnitte verteilt. Zu
große Unterschiede würden entweder bedeuten, dass an den informationsreichsten
Stellen die Verarbeitungskapazität überschritten wird und/oder in der restlichen
Zeit die zur Verfügung stehende Kapazität nicht genutzt
wird.
In Abbildung 1 sehen Sie das
Schema eines kapazitätsüberfordernden, unökonomischen Informationsflusses, in
Abbildung 2 das Schema einer Sprache mit einem Informationsfluss, bei dem
einerseits wenig von der Nachricht verloren geht - kurzzeitige Überschreitungen
der Kapazitätslimits werden von redundanten Passagen gefolgt, in denen die
Verarbeitung nachgeholt werden kann, und andererseits die Kapazität ökonomisch
genutzt wird.
Inf.
t Kapazitäts-
limit
Abbildung 1: Schema eines
kapazitätsüberfordernden und unökonomischen
Informationsflusses
(aus
FENK & FENK 1980, S.403)
Inf.
t
Kapazitäts-
limit
Abbildung 2: Schema eines
ökonomischen und der Kapazität besser angepaßten
Informationsflusses
(aus
FENK & FENK 1980, S.403)
Nun zum dritten (letzten)
Aspekt des theoretischen Rahmens, nämlich zur Rolle der beobachtbaren und
empirisch faßbaren Frequenz.
1.3. Häufigkeit und
Kognition
Als das vielleicht
allgemeinste kognitive Prinzip kann gelten, dass wir aus dem Geschehen Redundanz
(Regularitäten) herausfiltern, sodass in Hinkunft mehr von unseren kognitiven
Ressouren für die Analyse des jeweils Neuen, Informativen frei verfügbar ist.
Hypothesenbilden durch Abstraktion und
Hypothesenprüfen kann man als jene Mittel verstehen, die es dem
kognitiven System ermöglichen, trotz informationaler Beschränkungen seine
Leistungsfähigkeit zu steigern. Und die Hypothesen selbst, und damit sind wir
auch schon bei der Häufigkeit, basieren auf der Extrapolation relativer,
insbesondere relativer bedingter
Häufigkeiten.
In der
Wahrnehmungspsychologie wie auch der Gedächtnispsychologie steht die zentrale
Rolle der Frequenz außer Frage: die Input- beziehungsweise die Übungshäufigkeit
determiniert z.B. die Identifikationsgeschwindigkeit und die Zugänglichkeit für
Abrufprozesse. Und die Häufigkeiten werden empirischen Untersuchungen zufolge
unablässig und fast automatisch registriert. Ich möchte hier darauf verzichten,
entsprechende Befunde anzuführen. Ich erwähne die zentrale Rolle der Frequenz in
unserer Kognition deswegen, weil die Beschäftigung mit der Frequenz in der
Linguistik oft als nicht relevant und inhaltsleer abgetan wird: Die Frequenz
könne bestenfalls Epiphänomen sprachlicher Strukturen sein, sie könne aber im
Erklärungszusammenhang keine Rolle spielen.
1.3.1.
Häufigkeit und
Geläufigkeit
Wenn es z.B. im Folgenden
heißt, dass Geläufiges kurz kodiert wird, dann ist dies zugegebenerweise bereits
eine interpretierende Aussage. Was wirklich systematisch und in großem Umfang
empirisch faßbar ist, ist die Frequenz. Und im allgemein bekannten Zipf'schen
Gesetz wird ja nicht die Geläufigkeit, sondern die Frequenz mit der Länge von
Wortformen in Verbindung gebracht. Diese Frequenz geht aber wesentlich in die
Geläufigkeit ein. Etwas, was wir häufig hören, ist uns auf Grund der großen
Inputhäufigkeit geläufig, und noch geläufiger sind uns sprachliche Einheiten,
wenn wir sie häufig selber verwenden, und zwar
·
auf Grund der häufigen
Aktivierung der Artikulationsprogramme und
·
weil wir bei jedem Sprechakt
zusätzlich wieder Hörer sind, in diesem Fall Hörer der eigenen
Sprachproduktion.
Zu diesem
kognitionstheoretischen Rahmen gäbe es natürlich noch viel zu sagen. Ich will
aber hier einen Schlußstrich ziehen und mich den sprachlichen Universalien
zuwenden und der Frage, inwieweit diese Universalien unter den besprochenen
allgemeinen Prinzipien zur Deckung zu bringen sind.
2.
Sprachuniversalien, die dem Konstanzprinzip
entsprechen
Die erste dieser
universellen Tendenzen:
2.1.
Geläufiges wird kurz
kodiert
Mandelbrot zufolge - und das habe ich ja schon erwähnt - entspricht es einem ökonomischen Umgehen mit Ressourcen, häufig vorkommende Signale in kurze Speicherzeichen zu übersetzen. Diese aus der formalen Kommunikationswissenschaft stammende Regularität hat auch innerhalb der Linguistik eine große Erklärungskraft bewiesen. Je häufiger ein Wort verwendet wird, umso kürzer ist es. Diese Aussage hat u.a. bereits Zipf getroffen, sie ist aber - nebenbei bemerkt - nicht jenes Zipf'sche Gesetz, als das es oft benannt wird.
Worüber man sich auf Grund
hoher Relevanz für die Lebensvollzüge in einer bestimmten Sprachgemeinschaft
häufig verständigen will oder muß, dafür findet man kürzere Ausdrücke. Diese in
Sprachstatistiken auffindbare Korrelation zwischen Häufigkeit und Kürze läßt
sich m.E. auffassen als dauerhafter Niederschlag von Einsparungen, wie wir sie
uns im täglichen Leben dauernd gestatten, eben in dem Ausmaß, wie es der Kontext
und das Vorwissen des Gesprächspartners erlaubt. Beispiele für solche Erklärungen: Die Fenk hält heute auf der Uni einen
Habil-Vortrag. Die Profs sind ....(Uni statt Universität, Habil statt Habilitation, Profs statt Professores)
Aber auch Automobil → Auto, Kinematographie → Kino, chemin de fer métropolitain → métro usw.
2.1.1.
Am Beispiel phonologischer
Reduktionsprozesse
Aber nicht nur Verkürzungen
bzw. das sogenannte „clipping“ sind für diese Kurzkodierung häufiger Wörter
verantwortlich, sondern auch phonologische Reduktionsprozesse, die allesamt
Reduzierungen des artikulatorischen Aufwandes mit sich bringen und in der
Literatur oft auch als assimilatorische Prozesse den dissimilatorischen
Prozessen gegenübergestellt werden. Derartige Prozesse sind z.B. Abschwächungen,
Fusionen, Vokalreduktionen, Tilgungen, Lenisierungen usw.
Joan Bybee bemängelt in
einer jüngst erschienenen Arbeit, dass die synchrone Beschreibung des Zipf'schen
Gesetzes zu sehr im Vordergrund stehe, und dass den diachronen Mechanismen, die
zu einer Kurzkodierung der häufigen Wörter führen, viel zuwenig Beachtung
geschenkt werde. Insbesondere werde der Zusammenhang von phonologischen
Reduktionsprozessen und deren bevorzugtem Auftreten bei häufigen Wörtern zu
wenig beachtet. Die Tatsache, dass phonologische Reduktionsprozesse bei häufigen
Wörtern zuerst eintreten, steht für Bybee außer Zweifel (Das ist aber nicht
Allgemeingut, andere Autoren, z.B. DRESSLER 1984, machen nur den Sprachstil oder
den Formalitätsgrad und das Sprechtempo dafür verantwortlich.) Bybee kann aber
nicht die Frage beantworten, weshalb reduktiver Lautwandel zuerst bei häufigen
Wörtern einsetzt. Wenn Reduktionsprozesse, so wundert sich Bybee[3],
durch eine Art physikalischer Ökonomie der Artikulation bedingt sind, warum
kommt diese Ökonomie dann nicht auch bei seltenen Wörtern zum
Tragen?
Diese Frage läßt sich aus
dem beschriebenen Ökonomieprinzip ohne Schwierigkeit beantworten: Nur dort, wo
etwas auf Grund hoher Häufigkeit in einem bestimmten Kontext geläufig ist und
auch beim Kommunikationspartner als geläufig vorausgesetzt werden kann, kann man
Vokale kürzen, Konsonanten verschlucken usw.
Die Hypothese, die sich in
diesem Zusammenhang formulieren läßt, heißt also: Je geläufiger ein Wort auf
Grund seiner großen Verwendungshäufigkeit ist, umso anfälliger ist es für
phonologische Reduktionsprozesse oder
Backgrounding-Prozesse.
Verschiedene Varianten dieser Hypothese reichen übrigens schon weit zurück. So stellten schon arabische Grammatiker des Mittelalters fest, dass phonologische Abschwächungsprozesse bei häufigen Wörtern zuerst oder bevorzugt auftreten.
Dieser Nachweis war auch gar
nicht so schwer zu bringen. An englischen, russischen und auch einigen deutschen
und schwedischen Beispielen konnte ich zeigen, dass Backgrounding-Prozesse
bevorzugt oder zumindest zuerst bei häufigen Wörtern auftreten. Dies betrifft
sowohl den Wortanfang: Aphaerese (Tilgung der Anfangssilbe) oder Aphesie
(Tilgung des Anfangsvokals) ist besonders häufig bei besonders häufigen
englischen Wörtern zu beobachten, z.B. about→ bout, because →cause, around → round, excuse→ scuse usw. Aber auch in der
Wortmitte und am Wortende wird reduziert, getilgt, und wieder besonders häufig
bei häufigen Wörtern. Einige Beispiele aus dem Russischen: Das sehr häufige Wort
ničego (nichts) –Sie kennen es
wahrscheinlich – wird zu ničo; sebja (sich) zu sja; chodit (er, sie, es geht) zu choit; tebja(dich) zu tia usw... Ich kann hier aus Zeitgründen
nicht zu sehr ins Detail gehen. Ich greife aber eine in meiner Arbeit gefundene
Regularität heraus, weil sie offenbar auch die Reihenfolge von Binomialen
beeinflußt.
Es zeigt sich, dass jene
Konsonanten, die laut ALEXANDER (1988) im Englischen die letzte Stufe von
Abschwächungsprozessen darstellen, trotz ihrer insgesamt nicht sehr großen
Häufigkeit sehr häufig am Anfang der häufigsten englischen Wörter stehen. Die
entsprechenden Zahlen lassen darüber hinaus eine negative Korrelation zwischen
dem Obstruenzgrad der Anfangskonsonanten – von glides bis stops – und der
Häufigkeit der jeweiligen Wörter vermuten. Weiters konnte ich anhand einer
Untersuchung der 1000 häufigsten Wörter des Englischen zeigen, dass der Anteil
der „schwachen “ Konsonanten ([y], [w], [h], [θ], [ð]) am Wortanfang von der
Häufigkeitsklasse 1-500 bis zur nächsten Häufigkeitsklasse 500-1000 drastisch
abfällt Die genauen Prozentangaben finden sie in Tabelle 1 auf dem Handout.
Tabelle 1. Die Verteilung
„schwacher“ Anfangskonsonanten innerhalb der 1000 häufigsten Wörter des
Englischen
Anfangs-
Häufigkeitsklasse
Häufigkeitsklasse
Konsonant
1-500
500-1000
[y]
1.4%
0.8%
[w]
5.0%
3.0%
[h]
7.4%
3.4%
[θ]
4.0%
1.4%
[ð]
2.6%
0.5%
Natürlich hängt das Ausmaß
der phonologischen Backgrounding-Prozesse vom jeweiligen Sprachtyp ab. Sprachen
mit Akzentrhythmus tendieren von vornherein zu mehr Reduktionen als Sprachen mit
Silbenrhythmus. Aber auch Sprachen mit Silbenrhythmus kennen
Backgrounding-Prozesse wie Vokalreduktionen oder Tilgungen von Konsonanten und
Vokalen, wenn auch in geringerem Ausmaß. Ich erwähne dies deswegen, weil in
einem der Gutachten die Möglichkeit der phonologischen Reduktion und deren
Abhängigkeit von der Frequenz in Turksprachen, also in Sprachen mit
Vokalharmonie, ausgeschlossen wird. Im folgenden einige Beispiele aus dem
Türkischen:
burada (hier)→ burda, geliyorum (ich komme)→ geliyom,
Allah haismarladik →
Alasmarladik
(Abschiedsgruss)
Ich komme nun auf zwei
weitere Universalien zu sprechen, die sich auf einen gemeinsamen Nenner bringen
lassen:
2.2. Geläufiges wird
an den Anfang gestellt
Einerseits ist es eine
Tatsache, dass auf den Anfang von Sequenzen die größte Unsicherheit
(Information) entfällt, weil das Wissen um die sequenzinterne Redundanz nicht
anwendbar ist. Erst im Laufe der Sequenz kann die sequenzinterne Redundanz im
Sinne einer Informationsreduktion ausgenutzt werden. Würde diese Anfangsposition
nun mit einem informationsreichen Element besetzt, so würde dies zu nicht
verkraftbaren Informationsspitzen führen. Es entspricht also einem ökonomischen
und konstanten Informationsfluss, die informationsreichen Elemente auf spätere
Positionen zu verschieben und an die erste Position ein Element zu setzen,
welches auf Grund seiner Geläufigkeit diese Spitze dämpft.
Das Konstanzprinzip kann in
diesem Sinne für die beiden folgenden universellen Tendenzen verantwortlich
gemacht werden, nämlich:
2.2.1.
Die Tendenz, „alte“
Information vor „neue“ zu stellen
Was im vorhergehenden
Diskurs bereits aufgeschienen ist, also in diesem Kontext (aber auch im
jeweiligen situativen Kontext) alt und vertraut ist, hat in eben diesem Kontext
eine geringere subjektive Information, seine Analyse erfordert geringere
kognitive Kosten. Es entpricht also dem ökonomisch motivierten Konstanzprinzip,
"alte" Information vor "neue" zu stellen, also Thema vor Rhema oder Topic vor
Comment. Die Dichotomie alt/neu ist zwar nicht gleichzusetzen mit Thema/Rhema
oder Topic/Comment, gilt aber wohl als ein wesentliches
Unterscheidungsmerkmal.
Das gleiche
Erklärungsprinzip kann auch für die in der Einleitung erwähnte Bevorzugung der
Subjektanfangsstellung herangezogen werden. Die hier angebrachte Erklärung ist
dann zulässig, wenn man das prototypische Subjekt als Verbindung der
semantischen Rolle "Agens" und der pragmatischen Kategorie "Topic"
auffaßt.
2.2.2. Die Tendenz, in „freezes“ (Binominalen) mit dem häufigeren der koordinierten Elemente zu beginnen
Diese universelle Tendenz
möchte ich etwas ausführlicher diskutieren, und zwar aus folgendem Grund: Die
bisherigen universellen Tendenzen waren schon bekannt (Thema vor Rhema,
Subjektanfangsstellung). Mein Beitrag hat in diesen Fällen vor allem darin
bestanden, eine einheitliche Erklärung für diese Tendenzen zu
finden. Auf die im folgenden zu besprechende universelle Tendenz bin ich erst
auf Grund des dargelegten theoretischen Blickwinkels aufmerksam geworden, und
meines Wissens hat diese universelle Tendenz bisher noch niemand in der
Literatur erwähnt:
Worum geht es: Eine häufig
diskutierte Frage ist die nach den Faktoren, welche die Reihenfolge in
Binomialen regeln oder determinieren. Binomiale sind koordinierte Phrasen, in
denen die Reihenfolge der Elemente gewissermaßen eingefroren ist, weshalb diese
Binomiale auch "freezes" genannt werden. Einige Beispiele: Messer und Gabel, Angst und Schrecken, oben und unten, Haus und Hof, Milch und Honig, Pferd und Reiter.
Von meiner theoretischen
Warte her lag die Vermutung nahe, dass auch hier die Regel "Geläufiges in
Anfangsposition" eine Rolle spielen könnte. Die ebenso naheliegende
Operationalisierung: Die Tokenfrequenz wird als Indikator für hohe Geläufigkeit
herangezogen, sodass die empirisch prüfbare Regularität lautet: „Häufigeres vor
Seltenerem“.
Diese Regel konkurriert
allerdings mit einer ganzen Reihe anderer Regeln, die bereits in der
Fachliteratur zur Erklärung der Reihenfolge in Freezes vorgeschlagen wurden. Ich
werde hier kurz die Prinzipien vorstellen, die von COOPER und ROSS (1975) für
die Reihenfolge in Freezes verantwortlich gemacht wurden. Cooper und Ross machen
sowohl semantische Regeln wie auch phonologische Regeln für die Reihenfolge in
Freezes verantwortlich. Sie unterstreichen die Wichtigkeit eines semantischen
"Me- first“ Prinzips: Konzepte und Eigenschaften, die den prototypischen
Sprecher beschreiben oder am besten auf ihn zutreffen, tendieren dazu, an erster
Stelle zu stehen. Für eine große Anzahl von Freezes, die keiner semantischen
Interpretation zugänglich scheinen, machen die Autoren folgende phonologische
Beschränkungen verantwortlich: Das Erstwort hat im Vergleich zum Zweitwort
weniger Silben, kürzere Vokale, weniger Konsonanten im Anlaut und im Auslaut,
schwächer obstruente Konsonanten im Anlaut, sowie eher
Vordervokale.
Mein Gegenargument ist also
die einfache Regel: Häufigeres vor Seltenerem (H>S). Ich habe daher die
Trefferhäufigkeit dieser Regel anhand von 400 Freezes untersucht und mit der
Trefferhäufigkeit konkurrierender Regeln am selben sprachlichen Material
verglichen. Dabei habe ich fast ausschließlich Freezes herangezogen, die in der
Literatur als Instanzen für andere Regularitäten angeführt werden, die also in
der Literatur als Bestätigung für konkurrierende Regeln gelten. Es wurde
also schon bei der Zusammensetzung der Datenstichprobe eine möglichst strenge
Prüfung meiner Hypothese angestrebt.
Aus diesen genannten Gründen
halte ich verschiedene kritische Gutachter-Meinungen zur Auswahl der Stichprobe
für nicht besonders stichhaltig. Wenn z.B. in einem Gutachten gesagt wird, auf
Busch und Tal hätte ich verzichten
können, so kann ich nur sagen, dass ich es bei der Durchhaltung der vorher
geschilderten Auswahlkriterien nicht hätte tun können. Obwohl ich es liebend
gerne getan hätte, weil gerade diese Binomiale zu jenen Beispielen gehört, die
meine Regel durchbrechen. Eine andere kritische Bemerkung stammt von einem
„native speaker“ des Englischen. Er macht mich darauf aufmerksam, dass ihm
einige der englischen Freezes unbekannt seien, oder zumindest in dieser
Wortreihenfolge. Wie gesagt, ich habe mich in diesem Fall auf jene native
speaker verlassen, die sich mit diesen Freezes in ihrer Muttersprache an die
Fachöffentlichkeit gewagt haben, von dieser oft zitiert und meines Wissens in
diesem Punkt nie kritisiert wurden.
Das Ergebnis meiner empirischen Untersuchung sehen Sie in Abbildung 3. Meine Regel erklärt 84% der Fälle, die beste konkurrierende Regel nur 3.
Abbildung 3: Die Erklärung der
Wortreihenfolge in 400 "freezes" durch 5 konkurrierende Regeln. Spitzenreiter
ist mit 84,3% die Regel H>S ("Häufigeres vor Seltenerem"). (Abgeändert nach
FENK-OCZLON 1989a, S. 531)
Vielleicht noch
interessanter erscheint mir ein Ergebnis, welches in Abbildung 4 dargestellt
wird. Nämlich: Meine Regularität erzielt nicht nur die mit Abstand größte
Trefferhäufigkeit, sondern paßt auch auf einen extrem großen Teil jener Freezes,
deren Erklärung auch die konkurrierenden Regeln
beanspruchen.
Abbildung 4: Die Regel H>S ("Häufigeres vor Seltenerem") erklärt einen Großteil jener Instanzen, welche auch die unmittelbaren Konkurrenten wie K>L ("Kürzeres vor Längerem") erklären könnten. (Abgeändert nach FENK-OCZLON 1989a, S. 532)
Das
hat mich in dem Verdacht bestärkt, dass einige dieser konkurrierenden Regeln
sich auf meine allgemeine Regel zurückführen lassen, bzw. dass der Faktor
Frequenz auch auf dem Umweg über andere Faktoren die Reihenfolge in Freezes
beeinflußt.
Dieser Punkt, der mir
persönlich besonders interessant erscheint, wird in Abbildung 5 illustriert. Das
dort skizzierte Bedingungsgefüge veranschaulicht die zu untersuchenden
Beziehungen zwischen hypothetischen Einflußgrößen - das sind die unabhängigen
Variablen auf der linken Seite der Abbildung - und der abhängigen Variable, also
der Reihenfolge in Freezes, auf der rechten Seite der Abbildung. Die Beziehung
zwischen diesen Einflußfaktoren und der abhängigen Größe werden im Sinne von
Regularitäten formuliert. Beispiele finden Sie in der mittleren
Kolonne.
Abbildung 5: Die zentrale Rolle der Häufigkeit für die Reihenfolge der Wörter in "freezes"
Ich möchte nun ganz zentrale Punkte mit Hilfe dieser Abbildung erläutern:
1)
Innerhalb der untersuchten Regeln ist die einfache Regel „häufiges vor
seltenem“ die mit Abstand erfolgreichste, sie erzielt die mit Abstand größte
Trefferhäufigkeit. (Das wird durch die dicke Linie symbolisiert).
2)
Es gibt eine Reihe von Regeln, die ebenfalls Erklärungswert besitzen,
allerdings nur für einen kleinen Teil der Stichprobe. Einige dieser Regeln
können schon deswegen keine große Trefferhäufigkeit erzielen, weil sie nur auf
eine beschränkte Anzahl von Freezes anwendbar sind. Wenn z.B. das erste und das
zweite Wort dieselbe Anzahl von Silben aufweisen, dann ist die Regel „kurz vor
lang“ nicht anwendbar (das war z.B. bei 244 der 400 Freezes der Fall). In meiner
Arbeit hat sich aber auch herausgestellt, dass eine ikonische Kodierung
raum-zeitlicher Verhältnisse tatsächlich zur Durchbrechung meiner Regel H>S
führt: Was der Chronologie der beschriebenen Vorgänge entspricht, findet einen
Niederschlag auch in der Folge der einschlägigen Anordnung, früher oder später, das räumlich
Naheliegende, das oben Liegende, das vorne Liegende, aufwärts vor abwärts... alle lassen sich i.S. einer
Chronologie Relation deuten. Und drittens kann ich und kann niemand
ausschließen, dass es weitere Faktoren gibt, die weder in der bisherigen
Literatur noch in meiner Arbeit in Betracht gezogen wurden. Dies soll durch den
strichlierten Block ganz unten in der Abbildung angedeutet
werden.
Ein Vorschlag, wie derartige
weitere Felder inhaltlich zu füllen wären, wurde in einem der Gutachten gemacht,
und zwar im Sinne eines Vorwurfs. Ich hätte nicht in Betracht gezogen, dass bei Binomialen auch der
Stabreim - Beispiel: Glanz und Gloria - und der Reim - Beispiel: Ach und Krach - eine Rolle spielt.
Dieser Vorwurf erscheint mir nicht gerechtfertigt, denn
erstens
habe ich auf den Tatbestand der Alliteration hingewiesen
und
zweitens
scheidet dieser Faktor als Erklärung für die Reihenfolge in freezes aus.
Ein Stabreim liegt ja auch dann vor, wenn ich Gloria und Glanz sage, und mit einem
Reim haben wir es auch dann zu tun, wenn ich Krach und Ach sage. Alliteration und
Reim sind also interessante Phänomene, wenn es um eine andere Fragestellung
geht, nämlich um die Frage, welche Elemente sich bevorzugt zu einem Wortpaar
zusammenfügen. Irrelevant ist sie für meine Fragestellung nach den Faktoren,
welche die Reihenfolge der Wörter
regeln.
drittens
Der Faktor Häufigkeit beeinflußt die Reihenfolge in Freezes nicht nur
direkt und stärker als die anderen Faktoren, sondern er beeinflußt sie auch
indirekt, nämlich auf dem Umweg über die konkurrierenden Regeln (Faktoren) aus
dem semantischen, phonologischen bzw. rhythmischen
Bereich.
Um einige Beispiele zu
nennen: „kurz vor lang“, wie Sie in der Abbildung 5 sehen, hat durchaus
Erklärungswert, aber die Kürze der Elemente ist ihrerseits zumindest teilweise
als Folge hoher Verwendungshäufigkeit aufzufassen - darauf bin ich ja unter
Punkt 2.1. bereits eingegangen. Am Rande erwähnt: Die Regel „kurz vor lang“ wird
in der Literatur praktisch immer als phonologische Regel bezeichnet, während ich
meine, dass man sie zumindest ebensogut als eine Regel auffassen kann, welche
rhythmische Faktoren betrifft. Und gerade dann, wenn man rhythmische Faktoren
für relevant hält - und die einzig dazu vorgeschlagene Regel ist „kurz vor
lang“-, wird man den indirekten Einfluß auf dem Umweg über diesen Faktor
zugestehen müssen, weil eben Kürze in hohem Ausmaß durch hohe Tokenfreqenz
mitbedingt ist.
Eine dieser weiteren
konkurrierenden Regeln sagt: Das Erstwort hat weniger obstruente
Anlautkonsonanten als das Zweitwort. Auch diese Regel hängt in hohem Ausmaß -
zumindest im Englischen - mit der Häufigkeit des Wortes zusammen. Ich habe
diesen von mir untersuchten Zusammenhang bei den phonologischen
Reduktionsprozessen erwähnt.
Aber auch die Regel, dass
das Erstwort weniger Konsonanten im Anlaut hat, kann ohne Schwierigkeit mit der
größeren Häufigkeit des Erstwortes in Verbindung gebracht werden. Eine von mir
durchgeführte Überprüfung der Konsonantencluster im Anlaut zeigt, dass z.B. im
Englischen von den 500 häufigsten Wörtern nur 7,4% zwei Konsonanten im Anlaut
haben, von den 500-1000 häufigsten Wörtern aber schon 18%. Auch im Russischen
und im Deutschen - ich will Sie mit weiteren Zahlen verschonen - nimmt die Zahl
der Konsonantencluster im Anlaut mit der Häufigkeit rapide
ab.
Bezüglich der größeren
Vokalkürze im Erstwort, einer weiteren Regel, kann ich mich auf Untersuchungen
anderer Autoren berufen. Zum Beispiel auf FIDELHOLTZ (1975) oder PAGLIUCA
(1976). Beide Autoren haben festgestellt, dass die Vokale bei häufigeren Wörtern
viel eher reduziert werden als bei seltenen.
Bei der Regel „Erstwort hat
eher hohe Vordervokale, Zweitwort eher tiefe Hintervokale“ ist der Zusammenhang
mit der Frequenz nicht eindeutig. Für diese Regularität, die vor allem mit der
Codierung räumlicher Verhältnisse in Verbindung zu bringen ist, lassen sich
durchaus lautsymbolische Erklärungen denken.
Einige weitere Regeln habe
ich unter dem Oberbegriff semantische Faktoren zusammengefaßt: Hierher gehört
z.B. das sogenannte "Me-first Prinzip“
Damit möchte ich aber das
Thema Freezes abschließen und auch zum Schluß des Vortrages kommen.
3.
Schluss
Eine Konsequenz läßt sich
aus den bisher angestellten Überlegungen ziehen: Dass die Sprachen so sind wie
sie sind oder wie wir sie kennen, hat offenbar mit Ökonomieprinzipien zu tun.
Dabei bilden die Frequenz und die Geläufigkeit gewissermaßen die Brücke zwischen
allgemeinen Ökonomieprinzipien, welche die Kognition und Kommunikation
beherrschen, und konkret auffindbaren sprachlichen Strukturen. Zumindest in
Hinkunft sollte es also schwer fallen, die Beschäftigung mit der Frequenz als
inhaltsleer abzutun, oder als irrelevant in linguistischen
Begründungszusammenhängen. Sowohl die kognitionstheoretischen Argumente als auch
die vergleichenden linguistischen Ergebnisse, die ich heute nur ausschnittweise
vorstellen konnte, ergeben nämliche in ganz anderes Bild: Darin
spielt die Frequenz eher die Rolle einer Drehscheibe als die eines bloßen
Epiphänomens. Diese Rolle wird wesentlich durch den Umstand geprägt, dass sich
mit einer empirisch direkt faßbaren Größe empirisch prüfbare Vorhersagen und
nicht nur plausibel klingende Erklärungen formulieren
lassen.
1988
Aphesia in English. Word 39:29-65.
1994
A view of phonology from a cognitive and functional perspective.
In: Cognitive Linguistics 5,
S. 285-305.
COOPER, William & ROSS,
John.R.
1975 World
order. In: Papers from the Parasession on Functionalism . R.E. Grossman, et al. (eds.) Chicago:Chicago Linguistic
Society.
DRESSLER, Wolfgang U.
1984
Explaining Natural Phonology. In: Phonology
Yearbook 1, p. 29-51.
FENK, August/FENK, Gertraud
1980
Konstanz im Kurzzeitgedächtnis – Konstanz im sprachlichen
Informationsfluß? In: Zeitschrift für experimentelle und angewandte Psychologie
33, S. 208-253.
FENK-OCZLON,
Gertraud
1989a Word
frequency and word order in freezes. In: Linguistics 27, p.
517-556.
1989b Geläufigkeit als Determinante von phonologischen Backgrounding Prozessen. In: Papiere zur Linguistik 40, S. 91-103.
1990a Ökonomieprinzipien in Kognition und Kommunikation. In: N.Boretzky, W.Enninger, T.Stolz (Hrsg.) Spielarten der Natürlichkeit – Spielarten der Ökonomie. S. 37-50. Bochum: Brockmayer.
1990b Ikonismus versus Ökonomieprinzip. Am Beispiel russischer Aspekt-und Kasusbildungen. In: Papiere zur Linguistik 40, S. 46-69.
1991
Frequenz und Kognition – Frequenz und Markiertheit. In: Folia Linguistica 25, S.
361-394.
2001
Familiarity, information flow, and linguistic
form. In: Joan L. Bybee/Paul Hopper (eds.) Frequency and the emergence of
linguistic structure. p. 431-448. Typological Studies in Language 45. Amsterdam:
John Benjamins Publishing Company.
in Druck Osvedomlennost‘, potok informacii i lingvističeskaja forma. In: Lekcii po kognitivnym naukam. V.D. Solovjev (ed.) Kazan: izdatel’stvo „DAS“.
FIDELHOLTZ,
James
1975
Word frequency and vowel reduction in English. In: Papers of the Chicago
Linguistic Society 11, p. 200-214.
MANDELBROT, Benoit B.
1954
Structure formelle des textes et communication. Deux études. In: Word 10,
PAGLIUCA,
William
1975
PRE-fixing.MS
SUNY/Buffalo.
ZIPF, George K.
1929
Relative frequence as a determinant of phonetic change. Harvard Studies
in Classical Philology 40, 1-95.
[1] Es handelt sich hier um den Text meines Habilitationsvortrages vom 4. Dezember 1990. Die Festschrift für Heinz-Dieter Pohl erscheint mir als passende Gelegenheit zur Veröffentlichung dieses Vortrages aus zweierlei Gründen: Heinz-Dieter Pohl war Mitglied der Professorenkurie „meiner“ Habilkommission. Und die Thematik, mit der sich der Vortrag damals vor gut 10 Jahren beschäftigte, gewinnt zunehmend an Aktualität (vgl. z.B. die Tagungen „Frequency and Emergent Grammar“ in Pittsburgh 1999 und „Cognitive Typology“ in Antwerpen im vergangenen Jahr sowie das aktuelle Graduiertenkolleg „Ökonomie und Komplexität in der Sprache“ in Berlin und Potsdam). Den Vortragstext habe ich unverändert gelassen, neu hinzugekommen sind die Fußnoten und die bibliographischen Angaben. Einige Abbildungen und eine Tabelle habe ich aus dem seinerzeitigen Handout übernommen.
[2] Gemeint sind die als kumulative Habilitationsschrift vorgelegten Artikel: FENK-OCZLON 1989a, 1989b, 1990a, 1990b, 1991. Eine Zusammenfassung dieser Arbeiten in englischer Sprache ist soeben in den Proceedings über „Frequency and Emergent Grammar“ erschienen (FENK-OCZLON 2001). Eine Publikation in russischer Sprache steht bevor (FENK-OCZLON, in Druck).
[3] Mittlerweile hat Bybee ihre Position etwas geändert (vgl. z.B.BYBEE 1994).