(Note: In: P.Anreiter, P.Ernst & I.Hausner (Hrsg.) 2002. Namen, Sprachen und Kulturen; Imena, Jeziki in Kulture. Festschrift für Heinz Dieter Pohl zum 60. Geburtstag, 203-220. Wien: Edition Praesens. In case of any discrepancy with the printed version, the printed version will be the `authorized' version.)

Kognitive Ökonomie - sprachliche Universalien[1]

Gertraud Fenk-Oczlon, Universität Klagenfurt

 

 

 

Zum Aufbau des Vortrages

 

Vorausschicken möchte ich ein paar Worte zum Aufbau des Vortrages. Zuerst werde ich kurz die Zielsetzung meiner Arbeiten[2] skizzieren und das theoretische Umfeld, in welchem sie sich bewegen - es geht, um es vorwegzunehmen und wie schon im Titel angekündigt - um den Nachweis eines hohen Erklärungswertes kognitiver Ökonomieprinzipien für bestimmte sprachliche Universalien.

Innerhalb dieses Rahmens möchte ich auf drei Aspekte genauer eingehen:

·        auf Ökonomieprinzipien, die sowohl in der Kognition als auch in der Kommunikation ihren Niederschlag finden

·        auf das Prinzip des konstanten Informationsflusses

·        auf die Beziehung zwischen den Variablen „Häufigkeit“ und „Geläufigkeit“.

 

Nach diesem eher allgemeinen und theoretischen Rahmen soll gezeigt werden, inwieweit sprachliche Universalien unter dem Prinzip des konstanten Informationsflusses zur Deckung gebracht werden können, inwieweit sie unter dieses Prinzip passen, oder noch anders ausgedrückt, wie dieses allgemeine Prinzip zur Erklärung von Universalien herangezogen werden kann.

 

Unter den Universalien, die aus dieser Perspektive besonders interessant sind, ist zum einen die von ZIPF (1929) vorgeschlagene Formel zu erwähnen. Vereinfacht lautet sie: Je häufiger ein Zeichen, desto kürzer ist es. Mir geht es aber im Folgenden darum, dieses Prinzip am Beispiel phonologischer Reduktionsprozesse zu demonstrieren, und, was noch wichtiger ist, die in allen Sprachen festzustellende Kurzkodierung häufiger Formen als Ergebnis von Reduktionsprozessen zu erklären.

 

Des weiteren scheint relativ unabhängig von der jeweiligen Einzelsprache zu gelten, dass alte Information vor neuer, also "Thema vor Rhema", "Topic vor Comment" steht, und dass das Subjekt bevorzugt die Anfangstellung einnimmt.

 

Auch diese universellen Tendenzen lassen sich, wie ich glaube, auf die Konstanz im sprachlichen Informationsfluß zurückführen. Ebenso kann das Ökonomieprinzip des konstanten Informationsflusses für die Reihenfolge in Binomialen eine plausible Erklärung bieten. Eine einschlägige Arbeit möchte ich im zweiten Teil etwas ausführlicher vorstellen, weil darin die beiden universellen Tendenzen, Häufiges kurz zu kodieren und Häufiges an den Anfang zu stellen, systematisch-empirisch aufeinander bezogen werden.

 

Nach diesem kurzen Überblick möchte ich nun mit den Ausführungen zum theoretischen Rahmen beginnen.

 

1.         Der theoretische Rahmen und eine Präzisierung der Fragestellung

 

Die Suche nach Gemeinsamkeiten und Unterschieden in den Sprachen der Welt ist ein zentrales und, wie ich meine, eines der interessantesten Anliegen der allgemeinen Sprachwissenschaft. Inwieweit und worin unterscheiden sich die Sprachen? Worin besteht die Variation, d.h. welche Dimensionen der Variation gibt es und wo liegen die Grenzen dieser Variation? Mit den Möglichkeiten der Variation befaßt sich primär die Sprachtypologie, hingegen fällt die Beschäftigung mit den Grenzen der Variation in den Bereich der Universalienforschung; wobei aber eine methodische und konzeptuelle Trennung zwischen diesen beiden Forschungsgebieten gar nicht so leicht möglich ist. Oder anders ausgedrückt: Diese beiden Kerndisziplinen der Sprachwissenschaft sind durch ihre Beschäftigung mit der Sprachvariation eng aufeinander bezogen.

 

Die Universalienforschung hat sich bislang vor allem auf das Auffinden und Beschreiben von Universalien konzentriert. Sie beschreibt verschiedene Arten von Universalien, wie absolute, tendenzielle oder statistische, und schließlich Implikationsuniversalien. Sie hat interessante Korrelationen zwischen unterschiedlichen Parametern aufgezeigt, wie z.B. zwischen der Wortfolge und Adpositionen. Sprachen mit der dominanten Wortfolge „Verbum vor Subjekt vor Objekt“ haben ausschließlich Präpositionen. Hingegen impliziert die Wortfolge SOV mit mehr als Zufallswahrscheinlichkeit Postpositionen.

 

Besonders interessant wird es aber, wenn man sich nicht nur mit dem Herausfiltern und Beschreiben von Universalien begnügt, sondern nach Gründen bzw. Erklärungen für solche Universalien sucht, also auch nach Erklärungen für bereits beschriebene universelle Tendenzen. Eine Frage könnte z.B. lauten: Warum werden bestimmte Möglichkeiten der Serialisierung von Subjekt, Objekt, Verb in den Sprachen kaum oder nicht genützt? Vom rein kombinatorischen Standpunkt aus sind ja sechs verschiedene Arten der Serialisierung von S, O, V möglich: nämlich SOV, SVO, VSO, VOS, OSV, OVS. Von diesen logischen Möglichkeiten sind zwei sehr häufig: 90% der Sprachen haben als dominante Wortfolge SOV oder SVO. VSO- oder VOS- Wortfolge ist schon viel seltener, und Objektanfangstellung kommt in pragmatisch neutralen Aussagesätzen kaum oder überhaupt nicht vor. Jetzt kann man nach den Gründen für diese Verteilungsunterschiede fragen. Ich werde unter Punkt 2.2.1. versuchen, diese Frage zu beantworten.

 

Welcher Art können solche Erklärungen sein? Meines Erachtens sind solche Erklärungen wohl am ehesten auf einer sehr allgemeinen, die Sprachwissenschaft übergreifenden Ebene zu suchen, und zwar in Form von Ökonomieprinzipien. Solche Prinzipien werden von der Kognitionstheorie für den Verstand und von der formalen Informationstheorie für die Verständigung formuliert.

 

Solche Erklärungen sind dann naheliegend, wenn man Sprache als ein System sieht, welches sich gemeinsam - in Koevolution - mit dem kognitiven System entwickelt, wenn man also davon ausgeht, dass die Entstehung und Weiterentwicklung der natürlichen Sprche einen bestimmten Entwicklungsstand in kognitiver Hinsicht zur Voraussetzung hat, und dass umgekehrt ein fortgeschrittener Entwicklungsstand von Sprache positive Rückwirkungen auf die kognitiven Leistungen hat. (Diese interaktionistische Sichtweise paßt natürlich auch auf den Spracherwerb der Kinder). Das heißt aber auch, dass die zu jedem wählbaren Zeitpunkt wirksamen Beschränkungen oder Limitierungen unserer kognitiven Ressourcen einen präformierenden oder regulierenden Faktor für die Sprachentwicklung darstellen. Eine Seite dieser Koevolution ist also, dass sich Sprache in Anpassung an allgemeine kognitive Möglichkeiten entwickelt.

Damit bin ich eigentlich schon beim engeren Thema meines Vortrages angelangt: Kann man sprachliche Universalien auf Prinzipien der Ökonomie in Kognition und Kommunikation zurückführen?

 

1.1.           Ökonomie in Kognition und Kommunikation

 

Es kann davon ausgegangen werden, und das wird kaum jemand in Frage stellen, dass unsere kognitiven Ressourcen in irgendeiner Weise limitiert sind. Wir können pro Zeit nur eine bestimmte Menge an Information verarbeiten. Daher ist für unsere Verständigung zu fordern, dass die durch die Kapazitätslimits bedingte Obergrenze nicht überschritten wird. Auf der anderen Seite aber würde eine allzuhohe Redundanz nicht nur die für die Verständigung verfügbare Kapazität ungenützt lassen - sondern sie wäre (sogar) mit einem unökonomischen, luxuriösen Aufwand an Zeichen, Zeit und Energie verbunden. Hieraus resultiert eine Untergrenze.

 

Dieser Tatbestand wird in den Abbildungen 1 und 2 illustrier. Und diesem Tatbestand entspricht die von MANDELBROT (1954) als ökonomisch eingestufte Tendenz, häufig vorkommende Zeichen in kurze Speicherzeichen zu übersetzen.

 

1.2.      Das Prinzip des konstanten informationsflusses

 

Von einem Verständigungssystem, welches die Übermittlung von Nachrichten ohne Verluste erlauben soll, ist daher nicht nur ein durchschnittliches Redundanzniveau zu fordern, welches die Kurzspeicherkapazität nicht übersteigt, sondern auch, dass sich die Information möglichst gleichmäßig auf kleine Abschnitte verteilt. Zu große Unterschiede würden entweder bedeuten, dass an den informationsreichsten Stellen die Verarbeitungskapazität überschritten wird und/oder in der restlichen Zeit die zur Verfügung stehende Kapazität nicht genutzt wird.

 

In Abbildung 1 sehen Sie das Schema eines kapazitätsüberfordernden, unökonomischen Informationsflusses, in Abbildung 2 das Schema einer Sprache mit einem Informationsfluss, bei dem einerseits wenig von der Nachricht verloren geht - kurzzeitige Überschreitungen der Kapazitätslimits werden von redundanten Passagen gefolgt, in denen die Verarbeitung nachgeholt werden kann, und andererseits die Kapazität ökonomisch genutzt wird.

 

                                                                                                Inf.

 


                                                                                                                 

                                                                                                             t      Kapazitäts-

                                                                                                                    limit

 

 

 


Abbildung 1: Schema eines kapazitätsüberfordernden und unökonomischen Informationsflusses

                        (aus FENK & FENK 1980, S.403)

 

                                                                                                Inf.

 

 

                                                                                                            t      Kapazitäts-

                                                                                                                    limit

 

 

Abbildung 2: Schema eines ökonomischen und der Kapazität besser angepaßten Informationsflusses

                        (aus FENK & FENK 1980, S.403)

 

 

Nun zum dritten (letzten) Aspekt des theoretischen Rahmens, nämlich zur Rolle der beobachtbaren und empirisch faßbaren Frequenz.

 

1.3.      Häufigkeit und Kognition

 

Als das vielleicht allgemeinste kognitive Prinzip kann gelten, dass wir aus dem Geschehen Redundanz (Regularitäten) herausfiltern, sodass in Hinkunft mehr von unseren kognitiven Ressouren für die Analyse des jeweils Neuen, Informativen frei verfügbar ist. Hypothesenbilden durch Abstraktion und  Hypothesenprüfen kann man als jene Mittel verstehen, die es dem kognitiven System ermöglichen, trotz informationaler Beschränkungen seine Leistungsfähigkeit zu steigern. Und die Hypothesen selbst, und damit sind wir auch schon bei der Häufigkeit, basieren auf der Extrapolation relativer, insbesondere relativer bedingter Häufigkeiten.

 

In der Wahrnehmungspsychologie wie auch der Gedächtnispsychologie steht die zentrale Rolle der Frequenz außer Frage: die Input- beziehungsweise die Übungshäufigkeit determiniert z.B. die Identifikationsgeschwindigkeit und die Zugänglichkeit für Abrufprozesse. Und die Häufigkeiten werden empirischen Untersuchungen zufolge unablässig und fast automatisch registriert. Ich möchte hier darauf verzichten, entsprechende Befunde anzuführen. Ich erwähne die zentrale Rolle der Frequenz in unserer Kognition deswegen, weil die Beschäftigung mit der Frequenz in der Linguistik oft als nicht relevant und inhaltsleer abgetan wird: Die Frequenz könne bestenfalls Epiphänomen sprachlicher Strukturen sein, sie könne aber im Erklärungszusammenhang keine Rolle spielen.

 

1.3.1.     Häufigkeit und Geläufigkeit

 

Wenn es z.B. im Folgenden heißt, dass Geläufiges kurz kodiert wird, dann ist dies zugegebenerweise bereits eine interpretierende Aussage. Was wirklich systematisch und in großem Umfang empirisch faßbar ist, ist die Frequenz. Und im allgemein bekannten Zipf'schen Gesetz wird ja nicht die Geläufigkeit, sondern die Frequenz mit der Länge von Wortformen in Verbindung gebracht. Diese Frequenz geht aber wesentlich in die Geläufigkeit ein. Etwas, was wir häufig hören, ist uns auf Grund der großen Inputhäufigkeit geläufig, und noch geläufiger sind uns sprachliche Einheiten, wenn wir sie häufig selber verwenden, und zwar

·        auf Grund der häufigen Aktivierung der Artikulationsprogramme und

·        weil wir bei jedem Sprechakt zusätzlich wieder Hörer sind, in diesem Fall Hörer der eigenen Sprachproduktion.

 

Zu diesem kognitionstheoretischen Rahmen gäbe es natürlich noch viel zu sagen. Ich will aber hier einen Schlußstrich ziehen und mich den sprachlichen Universalien zuwenden und der Frage, inwieweit diese Universalien unter den besprochenen allgemeinen Prinzipien zur Deckung zu bringen sind.

 

2.         Sprachuniversalien, die dem Konstanzprinzip entsprechen

 

Die erste dieser universellen Tendenzen:

 

2.1.           Geläufiges wird kurz kodiert

 

Mandelbrot zufolge - und das habe ich ja schon erwähnt - entspricht es einem ökonomischen Umgehen mit Ressourcen, häufig vorkommende Signale in kurze Speicherzeichen zu übersetzen. Diese aus der formalen Kommunikationswissenschaft stammende Regularität hat auch innerhalb der Linguistik eine große Erklärungskraft bewiesen. Je häufiger ein Wort verwendet wird, umso kürzer ist es. Diese Aussage hat u.a. bereits Zipf getroffen, sie ist aber - nebenbei bemerkt - nicht jenes Zipf'sche Gesetz, als das es oft benannt wird.

 

Worüber man sich auf Grund hoher Relevanz für die Lebensvollzüge in einer bestimmten Sprachgemeinschaft häufig verständigen will oder muß, dafür findet man kürzere Ausdrücke. Diese in Sprachstatistiken auffindbare Korrelation zwischen Häufigkeit und Kürze läßt sich m.E. auffassen als dauerhafter Niederschlag von Einsparungen, wie wir sie uns im täglichen Leben dauernd gestatten, eben in dem Ausmaß, wie es der Kontext und das Vorwissen des Gesprächspartners erlaubt. Beispiele für solche Erklärungen: Die Fenk hält heute auf der Uni einen Habil-Vortrag.  Die Profs sind ....(Uni statt Universität, Habil statt Habilitation, Profs statt Professores)

Aber auch AutomobilAuto, KinematographieKino, chemin de fer métropolitainmétro usw.

 

2.1.1.     Am Beispiel phonologischer Reduktionsprozesse

 

Aber nicht nur Verkürzungen bzw. das sogenannte „clipping“ sind für diese Kurzkodierung häufiger Wörter verantwortlich, sondern auch phonologische Reduktionsprozesse, die allesamt Reduzierungen des artikulatorischen Aufwandes mit sich bringen und in der Literatur oft auch als assimilatorische Prozesse den dissimilatorischen Prozessen gegenübergestellt werden. Derartige Prozesse sind z.B. Abschwächungen, Fusionen, Vokalreduktionen, Tilgungen, Lenisierungen usw.

 

Joan Bybee bemängelt in einer jüngst erschienenen Arbeit, dass die synchrone Beschreibung des Zipf'schen Gesetzes zu sehr im Vordergrund stehe, und dass den diachronen Mechanismen, die zu einer Kurzkodierung der häufigen Wörter führen, viel zuwenig Beachtung geschenkt werde. Insbesondere werde der Zusammenhang von phonologischen Reduktionsprozessen und deren bevorzugtem Auftreten bei häufigen Wörtern zu wenig beachtet. Die Tatsache, dass phonologische Reduktionsprozesse bei häufigen Wörtern zuerst eintreten, steht für Bybee außer Zweifel (Das ist aber nicht Allgemeingut, andere Autoren, z.B. DRESSLER 1984, machen nur den Sprachstil oder den Formalitätsgrad und das Sprechtempo dafür verantwortlich.) Bybee kann aber nicht die Frage beantworten, weshalb reduktiver Lautwandel zuerst bei häufigen Wörtern einsetzt. Wenn Reduktionsprozesse, so wundert sich Bybee[3], durch eine Art physikalischer Ökonomie der Artikulation bedingt sind, warum kommt diese Ökonomie dann nicht auch bei seltenen Wörtern zum Tragen?

 

Diese Frage läßt sich aus dem beschriebenen Ökonomieprinzip ohne Schwierigkeit beantworten: Nur dort, wo etwas auf Grund hoher Häufigkeit in einem bestimmten Kontext geläufig ist und auch beim Kommunikationspartner als geläufig vorausgesetzt werden kann, kann man Vokale kürzen, Konsonanten verschlucken usw.

 

Die Hypothese, die sich in diesem Zusammenhang formulieren läßt, heißt also: Je geläufiger ein Wort auf Grund seiner großen Verwendungshäufigkeit ist, umso anfälliger ist es für phonologische Reduktionsprozesse oder Backgrounding-Prozesse.

 

Verschiedene Varianten dieser Hypothese reichen übrigens schon weit zurück. So stellten schon arabische Grammatiker des Mittelalters fest, dass phonologische Abschwächungsprozesse bei häufigen Wörtern zuerst oder bevorzugt auftreten.

 

Dieser Nachweis war auch gar nicht so schwer zu bringen. An englischen, russischen und auch einigen deutschen und schwedischen Beispielen konnte ich zeigen, dass Backgrounding-Prozesse bevorzugt oder zumindest zuerst bei häufigen Wörtern auftreten. Dies betrifft sowohl den Wortanfang: Aphaerese (Tilgung der Anfangssilbe) oder Aphesie (Tilgung des Anfangsvokals) ist besonders häufig bei besonders häufigen englischen Wörtern zu beobachten, z.B. about→ bout, becausecause, aroundround, excuse→ scuse usw. Aber auch in der Wortmitte und am Wortende wird reduziert, getilgt, und wieder besonders häufig bei häufigen Wörtern. Einige Beispiele aus dem Russischen: Das sehr häufige Wort ničego (nichts) –Sie kennen es wahrscheinlich – wird zu ničo; sebja (sich) zu sja; chodit (er, sie, es geht) zu choit; tebja(dich) zu tia usw... Ich kann hier aus Zeitgründen nicht zu sehr ins Detail gehen. Ich greife aber eine in meiner Arbeit gefundene Regularität heraus, weil sie offenbar auch die Reihenfolge von Binomialen beeinflußt.

Es zeigt sich, dass jene Konsonanten, die laut ALEXANDER (1988) im Englischen die letzte Stufe von Abschwächungsprozessen darstellen, trotz ihrer insgesamt nicht sehr großen Häufigkeit sehr häufig am Anfang der häufigsten englischen Wörter stehen. Die entsprechenden Zahlen lassen darüber hinaus eine negative Korrelation zwischen dem Obstruenzgrad der Anfangskonsonanten – von glides bis stops – und der Häufigkeit der jeweiligen Wörter vermuten. Weiters konnte ich anhand einer Untersuchung der 1000 häufigsten Wörter des Englischen zeigen, dass der Anteil der „schwachen “ Konsonanten ([y], [w], [h], [θ], [ð]) am Wortanfang von der Häufigkeitsklasse 1-500 bis zur nächsten Häufigkeitsklasse 500-1000 drastisch abfällt Die genauen Prozentangaben finden sie in Tabelle 1 auf dem Handout.

 

 

Tabelle 1.     Die Verteilung „schwacher“ Anfangskonsonanten innerhalb der 1000 häufigsten Wörter des Englischen

 

Anfangs-             Häufigkeitsklasse                      Häufigkeitsklasse

Konsonant                       1-500                                        500-1000                      

                    

                     [y]                                   1.4%                                        0.8%

                     [w]                                  5.0%                                        3.0%

                     [h]                                   7.4%                                        3.4%

                     [θ]                                   4.0%                                        1.4%

                     [ð]                                  2.6%                                        0.5%

 

 

Natürlich hängt das Ausmaß der phonologischen Backgrounding-Prozesse vom jeweiligen Sprachtyp ab. Sprachen mit Akzentrhythmus tendieren von vornherein zu mehr Reduktionen als Sprachen mit Silbenrhythmus. Aber auch Sprachen mit Silbenrhythmus kennen Backgrounding-Prozesse wie Vokalreduktionen oder Tilgungen von Konsonanten und Vokalen, wenn auch in geringerem Ausmaß. Ich erwähne dies deswegen, weil in einem der Gutachten die Möglichkeit der phonologischen Reduktion und deren Abhängigkeit von der Frequenz in Turksprachen, also in Sprachen mit Vokalharmonie, ausgeschlossen wird. Im folgenden einige Beispiele aus dem Türkischen:

burada (hier)→ burda, geliyorum (ich komme)→ geliyom,

Allah haismarladik → Alasmarladik (Abschiedsgruss)

 

Ich komme nun auf zwei weitere Universalien zu sprechen, die sich auf einen gemeinsamen Nenner bringen lassen:

 

2.2.      Geläufiges wird an den Anfang gestellt

 

Einerseits ist es eine Tatsache, dass auf den Anfang von Sequenzen die größte Unsicherheit (Information) entfällt, weil das Wissen um die sequenzinterne Redundanz nicht anwendbar ist. Erst im Laufe der Sequenz kann die sequenzinterne Redundanz im Sinne einer Informationsreduktion ausgenutzt werden. Würde diese Anfangsposition nun mit einem informationsreichen Element besetzt, so würde dies zu nicht verkraftbaren Informationsspitzen führen. Es entspricht also einem ökonomischen und konstanten Informationsfluss, die informationsreichen Elemente auf spätere Positionen zu verschieben und an die erste Position ein Element zu setzen, welches auf Grund seiner Geläufigkeit diese Spitze dämpft.

 

Das Konstanzprinzip kann in diesem Sinne für die beiden folgenden universellen Tendenzen verantwortlich gemacht werden, nämlich:

 

2.2.1.     Die Tendenz, „alte“ Information vor „neue“ zu stellen

 

Was im vorhergehenden Diskurs bereits aufgeschienen ist, also in diesem Kontext (aber auch im jeweiligen situativen Kontext) alt und vertraut ist, hat in eben diesem Kontext eine geringere subjektive Information, seine Analyse erfordert geringere kognitive Kosten. Es entpricht also dem ökonomisch motivierten Konstanzprinzip, "alte" Information vor "neue" zu stellen, also Thema vor Rhema oder Topic vor Comment. Die Dichotomie alt/neu ist zwar nicht gleichzusetzen mit Thema/Rhema oder Topic/Comment, gilt aber wohl als ein wesentliches Unterscheidungsmerkmal.

Das gleiche Erklärungsprinzip kann auch für die in der Einleitung erwähnte Bevorzugung der Subjektanfangsstellung herangezogen werden. Die hier angebrachte Erklärung ist dann zulässig, wenn man das prototypische Subjekt als Verbindung der semantischen Rolle "Agens" und der pragmatischen Kategorie "Topic" auffaßt.

 

2.2.2.     Die Tendenz, in „freezes“ (Binominalen) mit dem häufigeren der koordinierten Elemente zu beginnen

 

Diese universelle Tendenz möchte ich etwas ausführlicher diskutieren, und zwar aus folgendem Grund: Die bisherigen universellen Tendenzen waren schon bekannt (Thema vor Rhema, Subjektanfangsstellung). Mein Beitrag hat in diesen Fällen vor allem darin bestanden, eine einheitliche Erklärung für diese Tendenzen zu finden. Auf die im folgenden zu besprechende universelle Tendenz bin ich erst auf Grund des dargelegten theoretischen Blickwinkels aufmerksam geworden, und meines Wissens hat diese universelle Tendenz bisher noch niemand in der Literatur erwähnt:

 

Worum geht es: Eine häufig diskutierte Frage ist die nach den Faktoren, welche die Reihenfolge in Binomialen regeln oder determinieren. Binomiale sind koordinierte Phrasen, in denen die Reihenfolge der Elemente gewissermaßen eingefroren ist, weshalb diese Binomiale auch "freezes" genannt werden. Einige Beispiele: Messer und Gabel, Angst und Schrecken, oben und unten, Haus und Hof, Milch und Honig, Pferd und Reiter.

Von meiner theoretischen Warte her lag die Vermutung nahe, dass auch hier die Regel "Geläufiges in Anfangsposition" eine Rolle spielen könnte. Die ebenso naheliegende Operationalisierung: Die Tokenfrequenz wird als Indikator für hohe Geläufigkeit herangezogen, sodass die empirisch prüfbare Regularität lautet: „Häufigeres vor Seltenerem“.

Diese Regel konkurriert allerdings mit einer ganzen Reihe anderer Regeln, die bereits in der Fachliteratur zur Erklärung der Reihenfolge in Freezes vorgeschlagen wurden. Ich werde hier kurz die Prinzipien vorstellen, die von COOPER und ROSS (1975) für die Reihenfolge in Freezes verantwortlich gemacht wurden. Cooper und Ross machen sowohl semantische Regeln wie auch phonologische Regeln für die Reihenfolge in Freezes verantwortlich. Sie unterstreichen die Wichtigkeit eines semantischen "Me- first“ Prinzips: Konzepte und Eigenschaften, die den prototypischen Sprecher beschreiben oder am besten auf ihn zutreffen, tendieren dazu, an erster Stelle zu stehen. Für eine große Anzahl von Freezes, die keiner semantischen Interpretation zugänglich scheinen, machen die Autoren folgende phonologische Beschränkungen verantwortlich: Das Erstwort hat im Vergleich zum Zweitwort weniger Silben, kürzere Vokale, weniger Konsonanten im Anlaut und im Auslaut, schwächer obstruente Konsonanten im Anlaut, sowie eher Vordervokale.

 

Mein Gegenargument ist also die einfache Regel: Häufigeres vor Seltenerem (H>S). Ich habe daher die Trefferhäufigkeit dieser Regel anhand von 400 Freezes untersucht und mit der Trefferhäufigkeit konkurrierender Regeln am selben sprachlichen Material verglichen. Dabei habe ich fast ausschließlich Freezes herangezogen, die in der Literatur als Instanzen für andere Regularitäten angeführt werden, die also in der Literatur als Bestätigung für konkurrierende Regeln gelten. Es wurde also schon bei der Zusammensetzung der Datenstichprobe eine möglichst strenge Prüfung meiner Hypothese angestrebt.

Aus diesen genannten Gründen halte ich verschiedene kritische Gutachter-Meinungen zur Auswahl der Stichprobe für nicht besonders stichhaltig. Wenn z.B. in einem Gutachten gesagt wird, auf Busch und Tal hätte ich verzichten können, so kann ich nur sagen, dass ich es bei der Durchhaltung der vorher geschilderten Auswahlkriterien nicht hätte tun können. Obwohl ich es liebend gerne getan hätte, weil gerade diese Binomiale zu jenen Beispielen gehört, die meine Regel durchbrechen. Eine andere kritische Bemerkung stammt von einem „native speaker“ des Englischen. Er macht mich darauf aufmerksam, dass ihm einige der englischen Freezes unbekannt seien, oder zumindest in dieser Wortreihenfolge. Wie gesagt, ich habe mich in diesem Fall auf jene native speaker verlassen, die sich mit diesen Freezes in ihrer Muttersprache an die Fachöffentlichkeit gewagt haben, von dieser oft zitiert und meines Wissens in diesem Punkt nie kritisiert wurden.

 

Das Ergebnis meiner empirischen Untersuchung sehen Sie in Abbildung 3. Meine Regel erklärt 84% der Fälle, die beste konkurrierende Regel nur 3.

 

 

 

 


Abbildung 3: Die Erklärung der Wortreihenfolge in 400 "freezes" durch 5 konkurrierende Regeln. Spitzenreiter ist mit 84,3% die Regel H>S ("Häufigeres vor Seltenerem"). (Abgeändert nach FENK-OCZLON 1989a, S. 531)

 

 

 

Vielleicht noch interessanter erscheint mir ein Ergebnis, welches in Abbildung 4 dargestellt wird. Nämlich: Meine Regularität erzielt nicht nur die mit Abstand größte Trefferhäufigkeit, sondern paßt auch auf einen extrem großen Teil jener Freezes, deren Erklärung auch die konkurrierenden Regeln beanspruchen.

 

 

 


 

Abbildung 4: Die Regel H>S ("Häufigeres vor Seltenerem") erklärt einen Großteil jener Instanzen, welche auch die unmittelbaren Konkurrenten wie K>L ("Kürzeres vor Längerem") erklären könnten. (Abgeändert nach FENK-OCZLON 1989a, S. 532)

 

 

Das hat mich in dem Verdacht bestärkt, dass einige dieser konkurrierenden Regeln sich auf meine allgemeine Regel zurückführen lassen, bzw. dass der Faktor Frequenz auch auf dem Umweg über andere Faktoren die Reihenfolge in Freezes beeinflußt.

 

Dieser Punkt, der mir persönlich besonders interessant erscheint, wird in Abbildung 5 illustriert. Das dort skizzierte Bedingungsgefüge veranschaulicht die zu untersuchenden Beziehungen zwischen hypothetischen Einflußgrößen - das sind die unabhängigen Variablen auf der linken Seite der Abbildung - und der abhängigen Variable, also der Reihenfolge in Freezes, auf der rechten Seite der Abbildung. Die Beziehung zwischen diesen Einflußfaktoren und der abhängigen Größe werden im Sinne von Regularitäten formuliert. Beispiele finden Sie in der mittleren Kolonne.

 

 

                                   

 

 

 

Abbildung 5: Die zentrale Rolle der Häufigkeit für die Reihenfolge der Wörter  in "freezes"

 

 

 

Ich möchte nun ganz zentrale Punkte mit Hilfe dieser Abbildung erläutern:

 

1)               Innerhalb der untersuchten Regeln ist die einfache Regel „häufiges vor seltenem“ die mit Abstand erfolgreichste, sie erzielt die mit Abstand größte Trefferhäufigkeit. (Das wird durch die dicke Linie symbolisiert).

2)               Es gibt eine Reihe von Regeln, die ebenfalls Erklärungswert besitzen, allerdings nur für einen kleinen Teil der Stichprobe. Einige dieser Regeln können schon deswegen keine große Trefferhäufigkeit erzielen, weil sie nur auf eine beschränkte Anzahl von Freezes anwendbar sind. Wenn z.B. das erste und das zweite Wort dieselbe Anzahl von Silben aufweisen, dann ist die Regel „kurz vor lang“ nicht anwendbar (das war z.B. bei 244 der 400 Freezes der Fall). In meiner Arbeit hat sich aber auch herausgestellt, dass eine ikonische Kodierung raum-zeitlicher Verhältnisse tatsächlich zur Durchbrechung meiner Regel H>S führt: Was der Chronologie der beschriebenen Vorgänge entspricht, findet einen Niederschlag auch in der Folge der einschlägigen Anordnung, früher oder später, das räumlich Naheliegende, das oben Liegende, das vorne Liegende, aufwärts vor abwärts... alle lassen sich i.S. einer Chronologie Relation deuten. Und drittens kann ich und kann niemand ausschließen, dass es weitere Faktoren gibt, die weder in der bisherigen Literatur noch in meiner Arbeit in Betracht gezogen wurden. Dies soll durch den strichlierten Block ganz unten in der Abbildung angedeutet werden.

 

Ein Vorschlag, wie derartige weitere Felder inhaltlich zu füllen wären, wurde in einem der Gutachten gemacht, und zwar im Sinne eines Vorwurfs. Ich hätte nicht in Betracht gezogen, dass bei Binomialen auch der Stabreim - Beispiel: Glanz und Gloria - und der Reim - Beispiel: Ach und Krach - eine Rolle spielt. Dieser Vorwurf erscheint mir nicht gerechtfertigt, denn

 

erstens            habe ich auf den Tatbestand der Alliteration hingewiesen und

zweitens         scheidet dieser Faktor als Erklärung für die Reihenfolge in freezes aus. Ein Stabreim liegt ja auch dann vor, wenn ich Gloria und Glanz sage, und mit einem Reim haben wir es auch dann zu tun, wenn ich Krach und Ach sage. Alliteration und Reim sind also interessante Phänomene, wenn es um eine andere Fragestellung geht, nämlich um die Frage, welche Elemente sich bevorzugt zu einem Wortpaar zusammenfügen. Irrelevant ist sie für meine Fragestellung nach den Faktoren, welche die Reihenfolge der Wörter regeln.

drittens           Der Faktor Häufigkeit beeinflußt die Reihenfolge in Freezes nicht nur direkt und stärker als die anderen Faktoren, sondern er beeinflußt sie auch indirekt, nämlich auf dem Umweg über die konkurrierenden Regeln (Faktoren) aus dem semantischen, phonologischen bzw. rhythmischen Bereich.

 

Um einige Beispiele zu nennen: „kurz vor lang“, wie Sie in der Abbildung 5 sehen, hat durchaus Erklärungswert, aber die Kürze der Elemente ist ihrerseits zumindest teilweise als Folge hoher Verwendungshäufigkeit aufzufassen - darauf bin ich ja unter Punkt 2.1. bereits eingegangen. Am Rande erwähnt: Die Regel „kurz vor lang“ wird in der Literatur praktisch immer als phonologische Regel bezeichnet, während ich meine, dass man sie zumindest ebensogut als eine Regel auffassen kann, welche rhythmische Faktoren betrifft. Und gerade dann, wenn man rhythmische Faktoren für relevant hält - und die einzig dazu vorgeschlagene Regel ist „kurz vor lang“-, wird man den indirekten Einfluß auf dem Umweg über diesen Faktor zugestehen müssen, weil eben Kürze in hohem Ausmaß durch hohe Tokenfreqenz mitbedingt ist.

 

Eine dieser weiteren konkurrierenden Regeln sagt: Das Erstwort hat weniger obstruente Anlautkonsonanten als das Zweitwort. Auch diese Regel hängt in hohem Ausmaß - zumindest im Englischen - mit der Häufigkeit des Wortes zusammen. Ich habe diesen von mir untersuchten Zusammenhang bei den phonologischen Reduktionsprozessen erwähnt.

Aber auch die Regel, dass das Erstwort weniger Konsonanten im Anlaut hat, kann ohne Schwierigkeit mit der größeren Häufigkeit des Erstwortes in Verbindung gebracht werden. Eine von mir durchgeführte Überprüfung der Konsonantencluster im Anlaut zeigt, dass z.B. im Englischen von den 500 häufigsten Wörtern nur 7,4% zwei Konsonanten im Anlaut haben, von den 500-1000 häufigsten Wörtern aber schon 18%. Auch im Russischen und im Deutschen - ich will Sie mit weiteren Zahlen verschonen - nimmt die Zahl der Konsonantencluster im Anlaut mit der Häufigkeit rapide ab.

 

Bezüglich der größeren Vokalkürze im Erstwort, einer weiteren Regel, kann ich mich auf Untersuchungen anderer Autoren berufen. Zum Beispiel auf FIDELHOLTZ (1975) oder PAGLIUCA (1976). Beide Autoren haben festgestellt, dass die Vokale bei häufigeren Wörtern viel eher reduziert werden als bei seltenen.

 

Bei der Regel „Erstwort hat eher hohe Vordervokale, Zweitwort eher tiefe Hintervokale“ ist der Zusammenhang mit der Frequenz nicht eindeutig. Für diese Regularität, die vor allem mit der Codierung räumlicher Verhältnisse in Verbindung zu bringen ist, lassen sich durchaus lautsymbolische Erklärungen denken.

Einige weitere Regeln habe ich unter dem Oberbegriff semantische Faktoren zusammengefaßt: Hierher gehört z.B. das sogenannte "Me-first Prinzip“

Damit möchte ich aber das Thema Freezes abschließen und auch zum Schluß des Vortrages kommen.

 

3.             Schluss

 

Eine Konsequenz läßt sich aus den bisher angestellten Überlegungen ziehen: Dass die Sprachen so sind wie sie sind oder wie wir sie kennen, hat offenbar mit Ökonomieprinzipien zu tun. Dabei bilden die Frequenz und die Geläufigkeit gewissermaßen die Brücke zwischen allgemeinen Ökonomieprinzipien, welche die Kognition und Kommunikation beherrschen, und konkret auffindbaren sprachlichen Strukturen. Zumindest in Hinkunft sollte es also schwer fallen, die Beschäftigung mit der Frequenz als inhaltsleer abzutun, oder als irrelevant in linguistischen Begründungszusammenhängen. Sowohl die kognitionstheoretischen Argumente als auch die vergleichenden linguistischen Ergebnisse, die ich heute nur ausschnittweise vorstellen konnte, ergeben nämliche in ganz anderes Bild: Darin spielt die Frequenz eher die Rolle einer Drehscheibe als die eines bloßen Epiphänomens. Diese Rolle wird wesentlich durch den Umstand geprägt, dass sich mit einer empirisch direkt faßbaren Größe empirisch prüfbare Vorhersagen und nicht nur plausibel klingende Erklärungen formulieren lassen.

 

 

LITERATUR

 

ALEXANDER, James D.

1988          Aphesia in English. Word 39:29-65.

 

BYBEE, Joan L.

1994          A view of phonology from a cognitive and functional perspective. In: Cognitive Linguistics 5, S. 285-305.

 

COOPER, William & ROSS, John.R.

                   1975        World order. In: Papers from the Parasession on Functionalism . R.E. Grossman, et al. (eds.) Chicago:Chicago Linguistic Society.

 

DRESSLER, Wolfgang U.

1984                      Explaining Natural Phonology. In: Phonology Yearbook 1, p. 29-51.

 

FENK, August/FENK, Gertraud

1980          Konstanz im Kurzzeitgedächtnis – Konstanz im sprachlichen Informationsfluß? In: Zeitschrift für experimentelle und angewandte Psychologie 33, S. 208-253.

 

FENK-OCZLON, Gertraud

1989a        Word frequency and word order in freezes. In: Linguistics 27, p. 517-556.

1989b        Geläufigkeit als Determinante von phonologischen Backgrounding Prozessen. In: Papiere zur Linguistik 40, S. 91-103.

1990a        Ökonomieprinzipien in Kognition und Kommunikation. In: N.Boretzky, W.Enninger, T.Stolz (Hrsg.) Spielarten der Natürlichkeit – Spielarten der Ökonomie. S. 37-50. Bochum: Brockmayer.

1990b        Ikonismus versus Ökonomieprinzip. Am Beispiel russischer Aspekt-und Kasusbildungen. In: Papiere zur Linguistik 40, S. 46-69.

1991          Frequenz und Kognition – Frequenz und Markiertheit. In: Folia Linguistica 25, S. 361-394.

2001                    Familiarity, information flow, and linguistic form. In: Joan L. Bybee/Paul Hopper (eds.) Frequency and the emergence of linguistic structure. p. 431-448. Typological Studies in Language 45. Amsterdam: John Benjamins Publishing Company.

in Druck    Osvedomlennost‘, potok informacii i lingvističeskaja forma. In: Lekcii po kognitivnym naukam. V.D. Solovjev (ed.) Kazan: izdatel’stvo „DAS“.

 

FIDELHOLTZ, James

1975          Word frequency and vowel reduction in English. In: Papers of the Chicago Linguistic Society 11, p. 200-214.

 

MANDELBROT, Benoit B.

1954          Structure formelle des textes et communication. Deux études. In: Word 10,

 

PAGLIUCA, William

1975                    PRE-fixing.MS SUNY/Buffalo.

 

ZIPF, George K.

1929          Relative frequence as a determinant of phonetic change. Harvard Studies in Classical Philology 40, 1-95.

 

 

 

 

 

 

 

 

 

 



[1] Es handelt sich hier um den Text meines Habilitationsvortrages vom 4. Dezember 1990. Die Festschrift für Heinz-Dieter Pohl erscheint mir als passende Gelegenheit zur Veröffentlichung dieses Vortrages aus zweierlei Gründen: Heinz-Dieter Pohl war Mitglied der Professorenkurie „meiner“ Habilkommission. Und die Thematik, mit der sich der Vortrag damals vor gut 10 Jahren beschäftigte, gewinnt zunehmend an Aktualität (vgl. z.B. die Tagungen „Frequency and Emergent Grammar“ in Pittsburgh 1999 und „Cognitive Typology“ in Antwerpen im vergangenen Jahr sowie das aktuelle Graduiertenkolleg „Ökonomie und Komplexität in der Sprache“ in Berlin und Potsdam). Den Vortragstext habe ich unverändert gelassen, neu hinzugekommen sind die Fußnoten und die bibliographischen Angaben. Einige Abbildungen und eine Tabelle habe ich aus dem seinerzeitigen Handout übernommen.

[2] Gemeint sind die als kumulative Habilitationsschrift vorgelegten Artikel: FENK-OCZLON 1989a, 1989b, 1990a, 1990b, 1991. Eine Zusammenfassung dieser Arbeiten in englischer Sprache ist soeben in den Proceedings über „Frequency and Emergent Grammar“ erschienen (FENK-OCZLON 2001). Eine Publikation in russischer Sprache steht bevor (FENK-OCZLON, in Druck).

[3] Mittlerweile hat Bybee ihre Position etwas geändert (vgl. z.B.BYBEE 1994).