Institut für Sport und Sportwissenschaft

der Universität Freiburg

WS 1998/99

Semesterarbeit

Hauptseminar: Sportpsychologie -

Unbewußte Wahrnehmung und unbewußtes Lernen

Seminarleiter : Dr. A. Kibele

Referenten : Jan Flittner , Boris Kurz

 

 

 

 

 

 

Inhaltsverzeichnis:

 

1. Einleitung3

2. Wahrnehmung, Bewußtsein und Bewußtheit3

2.1. Wahrnehmung3

2.2. Bewußtsein und Bewußtheit7

2.3. Unbewußte Wahrnehmung; Qualitative Differenzen; direkte & indirekte Tests8

3. Visuelle Wahrnehmung: 2 Verarbeitungssysteme13

3.1. Der biologische Prozeß des Sehens; Phänomene und visuelle Krankheitsbilder13

3.2. Die Blindsichtigkeit und die zwei visuellen Verarbeitungssysteme15

4. Dissoziationen zwischen bewußtem Erleben und motorischem Verhalten17

    1.Blindsichtigkeit, Amnesie und Priming-Effekt17

    2.Der False-Fame-Effekt19

    3.Die Untersuchungen von Benjamin Libet19

5. Direkte Parameterspezifikation: Bedingungen für den Metakontrast-Effekt21

5.1. Die Theorie der direkten Parameterspezifikation21

5.2. Der Metakontrast-Effekt22

6. Bewegungslernen: Programmansatz und Aktionsansatz24

6.1. Die Schematheorie von R.A. Schmidt25

6.1.1 Motorisches Programm und Generalisiertes Motorisches Programm25

6.1.2 Die Schemata28

6.2. Der Aktionsansatz von N.A. Bernstein32

6.3. Vor- und Nachteile der beiden Ansätze34

7. Implizites Lernen35

 

 

 

1. Einleitung

 

Diese als Semesterarbeit ausgelegte Hausarbeit versucht einen Überblick über das im WS 98/99 veranstaltete Hauptseminar Sportpsychologie zu verschaffen. Das Thema dieses Seminars lautete "Unbewußte Wahrnehmung und unbewußtes Lernen". Die Inhalte der einzelnen Sitzungen, dabei angesprochene Experimente und Ergebnisse aus Diskussionen sollen das Ziel dieser Arbeit sein. Jede Sitzung wird dabei in einem eigenen Kapitel behandelt, wobei sich stets ein "roter Faden" durch alle Kapitel zieht.

 

2. Wahrnehmung, Bewußtsein und Bewußtheit

 

      1.Wahrnehmung:

In diesem ersten Kapitel sollen die für den weiteren Verlauf dieser Arbeit wichtigen Begriffe Wahrnehmung, Bewußtsein und Bewußtheit erklärt und abgegrenzt werden, wobei mit dem Thema Wahrnehmung begonnen wird. Macht man sich Gedanken zu dem Begriff Wahrnehmung, so wird man früher oder später auf folgende zentralen Fragen stoßen. Ist Wahrnehmung ein Produkt oder ein Prozeß? Kann man Empfindungen und Wahrnehmungen voneinander trennen? Ist Wahrnehmung subjektiv oder objektiv bzw. konstruiert sich jeder seine eigene, subjektive Welt oder sieht jeder die Welt gleich? Zunächst einmal läßt sich sagen, daß Umweltreize über die fünf verschiedenen Sinne - Sehen, Hören, Riechen, Schmecken, Fühlen - wahrgenommen werden. Dabei wird aus biologischer Sicht ein solcher Reiz, der auf einer Sinneszelle eintrifft von dieser in einen Erregungsimpuls umgewandelt und über sensible Nervenfasern ins Großhirn weitergeleitet, wo die Wahrnehmung beginnt. Um nun den Begriff Wahrnehmung zu erklären bzw. zu definieren eignet sich am besten folgendes Schema von Prinz (1990):

Abb.1: Schema zur Erläuterung des Zusammenhangs verschiedener am Wahrnehmungsvorgang beteiligter Instanzen:

U:Umgebung, P:Person, U’ bzw. P’:Repräsentation von U bzw. P

(nach Prinz 1990:28)

 

Für die umgebungsgerechte Steuerung der Tätigkeit von P wird innerhalb von P eine selektive, subjektive Repräsentation des Systems U/P aufgebaut und laufend aktualisiert (U’/P’). Selektiv ist diese Repräsentation insofern, als sie nicht alle beliebigen Eigenschaften von U/P abbildet, sondern nur solche, die für die Tätigkeitssteuerung von P benötigt werden. Unter Wahrnehmung wird dann, relativ einfach die Gesamtheit der Prozesse verstanden, durch die auf der Grundlage von Information über den Zustand des Systems U/P eine Repräsentation U’/P’ aufgebaut und laufend aktualisiert wird (Prinz 1990:29).

Wahrnehmung ist daher ein Prozeß und kein Produkt und die Repräsentation U’/P’ muß ständig neu konstruiert werden. Somit sind zwei der oben genannten Fragen beantwortet. Wahrnehmung kann also als Subjekt-Objekt-Bezug aufgefasst werden. Darüber hinaus herrscht eine ständige gegenseitige Beeinflussung von Innen- und Außenwelt. Weiter wird durch dieses Schema deutlich, daß es eine einzige objektive Außenwelt nicht gibt, sondern nur viele subjektive. Empfindungen und Erfahrungen spielen in der Wahrnehmung eine große Rolle, weshalb die Wahrnehmung nur subjektiv sein kann. Jeder konstruiert sich seine eigene Welt. Dies läßt sich auch mit sogenannten Projektionstests verdeutlichen, von denen der in der

Literatur am meisten genannte der Rorschachtest ist. Bei diesem Test werden den Vpn mehrere Tintenflecke gezeigt, deren Interpretation mehrdeutig ist. Daraufhin werden sie aufgefordert dem Versuchsleiter bei jedem "Bild" zu sagen, welche Gegenstände sie in dem jeweiligen Tintenklecks zu erkennen glauben. Als Ergebnis dieser Tests sah man, daß jeder Mensch unterschiedliche Inhalte in diese Tintenflecke hineinprojezierte (daher Projektionstests) und daß somit Wahrnehmung subjektiv, daß heißt ganz von der jeweiligen Person selbst abhängig ist. Wer zum Beispiel großen Hunger hat, wird in einem Tintenklecks in dem eine frischverliebte Vp ein Herz erkennt vielleicht nur einen Apfel sehen. Wahrnehmung ist also auch Deutung, die von mehreren subjektiven Einflußfaktoren abhängt. Somit lassen sich mit diesen Rorschachtests Rückschlüsse auf die Persönlichkeit, den momentanen Gemütszustand, und die Gefühle und Wünsche der Vp ziehen, weshalb ihn viele Psychologen verwenden.

Zur Erklärung des Wahrnehmungsphänomens gibt es nun vier verschiedene Forschungsansätze, auf die im folgenden kurz eingegangen wird.

  • Der erste dieser Ansätze ist von T.H.Erismann (1883-1961) und I.Kohler (1915-1985) und beschäftigt sich mit Untersuchungen über Anpassung und Lernen in der Wahrnehmung. Grundsätzlich nimmt jeder Mensch seine Umwelt als stabil und konstant wahr. Dies äußert sich nicht zuletzt darin, daß wir trotz der ununterbrochenen Augenbewegungen und der Veränderung der Entfernung oder des Blickwinkels bezüglich eines Objekts bei der visuellen Informationsaufnahme keine Schwankungen oder Unterbrechungen bemerken. Erismann und Kohler interessierte nun, wie diese subjektive Ordnung und Stabilität trotz der Vielfältigkeit der aufgenommenen Informationen aufrecht erhalten werden kann und stellten sich unter anderem die Frage, ob man lernen kann, diese Ordnung nach einer gezielten Störung wieder herzustellen. Dazu unternahmen sie sogenannte Prismenbrillenversuche, auch als "Innsbrucker Brillenversuche" bekannt. Mit diesen Prismenbrillen erzeugten sie Störungen in der Wahrnehmung, indem sie oben und unten, sowie rechts und links vertauschten. Die Vpn konnten sich zu Beginn des Experimentes nur sehr schwer in ihrer neuen Umgebung zurechtfinden. Doch mit zunehmender Dauer des Versuchs stellte ihr Wahrnehmungssystem die gewohnte Ordnung ihrer Umgebung wieder her. Erismann und Kohler kamen daher zu folgendem Schluß. Das menschliche
  • Wahrnehmungssystem ist enorm plastisch und lernfähig und begegnet Störungen durch aktive motorische Auseinandersetzungen mit der Umwelt. Darüber hinaus verfügt die Wahrnehmung über intelligente Verarbeitungssysteme, die selbst größere Störungen, wie zum Beispiel beim Prismenbrillenversuch richtig entschlüsseln und korrigieren können.

  • Der zweite Forschungsansatz von J.J.Gibson (1904-1979) beschäftigt sich mit der ökologisch orientierten Wahrnehmungspsychologie. Sie ist eine Erweiterung der bis dato gängigen statischen Bildtheorie und läßt sich in drei Hauptaussagen unterteilen, die Aspekte für die Analyse der Wahrnehmungsprozesse darstellen. Zunächst einmal muß die auf Handlung ausgerichtete Wechselbeziehung zwischen einem Lebewesen und seiner Umwelt beachtet werden. Dies führt zur Frage nach der Funktion der Wahrnehmung: Lebewesen müssen in ihrer Umwelt wahrnehmen um handeln und somit überleben zu können. Die Wahrnehmung dient also zum Erfassen von handlungsrelevanten Informationen. So muß zum Beispiel die Wahrnehmung von Gegenständen die Gebrauchsbedeutung der wahrgenommenen Objekte enthalten. Des weiteren legt Gibson wert auf eine Betonung des aktiven Charakters der Wahrnehmungssysteme. Für ihn steht nicht das "Schnappschußsehen" im Mittelpunkt des visuellen Wahrnehmungssystems, sondern das aktive Hinschauen und das aktive Durchmustern der Umgebung, also die visuelle Aufmerksamkeit des Lebewesens. Schließlich ist Gibson ein Verfechter der Theorie der Direktwahrnehmung, nach der Merkmalskonfigurationen direkt aufgenommen und direkt in Wahrnehmung umgesetzt werden.
  • Im dritten Ansatz versucht D.Marr (1945-1980) den Prozeß der Wahrnehmung nach dem Ansatz mathematisch formulierbarer Probleme der Informationsverarbeitung zu erklären. Marr unterteilt den Wahrnehmungsprozeß in drei verschiedene Ebenen. In der ersten Ebene (Eingabeebene) muß die Wahrnehmungsaufgabe präzise formuliert werden, um genau festlegen zu können, welche Informationen das Wahrnehmungssystem benötigt. In der zweiten Ebene (Software-Ebene; Ebene der Algorithmen) werden die Verarbeitungsschritte bestimmt und die Informationen in Anweisungen umgewandelt. Auf der dritten Ebene (Hardware-Ebene) werden über neuronale Prozesse die Verarbeitungsschritte ausgeführt. Marr’s Modell läßt sich gut mit einem Computer vergleichen, wobei die erste Ebene der

Eingabe über die Tastatur, Ebene zwei der Software und Ebene drei der Hardware entspricht.

  • Der vierte und letzte Forschungsansatz von U.Neisser (1979) beschäftigt sich mit der Beziehung zwischen Wahrnehmung und Gedächtnis. Neisser betont in seinem "Wahrnehmungszyklus" die dynamische Wechselbeziehung zwischen Wahrnehmung und Gedächtnis. Dabei kommt es zu einem ständigen Zyklus von Informationsaufnahme, Gedächtnisschemata und neuem Erkundungsdrang, wobei die Wahrnehmung an jeder beliebigen Stelle im Zyklus einsetzen kann. Würde man davon ausgehen, daß Wahrnehmung ohne Gedächtnis vonstatten geht, so wäre der Zyklus unterbrochen. Nach Neisser ist demnach wahrnehmen ohne Gedächtnis nicht möglich. Das Gedächtnis bietet Ordnungsrahmen, interpretiert und beurteilt neue Informationen und wird ständig selbst durch diese Informationen verändert.

 

Als Antwort auf die anfangs gestellten zentralen Fragen läßt sich nun noch einmal sagen: Wahrnehmung ist ein Prozeß und kein Produkt. In diesem Prozeß konstruiert sich jeder individuell seine Welt, mit dem ursprünglichen Ziel zu überleben. Wahrnehmung bedeutet in diesem Zusammenhang Informationen verfügbar zu machen, die für das Handeln notwendig sind. Wahrnehmung ist dabei subjektiv, da Empfindungen und Erfahrungen dabei eine Rolle spielen. Darüber hinaus bildet die Wahrnehmung eine wesentliche Grundlage für die Planung und Kontrolle sportmotorischer Handlungen. Des weiteren können Empfindungen und Wahrnehmung in der Sportpraxis nicht getrennt werden.

 

 

      1.Bewußtsein und Bewußtheit:

      Nun wenden wir uns den Begriffen Bewußtsein und Bewußtheit zu. Gegenüber einer Erforschung des Bewußtseins und des Unbewußten läßt sich oftmals eine zögerliche Haltung

      der Psychologen erkennen. Dies liegt zum einen daran, daß Bewußtsein häufig als philosophischer Begriff verstanden wird, der sich schwer definieren oder abgrenzen läßt. Gleiches gilt für dessen Komplement, das Unbewußte. Zum anderen sind Nachweise bewußten oder unbewußten Handelns empirisch nur schwer durchzuführen, weshalb manche Psychologen empirische Probleme erst gar nicht in Angriff nehmen. Zu diesen zählen auch Perrig et al. (1993). Ihrer Ansicht nach sind Berichte über Bewußtsein bzw. mentale Zustände subjektiver Natur und daher kaum zu objektivieren bzw. durch Verhaltensdaten zu beschreiben. Unter Bewußtsein fassen sie "alle subjektiven Erlebnisaspekte und die Art und Weise, wie uns die Welt erscheint, unsere Aufmerksamkeit erregt, oder wie wir unsere Aufmerksamkeit verteilen" zusammen. Angesichts dieser theoretischen und empirischen Probleme führt Tulving eine Unterscheidung von Bewußtsein (consciousness) und Bewußtheit (awareness) ein. Tulving versteht Bewußtsein als generelle Kapazität, die auf keine phänomenal erlebte Gegebenheit ausgerichtet ist, während Bewußtheit oder Gewahrwerden sich im Gegensatz dazu gerade durch eine solche Ausgerichtetheit auszeichnet und als spezielle Manifestation der Kapazität Bewußtsein verstanden werden kann. Nach dieser Unterscheidung werden innerhalb der psychologischen Forschung nur noch Bewußtheitsfragen behandelt und der Begriff Bewußtsein nicht mehr angewandt. Mittels der Bewußtheit lassen sich also die Begriffe unbewußt und bewußt operational in den Griff bekommen.

       

       

      2.Unbewußte Wahrnehmung; Qualitative Differenzen; direkte & indirekte Tests:

Nachdem nun die wichtigen Begriffe Wahrnehmung, Bewußtsein und Bewußtheit eingeführt wurden, wenden wir uns dem Phänomen der unbewußten Wahrnehmung zu. Schon zu Anfang des 20. Jahrhunderts entwickelte Helmholtz die Idee des unbewußten Schließens. Danach verwenden wir anstatt aus der Welt äußerer Reize die Gegenstände der Wahrnehmung einfach abzulesen unbewußt unser bereits erworbenes Wissen, um das was wir wahrnehmen richtig zu interpretieren. Damit nun der Effekt der unbewußten oder unterschwelligen Wahrnehmung (man spricht von unterschwelliger Wahrnehmung, wenn eine Reizintensität (Schwelle) existiert, ab der keine überzufällig häufige Wahrnehmung eines bestimmten Reizes mehr möglich ist) besser verdeutlicht wird, sollen im folgenden einige Experimente aufgeführt werden.

James Vicary führte eine Untersuchung durch, bei der ein erhöhter Coca-Cola- und Popcornkonsum nach Kinofilmen erfaßt wurde, in denen unterschwellige Werbebotschaften versteckt waren (vgl. Koeppler 1972). Bereits 1884 berichteten Peirce & Jastrow über ein Experiment, in dem kleinste Druckunterschiede auf den Fingerspitzen diskriminiert werden sollten. Obwohl die Diskriminationsurteile für kleine Druckunterschiede deutlich über der Ratewahrscheinlichkeit lag, waren die Vpn fest davon überzeugt ausschließlich geraten zu haben. 1898 konnte Sidis nachweisen, daß Vpn, denen aus größerer Entfernung Karten gezeigt wurden, die einen gedruckten Buchstaben oder eine gedruckt Zahl enthielten, eine überzählig richtige Zuordnung herstellten, obwohl sie die Karten nach eigenen Angaben praktisch gar nicht erkennen konnten und sie sich darüber auch beim Versuchsleiter beklagt hatten.

1983 zeigte sich in einer Studie zur unterschwelligen Wahrnehmung von Marcel, daß Vpn nach der unterschwelligen Präsentation eines Wortes überzufällig oft in der Lage waren aus einem nachfolgenden dargestellten Wortpaar dasjenige Wort auszuwählen, welches dem zuvor gezeigten Wort semantisch oder strukturell ähnlich war. Dieser Effekt wird als "semantisches Priming" bezeichnet. Dabei mußten die Vpn bei jeder Präsentation entweder angeben, a) ob ein Wort gesehen wurde, b) welches von zwei nachfolgend gezeigten Worten dem unterschwellig gezeigten Wort vom Schriftbild her ähnlicher ist, oder c) welches von zwei nachfolgend gezeigten Worten dem zuvor unterschwellig gezeigten Wort von der Bedeutung her ähnlicher ist. Obwohl die Vpn nicht in der Lage waren, korrekt anzugeben, ob ein Wort oder ein leeres Feld gezeigt wurde, konnten sie bei erzwungenen Auswahlentscheidungen (forced choice) überzufällig richtig struktur- und bedeutungsähnliche Wörter zuordnen. Dieses Ergebnis zeigt, daß es hier zu einer unbewußten Bedeutungsaktivierung von semantischem Reizmaterial gekommen ist, die von den Vpn ohne davon zu wissen, in einer Entscheidungsaufgabe genutzt wurde.

Trotz all dieser Phänomene bleibt die Frage, nach welchen Kriterien Bewußtheit bzw. bewußtes Erleben oder Gewahrwerden erfaßt werden soll, weiterhin bestehen. Durch welches Verhaltensmaß läßt sich also die Bewußtheit von verhaltensrelevanten Informationen empirisch nachweisen, wenn zum einen unbewußte Wissensanteile prinzipiell ausgeschlossen

(exclusiveness; Ausschließlichkeit) und zum anderen bewußte Wissensanteile erschöpfend erfaßt werden sollen (exhaustiveness; Erschöpftheit)? Nach derzeitiger Erkenntnis dürfte die Ausschließlichkeits-Forderung kaum realisierbar sein, wohingegen zur Erschöpftheits-Bedingung immerhin annähernd Lösungen vorliegen. Trotzdem wird ein Existenzbeweis für unbewußte Wahrnehmung wohl nie erbracht werden. Deshalb folgen Merikle & Reingold nicht mehr dem Problem des Nachweises, daß es unbewußte Wahrnehmung gibt, sondern der Frage, durch welche Konsequenzen sich bewußte und unbewußte Wahrnehmung voneinander unterscheiden und schlagen den Weg der "Qualitativen Differenzen" ein.

Bei dieser Methode werden zwei Verhaltensmaße gegenübergestellt, von denen eines Bewußtheit indizieren soll. Die dazugehörigen Tests werden aber unter den gleichen Bedingungen durchgeführt. Um sich ein besseres Bild über die Methode der qualitativen Differenzen machen zu können, werden nun zwei Experimente vorgestellt.

Im ersten Experiment von Merikle & Reingold (1992) besteht jeder Versuchsdurchgang aus drei Phasen.

Abb.2: Experiment zur Erfassung Qualitativer Differenzen

(aus: Merikle & Reingold 1992:66)

Zunächst wird der Vp 50ms lang ein maskiertes (siehe auch Kap.4) Wort oder ein leeres Feld dargestellt (Reizpräsentation). Danach werden der Vp zwei Worte, mit der Aufgabe (ja/nein) zu entscheiden, ob eines dieser Worte zuvor gezeigt worden wäre (Reizdetektion). Schließlich muß die Vp in einer forced-choice-Aufgabe entscheiden, welches der zuvor gezeigten Worte zu Beginn gezeigt worden ist (Reizrekognition), auch wenn sie in der Detektion ausgesagt hat, daß keines zuvor präsentiert wurde ("misses"). Es stellte sich heraus, das die Vpn auch bei misses zu überzufällig häufigen Rekognitionsleistungen fähig sind, was ein Indiz für unbewußte Informationsverarbeitung ist. Diese kann jedoch nur stattgefunden haben, wenn durch bereits bestehende mentale Repräsentationen eine semantische Vertrautheit vorliegt. Rekognition ohne Detektion sollte daher bei sinnlosen Buchstabenfolgen (Nicht-Worten) nicht mehr stattfinden, was von Merikle & Reingold auch tatsächlich nachgewiesen wurde.

In einem Experiment von Murphy & Zajonc von 1993 ging es um den Nachweis, daß affektive Reaktionen eher von unbewußt aufgenommenen Reizen beeinflußt werden, als von bewußten. Den Vpn wurden dabei chinesische Schriftsymbole gezeigt, worauf sie raten mußten, ob diese eine gute oder schlechte Bedeutung hätten. Einer Hälfte der Vpn wurde nun vor dem Schriftsymbol für 4ms (also unterschwellig) ein glückliches oder trauriges Gesicht gezeigt. Der anderen Hälfte wurden diese Gesichter zwar für eine Sekunde gezeigt (also auf jeden Fall bewußt), sie sollten diese bei der Bewertung der Symbole jedoch ignorieren. Das Experiment zeigte, daß die Vpn derjenigen Hälfte, denen die Gesichter unterschwellig präsentiert wurden die Symbole bei einem glücklichen Gesicht überzufällig häufig als gut und bei einem ärgerlichen Gesicht überzufällig häufig als schlecht kategorisierten. Bei der anderen Gruppe hatten die bewußt wahrgenommenen Gesichter keinerlei Einfluß auf die Beurteilung, so daß vermeintlich unbewußt verarbeitete Reize in Zusammenhang mit nachfolgend zu bewertenden Symbolen affektive Reaktionen auslösen können, während dies bei bewußt wahrnehmbaren Reizen nicht der Fall ist. Beide Experimente zeigen demnach, daß unbewußte und bewußte Wahrnehmung unterschiedliche Konsequenzen nach sich ziehen können.

Neben den Qualitativen Differenzen schlagen Merikle & Reingold ein zweites Verfahren zum Nachweis solcher unterschiedlicher Konsequenzen vor, die gegenüberstellende Durchführung von direkten und indirekten Tests unter praktisch vergleichbaren Bedingungen. In direkten Tests (bewußtes Erinnern) wird das erinnerbare Wissen von Vpn derart erfaßt, daß sie im Test

direkt angeben müssen, ob bzw. welches von mehreren Items bereits bekannt ist. Bei indirekten Tests (unbewußt) müssen die Vpn dagegen eine bestimmte Leistung erbringen (z.B. ein Bild zu benennen), die, ohne das sie es wissen, von einer vorausgehenden Erfahrung mit dem Item beeinflußt wird. Beide Testarten sollen sich dabei lediglich in der Testinstruktion unterscheiden und müssen unter genau den gleichen Testbedingungen ablaufen. Auch hierzu sollen zwei Experimente genannt werden.

Im ersten Test von Merikle & Reingold wurden Vpn nacheinander 60 Wortpaare für jeweils 500ms präsentiert. Das jeweils untere Wort wurde dabei durch Pfeile markiert. Anschließend wurden die nicht markierten Worte mit völlig neuen Worte gemischt und den Vpn gezeigt. Diese sollten nun im direkten Test angeben, ob ein neues oder ein bereits dargestelltes Wort vorliegt. Im indirekten Test wurde überprüft, ob sich das nun gezeigte Wort aus dem Hintergrund abhebt oder mit ihm verschmilzt.

Abb.3: Beispiel für ein Versuch mit direktem und indirektem Test

(aus: Merikle & Reingold 1992:74)

Das Ergebnis war nun, daß die zuvor in der Studierphase präsentierten Worte signifikant häufiger durch die Kontrastbedingung (indirekter Test) erfaßt wurde, als dies im direkten Wiedererkennungstest der Fall war.

In einem anderen Versuch von Kunst-Wilson & Zajonc (1980) wurden den Vpn in der Lernphase jeweils fünfmal für nur 1ms unregelmäßige Achtecke gezeigt. Anschließend konnten die Vpn diese Symbole gegenüber neuen Achtecken im direkten Test (bewußt) nicht als bekannt diskriminieren, wohingegen sie ihnen im indirekten Test (unbewußt) überzufällig häufig (ca.60%) vertrauter vorkamen, als die neuen Achtecke.

 

 

 

 

    3.Visuelle Wahrnehmung: 2 Verarbeitungssysteme

 

      1.Der biologische Prozeß des Sehens; Phänomene und visuelle Krankheitsbilder:

      Entscheidend für das Verständnis der folgenden Kapitel sind die zwei Verarbeitungssysteme der visuellen Wahrnehmung, die in diesem Kapitel vorgestellt werden sollen. Zunächst einmal muß der Frage nachgegangen werden, wie visuelle Reize aus der Umwelt aus biologischer Sicht aufgenommen und verarbeitet werden.

      Der Prozeß des Sehens beginnt damit, daß Licht durch die Augenlinse auf die Netzhaut (neuronales Gewebe) trifft. Diese besteht aus Rezeptoren, die in Stäbchen und Zapfen unterteilt sind. Die Stäbchen sind lichtempfindlicher als die Zapfen, können jedoch keine Farben unterscheiden. Dies ist die Aufgabe der Zapfen, weshalb sie tagaktiv und die Stäbchen nachtaktiv sind. Die Rezeptoren wandeln den Reiz in elektrische Signale um und leiten diese weiter zu den Ganglienzellen. Die Ganglienzellen bestehen aus großen "farbenblinden" und kleinen "farbensehenden" Zellen. Beide Zelltypen leiten nun die Impulse weiter in die seitlichen Kniehöcker, welche wiederum aus großen und kleinen Zellen bestehen, die jedoch hier im

      Gegensatz zu den Ganglienzellen räumlich voneinander getrennt sind. Die großen Zellen des sogenannten Magno-Systems erhalten ihre Eingangssignale von den großen Ganglienzellen und

      die kleinen Zellen des sogenannten Parvo-Systems erhalten die ihren von den kleinen Ganglienzellen (in Kapitel 3.2. wird genauer auf beide Systeme eingegangen). Danach werden die Signale in den Schichten V1 bis V5 weiterverarbeitet, wobei die Signale zunächst im Areal V1 eintreffen. Über dieses werden nahezu alle visuellen Informationen aus der Umgebung über Farbe, Größe, Orientierung, Tiefe und Bewegung an höhere Hirnareale weitergegeben, welche aus den vier parallel arbeitenden Verarbeitungssystemen V2 bis V5 bestehen. Daher wird V1 auch als cortikale Netzhaut bezeichnet. Ferner ermöglicht V1 ein bewußtes Erleben der Umwelt. Neben der allgemeinen Weiterleitung der in V1 einlaufenden Bahnen haben die Areale V2 bis V5 klar verteilte Aufgaben.

      V2 ist zuständig für die Vermittlung des Tiefensehens und der Wahrnehmung von Bewegungsrichtungen, V3 nimmt Informationen über Formspezifität und dynamische Formen, aber nicht über Farben auf. Die Aufgaben von V4 sind die Farberkennung und die Orientierung von statischen Formen wie Linien und V5 ist für die Identifikation von Bewegungen, aber nicht von Farben zuständig.

      Anhand dieser Erkenntnisse, die uns die Forschung geliefert hat, lassen sich zum einen bestimmte Phänomene und visuelle Krankheitsbilder die uns im Alltag begegnen erklären, zum anderen werden einige Eigenschaften unseres visuellen Systems in Industrie und Wirtschaft gezielt genutzt. Dazu einige Beispiele.

      Vielen Skifahrern wird schon einmal aufgefallen sein, daß eine Buckelpiste bei bewölktem Himmel in ihrer Profilierung nur schwer erkannt werden kann. Dies liegt an den unterschiedlichen Eigenschaften von Magno-System und Parvo-System, die wie schon erwähnt im nächsten Unterkapitel genauer aufgezeigt werden. Informationen über Bewegung und Tiefe werden vom farbenblinden Magno-System geliefert, welches lediglich auf Helligkeitsunterschiede anspricht, die jedoch bei schlechtem Wetter nur gering vorhanden sind. Daß heißt es gibt kaum noch Schatten und somit ist unser visuelles System nicht mehr in der Lage Tiefe wahrzunehmen.

      In der Werbung werden ebenfalls die Eigenschaften beider Systeme ausgenutzt um entscheidende Schlüsselworte optisch hervozuheben. Darauf soll jedoch nicht näher eingegangen werden.

      Durch Unfälle verursachte Läsionen in bestimmten Arealen können verschiedene spezifische Sehbehinderungen verursachen. Eine Läsion im Areal V4 beispielsweise führt zur völligen Farbenblindheit, wobei die Betroffenen die Farben nicht mehr sehen, unterscheiden, sich vorstellen oder sich an sie erinnern können. Bei einer Läsion in V5 können die Patienten bewegte Gegenstände weder sehen noch sich vorstellen. Über ein völliges Fehlen des Formsehens wurde jedoch noch nie berichtet, da dies eine Schädigung von V3 und V4 bedeuten würde, was jedoch fast sicher zur völligen Blindheit führt.

      Ein weiteres Krankheitsbild, die Blindsichtigkeit die durch die Verletzung des Areals V1 hervorgerufen wird führt uns im folgenden zu der Tatsache, daß die visuelle Wahrnehmung über zwei getrennte Verarbeitungssysteme verfügt.

       

       

      2.Die Blindsichtigkeit und die zwei visuellen Verarbeitungssysteme:

Experimente mit blindsichtigen Patienten sind weitere Beispiele dafür, daß Verhaltensvariationen auch ohne Bewußtheit stattfinden kann. Blindsichtige sind insofern blind, als daß sie keine bewußten Repräsentationen ihrer Umwelt haben. Dennoch können sie unbewußt verhaltensrelevante visuelle Umweltinformationen aufnehmen. So reagieren manche dieser Patienten auf bestimmte Lichtreize in ihrem Gesichtsfeld wenn sie dazu aufgefordert werden mit entsprechenden sakkadischen Augenbewegungen, obwohl sie angeben nichts zu sehen. Einige von ihnen können Lichtfarben bestimmen oder überzufällig häufig Objekte richtig kategorisieren. Zwei Patienten konnten nicht nur verschiedene Objekte entsprechen ihrer Größe (Öffnungswinkel der Hand) zielgerecht im Raum greifen, sondern sogar große Buchstaben unter jeweils sechs möglichen Alternativen richtig zuordnen.

Wie oben bereits erwähnt resultiert Blindsichtigkeit aus einer Schädigung des Areals V1, weshalb ein bewußtes Erleben der Umwelt nicht mehr möglich ist. Dennoch werden bei diesen Patienten Informationen von der Netzhaut an V1 vorbei in die nachfolgenden Areale weitergeleitet. Dies ist möglich, weil bei gesunden Menschen der Sehprozeß über zwei unabhängige visuelle Kanäle abläuft. Diese sind der ventrale und der dorsale Strang, von denen der durch V1 führende ventrale Strang bei blindsehenden Menschen vollständig gestört ist. Der in den motorischen Cortex führende dorsale Strang (deshalb auch Aktionssystem genannt), dessen Informationssignale unbewußt verarbeitet werden, beinhaltet nur etwa 10 % aller neuronalen Bahnen des visuellen Systems. Der Rest ist Bestandteil des ventralen Stranges, der für die bewußte Reizidentifikation und Mustererkennung zuständig ist. Wegen des motorischen "Aufgabengebiets" des dorsalen Stranges, waren bei Blindsehenden trotz massiver Störung der bewußten Wahrnehmung unbewußt Informationen über Orientierung und Größe von Objekten für die Bewegungssteuerung verfügbar.

Die erste Trennung der Informationsverarbeitung findet im seitlichen Kniehöcker statt, wo die kleinen Zellen des Parvo-Systems Farbkontrast und die großen Zellen des Magno-Systems Helligkeitskontrast übertragen. Das Magno-System ist gegenüber Helligkeitsunterschieden empfindlicher, ist völlig farbenblind, spricht schneller an und hat eine geringere Sehschärfe als das Parvo-System. Dieses hat dagegen eine hohe Farbintensität, ist relativ langsam und mit einer geringen Kontrastsensitivität versehen, besitzt aber eine hohe räumliche Auflösung. Der dorsale Strang erhält nun seine Signale aus dem Magnosystem, wobei die schnell leitenden Zellen dieses Systems natürlich bei der Aufgabe des dorsalen Stranges, bewegungsrelevante Informationen zu liefern hilfreich sind. Der ventrale Strang wird vom Parvo-System mit Informationen versorgt.

Führen wir uns nun die Eigenheiten und Aufgaben beider Stränge und der zugehörigen Systeme in den seitlichen Kniehöckern vor Augen, so erkennen wir zum Beispiel warum wir uns in der Dämmerung, trotzdem, daß wir nichts mehr bewußt erkennen können, auch in unebenem Gelände noch ohne Probleme bewegen können, denn der dorsale Strang leitet unbewußt Umgebungsinformationen unmittelbar in die motorischen Zentren.

Erwähnt sei an dieser Stelle noch, daß Schmidt (1991) anstatt vom ventralen Strang vom fokalen System (focal vision) und anstatt vom dorsalen Strang vom peripheren System (ambient vision) spricht. Aufgaben und Eigenschaften beider Bezeichnungen sind jedoch identisch.

Zum Abschluß dieses Kapitels soll nun noch das bekannte Experiment von Bridgemann et al. (1981) vorgestellt werden. Dabei wurde Vpn auf einem Monitor in einem abgedunkelten Raum

ein Lichtpunkt gezeigt, der sich innerhalb eines Rechtecks befand. Ohne Wissen der Vpn wurde nun das Rechteck abwechselnd leicht nach links und nach rechts bewegt. Die Vpn nahmen dabei an der Punkt würde sich bewegen. Dies ist ein Beispiel für eine konstruierte Situation, in der beide Systeme (fokales und peripheres) miteinander konkurrieren, wobei hier das periphere System dominant bleibt und die Täuschung eintritt. Wurde nun der Monitor abgeschaltet und sollten die Vpn auf den letzten Ort des Punktes zeigen, so deuteten sie immer richtig in die Mitte des Bildschirms, auch wenn sie der Meinung waren, der Punkt sei zuletzt rechts oder links gewesen. Dies liegt daran, daß die unbewußt über das periphere System gesteuerte Auge-Hand-Koordination unbeeinflußt von der Täuschung blieb, auch wenn das fokale System fälschlicherweise eine bewußte Repräsentation des Punktes auf der falschen Seite erzeugte. Der bewußt wahrgenommene Ort des Reizes stimmt also nicht mit seiner Lokalisation durch eine motorische Reaktion überein. Man spricht hierbei von einer räumlichen Dissoziation. Das Ergebnis zeigt, daß nicht nur das fokale System für die visuelle Bewegungskontrolle zuständig ist, sondern auch das periphere System, welches unbewußt die Reaktionen auf visuelle Reize steuert.

Das Experiment von Bridgemann ist somit auch ein Beispiel für Dissoziationen zwischen bewußtem Erleben und motorischem Verhalten, die den Inhalt des nun folgenden Kapitels darstellen.

 

 

 

 

    4.Dissoziationen zwischen bewußtem Erleben und motorischem Verhalten

 

      1.Blindsichtigkeit, Amnesie und Priming-Effekt:

Ein Phänomen, welches solche Dissoziationen zwischen bewußtem Erleben und motorischem Verhalten aufweisen kann, ist die im vorigen Kapitel bereits behandelte Blindsichtigkeit. Das vielleicht bekannteste Beispiel hierfür stellt der Patient G.Y. dar. Auch bei ihm wurde durch

einen Unfall das Areal V1 im visuellen Cortex zerstört, weshalb er trotz gesunder Augen auf einer Seite seines Gesichtsfeldes "blind", im Sinne einer bewußten Repräsentation seiner Umwelt. Dennoch reagierte er unbewußt auf visuelle Reize im geschädigten Gesichtsfeld. Er konnte geometrische Figuren erraten und war in der Lage zielsicher auf Gegenstände zu deuten. Noch erstaunlicher waren die Leistungen der ebenfalls blindsehenden Patientin D.F., die zwar Objekte nicht mehr bewußt erkennen konnte, aber dennoch in der Lage war, die Orientierung eines Schlitzes in einer Scheibe überzufällig häufig richtig anzugeben und sogar ihre Hand korrekt gedreht hindurch stecken konnte. Unter anderem führten diese, sowie andere Dissoziationen blindsehender Patienten die Forscher zu den zwei visuellen Verarbeitungssystemen, wobei das ventrale System bei Blindsehenden gestört und nur noch das, in den motorischen Cortex führende dorsale System intakt ist.

Auch bei Amnestikern können Dissoziationen beobachtet werden, denn obwohl sie nicht mehr bewußt auf Erfahrungen zurückgreifen können, lassen sich oft Verhaltensänderungen bei ihnen nachweisen, die gerade auf vergangene Erfahrungen zurückzuführen sind. Ein Beispiel hierfür ist eine unter Amnesie leidende Frau, der man die Fertigkeit beibrachte Kleider zu nähen. Das verblüffende daran war nun, daß die Frau zwar diese Fertigkeit jederzeit ausüben konnte und somit gelernt hatte, sie sich aber nie daran erinnerte jemals Nähen gelernt zu haben. Dies wird auch als Indiz für implizites Lernen angesehen. Erklären läßt sich dieser Effekt so, daß das Kurzzeitgedächtnis bei Amnestikern zwar unbewußt funktioniert, sich daraus jedoch keine Informationen in das Langzeitgedächtnis übertragen lassen. So können Amnestiker zum Beispiel auch lernen, spiegelverkehrt dargestellte Sätze zu lesen. Und auch ein weiterer Versuch verdeutlicht die vorhandene unbewußte Lernfähigkeit von Amnestikern. Dabei legte sich der Arzt bei der Begrüßung seines unter Amnesie leidenden Patienten eine Reiszwecke in die Hand, worauf dieser die seine natürlich erschrocken zurückzog. Ab diesem Zeitpunkt wollte der Patient niemandem mehr die Hand geben, obwohl er sich an den Vorfall mit seinem Arzt nicht mehr erinnern konnte.

Solche Phänomene werden in der Literatur als Priming-Effekt bezeichnet, der die Dissoziation zwischen bewußt erlebten Erfahrungen und der Auswirkung dieser Erfahrungen auf das motorische Verhalten verdeutlicht. Aus der Erforschung von Phänomenen bei Amnestikern gingen schließlich zwei Hypothesen hervor. Die Kodierdefizit-Hypothese besagt, daß Amnestiker eingehende Informationen nicht tiefergehend verarbeiten können, wohingegen die

sogenannte Abrufdefizit-Hypothese davon ausgeht, das die Patienten zwar ein umfangreiches Wissen besitzen, welches sie jedoch nicht mehr abrufen können.

 

4.2. Der False-Fame-Effekt:

Auch der False-Fame-Effekt, der sowohl bei Normalpersonen als auch bei Amnestikern zum Nachweis der Nutzung unbewußter Erfahrungen bzw. von unbenutztem Reizmaterial dient, soll hier kurz vorgestellt werden. Zugrunde liegt dem Effekt eine vorausgehende Auseinandersetzung mit Reizinformationen, wobei es sich hierbei um eine Namensliste berühmter und nicht-berühmter Personen handelt, die von den Vpn laut vorgelesen werden soll. Danach wird diese Liste durch weitere berühmte und nicht-berühmte Personen verdoppelt und muß erneut vorgelesen werden. Nun werden die Vpn in einer forced-choice Aufgabe gezwungen die Namen als berühmt oder eben nicht-berühmt zu diskriminieren, wobei sich zeigt, daß anfangs vorgelesene nicht-berühmte Namen nun signifikant häufiger als berühmt eingeschätzt werden als neue nicht-berühmte Namen. Hierbei ist auch interessant, daß Amnestiker dieselben Resultate zeigen, wie "gesunde" Menschen.

 

 

4.3. Die Untersuchungen von Benjamin Libet:

Benjamin Libet interessierte Ende der 80er Jahre die Frage, durch welche Hirnprozesse eine bewußte Wahrnehmung ausgelöst wird. Durch die Kooperation mit dem Neurochirurgen Bertram Feinstein, der Hirnoperationen unter lokaler Betäubung durchführte, konnte er vor den Eingriffen mit Zustimmung der Patienten für jeweils 30 Minuten Experimente am offenen Gehirn vornehmen. Dabei stimulierte er zunächst durch einen elektrischen Reiz die, für die Hand zuständige Region der Hirnrinde (somatosensorischer Cortex). Die Vpn konnten jedoch nur bei einer Reizdauer von mindestens einer halben Sekunde Länge etwas spüren, wohingegen bei direkten Hautreizungen (Nadel) auch sehr kurze Reize unmittelbar danach (0,4 Sekunden Reizleitung) deutlich wahrgenommen werden konnten.

Um mehr über dieses Phänomen zu erfahren, stimulierte er Hirnrinde und Hand gleichzeitig, mit dem Ergebnis, daß die Vpn den Hirnreiz ca. eine halbe Sekunde nach dem Handreiz wahrnahmen. Erfolgte der Hirnreiz nicht mehr an der Hirnrinde, sondern wurde stattdessen eine bestimmte Schicht des Thalamus gereizt, so war keine Verzögerung mehr auszumachen. Wurde die, der Hautstelle entsprechende Stelle im Cortex 400ms später gereizt, so konnte Libet bei den Vpn sogar eine Verstärkung oder eine Löschung aus dem Bewußtsein des Hautreizes feststellen.

Anhand dieser Ergebnisse kam Libet zu dem Schluß, daß ein Hautreiz zunächst einen primären Nervenimpuls erzeugt, der in der Hirnrinde sofort registriert und zu einer unmittelbaren motorischen Reaktion führt, ohne daß der Reiz bewußt wahrgenommen wird. Erst wenn über einen Zeitraum von einer halben Sekunde Impulse eintreffen tritt der Reiz in das Bewußtsein. Doch nun datiert unser Gehirn diese Empfindung zeitlich wieder eine halbe Sekunde zurück, so daß wir der Meinung sind, wir erleben die Welt zum richtigen Zeitpunkt. Als Grund für diese halbsekündige "Wartezeit" bis zum bewußten Erleben sieht Libet die Selektion von Reizinformation an, um eine unnötige Überlastung des Gehirns durch eine Reizflut zu vermeiden. Um also bewußt wahrgenommen zu werden, muß ein Reiz demnach so stark sein, daß er mindestens eine halbe Sekunde lang sensorische Impulse erzeugt.

Darüber hinaus fand Libet heraus, daß das menschliche Gehirn bereits beschließt Handlungen einzuleiten, bevor sich die Person dessen überhaupt bewußt ist. Dies gelang ihm, indem er Vpn eine schnell laufende Uhr beobachten ließ und sie aufforderte sich den Zeitpunkt zu merken, an dem sie sich bewußt dazu entschlossen, eine Hand zu heben. Anhand der dabei aufgezeichneten Hirnströme erkannte Libet nun, daß das Bereitschaftspotential der Handlung, bzw. dem gefaßten Entschluß vorausging, wobei die Hirnaktivität bereits 0,3 Sekunden vor dem bewußten Entschluß einsetzte.

5. Direkte Parameterspezifikation:

Bedingungen für den Metakontrast-Effekt

 

5.1. Die Theorie der direkten Parameterspezifikation:

Die Theorie der direkten Parameterspezifikation geht auf die bereits in Kapitel 3 ausführlich geschilderte Zweiteilung des visuellen Systems zurück, welche ermöglicht, daß Umweltreize eine Reaktion bzw. ein Verhalten auslösen und somit verarbeitet werden können ohne das dies zu einer bewußten Repräsentation führen muß. Nach Neumann (1989) liegt genau dann eine Dissoziation vor, "wenn ein Reiz ... Handlungsparameter in einer Weise spezifiziert, die mit mentalen Repräsentationen dieses Reizes ... nicht übereinstimmt (Die Begriffe Parameterspezifikation und Handlungsparameter beziehen sich dabei auf die Schema-Theorie von Schmidt, welche im nächsten Kapitel vorgestellt wird). Mentale Repräsentationen können daher keine Voraussetzung für motorische Handlungen darstellen. Eine sensorische Kontrolle von Verhaltensparametern ohne die Vermittlung durch kognitive Prozesse nennt Neumann nun eine direkte Parameterspezifikation.

Die Frage ist nun, wozu diese direkten Parameterspezifikationen dienen. Nach Neumanns Vorstellung sollen sie es ermöglichen, schnelle Reaktionen allein aufgrund von perzeptuellen Repräsentationen und ohne Bewußtsein auszulösen, was wiederum ein neues Verständnis zur Willkürlichkeit von Handlungen unter Zeitdruck. Es genügt ein unbewußt wahrgenommener Reiz, um eine Handlung auszulösen, aber nur, wenn bereits ein fertiger Handlungsplan vorliegt. "Was zuvor vollständig geplant wurde, bedarf zu seiner Ausführung offenbar keiner bewußten Repräsentation mehr" (Neumann 1996:65). "Sobald der Plan jedoch ersetzt, modifiziert oder auch nur ergänzt werden muß (weil z.B. ein unerwartetes Ereignis eingetreten ist), wäre erneute Planung notwendig; ..." (Neumann 1989a:44). Nach Neumann & Prinz (1987) ist bewußtes Erleben nichts anderes, als "ein später Nachklapp dessen, was funktionell schon in seine Bahnen gelenkt wurde." Verhaltensrelevante Informationsverarbeitung setzt also nicht zwangsläufig bewußte Wahrnehmung voraus. Die bewußte Wahrnehmung sollte somit nicht als eine Stufe im Reizverarbeitungsprozeß, sondern vielmehr als eine bestimmte Form der internen Repräsentation von Umweltreizen neben anderen verstanden werden.

Der Entwurf von Handlungsplänen ist besonders im Sport von großer Bedeutung, wobei oben die Bedeutung der direkten Parameterspezifikation für Handlungen unter Zeitdruck, wie eben auch im Sport, bereits erwähnt wurde. So haben fortgeschrittene Sportler aus langjähriger Erfahrung heraus Handlungspläne entwickelt, die bereits durch unbewußte Reize ablaufen können. Als Beispiel sei die Reaktion eines Tennisspielers beim Aufschlag genannt. Ungeübte Spieler ohne ein solches Handlungsschema müssen noch bewußt Reize aufnehmen, weshalb sich schnell eine kognitive Überlastung bemerkbar machen kann.

 

 

5.2. Der Metakontrast-Effekt:

Die direkte Parameterspezifikation wird auch mit Hilfe des sogenannten Metakontrast-Effektes nachgewiesen, bei dem es sich um eine visuelle Rückwärtsmarkierung eines vorausgehenden Reizes durch einen nachfolgenden handelt. Dadurch kann zum Beispiel die Helligkeit des vorangehenden Testreizes verringert, dessen wahrgenommene Dauer verkürzt und die Entdeckbarkeit bzw. Identifizierbarkeit bis zur Unsichtbarkeit hin unterdrückt werden. Trotzdem reagiert man motorisch ohne weitere Einschränkung auf den unbewußten Reiz.

Die Grundkonzeption sieht dabei wie in folgendem Versuch aus. Die Vpn sehen für 90ms zwei geometrische Figuren (Quadrat & Rhombus) nebeneinander, von denen einer (z.B. der Rhombus) der Zielreiz ist, auf den man möglichst schnell, aber dennoch richtig reagieren soll (linke oder rechte Taste). Diesem Reizpaar, der Maske, geht 45ms zuvor für 30ms ein Prime-Paar voraus, das durch das Paar aus Zielreiz und Ablenker vollständig markiert wird. Siehe dazu auch Abb.4.

Worauf es nun ankommt, ist die Anordnung des Primes (Abb.5). Bei der kongruenten Bedingung kommt es zu einer Verkürzung der Reaktionszeit, da die Reaktion auf den Prime Reiz richtig war und somit 45ms "gewonnen" werden. Bei der inkongruenten Bedingung muß die Reaktion auf den Prime abgebrochen und umgestellt werden, weshalb sich die Reaktionszeit verlängert. In der neutralen Bedingung findet keine Reaktion auf den Prime statt,

weshalb die Reaktionszeit nur vom Zielreiz abhängt.

 

Abb.4: Der Metakontrast-Effekt

Abb.5: Die drei Reizbedingungen

 

6. Bewegungslernen: Programmansatz und Aktionsansatz

 

Um die Frage nach dem motorischen Lernprozeß und somit dem Bewegungslernen zu beantworten wurden im Laufe der letzten Jahrzehnte unterschiedliche Theorien aufgestellt, welche verschiedene Ansatzpunkte haben. Im Folgenden sollen zwei dieser Theorien vorgestellt werden. Im Anschluß daran, werden Vor- und Nachteile beider Theorien diskutiert und es soll versucht werden zu begründen, warum die Antwort auf die Frage nach der "richtigen" Theorie offen bleiben muß.

Die erste dieser beiden Theorien wurde in den 70er Jahren von R.A.Schmidt entwickelt und ist als Schema-Theorie bekannt. Weitere Bezeichnungen in Anlehnung an die zweite Theorie sind auch motor approach oder Programmansatz. Aus ihren Schwächen erarbeiteten ihre Gegner eine zweite motorische Lerntheorie, den sogenannten action approach oder Aktionsansatz, dessen Ursprünge auf den russischen Wissenschaftler N.A.Bernstein zurückgehen, der seine Ideen noch in der ersten Hälfte dieses Jahrhunderts entwickelte. Die Frage welche der beiden Theorien nun die "richtige" ist, bzw. welche der Wahrheit näher kommt löste in den 80er Jahren eine hitzige Debatte aus, der man den Namen "the motor-action-controversy" gab.

Hauptunterschied zwischen beiden Theorierichtungen ist die Sichtweise der Bewegungsproduktion. Die Vertreter des motor approach lehnen sich an das in der Psychologie vorherrschende Informationsverarbeitungsparadigma an. Analog zu einem Computer, der mit Programmen Befehle erzeugt, welche die peripheren Geräte steuern, generieren nach dieser Ansicht im zentralen Nervensystem gespeicherte Programme Muskelbefehle, welche die Bewegung der peripheren Körperteile bestimmen.

Die Befürworter des action approach bezweifeln, daß Bewegungen zentral gesteuert werden, wobei das "Problem der Freiheitsgrade", auch "Bernsteins Problem" genannt, eine zentrale Rolle spielt. Statt dessen nehmen sie an, daß "Bewegungen sich aus nichtlinearen physiologischen, biomechanischen oder umgebungsbedingten dynamischen Randbedingungen quasi von allein ergeben".

6.1. Die Schema-Theorie von R.A.Schmidt

6.1.1. Motorisches Programm und Generalisiertes Motorisches Programm

Betrachtet man eine Bewegung die sehr schnell vonstatten geht, beispielsweise die Schlagbewegung im Baseball, und ist man sich desweiteren über die Geschwindigkeit bewußt, mit der Reizimpulse von den Nerven geleitet werden können, so gelangt man zu folgendem Ergebnis: eine so schnelle Bewegung, wie das Schlagen eines Baseballs, muß ohne Rückmeldungen, also ohne Feedback und somit ohne Korrekturen während der Bewegung ablaufen. Man trifft den Ball, oder man verfehlt ihn, man kann jedoch nicht mehr reagieren, weil die exterozeptiven Reize aus der Umwelt (optisch, akustisch, taktil, ...), z.B. "der Ball fliegt schneller und weiter rechts als erwartet", sowie auch die propriozeptiven Reize (kinästhetisch, vestibulär, ...), z.B. "der Arm ist zu stark gebeugt", nicht schnell genug im Gehirn ankommen, um in die Bewegung mit einbezogen zu werden.

Es läuft sozusagen ein, für diese Bewegung spezifisches Programm ab, welches in der Kürze der Zeit nicht mehr geändert oder korrigiert und auch nicht mehr abgebrochen werden kann. Ein solches Programm enthält dann die genauen Informationen welche Muskeln innerviert werden, in welcher Reihenfolge dies geschieht, wie schnell und wie stark die Muskeln angespannt werden sollen, u.s.w. . Diese Informationen werden dann von den Nerven in Form von elektrischen Impulsen vom Gehirn ausgehend über das Rückenmark bis hin zu den Motorischen Endplatten der Muskeln weitergeleitet. Eine solche, für eine Bewegung spezifische Abfolge von elektrischen Nervenimpulsen wurde von R.A.Schmidt ein Motorisches Programm genannt.

Nach Schmidt besitzt jede Bewegung, sei sie auch noch so ähnlich zu einer anderen, ein eigenes Motorisches Programm. Bei genügend langsamen Bewegungen kann das Motorische Programm, im Gegensatz zu den oben beschriebenen schnellen Bewegungen nach Bedarf moduliert werden, da nun das ankommende Feedback nach einem "Ist-Soll-Wert-Vergleich" noch in das bereits laufende Programm eingearbeitet werden kann. Dies entspricht dem Modell des Closed-Loop-Systems, wohingegen bei einer schnellen Bewegung, die ohne Feedback auskommen muß, vom Modell des Open-Loop-Systems gesprochen wird. Auf diese beiden Systeme soll im Folgenden jedoch nicht mehr eingegangen werden.

Drei Experimente seien hier noch kurz genannt, die für Schmidts Theorie der Motorischen Programme sprechen. Im ersten Experiment von F.Henry und D.Rogers von 1960 wurde der Einfluß der Bewegungskomplexität auf die Reaktionszeit untersucht und festgestellt, daß eine Steigerung der Komplexität eine Erhöhung der Reaktionszeit mit sich führt. Dies deutet darauf hin, daß die Bewegung im Voraus "organisiert" wird, denn es bedarf mehr Zeit ein größeres Programm auszuwählen und "startklar" zu machen, als ein kleineres, weniger komplexes. Der genaue Vorgang der Programmauswahl soll weiter unten in Zusammenhang mit dem Generalisierten Motorischen Programm erläutert werden. In einem weiteren Experiment wurden bei Affen die afferenten Nervenbahnen der Extremitäten durchtrennt. Die Tatsache, daß sie dennoch anscheinend unbeeindruckt kletterten wie zuvor, weist darauf hin, daß die Bewegung "vorausprogrammiert" wurde und nun ohne Feedback abläuft. Die gleiche Beobachtung machte auch Lashley bei einem verletzten Soldaten, dessen Beine gefühllos waren, er jedoch trotzdem normal gehen konnte. Beim dritten Versuch wurde ein Arm so in einer Halterung befestigt, daß sich der Winkel im Ellenbogengelenk nicht ändern konnte. Nun sollte die Versuchsperson den blockierten Arm strecken. Dabei wurden die Muskelinnervationen des Trizeps und des Bizeps elektromyographisch aufgezeichnet und mit denen eines nicht blockierten Armes verglichen. Die Graphen der Schaubilder waren bis zu dem Zeitpunkt ( ~ 120ms ) identisch, an dem die veränderte Situation dem Gehirn mitgeteilt worden war und es daraufhin das Motorische Programm änderte. Bis dahin jedoch lief das gleiche Motorische Programm ab.

Für jede Bewegung scheint es also wirklich ein spezielles Motorisches Programm zu geben. Doch dies führt zu zwei großen Problemen. Zum einen ist dies das Speicherplatzproblem. Es gibt eine unendliche Anzahl unterschiedlicher Bewegungen. Allein im Tennis ist dies bereits der Fall, denn kein Schlag ist genau identisch mit einem anderen, sei der Unterschied auch noch so gering. Somit müßte das Gehirn eine unendliche Anzahl Motorischer Programme speichern. Dies ist unmöglich. Zum anderen gibt es das Neuigkeitenproblem. Woher hat zum Beispiel ein guter Tennisspieler das passende Motorische Programm um den Ball korrekt zu spielen, wenn doch jede Bewegung anders und somit neu für ihn ist und das Programm daher noch nicht im Gehirn gespeichert sein kann? Die Antwort darauf gab Schmidt mit dem Generalisierten Motorischen Programm ( GMP ).

Nach Schmidt lassen sich alle Bewegungen in eine endliche Anzahl von Bewegungsklassen einteilen. Beispielsweise sind die Bewegungen "schnelles Gehen" und "langsames Gehen" nur zwei unterschiedliche Ausprägungen der Bewegungsklasse "Gehen". Zu jeder Bewegungsklasse gehört nun ein GMP, welches wiederum durch sogenannte Invarianzen charakterisiert, bzw. zu erkennen ist. Diese Invarianzen sind z.B. das relative Timing oder die relative Kraftamplitude der beteiligten Muskeln, d.h. bei unterschiedlichen Gesamtzeiten zweier Bewegungen aus einer Bewegungsklasse, sind die (auf elektromyographischem Wege ermittelten) relativen Innervationszeiten, bzw. die relativen Kraftamplituden der einzelnen Muskeln zueinander bei beiden Bewegungen identisch.

Kommen wir auf das Beispiel des schnellen und langsamen Gehens zurück. Unterteilt man den Bewegungsablauf des Gehens in vier Phasen, so stimmen die relativen Zeitanteile, welche die einzelnen Phasen in der Gesamtzeit der Bewegung einnehmen beim schnellen und beim langsamen Gehen relativ gut überein. Somit sind die relativen Zeitanteile der einzelnen Phasen an der Gesamtzeit eine Invarianz des GMP’s der Bewegungsklasse Gehen. Wird nun die Gehgeschwindigkeit so weit erhöht, daß man von der Bewegungsklasse Gehen in die Bewegungsklasse Rennen oder Laufen gerät, so ändern sich auch die relativen Zeitanteile, also die Invarianze. So läßt sich also eine Bewegungsklasse bzw. deren GMP anhand seiner Invarianzen bestimmen oder charakterisieren.

Ob nun schnell oder langsam gegangen wird, oder ob ein Tennisaufschlag hart oder weich gespielt wird, hängt davon ab, welche Parameter in das entsprechende GMP "eingesetzt" werden. Will man beispielsweise schnell gehen, so muß man in das GMP "Gehen" den Parameter "schnell" einsetzen. Normalerweise muß jedoch immer ein ganzer Parametersatz eingesetzt werden, z. B. wie schnell, mit welcher Kraft und mit welcher Muskelgruppe will ich mich bewegen.

Bei einem GMP spielen also die Parameter die Rolle der Veränderlichen, der Variablen und die Invarianzen die Rolle der Konstanten. Anschaulich läßt sich ein GMP mit einer Schallplatte vergleichen, mit der fest vorgegebenen Rille als Invarianzen und der absoluten Abspielgeschwindigkeit, der absoluten Lautstärke und der Wahl der Lautsprecher (äquivalent zur gewählten Muskelgruppe) als freie Parameter . Doch woher kennen wir, oder besser unser Gehirn die richtigen Parameter für die beabsichtigte Bewegung und auch für neue Bewegungen, die bisher noch nie ausgeführt wurden ( Neuigkeitenproblem ), oder anders

gesagt nach welchem Prinzip werden die Parameter ausgewählt? Während das Speicherplatzproblem nun gelöst ist, taucht das Problem der Herkunft der korrekten Parametersätze auf. Die Antwort auf diese Frage liefert Schmidt in seiner Schema-Theorie.

6.1.2 Die Schemata

In Schmidts Schema-Theorie gibt es zunächst zu jeder Bewegungsklasse, also zu jedem GMP ein dazugehöriges Schema. Dieses Schema repräsentiert die Beziehung zwischen den früher einmal ausgewählten Parametersätzen und den damit erhaltenen Bewegungsergebnissen. Wann immer wir einen Parametersatz ausgewählt haben, so wurde er mit dem Bewegungsergebnis verglichen und die Korrelation im entsprechenden Schema abgespeichert. So entstand mit der Zeit diese immer fester werdende Beziehung. Will man nun ein bestimmtes Ergebnis erzielen, z.B. die Tripple-20 im Dart, so wählt man sich aus der Parameter-Ergebnis-Beziehung, also aus dem Schema den "Tripple-20 - Parametersatz". Anschaulich stellt das Schema eine Art Regressionsgerade durch die Punkte in einem Ergebnis-Parameter-Diagramm dar. Es werden also zuerst unterschiedliche Parametersätze gewählt, um anhand der entsprechenden Ergebnisse ein Schema zu bilden, und anschließend kann man ausgehend vom gewünschten Ergebnis den dafür nötigen Parametersatz bestimmen. Somit wäre auch das Neuigkeitenproblem gelöst.

Dieses, für die Bewegungsausführung verantwortliche Schema, welches den in das GMP einzusetzenden Parametersatz ermittelt und aus früheren Parametersätzen und den damit erhaltenen Bewegungsergebnissen gebildet wird, nennt man " Recall-Schema" oder "Erinnerungsschema". Es wird zusammen mit dem GMP zu Beginn jeder Bewegung ausgewählt.

Parallel zum Recall-Schema und dem dazugehörigen GMP werden noch zwei weitere Schemata ausgewählt, die ebenfalls dieser einen Bewegungsklasse angehören. Sie sind notwendig, damit aus dem bisherigen Open-Loop-Modell ein Closed-Loop-Modell wird, in dem Feedback verarbeitet wird und in dem der Lernprozeß stattfindet. Es sind dies das "Recognition-Schema" oder "Wiedererkennungsschema" und das "Fehler-Markierungs-Schema". Jede Bewegungsklasse besitzt also drei Schemata und ein GMP welche miteinander

gekoppelt sind und immer gemeinsam den Anfangsbedingungen und dem gewünschten Bewegungsergebnis entsprechend ausgewählt werden. Welche Aufgaben haben nun diese beiden neuen Schemata?

(Im folgenden empfiehlt es sich parallel zum Text Abb.5 zu betrachten.)

Während das Recall-Schema die Beziehung zwischen früheren Bewegungsergebnissen und früheren Parametersätzen darstellt, repräsentiert das Recognition-Schema die Beziehung zwischen früheren Bewegungsergebnissen und den aus diesen Bewegungen resultierenden

früheren sensorischen Konsequenzen. Unter sensorischen Konsequenzen wird hier das intrinsische Feedback verstanden, also die sich während der Bewegung ergebenden Reize bzw. Informationen, die sich aus dem propriozeptiven Feedback (z.B. Gelenkstellungen, Stärke der Muskelkontraktionen, ...) von den einzelnen Körperteilen, und dem exterozeptiven Feedback (z.B. optische und akustische Wahrnehmung) aus der Umwelt und Umgebung des Sportlers zusammensetzen. Das extrinsische Feedback (z.B. Videoaufzeichnungen, Trainerkommentar oder Zuschauerreaktionen), welches fast ausschließlich nach der Bewegung zur Verfügung steht und unter dem Begriff KR (Kenntnis des Resultats oder Knowledge of Result) zusammengefaßt wird zählt hier nicht dazu. Das KR spielt jedoch beim Erlernen der Bewegung bzw. beim Festigen der Schemata eine wichtige Rolle.

Parallel zur Auswahl des Parametersatzes beim Recall-Schema wird nun im Recognition-Schema durch "einsetzen" des aktuellen gewünschten Bewegungsergebnisses in das Schema

die für diese Bewegung erwarteten sensorischen Konsequenzen ermittelt. Diese werden dann mit den tatsächlichen, aus der Bewegung resultierenden sensorischen Konsequenzen in einem "Ist-Soll-Vergleich" verglichen. Dies geschieht getrennt für das propriozeptive und das exterozeptive Feedback. Das aus der eventuellen Differenz zwischen erwarteten und tatsächlichen sensorischen Konsequenzen resultiernde Fehlersignal ist diejenige Größe, die neben dem KR zum "Lernen" der Bewegung zur Verfügung steht. Dabei wird hier unter Lernen das Festigen und Stabilisieren des Recall- und Recognition-Schemas durch das "Eintragen" neuer Ergebnis-Parametersatz-Punkte bzw. neuer Ergebnis-Konsequenzen-Punkte in das jeweilige Schema verstanden. Das heißt, daß für das Recognition-Schema die tatsächlichen sensorischen Konsequenzen (vor dem Ist-Soll-Vergleich entnommen) gegen das tatsächliche Bewegungsergebnis in dem Schema aufgetragen wird und somit ein neuer Punkt entsteht, welcher die Genauigkeit der Regressionsgerade erhöht. Entsprechendes geschieht

Abb. 5: Die Schema-Theorie von Schmidt, versch. Quellen

beim Recall-Schema, in das nach der Bewegung der gewählte Parametersatz gegen das tatsächlich für diesen Parametersatz erfolgte Bewegungsergebnis aufgetragen wird.

Was also zum Festigen beider Schemata und somit zum Erlernen der korrekten Bewegungsausführung benötigt wird, ist neben dem bereits vorhandenen gewählten Parametersatz und den direkt zur Verfügung stehenden tatsächlichen sensorischen Konsequenzen das tatsächliche Bewegungsergebnis. Steht nun in irgendeiner Weise KR zur Verfügung, so ist das Problem gelöst, denn das KR enthält bzw. ist das tatsächliche Bewegungsergebnis und zudem ist das KR immer exakt. Zumindest sollte dies so sein. Ist aber extrinsisches Feedback und somit KR nicht möglich, so muß der Sportler auf oben erwähntes Fehlersignal aus dem Ist-Soll-Vergleich zurückgreifen. Das Problem ist wieder gelöst, wenn dieses Signal gleich null ist, daß heißt wenn die Bewegung korrekt war. Denn dann entspricht das gewünschte Bewegungsergebnis, welches in die Schemata "eingesetzt" wurde dem tatsächlichen. Ist es nicht null, so muß es in ein tatsächliches Bewegungsergebnis "übersetzt" oder umgewandelt werden. Dies geschieht durch das Fehler-Markierungs-Schema.

Das Fehler-Markierungs-Schema hat im Prinzip die gleiche Gestalt, wie die beiden vorherigen Schemata. Nur stellt dieses Schema die Beziehung zwischen früher erhaltenem KR und früher erhaltenen Fehlersignalen dar. Anschaulich ist es wieder eine Regressionsgerade durch die früheren KR-Fehlersignal-Punkte. Geht nun ein Fehlersignal in dieses Schema ein, so erhält man das zu diesem Fehlersignal am besten passende KR und somit die bestmögliche Näherung für das tatsächliche Bewegungsergebnis. Steht also kein KR zur Verfügung, so erhält man aus einem mit früherem KR gebildeten Schema ein "Ersatz-KR", doch dieser Ersatz ist nur eine Näherung!

Mit dieser Näherung für das tatsächliche Bewegungsergebnis, welches ja zur Stabilisierung des Recall- und des Recognition-Schemas benötigt wird, kann jedoch nur das Recall-Schema weiter stabilisiert werden und nicht das Recognition-Schema. Das Recognition-Schema (und natürlich auch das Fehler-Markierungs-Schema) kann nur mit exakten Werten für die tatsächlichen Bewegungsergebnisse gebildet und weiter stabilisiert werden, also nur wenn KR zur Verfügung steht. Denn die aus dem Recognition-Schema gewonnenen erwarteten sensorischen Konsequenzen müssen exakt sein und somit aus einem exakt ausgebildeten Recognition-Schema stammen. Wären die erwarteten sensorischen Konsequenzen ungenau, so wäre der Ist-Soll-Vergleich sinnlos und das daraus resultierende Fehlersignal eine nicht mehr

zu gebrauchende Größe. Noch einmal: das Recognition-Schema kann nur aus KR gewonnenen und somit exakten tatsächlichen Bewegungsergebnissen weiter gefestigt werden; ist kein KR vorhanden, ist eine weitere Stabilisation nicht möglich!

Um also später einmal das Recall-Schema ohne KR weiter Stabilisieren zu können, muß zunächst einmal das Recognition-Schema mit KR gut ausgebidet werden, damit ein Ist-Soll-Vergleich durchgeführt werden kann. Dannach muß mit den daraus resultierenden Fehlersignalen und weiterem KR das Fehler-Markierungs-Schema ausgebildet werden. Erst dann ist es möglich auch ohne KR mit einer Näherung für das tatsächliche Bewegungsergebnis das Recall-Schema zu festigen.

Die oben genannten Zusammenhänge werden in dem Schaubild in Abb.5 noch einmal veranschaulicht.

 

 

6.2. Der Aktionsansatz von N.A. Bernstein ( auch: action approach)

Schon in 6.1.1 wurde ein Versuch erwähnt, bei dem die Bewegungsklassen Gehen und Laufen untersucht wurden. Man erkannte in diesem Versuch, daß selbst in den einzelnen Phasen Gehen und laufen (bei Schmidt GMP’s) die Anteile der jeweiligen Abschnitte der Bewegung schwanken. Hält man sich nun genau an Schmidts Definition eines GMP’s, dann gäbe es innerhalb der Bewegungsklaase Gehen verschiedene dieser Programme. Auch in anderen Messungen wurde deutlich, daß bei Bewegungen die dem Ausführenden gleich vorkommen die Parameter wie zum Beispiel Kraft nie exakt gleich sind. Eine andere Schwäche des motor approach (Programmansatz) ist die fehlende Erklärung für die Übergangsphase zwischen den Bewegungsklassen, das heißt, daß zwischen den GMP’s eine "Lücke" entsteht.

Genau hier setzen nun die Anhänger und Verfechter des action approach an: Sie sagen, daß sich Parameter und Parametersätze eben nicht, wie von Schmidt angenommen, linear ändern. Damit erhöhe sich die Breite der Bewegungsklassen und das Speicherplatzproblem wäre gelöst. Nach dem Aktionsansatz ist das Bewegungsziel abhängig von den Intentionen des Ausführenden, die zum Ziel führende Handlung von den Umweltbedingungen. Es gibt also unendlich viele Bewegungsmöglichkeiten, die unter den gegebenen Voraussetzungen zum

Gewünschten Bewegungsziel führen. Der Mensch wählt aber nicht irgendeines dieser Bewegungsmuster sondern organisiert sein Bewegen sinnvoll. Diese Organisation der

Bewegung, also die Wahl der richtigen Parameter, wird das "Problem der Freiheitsgrade" oder auch "Bernsteins Problem" genannt.

Doch was sind eigentlich Freiheitsgrade? So nennt man die Bewegungsmöglichkeiten des menschlichen Körpers. Es gibt eine sehr große Anzahl von Freiheitsgraden, da Gelenkbewegungen von Muskeln gesteuert werden, diese aber wiederum durch neuronale Prozesse. Allein die Gelenke des Menschen besitzen 102 Freiheitsgrade. Betrachtet man die Muskeln und Neuronen so kommt man auf eine sehr viel größere Zahl (Muskeln: 103; Neuronen 1014).

Die Koordination von Bewegungen bedeutet für Bernstein nun nicht die Kontrolle der Bewegung, sondern die Überwindung der überflüssigen Freiheitsgrade.

Nach dem Aktionansatz findet im 2.Lebenshalbjahr des Menschen ein Übergang von Synkinesen, das sind Bewegungen, die keinen sinnvollen Zusammenhang erkennen lassen, zu Synergien statt. Letztere werden auch koordinative Strukturen genannt und sind abgestimmte Bewegungen beziehungsweise Bewegungskomponenten, die zur gemeinsamen Lösung einer Bewegungsaufgabe führen. Synergien sind also am Bewegungsziel orientierte beziehungsweise durch das Bewegungsziel festgelegte Kopplungen , die im Verlaufe des Bewegungslernensdynamisch gebildet werden oder auch schon angeboren sind.

Anders als bei Schmidt sprechen die Verfechter des Aktionsansatzes nicht von Invarianz innerhalb einer Bewegungsklasse sondern von einer Stabilität. Das heißt, daß eine gewisse Variabilität eingeschlossen ist. Diese Variabilität wurde auch in vielen Versuchen (unter anderem im erwähnten Laufbandversuch mit den Bewegungsklassen Gehen und Laufen, nachgewiesen. Man spricht aber auch von einem bevorzugten Zustand einer Bewegung. Dieser Zustand wird als attractor state bezeichnet und ist ein stabiles gleichbleibendes Bewegungsmuster. Diese attractor states werden sowohl durch eine kleine Variabilität innerhalb der Bewegung gekennzeichnet, als auch durch einen minimalen Energieaufwand (energy-efficient state). Ändern sich nun ein oder mehrere Kontrollparameter (Kontrollparameter sind eine Bewegung beschreibende Parameter wie Kraft und Geschwindigkeit) wird ein attractor state geschwächt beziehungsweise ein anderer gestärkt,

der den vorherigen beeinflußt. Genau dies geschieht in der Übergangsphase, für die der Programmansatz eine Erklärung schuldig blieb. Ein Beispiel hierfür ist die Übergangsphase zwischen den attractor states (bei Schmidt GMP’s) Gehen und Laufen.

Wie schon erwähnt basiert der Aktionsansatz auf der Annahme, daß sich die Parameter der Bewegung nicht linear ändern. Wichtig für die Erstellung von nichtlinearen Gleichungen zur Erklärung von Bewegungen sind die kollektiven Variablen. Sie beschreiben Bewegungsmuster, das heißt die unendlichen vielen Freiheitsgrade werden auf wenige Variablen reduziert und damit das Speichplatzproblem gelöst.

Einer der wichtigsten Begriffe des action approach ist der der Selbstorganisation. Er besagt, daß, wenn bestimmte Situationen, Konditionen oder Umweltbedingungen auftreten, ein bestimmtes Bewegungsmuster "automatisch" folgt. Die Hauptaussage des Aktionsansatzes ist also, daß koordinierte Bewegungen nicht durch ein motorisches Programm gesteuert werden, sondern daß sie sich selbst organisieren, und zwar innerhalb eines Gerüsts von Umweltbedingungen und auszuführenden Bewegungen. Dies geschieht durch vorher festgelegt Kopplungen (Synergien).

 

 

6.3. Vor- und Nachteile der beiden Ansätze

Betrachtet man die beiden Ansätze zur Erklärung des Bewegungslernens, so erkennt man schnell die Vorteile, aber auch die Erklärungslücken, die jeder der beiden aufweist. Zunächst zum Programmansatz. Der größte Vorteil des motor approach ist es wohl, daß er die Ableitung von Hypothesen erlaubt, die empirisch durch Versuche und Statistik überprüft werden können. Ein weiterer Vorteil ist sicher, daß ein Transfer zu noch nicht ausgeführten Bewegungen möglich ist. Ein großes Problem stellt jedoch die fehlende Aussage über die Auswahl und den Erwerb der Generalisierten Motorischen Programme dar. Zum anderen werden auch die Übergangsphasen zwischen diesen Programmen nicht erklärt. Doch nicht nur in den Übergangsphasen, sondern auch in den GMP’s selbst zeigt sich bei genauer Betrachtung ein Problem. Denn auch innerhalb der GMP’s kommt es zu Parameterschwankungen. Da Schmidt aber von Invarianzen spricht, entsteht hier ein Widerspruch. Nach seiner Theorie

dürfte es zu diesen Schwankungen innerhalb des GMP nicht kommen. Somit kann durch den motor approach das Speicherplatzproblem nicht gelöst werden.

Die Lösung dieses, auch Bernsteins Problem genannten, Problems ist die große Stärke des Aktionsansatzes. Durch die Zulassung von nichtlinearen Parameteränderungen kommt es zu einer größeren Breite der Bewegungsklassen und somit zur Lösung des Speicherplatzproblems. Ein weiterer Vorteil dieser nichtlinearen Parameteränderung ist die Möglichkeit, die Übergangsphase zwischen zwei attractor states (bei Schmidt GMP’s) zu beschreiben. Auch der Erwerb von dynamisch stabilen Bewegungen wird durch den Aktionsansatz im Gegensatz zum Programmansatz erklärt und das Problem der Bewegungsauswahl durch die Selbstorganisation vermieden. Doch auch der Aktionsansatz zeigt einige Schwächen. Zum einen sind kaum empirische Überprüfungen möglich, zum anderen kann nicht vorausgesagt werden, wie das System auf Änderungen einzelner Parameter reagiert. Ein weiteres Problem ist, daß nach dem action approach keine Lerneffekte durch mentales Training möglich wären. Daß es diese Effekte in Wirklichkeit gibt, ist jedoch nachgewiesen.

Wie schon erwähnt muß also die Frage nach der "richtigen" Theorie offen bleiben. Jeder Ansatz hat seine Vorteile, aber auch Lücken beziehungsweise Punkte, an denen man Kritik ansetzen kann. Die Koordination von Bewegungen wird in beiden Ansätzen nicht hundertprozentig in ihrer Entstehung, Auswahl, Steuerung und Ausführung erklärt.

 

    7.Implizites Lernen

Die Forschung, insbesondere die der experimentellen Psychologie, hat gezeigt, daß Lernen nicht nur auch unbewußt stattfinden kann, sondern daß impliziertes Lernen sogar effektiver sein kann als expliziertes (bewußtes) Lernen. Entscheidend für das implizierte Lernen, diesen Terminus verwendete zuerst Reber im Jahre 1967, ist, daß der Erwerb implizierten Wissens und Könnens abläuft, ohne daß der Lernende überhaupt bemerkt etwas zu lernen. Im Gegensatz dazu laufen explizite Lernprozesse bewußt und kontrolliert ab.

Befunde aus verschiedenen Versuchen haben gezeigt, daß das Lernen durch Hinweise auf die Existenz einer Regel oder Regelhaftigkeit (durch die Kenntnis ist dies dann explizites Lernen) nicht nur nicht begünstigt, sondern sogar negativ beeinträchtigt wird. Diese Untersuchungen fanden beispielsweise über das Erlernen künstlicher Grammatiken oder Kunstsprachen, über die Kontrolle von computergesteuerten Programmen oder Systemen und über das Erlernen neuer Bewegungsfertigkeiten statt. Aber auch Untersuchungen von Amnesie-Patienten ergaben interessante Ergebnisse.

Solche Patienten sind zwar zu normalen perzeptuellen und intellektuellen Leistungen fähig, sie können aber keine neuen Informationen behalten oder sich an Dinge, die kurz zuvor geschehen sind, erinnern. Sie sind dadurch beeinträchtigt in Wiedergabe- und Wiederholungstests, die ein explizites Erinnern erfordern, aber sie können durchaus neue Fertigkeiten lernen. Dies zeigt, daß sie diese offensichtlich implizit erlernen oder erwerben.

Auch und insbesondere beim Lernen motorischer Fähigkeiten zeigen sich implizite Lerneffekte. Dies zeigt das Beispiel des Patienten H.M. aus den 60er Jahren, der sich weder kurze Texte merken konnte, noch Gesichter wiedererkennen. Bei eher motorischen Aufgaben wie Persuit-motor-Aufgaben (motorische Aufgaben, bei der der Patient einen rotierenden Zielpunkt mit einem Griffel verfolgt) oder beim Spigelzeichnen (Nachzeichnen einer geometrischen Figur und Bewegungskontrolle über Spiegel) zeigte er aber deutliche Fortschritte, ohne sich bewußt zu sein, diese Aufgaben jemals zuvor ausgeübt zu haben. Auch Repetition-priming-Effekte (assoziative Aktivierung von einmal gelernten Wörtern) kann man bei diesen Patienten erkennen. Gibt man ihnen die Aufgabe, einen Wortstamm zu benutzen, um sich an das Wort zu erinnern, so schneiden sie schlechter ab als gesunde Personen. Gibt man ihnen jedoch die Instruktion, den Wortstamm mit dem ersten Wort zu vervollständigen, das ihnen einfällt, ist kein Unterschied zu gesunden Versuchspersonen zu erkennen. Das heißt, daß bei Amnestikern das explizite Lernen beeinträchtigt ist, das implizite jedoch nicht!

Ein anderer Weg zur Demonstration von implizitem Lernen sind die künstlichen Grammatiken. Den Versuchspersonen werden Folgen von Buchstaben gezeigt, die nach Regeln einer künstlichen Grammatik aufgebaut und geordnet sind. Die Versuchspersonen sind in der Lage

diese Regeln mit Hilfe einiger Beispielsätze in einem impliziten Lernprozeß zu erwerben. Es wird deutlich, daß die Gruppe von Versuchspersonen, deren Buchstabenfolgen nach einer Regel geordnet sind, wesentlich weniger Fehler macht als die Gruppe, deren Buchstaben völlig zufällig angeordnet sind. Die Personen, die geregelte Folgen gelernt haben, können außerdem grammatisch korrekte Folgen überzufällig häufig von inkorrekten unterscheiden.

Es wird aber auch von einigen Wissenschaftlern angenommen, daß auch explizite Lernprozesse für Leistungssteigerungen in diesen Versuchen verantwortlich sein können, das heißt, daß die Versuchspersonen eine oder die Regelhaftigkeit entdecken. Es konnte aber durch verschiedene Tests, bei denen es praktisch unmöglich ist eine Regel herauszufinden, belegt werden, daß diese vorhandenen (aber nicht bemerkten!) Regeln ohne deren explizite Kenntnis ausgenutzt werden können.

Andere Untersuchungen befassen sich mit dem implizierten Lernen motorischer Fähigkeiten. Sie werden bevorzugt mit Trackingaufgaben durchgeführt. Trackingaufgaben sind motorische Aufgaben, bei denen die Versuchspersonen einen wandernden Zielpunkt mit entsprechenden Hebelbewegungen verfolgt. Hierbei wird ein sich wiederholender Teil in ein Zufallsmuster eingebettet. Die Versuchspersonen zeigen eine deutliche Verbesserung in diesem sich wiederholenden Teil, ohne die Wiederholung überhaupt zu registrieren.

In weitergehenden Versuchen wurde nachgewiesen, daß variables Üben klare Lernvorteile im Vergleich zu konstantem Üben hat. Hierbei wird einer Gruppe immer das gleiche regelmäßige Muster gezeigt (eingebettet in zufällige Muster), der anderen Gruppe drei Variationen dieses Musters. Als Überprüfung werden dann Transfertests durchgeführt, das heißt, daß beide Gruppen das sich wiederholende Muster in veränderten Amplituden beziehungsweise veränderten Zeitdauern sehen. Beide Gruppen zeigen zwar deutlich veringerte Fehlerwerte bei dem wiederholten Segment, der Lernfortschritt der "variablen Gruppe" ist aber größer.

Spezifische Bewegungsmuster können also nicht nur implizit gelernt werden, sondern das Gelernte kann auch auf neue Situationen übertragen werden. Je variabler man geübt hat, desto schneller ist dieser Transfer. Möglicherweise können also nicht motorische Programme (Abfolge der Bewegungselemente, relative Amplituden und Zeiten), sondern auch Parameter (absolute Amplituden und Zeiten) implizit gelernt werden.

 

 

zurück zur Uniübersicht

Home

Mail mal