Flug 4U9525: Hypothesen im Hinblick auf das scheinbar Unerklärliche

Auch wenn es ein ebenso trauriger wie tragischer Anlass ist, habe ich mich entschieden, den Absturz von Flug 4U9525 zum Anlass für einen neuen Blogartikel zu nehmen, nachdem über ein halbes Jahr berufsbedingte Funkstille herrschte. Dazu bewogen haben mich letztendlich die mehr als fragwürdigen Umstände, die gemäß der gestern veröffentlichten Ermittlungen zu dem Unglück geführt haben, und die damit verbundene Fassungslosigkeit bezüglich des Verhaltens des Copiloten.

Wie wir nun wissen, hat sehr wahrscheinlich der Copilot den Absturz der Maschine bewusst und vermutlich auch absichtlich herbeigeführt. Mit anderen Worten: Im Raum steht derzeit der begründete Verdacht, dass der Copilot sich selbst suizidiert und damit rund 150 unbeteiligte Menschen mit in den Tod gerissen hat. Dies ist für alle Beteiligten – und dabei beziehe ich mich neben den Angehörigen der Passagiere und Crewmitglieder auch auf die Familie des Copiloten – ein nur schwer nachzuvollziehender und noch schwerer zu akzeptierender Umstand, erzeugt er doch ein ungeheures Maß an Wut und Hilflosigkeit. Und hiermit verbunden ist (und auch dies ist absolut verständlich) immer auch relativ automatisch die Frage “Wie konnte so etwas passieren?”. Bei der großen Mehrzahl der Flugzeugunglücke richtet sich diese Frage auf technische Defizite, Sicherheitslücken und ggf. menschliches Versagen. Doch im Falle von Flug 4U9525 ist es anders: Hier richtet sich die Frage eher in die Richtung der fragwürdigen psychischen Verfassung des Copiloten, und ziemlich schnell wurden in den Medien auch die psychologischen Tests der Lufthansa aufs Korn genommen, die alle angehenden Piloten durchlaufen und bestehen müssen.

Typischerweise beinhalten diese Tests die Erfassung zentraler für die Tätigkeit als Pilot relevanten Persönlichkeitsmerkmale wie z.B. Stressresistenz, Gewissenhaftigkeit oder auch allgemeine Intelligenz. In der Tat hat insbesondere das Auswahlverfahren der Lufthansa einen sehr guten Ruf, und die Tatsache, dass möglicherweise nun erstmalig ein Kandidat “durchs Raster gefallen” ist, spricht im Grunde eher für als gegen das psychologische Testverfahren, da es bisher offenbar ziemlich verlässlich in der Bewerberauswahl war. Dass psychologische Tests jedoch niemals eine 100% sichere Vorhersage über das spätere Verhalten eines Bewerbers machen können, liegt zum einen in den Eigenschaften psychologischer Tests per se begründet (hier und hier nachzulesen), zum anderen aber natürlich auch darin, dass sich Menschen im Laufe der Zeit verändern, wobei zum Zeitpunkt der psychologischen Untersuchung keinerlei Vorboten für solche (z.B. charakterlichen) Veränderungen erkennbar sein müssen. Doch was wären nun – auf Basis des aktuellen Erkenntnisstands – mögliche psychologische Erklärungen für das für die meisten so derart unfassbare Verhalten des Copiloten? Ich habe mir hierüber einige Gedanken gemacht und würde gerne einige Möglichkeiten näher erläutern. Bei den folgenden Darstellungen möchte ich allerdings noch einmal betonen, dass es sich hierbei um Erklärungsansätze handelt, die auf der Annahme beruhen, dass Ursache des Unglücks tatsächlich kein technisches Versagen, sondern die intentionale Handlung einer einzelnen Person war, die wiederum nicht im klassischen Sinne terroristisch motiviert war.

Möglichkeit 1: Psychose & Depression

Eine mögliche Erklärung für das durchaus “wahnsinnig” anmutende Verhalten des Copiloten, ist, dass er tatsächlich unter einer akuten psychotischen Erkrankung wie der Schizophrenie oder aber einem verwandten Störungsbild wie beispielsweise einer schizoaffektiven oder einer wahnhaften Störung litt. Kennzeichnend für diese Gruppe von Störungsbildern sind im Wesentlichen der Verlust des Realitätsbezugs im Sinne einer Verkennung der Realität (Wahn) sowie Halluzinationen, die alle fünf Sinneskanäle betreffen können. Typisch für letzteres ist das Hören von Stimmen, die beispielsweise bestimmte Befehle erteilen. In Bezug auf Flug 4U9525 wäre also eine mögliche Erklärung für das Verhalten des Copiloten, dass er aufgrund eines akuten Wahns (Überzeugung, aus irgendeinem Grund das Flugzeug abstürzen lassen zu müssen) oder aufgrund von Stimmen, die ihm ebendies befohlen haben, entsprechend handelte. Hierdurch ließe sich auf jeden Fall das aus unseren Augen verantwortungslose Handeln erklären, da im Rahmen eines akuten psychotischen Zustands ein Hinterfragen der Wahninhalte und der Halluzinationen unmöglich wird – und somit auch die Übernahme einer anderen Perspektive wie z.B. der der Passagiere.

Es gibt jedoch mehrere Aspekte, die gegen diese Hypothese sprechen. Es gibt zwar den seltenen Fall, dass eine Schizophrenie oder eine wahnhafte Störung plötzlich und ohne “Vorwarnung” (so genannte Prodromalsymptome) auftritt, doch es wäre dennoch mehr als ungewöhnlich. Denkbar wäre hier ggf. noch eine auf organische Ursachen (akute Erkrankungen des Gehirns wie z.B. eine Gehirnblutung) zurückgehende Psychose, jedoch sind auch diese vergleichsweise selten. Zudem gehen psychotische Erkrankungen in der Regel mit einer ziemlich allumfassenden Störung kognitiver Funktionen einher, d.h. mit zumeist derart starken Konzentrations- und Auffassungsstörungen, dass es eher unwahrscheinlich erscheint, dass ein solcher Zustand unbemerkt bleibt und ein Copilot so ins Cockpit gelangt. Dagegen spricht ferner das Alter des Copiloten, der meines Wissens nach 28 Jahre alt war – denn das typische Ersterkrankungsalter für psychotische Störungen liegt bei Männern ca. im Bereich zwischen dem 19. und 24. Lebensjahr. Auch für die Möglichkeit einer schweren Depression, die oft mit Suizidgedanken, -impulsen und -handlungen einhergeht, spricht aus meiner Sicht eher wenig, da auch diese in der Regel mit derart starken Symptomen wie Antriebsminderung und Konzentrationsschwäche einhergeht, dass das Ausüben des Pilotenberufs unmöglich wird. Zudem sind bei (reinen) Depressionen derart appellative Suizide (Erläuterung siehe unten) eher untypisch. Ähnliches gilt für den Fall, dass der Entschluss zum Suizid durch die Diagnose einer schweren und ggf. tödlich verlaufenden Erkrankung getroffen wird: Auch hier wäre es bei Vorliegen einer “gesunden” Persönlichkeitsstruktur eher sehr ungewöhnlich, dass Unbeteiligte mit in den Tod gerissen werden.

Möglichkeit 2: Persönlichkeitsstörung

Die andere mögliche (psychologische) Erklärung für das Verhalten des Copiloten wäre, dass er an einer Persönlichkeitsstörung litt. Hierbei handelt es sich um tiefgreifende Störungen des menschlichen Interaktionsverhaltens vor dem Hintergrund einer extremen Ausprägung bestimmter Persönlichkeitsmerkmale, die in der Regel zu massiven Problemen zwischen der betroffenen Person und ihrer Umwelt führen (daher auch der eigentlich passendere Begriff der Beziehungsstörung). Kennzeichnend ist hierbei, dass Betroffene selbst eine Persönlichkeitsstörung meistens nicht als das eigentliche Problem sehen (man sagt daher, eine Persönlichkeitsstörung ist ich-synton) – in der Regel sehen Betroffene daher vorrangig die Schuld für ihre interaktionellen Probleme bei den Menschen in ihrer Umwelt.

Nun gibt es eine ganze Reihe verschiedener Persönlichkeitsstörungen, die sich am ehesten anhand des jeweiligen zwischenmenschlichen Motivs (bzw. Bedürfnisses) unterscheiden lassen, das die Betroffenen auf exzessive Weise und unter Anwendung problematischer Verhaltensweisen (z.B. Lügen, Manipulation, etc.) versuchen zu befriedigen. So könnte man z.B. sagen, dass bei der dependenten Persönlichkeitsstörung das Bedürfnis nach zwischenmenschlicher Nähe und bei der zwanghaften Persönlichkeitsstörung dasjenige nach Sicherheit und Verbindlichkeit in jeweils extremer Weise realisiert werden, wobei das, was die Störung zur Störung macht, die wachsenden negativen Konsequenzen und Einschränkungen sind, die die Person dadurch erleidet – und die (wenn überhaupt) meist den eigentlichen Grund für das Aufsuchen einer Behandlung darstellen.

Auf Basis der mir bekannten Umstände bzgl. des Absturzes der Germanwings-Maschine kämen aus meiner Sicht drei Persönlichkeitsstörungen in Frage. Zum einen ließe sich derart verantwortungsloses und im Grunde aggressives Verhalten durch eine antisoziale Persönlichkeitsstörung erklären, die u.a. auch durch einen Mangel an Empathie und Mitgefühl für die Opfer gekennzeichnet ist. Dagegen spricht allerdings erstens, dass Menschen mit antisozialer Persönlichkeitsstruktur in der Regel kaum einen Bildungsweg absolvieren, der schließlich zum Beruf des Piloten führt, und dass derartige Verhaltens- und Denkmuster in einer psychologischen Testung wie der der Lufthansa sehr wahrscheinlich aufgefallen wären. Zweitens spricht dagegen, dass Menschen mit antisozialer Persönlichkeitsstruktur zwar typischerweise anderen Menschen Schaden zufügen, jedoch kaum sich selbst, d.h. eher nicht den eigenen Tod mit in Kauf nehmen würden. In Frage käme darüber hinaus außerdem eine emotional-instabile Persönlichkeitsstörung (besser bekannt als Borderline-Störung), die durch eine Instabilität der Emotionen, Beziehungen und des Selbstbilds gekennzeichnet ist und mit Selbstverletzungen und Suizidversuchen einhergeht, die häufig appellativen Charakter haben, d.h. auf dramatische Weise die eigene Hilfsbedürftigkeit deutlich machen sollen. Hierzu würde zwar die Gestaltung des vermeintlichen Suizids des Copiloten passen, jedoch spricht hiergegen, dass Menschen mit emotional-instabiler Persönlichkeitsstörung selten in der Lage sind, ein so geordnetes Leben zu führen, dass sie eine Pilotenlaufbahn einschlagen und beibehalten können.

Hypothese: Appellativer Suizid nach narzisstischer Kränkung

Für die wahrscheinlichste Antwort auf die psychologische Frage nach dem “Warum” halte ich eine narzisstische Persönlichkeitsstörung. Das zentrale zwischenmenschliche Motiv, um das sich Menschen mit dieser Art von Persönlichkeitsstörung unablässlich drehen, ist das nach Anerkennung und Bewunderung. Wie der bekannte Psychotherapeut Rainer Sachse herausstellte, ist das, worunter diese Menschen im Grunde leiden, ein unauflöslicher Konflikt zwischen einem sehr negativen Selbstkonzept (“Ich bin ein inkompetenter Versager, der zu nichts in der Lage ist”) und einem übermäßig positiven Selbstkonzept (“Ich bin sowieso der Beste, alle anderen sind nur neidisch auf mich”), das der Betroffene entwickelt, um das negative Selbstkonzept zu kompensieren. Dadurch – und vor dem Hintergrund des riesigen Bedürfnisses nach Bewunderung – erklären sich viele Verhaltensweisen von Narzissten. In der Regel haben sie eine Reihe von Größenphantasien im Kopf, die sich nicht selten darum drehen, wie sie im Mittelpunkt einer großen Menschenmenge stehen und als Gewinner  gefeiert werden. Menschen mit narzisstischer Persönlichkeitsstörung sind zudem meist äußerst wettkampforientiert und stabilisieren ihr positives Selbstkonzept häufig, indem sie andere Menschen massiv abwerten (“Der kann doch nichts, der ist völlig inkompetent, der kann mir doch nie das Wasser reichen”). Kennzeichnend ist zudem ein Mangel an emotionaler Empathie (d.h. Narzissten können sich emotionale Zustände rational gut erschließen, emotional fühlen sie jedoch kaum mit) und eine damit zusammenhängende Tendenz zu manipulativem Verhalten, das letztendlich immer darauf abzielt, sich selbst in ein gutes Licht – und möglichst auch in den Mittelpunkt der kollektiven Aufmerksamkeit zu rücken. Vielleicht hat jetzt der ein oder andere Leser ein gewisses Aha-Erlebnis, weil er nun einen Begriff für manch eine Person hat, die ihn stets zur Weißglut treibt.

Das, was Menschen mit narzisstischer Persönlichkeitsstörung bisweilen unberechenbar und daher auch in einem gewissen Maß gefährlich macht, ist das, was passiert, wenn das positive Selbstbild durch Ereignisse in der Umwelt ins Wanken gebracht und das negative aktiviert wird – ein Prozess, der auch als narzisstische Kränkung bezeichnet wird. Diese kann aus unbeteiligter Sicht durch relative Lappalien ausgelöst werden, etwa durch eine vergleichsweise harmlose Kritik seitens eines Vorgesetzten, oder aber durch größere Einschnitte wie eine Kündigung oder eine vom Partner ausgesprochene Trennung. Nicht selten geraten Narzissten in diesem Moment wahrhaftig außer Kontrolle und versuchen, die Kränkung durch hasserfüllte Abwertung der Umwelt (“Wie konnte das Miststück mir das nur antun?!”) und das Üben von Rache zu kompensieren. Letzteres ist das gefährlichste, denn Rache im Sinne eines Narzissten bedeutet, der Umwelt (und hierbei wird der Hass oft von der eigentlich verursachenden Person auf andere Menschen ausgeweitet) in dem Maße “wehzutun”, wie diese (in der subjektiven Sicht der gekränkten Person) auch ihm “wehgetan” hat. Mit anderen Worten: Es ist möglich, dass ein derart gestrickter Mensch nach einer Kränkungserfahrung eine derartige Wut und einen solch ausgeprägten Hass entwickelt, dass diese sich schnell auf die gesamte Umwelt ausweiten (“Die denken doch alle, sie könnten mit mir machen, was sie wollen – aber da haben die sich geschnitten”) und ein großes Bedürfnis nach Rache entsteht. Und eben diese Konstellation kann das zur Folge haben, was (wie oben schon angerissen) auch als appellativer oder demonstrativer Suizid bezeichnet wird – womit wir es übrigens auch häufig bei Amokläufen zu tun haben, denen nicht selten ebenfalls eine massive Kränkung des Täters vorausgeht, z.B. durch Mobbing. Werden (wie wahrscheinlich im Fall von Flug 4U9525) unbeteiligte Personen mit hineingezogen, spricht man zudem auch vom erweiterten Suizid oder vom Mitnahmesuizid.

Ein solcher appellativer Suizid beruht meist auf zwei Annahmen: Erstens, dass die gekränkte Person durch einen derart Aufmerksamkeit erregenden Tod der Welt “einen Denkzettel verpassen” kann, da dieser somit vor Augen geführt wird, was sie der Person alles “angetan” hat – und zweitens, dass sie durch das Mitreißen von im Grunde unbeteiligten Menschen zumindest zum Teil “Rache an der Menschheit” nehmen kann, die sich gemäß der Wahrnehmung der gekränkten Person kollektiv gegen sie gerichtet hat. Mir ist bewusst, dass derartige Gedankengänge sehr erschreckend und beängstigend wirken können; dennoch sind sie ebenso Teil der Realität wie die Menschen, zu denen sie gehören. Das Gefährliche hieran ist dabei leider auch, dass Menschen mit narzisstischer Persönlichkeitsstörung häufig sehr gut darin sind, derartige Denkmuster zu verbergen, und sich oft nach außen hin sehr adäquat verhalten, was erklären könnte, dass entsprechende Persönlichkeitsmerkmale selbst in psychologischen Untersuchungen mitunter unentdeckt bleiben. Zudem ist es anders als bei den anderen beiden diskutierten Persönlichkeitsstörungen so, dass Betroffene in der Regel einen hohen Bildungserfolg aufweisen und so z.B. auch Zugang einer Pilotenausbildung erhalten.

Korrekterweise muss ich an dieser Stelle herausstellen, dass es sich bei dem, was ich im vergangenen Abschnitt beschrieben habe, um eine Extremform der narzisstischen Persönlichkeitsstörung handelt, die in der Mehrzahl der Fälle nicht zu derarzt verheerenden Handlungen führt wie soeben beschrieben. In Bezug auf das aktuelle Flugzeugunglück ist hierdurch jedoch eine mögliche Erklärung für das Verhalten des Copiloten von Flug 4U9525 gegeben, die mir auf Basis des aktuellen Erkenntnisstands und meines psychologischen Wissens zumindest plausibel erscheint. Ich erhebe dabei nicht den Anspruch, hiermit die richtige Erklärung gefunden zu haben. Mein Hauptanliegen hierbei ist, die Fassungslosigkeit der Menschen aufzugreifen und deutlich zu machen, wie es tatsächlich doch dazu kommen kann, dass Menschen in einer Art und Weise handeln, wie sie für die meisten von uns völlig unverständlich – und durchaus auch beängstigend ist.

 © Christian Rupp 2015

Homöopathie & Co.: Von Placebo, Nocebo und einem paradoxen Dilemma

Vorab: Was ist eigentlich Homöopathie?

Diese Frage ist deshalb ganz zentral, weil im Volksmund häufig eine ganz bestimmte Verwechslung vorgenommen wird: nämlich die von homöopathischen und pflanzlichen Mitteln. Denn diese beiden Kategorien sind keineswegs dasselbe! Weder sind alle pflanzlichen Mittel homöopathisch, noch sind alle homöopathischen Mittel pflanzlich. Ein Beispiel für ein nicht-homöopathisches, aber pflanzliches Mittel ist z.B. Johanniskraut, dessen Wirksamkeit in Bezug auf Depressionen als gut belegt gilt, wenngleich der Effekt nicht so groß ist wie der klassischer Antidepressiva. Zudem ist Johanniskraut ein sehr gutes Beispiel dafür, dass auch pflanzliche Medikamente erhebliche Nebenwirkungen haben können – aber das nur nebenbei. Derweil enthalten homöopathische Mittel oft keinerlei pflanzliche Substanzen, sondern anorganische chemische Stoffe, wie z.B. Quecksilber.

Aber was ist nun der Unterschied? Im Wesentlichen liegt dieser in der Wirkstoffkonzentration. Überspitzt gesagt ist es nämlich so, dass pflanzliche Medikamente Wirkstoffe enthalten, homöopathische hingegen nicht. Warum das so ist? Das liegt in der Herstellung und den meiner Meinung nach als esoterisch zu bezeichnenden Annahmen bezüglich der Wirkung. Denn homöopathische Mittel beruhen auf dem Prinzip der extremen Verdünnung, die ein Verhältnis von bis zu 1 : 50000 annehmen kann (wobei der Wirkstoff entweder in Wasser oder Alkohol gelöst wird). Das Ergebnis dessen ist, dass in einem 50ml-Fläschchen rein rechnerisch oft kein einziges Wirkstoffmolekül mehr enthalten ist. Nun kann man sich zurecht fragen, wie dann noch eine Wirkung eintreten soll. Die Antwort der Homöopathen lautet in etwa so: Dadurch dass die Lösung zusätzlich auf eine ganz bestimmte Weise geschüttelt wird („Dilutation“), überträgt sich die Wirkung auf die Wasser- oder Alkoholmoleküle. Ferner sei es so, dass sich die Wirkung durch die Verdünnung nicht verringere, sondern gar vergrößere („Potenzierung“). Wie genau das geschehen soll, lassen sie derweil offen. Die wissenschaftliche Forschung hat derweil ein paar andere Antworten parat.

Homöopathie trifft auf wissenschaftliche Realität

Der durch zahlreiche Studien belegte wissenschaftliche Konsens bezüglich homöopathischer Medikamente ist der, dass sie zwar wirksam sind, aber eben nicht wirksamer als eine Zuckerpille, die das häufigste Beispiel für eine so genannte Placebo-Behandlung darstellt. Dieser Befund gilt für alle Formen von Erkrankungen, die bisher in solchen Studien betrachtet wurden. Untersucht werden Fragestellungen der Wirksamkeit von Medikamenten in der Regel in randomisierten kontrollierten Studien, in denen verschiedene Behandlungsgruppen miteinander verglichen werden, die jeweils mit nur einem Präparat über eine gewisse Zeit behandelt werden. So könnte man sich z.B. eine Studie vorstellen, in der vier Bedingungen miteinander verglichen werden: ein Medikament mit klassischem Wirkstoff, ein homöopathisches Mittel, eine Zuckerpille (Placebo) – und eine Gruppe von Patienten, die gar keine Behandlung erfährt. Das Ergebnis in einer solchen Studie sieht typischerweise so aus (Beispiel: Reduktion von Schmerzen bei Arthritis): Das klassische Medikament führt zu einer deutlichen Abnahme der Schmerzen, die Patienten ohne Behandlung verändern sich kaum hinsichtlich ihres Schmerzniveaus. Die Schmerzen in der homöopathisch behandelten Gruppen lassen auch signifikant nach (d.h. die Reduktion kann nicht auf einen Zufall zurückgeführt werden) – aber, und das ist das Wichtige: Die Schmerzen in der Placebo-Gruppe reduzieren sich ebenfalls signifikant um einen ähnlichen Betrag. Wie kann das sein?

Von Placebo- und Nocebo-Effekten

Die Antwort lautet „Placeboeffekt“. Abgeleitet von dem lateinischen Verb „placere“ (= „gefallen“) beschreibt dieser in der Psychologie sehr gut erforschte Effekt das Phänomen, das bloße Wirkungserwartungen schon Berge versetzen können. So weiß man sowohl aus der Forschung zur Wirksamkeit von Medikamenten als auch von Psychotherapie, dass am Ende eine stärkere Wirkung resultiert, wenn der Patient auch eine Verbesserung erwartet. Oder mit anderen Worten: an eine Besserung glaubt. Hierzu müssen diese Wirkungserwartungen allerdings in ausreichendem Maße ausgelöst werden (z.B. indem der Patient eine nach echter Tablette aussehende Pille schluckt), aber das genügt dann auch schon. Da man sich dieses Effekts bewusst ist, ist das, was Heilmethoden liefern müssen, um zugelassen zu werden, der Nachweis einer Wirkung, die über eben diesen Placeboeffekt hinausgeht. Und genau dieser fehlt bei homöopathischen Mitteln leider – sie zeigen keine größere Wirkung als eine Zuckerpille, von der Patienten denken, es sei eine „echte“ Pille.

Es gibt allerdings auch den bösen Zwillingsbruder des Placeboeffekts – genannt Nocebo-Effekt. Er beschreibt das Phänomen, dass negative Wirkungserwartungen auch einen negativen Effekt auf die tatsächliche Wirkung haben. Konkret bedeutet das: Sagt man Patienten, die eine echte Pille einnehmen, es handle sich hierbei um eine Zuckerpille ohne Wirkstoff, dann lässt sich tatsächlich eine geringere objektive Wirkung nachweisen als bei Patienten, die eine echte Pille einnehmen und dies auch wissen. Was man hieran also erkennt, ist: Jede Form von Therapie, sei es ein Medikament, ein wissenschaftlich fundiertes psychotherapeutisches Verfahren – oder aber homöopathische Globuli, Reiki und Akupunktur – sind von solchen Erwartungseffekten betroffen. Bedeutet das also, dass es eigentlich egal ist, welche Behandlungsform wir wählen, Hauptsache der Patient glaubt an ihre Wirkung?

Das paradoxe Dilemma

Zunächst einmal: Nein. Denn der zentrale Unterschied liegt nun einmal darin, dass sich wissenschaftlich fundierte Behandlungsmethoden, wie oben beschrieben, eben genau dadurch auszeichnen, dass sie wirksamer sind als eine entsprechende Placebo-Behandlung. Dennoch ist es natürlich, wie bereits dargelegt, unverkennbar, dass die Erwartung des Patienten an die Wirksamkeit und die Wirkweise einer Behandlung großen Einfluss auf seine Genesung oder Nicht-Genesung haben kann. Die bedeutsame Rolle dessen, dass derartige Erwartungen durch eine glaubwürdige „Coverstory“ aber überhaupt erst erzeugt werden müssen, wird an dem Dilemma deutlich, dass ein Placebo zwar ohne Wirkstoff (bzw. als wirksam erachtete Elemente) wirkt – aber eben auch mehr als nichts ist (und somit klar von dem Effekt abzugrenzen ist, dass mit der Zeit „von selbst“ eine Besserung eintritt). Daher macht es z.B. im Kontext einer Psychotherapie Sinn, dem Patienten ein Störungs- sowie ein Veränderungsmodell zu vermitteln, welches er nachvollziehen und mit dem er sich zudem identifizieren kann – in anderen Worten: ein Modell, an das er glauben kann – um sich den Placeboeffekt zunutze zu machen.

Erwartungseffekte in der Psychotherapie

Zumindest in Bezug auf die Wirkung von Psychotherapie lässt sich der Befund, dass Wirkungserwartungen und die Passung zwischen dem subjektiven Patientenmodell und dem Veränderungsmodell der Therapie den Therapieerfolg maßgeblich bestimmen, durchaus mit dem aktuellen Forschungsstand der Psychotherapieforschung vereinbaren. Letzterer nämlich lässt sich am ehesten dadurch zusammenfassen, dass die Wirksamkeitsunterschiede zwischen den verschiedenen Therapieformen bestenfalls gering ausfallen (siehe auch mein Artikel zum Dodo-Bird-Verdict). Allerdings haftet dieser Forschung meiner Meinung eine reduzierte Aussagekraft an, da ihre externe Validität sowohl im Hinblick auf die Repräsentativität der Patienten (Patienten in klinischen Studien sind eher untypisch für die große Masse der Patienten in der Bevölkerung) als auch bezüglich der schulenspezifischen Reinheit der Therapie (die dem in der Praxis üblichen eklektischen Mix sehr fern ist) stark hinterfragt werden muss. Zudem ist die viel interessantere Frage, der sich die klinisch-psychologische Forschung zum Glück inzwischen vermehrt widmet, die nach den Prozessen bzw. Mediatoren, über die Psychotherapie wirkt. Ein sehr heißer Kandidat hierfür ist z.B. schulenübergreifend die therapeutische Beziehung, auch working alliance genannt. Zwar wurden in diesem Sinne bereits (z.B. von Klaus Grawe, der leider verstorben ist) integrative Ansätze zu Wirkmechanismen von Psychotherapie vorgeschlagen, jedoch herrschen in den Köpfen der meisten Forscher und Praktiker noch immer kategoriale Denkweisen vor.

Hierbei handelt es sich allerdings um ein mir weitgehend unverständliches Phänomen, da die Quintessenz, die ich aus meinem Studium in klinischer Psychologie mitnehme, die ist, dass im Grunde, wenn man einmal die Dinge zu Ende denkt, alle psychotherapeutischen Verfahren weitgehend dasselbe beinhalten und lediglich unterschiedliche Begriffe verwenden oder Perspektiven einnehmen. Und ich könnte mir in der Tat sehr gut vorstellen, dass es letztlich hauptsächlich darauf ankommt, ob der Patient diese Begriffe und Perspektiven für sich annehmen kann – sodass etwaige Wirksamkeitsunterschiede zwischen verschiedenen Therapieverfahren am Ende vielleicht genau darauf zurückzuführen sein könnten. Ich weiß nicht, ob Erwartungseffekte in der Psychotherapie bereits dahingehend untersucht wurden, ob eine generelle Wirkungserwartung bzw. ein allgemeiner Glaube an Psychotherapie eine notwendige Bedingung für Veränderung darstellen; so ließe sich in der Tat eventuell Licht ins Dunkel der Frage bringen, ob etwaige weitere Wirkmechanismen der Therapie im Sinne eines Interaktionseffekts erst dann wirksam werden, wenn diese notwendige Bedingung erfüllt ist.

Egal warum – Hauptsache, es wirkt?

Doch rechtfertigt dies die (oft in Bezug auf Homöopathie gehörte) Aussage: „Egal warum es wirkt – Hauptsache, es wirkt“? In Bezug auf psychotherapeutische Verfahren und Medikamente, deren Überlegenheit gegenüber einem Placebo belegt wurde, würde ich ganz klar sagen: Ja – aber mit dem Zusatz, dass es aber durchaus wünschenswert wäre, den Wirkmechanismus genauer zu kennen. Hinsichtlich Medikamenten und Therapien, für die diese Überlegenheit nicht gilt (z.B. Homöopathie), würde ich hingegen sagen: Bevor man hierfür Geld ausgibt, sollte man lieber die günstigere Zuckerpille schlucken – wenngleich die schwierige Crux natürlich gerade darin besteht, bei einer solchen Zuckerpille die notwendigen Wirkungserwartungen auszulösen. Dennoch wäre meine persönliche Empfehlung, dass man bei Zugrundelegung der Nicht-Überlegenheit homöopathischer Mittel gegenüber einem Placebo, deren fragwürdiger Herstellungsweise – und dem oft exorbitant hohen Preis – eher die Finger davon lassen sollte. Ein Ratschlag, den ich auch einigen deutschen Krankenkassen geben würde, von denen, wie ich vor Kurzem voller Entsetzen feststellen musste, eine große Zahl die Kosten für homöopathische Mittel übernimmt, während bei anderen Behandlungsformen, deren Wirksamkeit weitaus besser belegt ist, gerne gegeizt wird. Geht es djedoch nicht um die Frage des Geldes (angenommen, der Referenzwert ist der Preis einer Zuckerpille), sehe ich derweil keinerlei Nachteil darin, den Placeboeffekt voll auszunutzen. Nur leider ist es in der Regel so, dass am anderen Ende des Verkaufstisches, der Massageliege oder des Akupunkturnadelkissens meist kein altruistischer Kommunist steht, sondern in der Regel eine Person, die Geld verdienen möchte.

© Christian Rupp 2014

Sendung mit der Maus & Co.: Was ist und tut Wissenschaft wirklich?

In diesem und in den folgenden Artikeln werde ich auf verschiedene Themen eingehen, mit denen ich mich im Rahmen einer Vorlesung zum Thema “Wissenschaft & Öffentlichkeit” beschäftigt habe, die ich in meinem – sich nun dem Ende zuneigenden – letzten Studiensemester besucht habe. Es ist daher das erste Mal, dass ich Texte, die auch Teil meiner Studienleistung waren (einem so genannten “Lerntagebuch”) quasi für dieses Blog recycle. Aber da die Vorlesung sich thematisch einfach genau mit den Themen beschäftigte, um die sich auch psycholography dreht, drängte sich diese Option förmlich auf.

In diesem ersten Eintrag soll es darum gehen, was unter dem Begriff der Wissenschaftskommunikation zu verstehen ist und in welchen Fällen es sich im Grunde nicht um Wissenschaftskommunikation per se, sondern vielmehr lediglich um eine Art der Reflexion über die Natur als solches handelt. Als Beispiel für letzteres können z.B. kindgerechte Fernsehformate wie die „Sendung mit der Maus“ und „Wissen macht Ah“ gelten, ebenso wie sich an Erwachsene richtende Formate wie „Quarks & Co.“ oder die Zeitschrift „Geo Wissen“. Was ich an dieser Unterscheidung zwischen „Kommunikation über Wissenschaft“ und „Kommunikation über die Natur“ für so wichtig erachte, ist die Tatsache, dass hiermit unmittelbar die Frage nach dem Bild der Wissenschaft in der Öffentlichkeit bzw. nach der Laien-Definition von „Wissenschaft“ verbunden ist.

Um zu verstehen, warum diese Unterscheidung keineswegs belanglos ist, sollte man sich vor Augen führen, welches Bild die meisten populärwissenschaftlichen Fernseh- und Zeitschriftenformate von der Wissenschaft zeichnen: nämlich das einer Fabrik fertigen Wissens. „Wissenschaftlich belegt“, „wissenschaftlich überprüft“ oder gar „wissenschaftlich bewiesen“ gelten als Aushängeschilder in den Medien ebenso wie in der Produktvermarktung und stellen in den Köpfen der meisten Laien das höchste Qualitätssiegel dar. Im Grunde kann man sich als Wissenschaftler natürlich über ein derartiges Kompliment freuen – werden einem so doch die Rolle der verlässlichsten Quelle von Wissen und nahezu grenzenlose Kompetenz zugeschrieben. Und in einem Punkt trifft diese (implizite) Definition ja auch durchaus zu: In der Tat kann man mit Recht behaupten, dass die empirischen Wissenschaften wohl mit Abstand die verlässlichsten Quellen von Wissen in unserer Welt darstellen – vergleicht man sie z.B. mit esoterischen Lehren oder den verschiedenen Religionen, bei denen das vermeintliche „Wissen“ immer ideologisch determiniert und somit nie objektiv ist. Aber – und das ist der springende Punkt: Auch die Wissenschaft liefert keine fertigen und unumstößlichen Aussagen über die Welt, sie ist keine Produzentin ultimativer Wahrheiten. Noch kann sie (zumindest der Wissenschaftstheorie Carl Poppers folgend) jemals irgendetwas beweisen – ein Punkt, der wohl einen der größten Irrtümer im öffentlichen Bild der Wissenschaft darstellt und dem gleichzeitig das größte Frustrationspotenzial zu Beginn eines naturwissenschaftlichen Studiums innewohnt.

Doch wie erklärt sich eben dieses Frustrationspotenzial? Wenn ich an meinen nun schon viereinhalb Jahre zurückliegenden Studienbeginn zurückdenke, erinnere ich mich gut an eben dieses Gefühl der Frustration und die omnipräsente Frage: „Wozu das ganze?“. In der Tat ist dieses Gefühl der enttäuschten Erwartung und der Verwirrung noch sehr gegenwärtig, wenn ich an die Lektüre von Zeitschriftenartikeln und Lehrbüchern in den ersten Semestern meines Bachelorstudiums zurückdenke. Darüber lesen, was Wissenschaftler X in Studie Y herausgefunden hat, wonach dann aber Forscher A in Studie B das Gegenteil zeigte, sodass die einzige Quintessenz lautet: „Es könnte so sein, es könnte aber auch anders sein – man weiß es nicht“.

In der Schule aber wurde einem durch Lehrer und Schulbücher nun einmal leider vorgegaukelt, dass Wissen über die Natur sich lediglich aufkumuliert, sich aber nicht verändert oder gar widerspricht – eine, wie ich finde, grandiose Veranschaulichung des Unterschieds zwischen „Kommunikation über die Welt“ und „Kommunikation über Wissenschaft“. Eine gelungene Wissenschaftskommunikation besteht meiner Ansicht nach nämlich gerade darin, der Öffentlichkeit – in der Schule beginnend – zu vermitteln, dass Wissenschaft nicht zaubern kann und sich vielmehr als dynamischer Prozess der Wissensgenerierung und Wissensveränderung beschreiben lässt – und dass vermeintlich etabliertes, „festes“ Wissen auch in der Regel nur einen momentan geltenden Konsens unter Wissenschaftlern darstellt. Ein Konsens, der sicherlich fundiert ist, aber keineswegs unantastbar.

Eine weitere Folge des schulischen Lehrplans ist zudem das unvollständige Bild naturwissenschaftlicher Disziplinen, das dadurch vermittelt wird, dass man als Schüler in seiner Laufbahn maximal mit der Mathematik, der Physik, der Chemie, der Biologie – und eventuell noch mit der Informatik konfrontiert wird. Und sollte man mit der Psychologie in Kontakt kommen, dann in der Regel meist doch nicht wirklich, da sich diese leider i.d.R. auf die Freud’schen Lehren beschränkt, die einem im Pädagogik-Leistungskurs präsentiert werden – traurigerweise meistens, ohne die dringend notwendige Kritik an diesen Theorien zu beleuchten. Diese Form von „Bias“ führt unweigerlich zu einer verzerrten Sicht von „Wissenschaft“ in den Köpfen derjenigen Menschen, die nicht gerade ein naturwissenschaftliches Studium hinter sich bringen. Und sie ist gleichsam die Ursache dafür, warum so viele Studienanfänger von der Psychologie zu Beginn (und manchmal noch weit darüber hinaus) so fürchterlich enttäuscht sind: Woher sollen sie denn auch wissen, dass es gar nicht um verdrängte Triebe und Traumdeutung, sondern vielmehr um Regressionsmodelle und Signifikanztests geht?

Das verzerrte Bild von „Wissenschaft“ zu korrigieren, hat in meinem Fall sicherlich mehr als zwei Semester in Anspruch genommen. Und auch, wenn ich bis heute die Meinung vertrete, dass gute Wissenschaft nur eine solche sein kann, die nicht nur sich selbst, sondern allen Menschen in einer gewissen Weise nützt und die sich nicht (wie es in der Psychologie vielerorts der Fall ist) in Belanglosigkeiten verliert, habe ich die Wissenschaft und ihre Möglichkeiten inzwischen definitiv schätzen gelernt. Mein Psychologiestudium hat mir daher nicht nur eine ganz neue Perspektive auf die Erklärung von menschlichem Erleben und Verhalten eröffnet (inklusive der sehr zufriedenstellenden Fähigkeit, besser zu verstehen, warum Menschen so handeln, wie sie handeln), sondern es hat mich noch etwas anderes sehr Wichtiges und Fächerübergreifendes gelehrt: nämlich, woher unser Wissen kommt, wie ich Quellen von Wissen beurteile – und was der Unterschied ist zwischen Glauben und Wissen.

© Christian Rupp 2014

Intelligenz – Teil 3: Warum man nicht nur einen IQ hat und wir lange Zeit immer schlauer wurden

Vorab: Was ist eigentlich “der IQ”?

Der so genannte Intelligenzquotient, kurz IQ, ist im Grunde schon der Schlüssel zu der Art und Weise, wie er berechnet wird – und doch wird diese Tatsache im alltäglichen Sprachgebrauch viel zu selten berücksichtigt. Ursprünglich erfolgte die Berechnung dieses Maßes für menschliche Intelligenz allerdings auf etwas andere Weise als heute. Geprägt wurde der Begriff des Intelligenzquotienten nämlich durch den Psychologen William Stern, der den von Alfred Binet geprägten Begriff des Intelligenzalters aufgriff und weiterentwickelte. Das Intelligenzalter ergibt sich nach Binet, grob gesagt, durch die Summe der gelösten Aufgaben in einem Intelligenztest. Aufschluss über die kognitive Leistungsfähigkeit gibt dann der Vergleich von Intelligenzalter und tatsächlichem Lebensalter: Wenn ein 8-jähriges Kind z.B. deutlich mehr (d.h. schwierigere) Aufgaben löst, als andere 8-jährige Kinder es im Durchschnitt tun, dann könnte sein Intelligenzalter z.B. 9,5 Jahre betragen – mit anderen Worten: Dieses Kind wäre in seiner kognitiven Entwicklung schon überdurchschnittlich weit fortgeschritten. William Stern setzte schließlich diese beiden Größen (also das Lebensalter und das Intelligenzalter nach Binet) einfach ins Verhältnis (bildete also einen Quotienten), multiplizierte sie mit dem Faktor 100 – und schon war der IQ geboren. Für unser Beispiel-Kind ergäbe sich somit ein IQ von (9,5/8)*100 = 118,75 (bzw. 119, da es aufgrund der nicht perfekten Reliabilität von Intelligenztests unüblich ist, IQ-Werte mit Nachkommastellen anzugeben).

Heutzutage berechnet man den IQ nicht mehr auf diese Weise, wenngleich das Grundprinzip der Berechnung erhalten geblieben ist: Weiterhin werden zwei verschiedene Werte miteinander ins Verhältnis gesetzt, weshalb der Begriff “Quotient” auch heute noch gerechtfertigt ist. Dies ist mit einer ganz wichtigen Tatsache verbunden, die in der Öffentlichkeit und in den Medien leider so oft untergeht: Es gibt nicht den IQ, und es ist keineswegs so, dass ein Mensch genau einen IQ hat. Derartige Aussagen kann man guten Gewissens als Unsinn bezeichnen. In der Tat kann man einer jeden Person unzählige IQ-Werte zuweisen; aber um zu verstehen, warum das so ist, muss man sich vor Augen führen, wie der IQ berechnet wird.

Wie schon gesagt, basiert die IQ-Berechnung auf dem Bilden von Verhältnissen. Was wird nun ins Verhältnis gesetzt? Grob gesagt wird (egal mit welchem Intelligenztest) immer ein Rohwert zu einem bestimmten Mittelwert und einer Standardabweichung gesetzt. Der Rohwert meint meist die Anzahl der in einem Intelligenztest gelösten Aufgaben (was deshalb Sinn macht, weil fast alle diese Tests so aufgebaut sind, dass die Aufgaben im Verlauf immer schwieriger werden). Bei unserem Beispiel-Kind von oben könnten das z.B. 21 von 30 Aufgaben sein. So, dieser Rohwert sagt einem zunächst einmal gar nichts. Um an einen IQ-Wert zu gelangen, braucht man zusätzlich eine Normstichprobe, d.h. eine repräsentative Stichprobe anderer Menschen, mit der man das Kind nun vergleichen kann. Von dieser Normstichprobe braucht man zwei Informationen: den Mittelwert (d.h. die durchschnittliche Zahl der gelösten Aufgaben in dieser Gruppe von Menschen, hier z.B. 18,1) und die Standardabweichung (d.h. die “durchschnittliche” Abweichung von diesem Mittelwert, z.B. 2,6). Nun muss die Zahl der von unserem Beispiel-Kind gelösten Aufgaben ins Verhältnis zu dieser Normstichprobe gesetzt werden . Hierzu berechnet man zunächst die Differenz zwischen dem Rohwert des Kindes und dem Mittelwert der Normstichprobe: 21-18,1 = 2,9. Dies ist die also die “Abweichung” unseres Kindes vom Mittelwert der Normstichprobe – und diese muss man nun ins Verhältnis setzen zur “durchschnittlichen Abweichung” vom Mittelwert der Normstichprobe (also deren Standardabweichung); d.h. man rechnet: 2,9/2,6 = 1,12. Man sagt: Das Kind liegt etwas mehr als eine Standardabweichung über dem Mittelwert der Normstichprobe. Nun fehlt nur noch die Umrechung in IQ-Werte. Hierzu nutzt man die Tatsache, dass IQ-Werte eine Art Maßzahl sind – deren Mittelwert und deren Standardabweichung festgelegt sind. D.h., man kann sie nutzen, um die Ergebnisse unterschiedlichster Tests (die alle andere Skalierungen verwenden), in ein und derselben Metrik anzugeben. Der Mittelwert des IQ ist auf 100 festgelegt, und die Standardabweichung auf einen Wert von 15. Um unserem Kind nun einen IQ-Wert zuweisen zu können, muss man nur noch den Wert 1,12 mit 15 multiplizieren und 100 addieren – und es ergibt sich ein IQ von 116,8 (bzw. 117).

Und schon hat man das, was in der Praxis meist noch in viel gravierender Form auftritt: Die beiden IQ-Werte (119 und 117) sind nicht gleich. Während es in unserem konstruierten Fall natürlich daran liegt, dass ich bei der obigen Berechnung die Werte ins Blaue hinein erfunden habe, liegt es in der Realität an einem anderen Faktor – nämlich an der Frage, welche Normstichprobe ich heranziehe, um die Person, deren IQ ich messen will, mit ihr zu vergleichen. Im Allgemeinen sollte man hierzu immer diejenige Normstichprobe wählen, die der Person bezüglich Alter und Geschlecht am ähnlichsten und zudem möglichst aktuell ist. Es finden sich aber auch noch feiner aufgegliederte Normen, z.B. auch bezüglich des Bildungsstands oder der besuchten Schulform. Ein IQ-Wert bedeutet immer nur, wie gut oder schlecht die Leistungen einer Person im Vergleich mit einer ihr möglichst ähnlichen Gruppe von Menschen sind. Und das ist genau der Grund, aus dem man für ein und denselben Menschen unzählige IQ-Werte berechnen kann – und ein IQ-Wert völlig ohne Aussage ist, solange man nicht mit angibt, zu welcher Normstichprobe man die Person ins Verhältnis gesetzt hat: Wenn der IQ unseres Kindes aus dem Vergleich mit einer Stichprobe Fünfjähriger resultiert, würde man den IQ von 118 nicht als besonders hoch einstufen; stammt er jedoch aus einem Vergleich mit einer Gruppe 16-Jähriger, kann man sich ziemlich sicher sein, dass das Kind wohl hochbegabt ist. Das ganze noch einmal in Kürze: Wenn jemand Ihnen das nächste Mal erzählt, er habe einen IQ von 150 – dann fragen Sie ihn doch bitte, aus dem Vergleich mit welcher Normstichprobe dieses Ergebnis resultiert.

Wie ist Intelligenz in der Menschheit verbreitet?

Wie oben bereits erwähnt, handelt es sich bei IQ-Werten um eine standardisierte Skala, auf der sich durch einfache Umrechnung alle möglichen Werte abbilden lassen, solange man die zwei wichtigen Angaben vorliegen hat: den Mittelwert und die Standardabweichung der betreffenden Stichprobe. Wann immer ich im Rest dieses Artikels von IQ-Werten spreche, bitte ich, dieses zu berücksichtigen.

Wie man aus zahlreichen Untersuchungen an großen repräsentativen Stichproben weiß, folgen IQ-Werte in der menschlichen Bevölkerung ziemlich genau einer so genannten Gauss’schen Normalverteilung (auch Gauss’sche Glockenkurve oder einfach kurz Normalverteilung genannt). Bei diesem Begriff handelt es sich im Grunde um eine Art “Etikett”, da es eine besondere Form von Verteilung bezeichnet, der (statistische) Werte (wie eben IQ-Werte) folgen können. Eine Normalverteilung lässt sich anhand zweiter Werte genau beschreiben, und zwar wiederum anhand des Mittelwertes und der Standardabweichung, die maßgeblich die Form der Kurve beeinflussen. Was ich im vergangenen Abschnitt noch verschwiegen habe, ist der sehr wichtige Umstand, dass die Tatsache, dass IQ-Werte einer solchen Normalverteilung folgen, einen ganz entscheidenden Vorteil mit sich bringt: nämlich den, dass die Berechnungen und Umrechnungen, die ich oben dargestellt habe, dadurch überhaupt erst mathematisch zulässig sind. Würden IQ-Werte keiner Normalverteilung folgen, hätten wir es um einiges schwieriger. So jedoch lässt sich (wie oben schon erwähnt) guten Gewissens sagen: IQ-Werte haben in der menschlichen Bevölkerung einen Mittelwert von 100 und eine Standardabweichung von 15. Um das ganze einmal ein bisschen plakativer zu machen, habe ich einmal eine entsprechende Abbildung gebastelt.

Verteilung des IQ in der Bevölkerung Verteilung des IQ in der Bevölkerung

Um diese Glockenkurve nun zu verstehen, ist es wichtig, dass man nicht versucht, die y-Achse zu interpretieren (weshalb ich sie auch weggelassen habe). Mathematisch betrachtet handelt es sich bei dieser Kurve um eine Dichte-Funktion, d.h. auf der y-Achse ist die schwer interpretierbare Dichte abgetragen. Man darf und kann diese Kurve daher nicht direkt so lesen, dass sie einem Aufschluss darüber gibt, wie vielen Prozent der Menschen welcher IQ-Wert zugordnet ist (das geht daher nicht, weil die Intelligenz hier mathematisch als stetiges Merkmal konzipiert ist – aber nun genug mit dem statistischen Wirrwarr).

Sinnvoll interpretierbar ist hingegen das Integral, also die Fläche unter der Glockenkurve. Mit deren Hilfe kann man zumindest Aussagen darüber treffen, wie viele IQ-Werte sich in einem bestimmten Bereich bewegen. So liegen z.B. im Bereich einer Standardabweichung unter- und überhalb vom Mittelwert von 100 (also zwischen den IQ-Werten von 85 und 115) rund 68% aller IQ-Werte, und somit auch aller Menschen. Zwischen 70 und 130 liegen derweil z.B. rund 95% aller Werte, d.h. es liegen nur 2,5% unter 70 und 2,5% über 130. Als Konvention hat sich daher eingebürgert, alle IQ-Werte zwischen 85 und 115 als “durchschnittlich” zu bezeichnen, Werte zwischen 70 und 85 als “niedrig” und Werte zwischen 115 und 130 als “hoch”. “Hochintelligent” ist daher streng genommen etwas anderes als “hochbegabt”, was sich als Begriff für IQ-Werte über 130 etabliert hat. Zur Erinnerung: Diese Menschen liegen bzgl. ihrer kognitiven Leistungen mehr als zwei Standardabweichungen über dem Mittelwert ihrer (hoffentlich) alters- und geschlechtsspezifischen Normstichprobe. Ähnliches gilt in umgekehrter Richtung für IQ-Werte unter 70. Hier bewegen wir uns (allerdings noch mit bedeutenden Abstufungen!) im Bereich der geistigen Behinderung (für deren Definition vorrangig der IQ herangezogen wird). Diese praktischen Prozentangaben haben einen weiteren Vorteil: Man kann jedem IQ-Wert einen Prozentrang zuweisen und somit z.B. Aussagen der Sorte “besser als 84% aller Mitglieder der Normstichprobe” (bei einem IQ von 115) treffen. Um zu der Anmerkung von vorhin zurückzukommen: Ein IQ von 150 würde bedeuten, dass 99,96% der Menschen in der Normstrichprobe (und somit gewissermaßen auch in der Bevölkerung, für die die Normstichprobe ja repräsentativ sein soll) einen niedrigeren Wert aufweisen: Und das ist, wie sie auch an der Abbildung sehen können, hochgradig unwahrscheinlich – mal davon abgesehen, dass kein Intelligenztest einen so hohen Wert vernünftig messen kann (Thema des nächsten Artikels).

Exkurs: Männer & Frauen

Ein ganz heikles Thema ist es natürlich, ob nun Männer oder Frauen im Durchschnitt intelligenter sind. Der mir bekannte aktuelle Forschungsstand hierzu ist der, dass es – bezüglich der allgemeinen Intelligenz – einen marginalen Unterschied dahingehend gibt, dass Männer ein paar wenige IQ-Punkte vorne liegen, gleichzeitig aber die Varianz bei Männern höher ist: Sowohl in den sehr hohen als auch in den sehr niedrigen IQ-Bereichen überwiegen Männer. Dazu sei noch gesagt, dass dieser Unterschied durch zwei Aspekte an Bedeutung verliert: Zum einen ist die Varianz innerhalb jeder der beiden Gruppen um ein Vielfaches größer als der Unterschied zwischen den Gruppen, und zum anderen ist es gut möglich, dass jener Unterschied dadurch zustande gekommen ist, dass viele Intelligenztests bestimmte Aufgaben in den Vordergrund stellen, die Männer bevorteilen. Denn was als gut gesichert gilt, ist, dass Männer und Frauen sich deutlich hinsichtlich ihrer kognitiven Stärken und Schwächen unterscheiden: Es gilt als sehr robuster Befund, dass Männer z.B. im Mittel besser im visuell-räumlichen Denken abschneiden als Frauen, die wiederum im Durchschnitt die Nase vorn haben, was die verbale Intelligenz betrifft.

Der Flynn-Effekt: Wird die Menschheit wirklich immer intelligenter?

Eine andere Fragestellung ist die, ob der durchschnittliche IQ der Menschheit tatsächlich zunimmt – ein Phänomen, das in Anlehnung an den neuseeländischen Politologen James R. Flynn als Flynn-Effekt bezeichnet wird. Dieser Fragestellung auf den Grund zu gehen, ist aufgrund der beschriebenen Berechnungsweise des IQ gar nicht so einfach – denn um herauszufinden, ob der IQ im Mittel steigt, darf man Menschen eben nicht mit aktuellen Normstichproben vergleichen, sondern muss ältere heranziehen: Nur so kommt man dem Flynn-Effekt auf die Schliche.

In der Tat haben groß angelegte Studien ergeben, dass der mittlere IQ in der westlichen Bevölkerung zwischen den 1930er und den 1990er Jahren um 0,2 – 0,5 Punkte pro Jahr gestiegen ist. Dieser Anstieg ergibt sich natürlich aus dem Vergleich mit den immer gleichen Normen aus den 1930er Jahren – anders wäre ein Anstieg ja gar nicht messbar. Dabei nahmen die Leistungen in nicht-sprachlichen Tests (die vor allem fluide Intelligenz messen) deutlich stärker zu als die in sprachlich basierten Tests (die vor allem kristalline Intelligenz messen). Für diesen Befund wurden diverse Erklärungshypothesen diskutiert, die im Folgenden kurz angeschnitten werden sollen.

Dauer des Schulbesuchs und Erfahrung mit typischen Intelligenztestaufgaben

In der Tat nahm die durchschnittliche Dauer des Schulbesuchs in dieser Zeit deutlich zu – was deshalb wichtig ist, weil somit auch die Erfahrung und die Geübtheit im systematischen Lösen von schulischen Aufgaben zunahm, die typischen Intelligenztests sehr ähnlich sind. Der Anteil dieser Faktoren am Flynn-Effekt ist jedoch eher als gering zu einzustufen.

Erziehungsstil

Weiterhin wurde in den Raum geworfen, dass der typische elterliche Erziehungsstil in dieser Zeitspanne natürlich auch einem erheblichen Wandel unterlegen war. Konkret wird von den Vetretern dieser Hypothese angeführt, dass von Eltern zunehmend Wert darauf gelegt wurde, ihre Kinder schon früh in ihrer kognitiven Entwicklung zu fördern. Dieser Trend fand aber nicht nur im familiären Rahmen, sondern auch in viel größerem Maße in den Medien (Beispiel “Sesamstraße”) und in der Politik statt. Die Befunde hierzu sind widersprüchlich. Während man weiß, dass große, national initiierte Bildungsprogramme eher keine Wirksamkeit bezüglich der Erhöhung des durchschnittlichen IQs vorweisen können, wirkt sich frühe Förderung auf der individuellen Ebene durchaus positiv auf die kognitive Entwicklung aus.

Weniger Fälle geistiger Behinderung

Zu bedenken ist sicherlich auch, dass aufgrund besserer medizinischer Versorgung die Zahl der mit geistigen Behinderungen geborenen Kinder in der beschriebenen Zeitspanne zurückgegangen ist. Einige Studien hierzu messen diesem Aspekt im Hinblick auf den Flynn-Effekt eine zentrale Bedeutung bei: Durch den überproportionalen Wegfall sehr niedriger IQ-Werte (<70) in der Bevölkerung stieg der durchschnittliche IQ im Mittel an.

Ernährung

Es ist gut belegt, dass bessere Ernährung (z.B. vitaminreiche Kost, weniger Schadstoffe, etc.) die geistige Entwicklung von Kindern positiv beeinflusst. Durch ungesunde Ernährung kann es z.B. zu Schilddrüsenunterfunktionen kommen (gekennzeichnet durch einen Mangel an Triiodthyroxin und Triiodthyronin), die dann wiederum eine Verzögerung der geistigen Entwicklung bedingen können, sodass der mittlere IQ infolgedessen gestiegen sein könnte.

Vermutlich ist es tatsächlich nicht einer dieser Faktoren, die den Flynn-Effekt erklären, sondern ihr Zusammenspiel. Interessanterweise ist es derweil übrigens so, dass der Anstieg des mittleren IQ seit Anfang der 1990er Jahre als “gestoppt” gilt, sodass man zumindest momentan sagen kann, dass der Flynn-Effekt der Vergangenheit angehört. Manche deuten dies als Beleg für die Richtigkeit der Ernährungshypothese (da die Nahrungsversorgung in der westlichen Gesellschaft gewissermaßen nicht noch viel besser werden kann), ich jedoch würde eher sagen, dass diese Tatsache der “Sättigung” in entsprechender Weise auf alle Erklärungsansätze zutrifft.

In diesem Artikel habe ich mehrfach schon das Thema der Intelligenzmessung gestreift. Ob, wie – und vor allem – wie genau man die Intelligenz eines Menschen tatsächlich messen kann, wird daher der Inhalt des nächsten Artikels sein.

© Christian Rupp 2014

Intelligenz – Teil 2: Die Sicht der wissenschaftlichen Psychologie

Nachdem ich im ersten Artikel zum Thema “Intelligenz” versucht habe, zu beschreiben, wie die Definition des Konstrukts “Intelligenz” von Kultur zu Kultur schwankt, soll es in diesem Beitrag nun darum gehen, wie die wissenschaftliche Psychologie die Intelligenz betrachtet und wie sehr auch unter den Experten auf diesem Gebiet die Meinungen hierüber auseinander gehen.

Die Intelligenzforschung nahm ihren Anfang in den ersten Jahrzehnten des 20. Jahrhunderts, initiiert durch Charles Spearman, den ersten Psychologen, der sich der Erforschung dieses Kontrukts widmete. Er war es auch, der das erste Intelligenzmodell formulierte, welches heutzutage unter dem Begriff der “Zweifaktorentheorie der Intelligenz” bekannt ist. Dieses Modell basiert, wie fast alle anderen Modelle, die im Übrigen grundsätzlich auf Spearmans Modell aufbauen, auf dem Prinzip der Faktorenanalyse, d.h. auf einem statistischen Verfahren, mit dessen Hilfe man anhand typischer Muster von häufig gemeinsam gelösten und gemeinsam nicht gelösten Aufgaben Rückschlüsse über die Formen von Intelligenz ziehen kann, die von einer Gruppe ähnlicher Aufgaben erfordert werden und somit unterschiedliche Subtypen von Intelligenz darstellen.

Nun hat die Faktorenanalyse aber den Nachteil, dass die Ergebnisse, die sie liefert (die so genannte Faktorstruktur) dem Wissenschaftler enorm viel Interpretationsspielraum lassen und man aus dem gleichen statistischen Ergebnis unterschiedliche Modelle über die Struktur der Intelligenz, d.h. ihre verschiedenen Unterformen, ableiten kann. Das Ergebnis sind unterschiedliche hierarchische Modelle, die die sich allem voran in einem ganz wesentlichen Punkt unterscheiden, und zwar der Frage, ob es einen allgemeinen, allen anderen intellektuellen Fähigkeiten übergeordneten, Generalfaktor der Intelligenz (auch g-Faktor oder einfach nur g genannt) gibt – oder ob die verschiedenen Formen der Intelligenz doch voneinander unabhängig sind. Dies hat für die Praxis sehr weitreichende Folgen, hängt es doch genau von dieser Frage ab, ob wir uns bei der Messung der Intelligenz auf einen einzelnen Wert beschränken können oder ob wir differenzierter vorgehen müssen. Auf der zweiten Ebene spaltet die allgemeine Intelligenz sich in einige wenige Unterfaktoren auf, die zumindest teilweise voneinander unabhängig sind, aber dennoch beide auch mit g zusammenhängen. Auf der dritten Ebene gliedern sich diese Unterfaktoren dann wiederum in spezifische intellektuelle Fähigkeiten wie z.B. Wortgewandtheit und logisches Schlussfolgern auf. Damit Ihnen die Vorstellung dieser (immer sehr ähnlich aufgebauten) hierarchischen Modelle etwas leichter fällt, habe ich in der unten stehenden Abbildung einmal selbst ein beispielhaftes Modell erstellt, von dem ich behaupten würde, dass es zwar vereinfacht ist, aber in vielerlei Hinsicht einen derzeit weit verbreiteten Konsens darstellt, nämlich die Annahme eines gewissen g-Faktors, eine Unterscheidung zwischen fluider und kristalliner Intelligenz auf der zweiten Ebene sowie einige typische, diesen beiden Faktoren wiederum unterordnete Subformen intellektueller/kognitiver Fähigkeiten. Worauf die einzelnen Komponenten dieses beispielhaften Modells jeweils zurückgehen, erfahren Sie in den nächsten Abschnitten.

Beispiel für ein hierarchisches Modell
Beispiel für ein hierarchisches Modell

 

Spearman: G thront über allem

Das von Spearman entwickelte Modell ist sowohl das allerälteste als auch dasjenige, das den Begriff des g-Faktors bzw. der “Allgemeinen Intelligenz” geprägt hat. Spearman interpretierte die aus der Faktorenanalyse resultierenden hohen Korrelationen (= statistische Zusammenhänge) zwischen den Lösungsmustern unterschiedlichster Aufgaben derart, dass es einen solchen Generalfaktor der Intelligenz geben müsse, da, grob gesagt, Personen, die in einem Aufgabenbereich (z.B. räumliches Denken) gut abschnitten, tendenziell auch in anderen Bereichen (z.B. Wortschatz und logisches Schlussfolgern) gute Ergebnisse erzielten. Dieser Generalfaktor, so Spearman, sei die Grundlage aller Leistungen in Intelligenztests, und er beschreibt ihn als die “Fähigkeit, Zusammenhänge wahrzunehmen und daraus Schlüsse zu ziehen” – kurz: als “mentale Energie”. G untergeordnet sind im Spearman-Modell nur die “spezifischen Fähigkeiten”, die mit s bezeichnet werden und sprachliche, mathematische und räumliche Intelligenz umfassen. D.h. es gibt im Gegensatz zum oben skizzierten Beispielmodell keinerlei mittlere Ebene.

Auf Spearmans Modell basieren mehrere Intelligenztests, die auch heute noch weit verbreitet sind. Man erkennt diese Tests daran, dass sie am Ende die Berechnung eines Intelligenzquotienten ermöglichen, der als Index für das Niveau der Allgemeinen Intelligenz herangezogen wird. Hierzu gehören z.B. alle Tests aus der Wechsler-Reihe (die aktuellsten sind der Wechsler Intelligenztest für Erwachsene, kurz WIE, und der Hamburg Wechsler Intelligenztest für Kinder in seiner 4. Ausgabe, kurz HAWIK-IV) sowie die Raven-Tests, die nur aus Matrizen-Aufgaben (“Welches Bild gehört in das leere Kästchen?”) bestehen und zum Ziel haben, unabhängig von Sprache und Kultur abstraktes, nicht angewandtes Denken zu erfassen.

Abgrenzung von Spearman: Thurstone & Cattell

Im Verlauf des 20. Jahrhunderts wurde dann von anderen Psychologen eine Fülle weiterer, meist auf Faktorenanalysen und ihrer Interpretation basierender Intelligenzmodelle entwickelt, die sich, wenn man einmal ehrlich ist, nicht wirklich exorbitant voneinander unterscheiden. Dies hat sicherlich auch damit zu tun, dass sie fast ausnahmslos in Abgrenzung vom Spearman-Modell enstanden sind und sich somit alle in irgendeiner Form hierauf beziehen. Der zweite Grund ist der, dass man in der Wissenschaft leider auch nicht ständig das Rad neu erfinden kann.

Das Primärfaktorenmodell nach Thurstone: Ebenbürtiges Nebeneinander?

Anders als Spearman betrachtete Louis Leon Thurstone die Intelligenz als eine Sammlung von sieben klar voneinander angrenzbaren, also unabhängigen Intelligenzarten. Diese sieben Primärfaktoren sind: Rechenfähigkeit, Auffassungsgeschwindigkeit, schlussfolgerndes Denken, räumliches Vorstellungsvermögen, assoziatives Gedächtnis, Sprachbeherrschung und Wortflüssigkeit. Widergespiegelt wird dies durch den bekannten Intelligenz-Struktur-Test, kurz IST-2000-R, in dem eben nicht ein IQ-Wert am Ende berechnet wird, sondern mehrere. Kritisch an diesem Modell ist anzumerken, dass Thurstone bei seinen Faktorenanalysen in den Augen einiger Wissenschaftler etwas “gepfuscht” hat, da er anstatt einer orthogonalen eine oblique Faktorenrotation verwendete – mit dem Ergebnis, dass seine sieben Primärfaktoren leider doch nicht völlig unabhängig voneinander sind. Thurstone räumte tatsächlich später ein, dass diese Kritik berechtigt sei, und erkannte einen gewissen g-Faktor als mögliche Ursache dieser Zusammenhänge an.

Die Zweikomponententheorie nach Cattell: Einführung einer mittleren Ebene

Raymond Bernard Cattell hingegen nahm von vornherein einen g-Faktor als oberste Instanz in seinem Intelligenzmodell an, war zugleich aber der erste, der eine mittlere Ebene (wie im obigen Beispielmodell gezeigt) einführte. Auf ihn geht die bis heute weit etablierte und bewährte Unterscheidung zwischen kristalliner (meist abgekürzt c) und fluider Intelligenz (meist abgekürzt f) zurück, in die sich im zufolge die Allgemeine Intelligenz aufspaltet. Unter der fluiden Intelligenz versteht Cattell eine generelle Denk- und Problemlösefähigkeit, die er als weitgehend unabhängig von kulturellen Einflüssen versteht und die eine wichtige Voraussetzung für den Erwerb neuer Informationen darstellt. Nach Cattell ist die fluide Intelligenz ein angeborenes Merkmal, die sich im Laufe des Lebens stabilisiert oder sogar gegen Ende stagniert. Gegenteilig hierzu verhält sich die bis zum Lebensende stetig anwachsende kristalline Intelligenz, die als kumulative Lebenserfahrung zu sehen ist. Dies deutet bereits darauf hin, dass diese sämtliches im Laufe des Lebens erworbenes Wissen, erworbene Fertigkeiten und Kompetenzen umfasst. Diese erachtet Cattell als stark von kulturellen Einflüssen geprägtes und maßgeblich von sprachlichen Fähigkeiten bestimmtes Konstrukt. Fluide und kristalline Intelligenz sind somit, wie es typisch für Elemente der mittleren Ebene ist, insofern nicht gänzlich unabhängig voneinander, als sie durch die “gemeinsame Mutter” g verbunden sind, und gleichzeitig ist ihr Zusammenhang hinreichend gering, um sie als zwei separate Unterfaktoren zu betrachten. Dabei wird übrigens durchaus angenommen, dass c und f auf vielfältige Weise interagieren: Zum Beispiel wird davon ausgegangen, dass eine gut ausgeprägte fluide Intelligenz den Erwerb von kritalliner Intelligenz in Form von Wissen und Fertigkeiten erleichtert. Cattells Modell ähnelt sehr stark dem von John B. Carroll. Da letzteres keinen meiner Meinung nach wesentlichen Unterschied aufweist, werde ich es an dieser Stelle nicht gesondert beschreiben.

Auch Cattells Theorie ist in die Entwicklung von Intelligenztests eingeflossen. So findet sich (wenn auch nicht explizit so bezeichnet) die Unterteilung in f und c auch im IST-2000-R wieder. Die Tests aus der Wechsler-Serie erfassen typischerweise leicht überwiegend kristalline Intelligenz, während die ebenfalls bereits erwähnten Raven-Tests, ebenso wie die so genannten Culture Fair Tests (kurz CFTs), hauptsächlich fluide Intelligenz messen, um ausdrücklich kulturelle Unterschiede außen vor zu lassen und diesem Sinne “fair” zu sein.

Nicht-hierarchische Modelle

Neben den hierarchischen Modellen gibt es auch noch ein paar Vertreter, die von verschiedenen Intelligenzformen ausgehen, die unabhängig und sozusagen “gleichberechtigt” nebeneinander stehen, ohne dass es einen übergeordneten g-Faktor oder untergeordnete Fähigkeiten gäbe. Im Grunde hätte ich an dieser Stelle auch das Primärfaktorenmodell von Thurstone anführen können; da Thurstone aber im Nachhinein einen g-Faktor doch mehr oder weniger eingeräumt hat, findet es sich bei den hierarchischen Modellen.

Mehrdimensionale Modelle: Inhalt, Prozess & Co.

Zu den im Vergleich zu den hierarchischen Modellen fast schon exotisch anmutenden mehrdimensionalen Modellen gehören das Würfelmodell nach Guilford und das Berliner Intelligenzstrukturmodell nach Jäger. Beiden Modellen gemeinsam ist, dass sich eine sehr große Menge unterschiedlicher “Intelligenzen” ergeben, und zwar als Produkt einiger weniger Faktoren, die unterschiedliche Ausprägungen aufweisen können. Dabei beruhen auch diese Modelle auf Faktorenanalysen und sind somit ein anschaulicher Beleg dafür, auf welch unterschiedliche Weise man die im Prinzip gleiche Datenlage interpretieren kann.

Im Würfelmodell ist es so, dass sich 150 verschiedene Intelligenzarten als Produkt drei verschiedener Faktoren mit wiederum verschiedenen Ausprägungen ergeben. Unter diesen drei Faktoren versteht Guilford den zu verarbeitenden Inhalt (z.B. akustische Reize), den nötigen Vorgang (z.B. Auswertung der akustischen Reize) und das Produkt (z.B. Herausstellung der Implikationen). Das klingt sehr abtrakt, komplex und schwer überprüfbar, was es auch tatsächlich ist. Ähnliches gilt für das Berliner Intelligenzstrukturmodell, bei dem es im Gegensatz zum Würfelmodell nur zwei Faktoren gibt. Zum einen führt Jäger den Faktor “Operationen” an, als dessen mögliche Ausprägungen er Merkfähigkeit, Bearbeitungsgeschwindigkeit, Einfallsreichtum und Verarbeitungskapazität anführt. Zum anderen gibt es den Faktor “Inhalte” mit drei Varianten, und zwar bildhaftem, verbalem und numerischem Material. Insgesamt ergeben sich hieraus also 3×4=12 verschiedene Intelligenzformen, abhängig von der Art des zu bearbeitenden Materials und der Art der geforderten mentalen Operation. Jägers Modell enthält daneben übrigens auch noch einen g-Faktor, der in gewisser Weise allen Faktoren und ihren Ausprägungen gleichsam zugrunde liegt.

Die praktische Anwendung dieser Form von Modellen ist schwieriger als bei den oben beschriebenen Modellen, da, wenn man die Modelle ernst nimmt, für alle möglichen Kombinationen von Faktorausprägungen eine geeignete Aufgabe finden muss. Zwar hat Guilford für den Großteil der in seinem Modell postulierten Intelligenzfacetten inzwischen Aufgabentypen vorgeschlagen, dass diese jedoch in einen standardisierten Intelligenztest übertragen wurden, ist mir nicht bekannt. Anders sieht es mit dem (ja doch deutlich sparsameren) Jäger-Modell aus, welches in Form des Berliner Intelligenzstruktur-Tests (kurz BIS) Anwendung findet.

Gardners Theorie der Multiplen Intelligenzen: Ein Plädoyer gegen G

In den 1980er Jahren veröffentlichte Howard Gardner seine Theorie der Multiplen Intelligenzen und wetterte gewaltig gegen das Konzept der Allgemeinen Intelligenz bzw. den g-Faktor. Er argumentierte, dass klassische Intelligenztests nicht imstande wären, die Fülle an kognitiven Fähigkeiten, über die ein Mensch verfügen kann, zu erfassen, und schlug ein Modell mit sieben voneinander unabhängigen und nicht durch einen übergeordneten g-Faktor bestimmten Intelligenzfacetten vor. An diesem, ebenfalls auf Faktorenanalysen basierenden Modell ist, neben der Tatsache, dass die Unabhängigkeit der Intelligenzfacetten nicht belegt ist, zu kritisieren, dass es eine große Überlappung mit dem (lange vorher veröffentlichten) Thurstone-Modell aufweist (allein schon, was die Zahl der Faktoren angeht). So finden sich bei Gardner u.a. auch die logisch-mathematische, die sprachliche und die bildlich-räumliche Intelligenz. Neu sind allerdings vier Faktoren, die eher den Fokus auf künstlerische und sozio-emotionale Fähigkeiten legen, nämlich die musikalisch-rhythmische, die körperlich-kinästhetische (Einsatz des eigenen Körpers), die interpersonale (Verstehen von und Umgang mit anderen Menschen) und die intrapersonale Intelligenz (Verständnis seinerselbst). Insbesondere die letzten beiden Intelligenzarten sind in der Psychologie inzwischen anerkannte Konstrukte, werden jedoch eher nicht direkt als Form von Intelligenz betrachtet, sondern unter dem Begriff “sozio-emotionale Kompetenz” zusammengefasst (im Volksmund und in Klatschzeitschriften erfreuen sich allerdings die Begriffe “emotionale Intelligenz” und “soziale Intelligenz” allerdings weiter Verbreitung) und als etwas erachtet, das in der Regel in der Kindheit und in der Interaktion mit anderen Menschen erworben wird und eher nicht angeboren ist. Zu diesem Konstrukt gehören z.B. u.a. die Fähigkeit, die Perspektive anderer einzunehmen (Theory of Mind), die Fähigkeit, die emotionale Lage anderer nachzuempfinden (Empathie), das Bewusstsein über eigene emotionale Vorgänge, Wege der Emotionsäußerung und das Bewusstsein über die Wirkung der eigenen Emotionen auf andere sowie die Fähigkeit zur Regulation der eigenen Emotionen.

Sternbergs Triarchisches Modell: Radikale Abkehr vom Hierarchie-Gedanken?

Das von Robert Sternberg postulierte Triarchische Modell, auch bekannt unter dem Namen Komponentenmodell, basiert auf der Informationsverarbeitungstheorie, die, grob gesagt, die menschliche Kognition als Informationsverarbeitungsprozess betrachtet, und gibt vor, eine radikale Abkehr von hierarchischen Strukturen und der Annahme voneinander abgrenzbarer Faktoren darzustellen. Es ist daher auch das einzige bekannte Intelligenzmodell, das nicht auf Faktorenanalysen beruht. Sternberg prägte hiermit auch eine neuartige Definition von Intelligenz und nannte als Teile der Definition die Elemente “Lernen aus Erfahrung”, “abstraktes Schlussfolgern”, “die Fähigkeit, sich einer sich ständig weiterentwickelnden und verändernden Umwelt anzupassen” und “die Motivation, überhaupt neues Wissen bzw. Fertigkeiten zu erlangen”. Die ersten beiden Aspekte überlappen stark mit der kristallinen und der fluiden Intelligenz, die beiden letzten hingegen sind in der Tat relativ neu und haben bisher kaum Eingang in die Messung von Intelligenz gefunden.

Die eigentliche Intelligenztheorie von Sternberg ist hingegen sehr komplex und meiner Ansicht alles andere als leicht verständlich. Ich wage auch, die kühne Behauptung aufzustellen, dass sich diese Theorie kaum prägnant zusammenfassen lässt, weil sie sich teilweise in Einzelheiten verliert. Daher möchte ich mich darauf beschränken, einige meiner Meinung nach wichtige Teilaspekte der Theorie herauszustellen. Zunächst wird, abgeleitet von der Informationsverarbeitungstheorie, die wichtige Unterscheidung getroffen zwischen der Art des ablaufenden kognitiven Prozesses, der Genauigkeit, mit dem dieser abläuft, und der Art der mentalen Repräsentation, die diesem Prozess zugrunde liegt (z.B. bildliches oder sprachliches Material). Insofern erinnert es es schon an dieser Stelle stark an die oben beschriebenen mehrdimensionalen Modelle. Dann verliert sich die Theorie (meiner Auffassung nach) in mehr und mehr Unter-Theorien, die einen eher geringen Erklärungswert haben und darüber hinaus mehr Ähnlichkeit mit den bereits beschriebenen Modellen haben, als man eigentlich aufgrund der revolutionären Aura der Theorie erwarten würde. Wirklich eingängig ist mir lediglich die “Komponenten-Subtheorie”, die drei Intelligenzkomponenten beschreibt und im Gegensatz zum Rest relativ anschaulich ist. Und zwar stellt Sternberg hier die analytische Intelligenz (abstrakte Denkprozesse, die einer Problemlösung vorausgehen), die praktische Intelligenz (Lösung von Problemen durch Anpassung an die Umwelt, Formung einer Umwelt oder Auswahl einer passenden Umwelt) und die kreative Intelligenz (Nutzen von Erfahrungen zur Lösung von Problemen) dar. Diese, so Sternberg, seien aber nicht in ein hierarchisches System eingebunden und stellten auch keinerlei Intelligenzfaktoren im klassischen Sinne dar – vielmehr seien sie eine Beschreibung dessen, was die Intelligenz leisten muss. Was genau er damit meint, und in wiefern dieser Gedanke sich wirklich von den beschriebenen hierarchischen oder mehrdimensionalen Modellen unterscheidet, bleibt zumindest mir unklar. Fest steht, dass Sternberg keinen g-Faktor anerkennt – doch dies allein ist, wie ich ausführlich dargestellt habe, nichts Revolutionäres.

Fazit

Was ich hoffe, vermittelt zu haben, ist, dass es derzeit kein allgemeingültiges und eindeutiges Verständnis dessen gibt, was “Intelligenz” ist, in wie vielen verschiedenen Formen sie vorliegt und ob es einen allem übergeordneten g-Faktor gibt. Wenn man sich die empirische Evidenz anschaut, muss man allerdings zugeben, dass die Existenz einer Allgemeinen Intelligenz bzw. eines solchen g-Faktors sehr wahrscheinlich ist, da sich die starken Zusammenhänge zwischen unterschiedlichsten Intelligenztestaufgaben nicht einfach so wegdiskutieren lassen. Weitere Evidenz für dieses Konstrukt der Allgemeinen Intelligenz findet sich übrigens auch aus der Anwendungsforschung, z.B. aus der Arbeits- und Organisationspsychologie, die ergeben hat, dass die Allgemeine Intelligenz mit Abstand der bester Prädiktor von Berufserfolg ist (Näheres dazu hier). Andererseits gibt es auch Belege, die deutlich zeigen, dass sich mit g auch nicht alles erklären lässt und eine Unterteilung auf unterer Ebene durchaus Sinn macht – so gilt die Unterscheidung zwischen kristalliner und fluider Intelligenz z.B. als gut belegt.

Für mich persönlich bedeutet dies, dass die “Wahrheit” (sollte es diese denn geben) am ehesten durch ein Modell abgebildet wird, das dem von Cattell bzw. Carroll ähnelt – vom Konzept also einem solchen, wie Sie es in der obigen Abbildung finden. Bedenken Sie aber, dass all diese Modelle im Wesentlichen unterschiedliche Interpretationen der weitgehend gleichen Sachlage sind und somit automatisch auch von der jeweiligen Ideologie geprägt sind, die ein Forscher vertritt (z.B. bzgl. der Frage, ob es einen g-Faktor geben darf). Und nicht zu vergessen ist auch, dass die Modelle sich, wenngleich sie sich alle natürlich als neuartig und daher wichtig darstellen, im Grunde nicht besonders stark unterscheiden – wenn man einmal genau nachdenkt.

Im nächsten Teil wird es um die Fragen gehen, was es mit dem Intelligenzquotienten auf sich hat, wie Intelligenz in der Bevölkerung verteilt ist und ob es stimmt, dass wir immer intelligenter werden.

© Christian Rupp 2014

Klinische Psychologie, Psychotherapie, Psychoanalyse: Wo gehört Freud nun hin?

Klinische Psychologie

Die Klinische Psychologie als Teilgebiet der Psychologie befasst sich (ebenso wie ihr medizinisches Pendant, die Psychiatrie) mit psychischen Störungen, aber auch mit den psychischen Einflüssen bei auf den ersten Blick rein körperlich bedingten Krankheiten, wie z.B. Kopf- und Rückenschmerzen oder dem Reizdarmsyndrom (wo psychischen und Verhaltensfaktoren eine große Bedeutung zukommt). Diese Richtung ist ganz eng verwandt mit dem medizinischen Fach der Psychosomatik, das sich ebenfalls dem Einfluss psychischer Faktoren auf körperliche Symptome widmet und Körper und Psyche schon lange nicht mehr als getrennte Einheiten, sondern als Bestandteile eines untrennbar miteinander verwobenen Systems betrachtet.

Die Klinische Psychologie ist somit eines der großen Anwendungsfächer im Psychologiestudium. Dass es nur eines von mehreren ist, möchte ich an dieser Stelle noch einmal ganz deutlich machen, denn in der Laiengesellschaft wird “Psychologie” oftmals mit “Klinischer Psychologie” gleichgesetzt bzw. auf diese reduziert. Konkret werden in der Klinischen Psychologie vor allem die Ursachen von psychischen Störungen erforscht und in Bezug auf die verschiedenen Störungen spezifische Modelle für deren Entstehung entwickelt. So werden z.B. in Längsschnittstudien (die die Versuchsteilnehmer über Jahre begleiten) Risikofaktoren (z.B. bestimmte Erlebnisse in der Kindheit, der Erziehungsstil der Eltern, kindliche Verhaltensstörungen, etc.) und Auslösefaktoren (z.B. stressreiche Lebensereignisse) für psychische Störungen erforscht. Ferner wird auch an großen Bevölkerungsstichproben die Häufigkeit psychischer Störungen und deren Verlauf (z.B. episodenweise oder chronisch) untersucht –  zusammengefasst wird dieser Bereich unter dem Begriff “Epidemiologie”. Ein weiteres Gebiet ist außerdem die Experimentelle Psychopathologie, die systematisch mit Hilfe typischer experimenteller Manipulationen Begleiterscheinungen (Korrelate) psychischer Störungen untersucht. Hierzu gehören z.B. die Befunde, dass schizophrene Patienten Beeinträchtigungen bei unbewussten, motorischen Lernprozessen (implizitem Sequenzlernen) aufweisen und ADHS-Patienten sich hinsichtlich bestimmter ereigniskorrelierter Potenziale wie der “P300” von gesunden Menschen unterscheiden. Befunde der experimentellen Psychopathologie tragen so auch dazu bei, die Ursachen psychischer Störungen besser zu verstehen, da sie Einsicht in Fehlfunktionen der Informationsverarbeitung und somit in “schief laufende” Gehirnprozesse ermöglichen.

Psychotherapie

Kognitive Verhaltenstherapie

Das für die Praxis relevanteste und wahrscheinlich inzwischen größte Teilgebiet der Klinischen Psychologie ist das der Psychotherapie. Hier werden einerseits, aus den Störungsmodellen abgeleitet, Psychotherapieverfahren (auch Interventionen genannt) entwickelt und andererseits diese im Rahmen kontrollierter Studien auf ihre Wirksamkeit überprüft (daher der Name Psychotherapieforschung). Die Formen von Psychotherapie, die sich aus der wissenschaftlichen Psychologie entwickelt haben und deren Wirksamkeit intensiv erforscht und belegt ist, werden heutzutage unter dem Sammelbegriff “Kognitive Verhaltenstherapie” (kurz KVT) zusammengefasst, die im deutschen Gesundheitssystem derweil nur als “Verhaltenstherapie” bezeichnet wird. Hierbei handelt es sich um eine sehr vielfältige Gruppe von erfolgreichen Verfahren, die darauf abzielen, psychische Störungen sowohl durch die Veränderung des Verhaltens, als auch durch die Veränderung kognitiver Strukturen (z.B. festgefahrener Gedankenmuster) zu behandeln. Die KVT ist dabei ein Therapieverfahren, das sich als Methode sowohl des therapeutischen Gesprächs als auch vieler Aktivitäten und Trainings zum Aufbau von Verhaltensweisen bedient, z.B. des Trainings sozialer Kompetenzen. Emotionen, wie z.B. die Traurigkeit oder Niedergeschlagenheit, die die Depression kennzeichnen, werden hierbei entweder als Konsequenz von Verhalten und Gedanken angesehen und indirekt beeinflusst oder aber in neueren Ansätzen auch direkt angegangen. So basiert die Emotionsfokussierte Therapie nach Greenberg z.B. unter anderem darauf, dass Emotionen intensiv durchlebt werden müssen, um sie zu bewältigen – ein Ansatz, den die Kognitive Verhaltenstherapie zuvor nur aus der Expositions- bzw. Konfrontationstherapie für Angststörungen kannte.

Gesprächspsychotherapie & Gestalttherapie

Neben der kognitiven Verhaltenstherapie gibt es eine zweite Richtung von Psychotherapie, die tatsächlich aus der Psychologie stammt, und das ist die humanistische Psychotherapie (auch klientenzentrierte oder Gesprächspsychotherapie genannt), die sich ausschließlich des Gesprächs bedient und dabei die Leitung des Gesprächs meist dem Patienten überlässt. Begründer dieser Therapierichtung war Carl Rogers, der als die drei Hauptwirkungsmechnismen der Therapie die empathische Grundhaltung und die bedingungslose Wertschätzung des Therapeuten dem Patienten (Rogers nennt ihn Klienten) gegenüber sowie die Echtheit des Therapeuten selbst beschreibt. Letzteres meint, dass der Therapeut sich dem Patienten gegenüber nicht verstellen, sondern authentisch verhalten soll. Ziel des Therapeuten ist es hierbei, dem Patienten keine Ratschläge zu geben, sondern die Voraussetzungen dafür zu schaffen, dass der Patient sein Problem selbst lösen kann. Eine Weiterentwicklung der Gesprächspsychotherapie nach Rogers ist übrigens die Gestalttherapie nach Perls, die sich allerdings in vielen Punkten von Rogers’ Vorgehen unterscheidet, z.B. darin, dass der Therapeut sehr viel mehr das Gespräch lenkt und auch konfrontativer vorgeht.

Obwohl die von Rogers vorgeschlagene Art der Psychotherapie nachgewiesenermaßen bereits beträchtliche Verbesserungen bewirken kann, ist sie insgesamt nicht so wirksam wie die Kognitive Verhaltenstherapie, in der aber grundsätzlich die Prinzipien der Gesprächsführung nach Rogers nach wie vor eine bedeutende Rolle spielen. An der Uni Münster z.B., wo ich studiere, gehört das praktische Erlernen dieser Gesprächsführungskompetenzen auch fest zum Psychologiestudium dazu, weshalb das Führen konstruktiver Gespräche und auch der Umgang mit schwierigen Gesprächssituationen im Prinzip auch eine Fähigkeit ist, die nahezu jeden Psychologen auszeichnen dürfte.

Psychoanalyse

Wie Sie vielleicht gemerkt haben, ist der Name “Freud” bisher nicht gefallen. Das liegt daran, dass ich bisher bewusst nur Psychotherapieformen beschrieben habe, die aus der Psychologie heraus entstanden sind. Freud derweil war Arzt, kein Psychologe, und daher auch keinesfalls der Begründer oder Vater der Psychologie. Er war dafür aber der Begründer der Psychoanalyse, der allerersten Form von Psychotherapie, die er vor über 100 Jahren entwickelte. Während man in der Gesprächspsychotherapie oder der Kognitiven Verhaltenstherapie als Patient dem Therapeuten gegenüber sitzt, legte Freud (und hier kehren wir zu dem Cliché schlechthin zurück) seine Patienten tatsächlich auf die Couch. Das hatte vor allem den Grund, dass Freud sich stark an der Hypnose orientierte, die damals schon bekannt und verbreitet war. Die klassische Psychoanalyse dauert sehr lange (mehrere Jahre bei mehreren Sitzungen pro Woche) und spült dem Therapeuten daher viel Geld in die Kasse. Während der Therapiesitzung liegt der Patient, während der Therapeut außerhalb des Sichtfeldes des Patienten sitzt und eine neutrale Person darstellt, die (ganz im Gegensatz zu Rogers Idee der Echtheit) nichts von sich selbst preisgibt. Während Patient und Therapeut sich in der KVT oder der Gesprächspsychotherapie auf Augenhöhe begegnen, steht der Psychoanalytiker hierarchisch über dem Patienten und hat die absolute Deutungshoheit über das, was der Patient sagt. Es handelt sich insgesamt um eine höchst unnatürliche Gesprächssituation, bei der der Therapeut das tut, was Psychologiestudierenden immer fälschlicherweise vorgeworfen wird: Er analysiert den Patienten bis in die tiefsten Tiefen und stellt dann irgendwann fest, was für ein Konflikt vorliegt.

Intrapsychische Konflikte und ganz viel Sex

Denn die Psychoanalyse erklärt psychische Störungen (ganz grob gesagt) durch intrapsychische Konflikte mit Ursache in der Kindheit, die dadurch geprägt sind, dass ein Bedürfnis oder Trieb (meist sexueller oder aggressiver Art), gesteuert vom so genannten Es, mit einer gesellschaftlichen Norm, repräsentiert durch das Über-ich, nicht vereinbar war oder ist. In der Gegenwart muss die aus diesem Konflikt resultierende Spannung durch irgendwelche ungünstigen Methoden abgewehrt werden, wodurch dann die Störung entsteht, die Freud als Neurose bezeichnet. Als Beispiel soll die Geschichte des “kleinen Hans” dienen, einer Fallbeschreibung Freuds vom einem kleinen Jungen mit der Angst vor Pferden. Laut Freud hatte der Junge den so genannten Ödipus-Konflikt nicht gelöst, der darin besteht, dass angeblich alle Jungen zwischen 4 und 6 Jahren sexuelles Verlangen (Es) nach ihrer Mutter verspüren, woraufhin sie aber, weil sie wissen, dass ihr Vater als Konkurrent stärker ist und das ganze auch irgendwie nicht so sein sollte (Über-Ich), Angst davor entwickeln, dass der Vater sie kastrieren wird (Kastrationsangst; hier erscheint mir die kleine Anmerkung nützlich, dass sich bei Freud eigentlich grundsätzlich alles um Sex dreht). Laut Freud entsteht das Symptom (die Angst vor Pferden) nun durch eine Verschiebung (einen von vielen verschiedenen Abwehrmechanismen) der Angst, die eigentlich auf den Vater gerichtet ist, auf Pferde. In der Fallbeschreibung wird übrigens auch kurz erwähnt, dass der kleine Hans kurz zuvor von einem Pferd getreten worden war. Aber warum sollte das schon relevant sein? Wäre ja eine viel zu naheliegende Erklärung.

Besserung ist nicht das Ziel

Sie können meinem Sarkasmus entnehmen, dass ich von dieser Therapieform nicht viel bis gar nichts halte, da sie sehr weitreichende und oft abstruse Annahmen macht, die durch keinerlei Befunde der Psychologie gestützt werden. Denn der Psychoanalyse mangelt es im Gegensatz zur Psychologie stark an Wissenschaftlichkeit: Ihr fehlt vor allem das Kriterium der Falsifizierbarkeit, was bedeutet, dass sie keine eindeutigen Aussagen liefert, die man derart überprüfen könnte, dass man je nach Ergebnis die Theorie entweder bestätigen oder verwerfen könnte. Mit anderen Worten. Zudem besitzt die Psychoanalyse die Fähigkeit, psychische Störungen zu verschlimmern, anstatt sie zu heilen. Wie schon der Psychologe Eysenck im Jahr 1952 in einer auf Krankenversicherungsdaten basierenden, zusammenfassenden Studie eindrucksvoll darlegt, liegt der Heilingserfolg der Psychoanalyse nahe 0 bzw. übersteigt nicht das, was durch Zufall zu erwarten wäre. Dies gab die Initialzündung dafür, dass vor ca. 60 Jahren immer mehr Psychotherapien tatsächlich innerhalb der wissenschaftlichen Psychologie entwickelt wurden und der Psychoanalyse zunehmend Konkurrenz machten. Der riesige Vorteil dieser neuen Verfahren war der, dass diese stets auf wissenschaftlichen Theorien basierten und die Wirksamkeitsüberprüfung im Selbstverständnis der Psychologen bereits fest verankert war. Seit damals hat sich die Psychoanalyse ziemlich stark gegen weitere Wirksamkeitsforschung gewehrt (wen wundert’s?), was aber auch auf einen wichtigen konzeptuellen Unterschied zu anderen Psychotherapieformen zurückzuführen ist: Anders als die Kognitive Verhaltenstherapie oder die Gesprächspsychotherapie verfolgt die Psychoanalyse auch gar nicht das Ziel, dass es dem Patienten am Ende besser geht, also sich die Symotome reduzieren. Das Ziel besteht darin, dem Patienten Einsicht in seine (vermeintlichen) intrapsychischen Konflikte zu geben, damit dieser sich selbst “besser verstehen” kann. Die Annahme ist, dass dies hinreichend zur Verbesserung ist. Die Realität sieht so aus, dass Patienten meist nach mehreren Jahren Analyse keinen Schritt weiter, sondern eher noch mehr belastet sind durch die Kenntnis über all die (angeblichen) ungelösten Konflikte, die sie mit sich herumtragen. An dieser Stelle sei der Unterschied zur KVT und zur Gesprächspsychotherapie noch einmal ganz deutlich gemacht: Diese Verfahren analysieren das Verhalten und Erleben des Patienten auch, aber auf andere Weise, als die Psychoanalyse es tut. Zum einen wird auf so bizarre Elemente wie den Ödipuskomplex, Kastrationsangst und intrapsychische Konflikte verzichtet, zum anderen orientiert sich die Analyse (von typischen, eingefahrenen Verhaltens- sowie Denkmustern) immer daran, was man in der Folge auch therapeutisch verändern kann, um eben nicht ewig auf der meist lange zurückliegenden Ursache der Störung herumzureiten, sondern nach vorne zu blicken und die Aufrechterhaltung der Störung zu durchbrechen.

Weiterentwicklung: Tiefenpsychologisch fundierte Psychotherapie

Dass die Psychoanalyse, unter dem Label “Analytische Psychotherapie”, in Deutschland zu den Psychotherapieverfahren gehört, die von den Krankenkassen übernommen werden, liegt übrigens nicht etwa an ihrer wissenschaftlichen Basiertheit, sondern vor allem an der großen Lobby, die diese Richtung in Deutschland lange Zeit hatte. Die klassische Psychoanalyse ist heute nur noch sehr selten anzutreffen und ist hauptsächlich unter Ärzten (also hauptsächlich Psychiatern) noch relativ weit verbreitet, eben weil Freud selbst auch Arzt war. “Psychoanalyse” muss allerdings nicht zwangsweise bedeuten, dass die Lehre von Freud angewandt wird. Freud hatte viele Schüler, die im Laufe ihres Lebens ihre eigenen psychoanalytischen Theorien entwickelt und sich dabei größtenteils deutlich von Freuds Lehre distanziert haben – hierzu zählen z.B. Alfred Adler und Carl Gustav Jung. Abgesehen hiervon gibt es aber auch sehr moderne Weiterentwicklungen der Psychoanalyse, die unter dem Sammelbegriff der “Psychodynamischen Psychotherapie” oder der “Tiefenpsychologisch fundierten Therapie” (das ist der offizielle Name der Therapieform im deutschen Gesundheitssystem, die neben der Verhaltenstherapie und der Analytischen Psychotherapie von den Krankenkassen übernommen wird) zusammengefasst werden. Diese haben oft nur noch sehr rudimentäre Ähnlichkeit mit Freuds Ideen und sehen auch eine ganz andere, von mehr Empathie und Gleichberechtigung geprägte Interaktion zwischen Therapeut und Patient vor (unter anderem sitzt der Patient dem Therapeuten gegenüber und liegt nicht). Die Gemeinsamkeit beschränkt sich meist auf die Annahme von ungelösten Konflikten, die ihren Ursprung in der Kindheit haben. Im Gegensatz zur Psychoanalyse begnügt man sich aber nicht nur mit der Einsicht des Patienten, sondern strebt auch eine Veränderung an. In diesem Sinne sind viele moderne psychodynamische Therapieformen der KVT oder der Gesprächspsychotherapie zumindest oberflächlich gesehen recht ähnlich. Eine weitere Errungenschaft dieser weiterentwickelten Therapieform ist die Psychotherapieforschung, die die Wirksamkeit zumindest einiger dieser neuen Verfahren inzwischen belegt hat, was tvor allem auf einige manualisierte, psychodynamische Kurzzeittherapien zutrifft.

Die Begriffe noch einmal im Überblick

Um noch einmal die Begrifflichkeiten zusammenzufassen: Klinische Psychologen sind solche, die sich im Studium und in der darauf folgenden Berufstätigkeit auf psychische Störungen spezialisiert haben. Sie sind in der Regel Experten für das Erscheinungsbild und die Diagnostik psychischer Störungen und kennen sich mit den Ursachen aus. Auch von Psychotherapie haben sie normalerweise eine Menge Ahnung, dürfen diese aber nur im Rahmen einer postgradualen (d.h. nach dem Master- oder Diplomabschluss ansetzenden) Ausbildung zum Psychologischen Psychotherapeuten oder eben nach deren erfolgreichem Abschluss ausüben, d.h. nach Erteilung der Heilbefugnis (Approbation). Die meisten Klinischen Psychologen sind auch Psychotherapeuten, sodass sich eine große Überlappung ergibt. Psychotherapeuten können derweil entweder kognitiv-verhaltenstherapeutisch, psychoanalytisch, humanistisch oder systemisch (eine weitere, vor allem in der Kinder- und Familientherapie anzutreffende Richtung, auf deren Darstellung ich hier aus Sparsamkeitsgründen verzichtet habe) orientiert sein. Psychiater, die psychotherapeutisch tätig sind, haben derweil meist eine psychodynamische Orientierung.

Übrigens

Als Begründer der Psychologie als experimentell orientierte, empirische Wissenschaft wird Wilhelm Wundt (1832-1920) angesehen, der 1879 das erste “Institut für Experimentelle Psychologie” gründete, was oftmals als Geburtsstunde der Psychologie betrachtet wird. Wundt war sowohl durch die Physiologie als auch durch die Philosophie geprägt – was erklärt, dass die Psychologie bis heute mit beidem verwandt ist. Sigmund Freuds Verdienste habe ich derweil oben in Auszügen beschrieben. Was viele über ihn allerdings nicht wissen, ist, dass Freud stark kokainabhängig und ein extremer Kettenraucher war. Während er es zu Lebzeiten schaffte, vom Kokain loszukommen, blieb er bis zu seinem Tod stark nikotinabhängig und erkrankte vermutlich infolge dessen schwer an Kieferkrebs. Von dieser extrem qualvollen Erkrankung gezeichnet, setzte er 1939 im Londoner Exil (Freud war, obwohl atheistischer Religionskritiker, jüdischer Abstammung) seinem Leben ein Ende. So kann es eben leider auch enden. Und so endet auch die vierteilige Reihe von Artikeln darüber, was Psychologie ist und was nicht.

Jenseits psychischer Störungen: Wo Psychologen sich sonst noch überall auskennen

Im vorherigen Artikel habe ich dargestellt, warum Psychologen ebenso wie Physiker, Chemiker, Biologen oder Soziologen Ahnung davon haben, wie man (Natur-)Wissenschaft betreibt und daraus abgeleitetes Wissen dahingehend beurteilen kann, ob es vertrauenswürdig ist oder nicht. In diesem Artikel soll es nun darum gehen, wovon Psychologen neben ihrer wissenschaftlichen Kompetenz sonst noch so Ahnung haben und in welche beruflichen Bereiche verschiedene Schwerpunktsetzungen und Spezialisierungen führen können. Dabei nutze ich diesen Artikel ganz bewusst, um all die Bereiche vorzustellen, die nichts direkt mit psychischen Störungen zu tun haben (was ja leider die verbreitete Auffassung über den Inhalt des Psychologiestudiums ist). Die Klinische Psychologie werde ich daher gesondert im nächsten Artikel vorstellen und diese Gelegenheit nutzen, um endlich das größte Irrtum überhaupt aufzuklären. Aber nun zurück zu den vielen anderen Unterbereichen der Psychologie, bei deren Darstellung ich mich in etwa an die Reihenfolge im Studium halten und mich von den Grundlagen- zu den Anwendungsfächern bewegen werde.

Allgemeine Psychologie & Kognitive Neurowissenschaft

Dieses Grundlagenfach mit dem Doppelnamen, unter das ich die Fächer “Biologische Psychologie” und “Physiologie” einmal subsumieren möchte, betrachtet den Menschen als Wesen, das Informationen aus seiner Umwelt verarbeitet und interessiert sich im Groben für die Art und Weise, wie diese Informationsverarbeitungsprozesse im Gehirn ablaufen. Daher gehört hierzu als Thema zu allererst die Wahrnehmung – von unseren Sinnesorganen bis zu den höchsten Verarbeitungsstufen im Gehirn. Dabei stößt man dann z.B. auf Gehirnareale, die auf die Verarbeitung von Gesichtern oder Schachmustern spezialisiert sind oder erfährt etwas über spezielle, auf Hirnschäden zurückgehende Störungen der Wahrnehmung, wie z.B. die Prosopagnosie – die Unfähigkeit, Gesichter wahrzunehmen und zu unterscheiden (wobei die visuelle Verarbeitung ansonsten völlig intakt ist). Eine weitere wichtige Sparte in diesem Fach ist das Gedächtnis. So lernt man im Studium beispielsweise Modelle über den Aufbau und die Funktionsweisen der verschiedenen Teile unseres Gedächtnisses (u.a. Arbeitsgedächtnis & Langzeitgedächtnis) kennen, ebenso wie natürlich die dazu gehörigen Forschungsmethoden und Störungen des Gedächtnisses (Amnesien und Demenzen). Eine Studie, die sich mit den dem Gedächtnis zugrunde liegenden Prozessen im Gehirn beschäftigt, habe ich im vorletzten Artikel beschrieben. Des Weiteren gehören zu diesem Fach die Themen Aufmerksamkeit, Denken & Problemlösen, Emotion & Motivation und Sprache. Ja, Psychologen beschäftigen sich auch intensiv mit der menschlichen Sprache, was kaum jemand weiß. Dabei sind die Fragen danach, wie wir im Gehirn Sprache verarbeiten (sowohl verstehen als auch selbst produzieren) ein ziemlich altes und sehr etabliertes Forschungsgebiet der Psychologie. Und auch hierzu gehört natürlich die Kenntnis über Störungen der Sprache (genannt Aphasien), die z.B. nach Schlaganfällen auftreten können.

Insgesamt erklärt sich aus der Existenz dieses Faches, warum alle Psychologen in ihrem Studium eine Menge von Dingen lernen müssen, die z.B. Medizinstudierenden auch begegnen. So kommt keiner durchs Psychologiestudium, ohne ziemlich genau den Aufbau des Gehirns und die Funktion verschiedener Gehirnareale, den Aufbau des gesamten Nervensystems, die Funktionsweise seiner Nervenzellen, die Eigenschaften von Hormonen und Neurotransmittern und die Funktionsweise von Untersuchungsverfahren für das Gehirn (EEG, MEG, PET, fMRT, etc.) zu kennen. Da man die Wege der Wahrnehmung kennen muss, gehört auch die Kenntnis des Aufbaus unserer Sinnesorgane (Augen, Ohren inkl. Gleichgewichtsorgan, Nase, Zunge, Berührungs- und Schmerzwahrnehmung) dazu. Wenn man sich auf diesem Gebiet spezialisiert, landet man als Psychologe entweder in der Wissenschaft und forscht zu einem der beschriebenen Themen, oder aber man ergreift das praktische Berufsfeld des Neuropsychologen, dessen Tätigkeit die präzise Diagnostik und darauf folgende Therapie von neurologisch bedingten Störungen in den oben beschriebenen Bereichen ist, wie sie z.B. nach einem Schlaganfall auftreten.

Entwicklungspsychologie

In diesem Fach lernt man im Wesentlichen, wie die normale psychische Entwicklung bei Kindern ablaufen sollte und ab wann etwas als nicht mehr normal anzusehen ist. Hierzu gehören z.B. die sprachliche Entwicklung, die kognitive und Intelligenzentwicklung, die emotionale Entwicklung und auch die Entwicklung motorischer Fähigkeiten. Ein zentraler, für die Praxis relevanter Punkt ist hierbei das Erkennen von Entwicklungsverzögerungen, die beispielsweise auf eine geistige Behinderung oder eine tiefgreifende Entwicklungsstörung hinweisen können. Die Entwicklungspsychologie hat aber auch sehr interessante Experimente zu bieten, die uns eine Einsicht darin gewähren, wie kleine Menschen die Welt um sich herum so wahrnehmen. Bekannt geworden ist vor allem der “Spiegeltest”, bei dem man schaut, wie ein Kind auf sein Spiegelbild reagiert, d.h. ob es erkennt, dass es sich selbst betrachtet. Dieses Erkennen setzt das Vorhandenensein eines Selbstkonzeptes voraus, d.h. eines “Ich-Bewusstseins”. Dieses weisen Kinder in der Regel im Verlauf des zweiten Lebensjahres auf, was man im Spiegeltest z.B. damit nachweisen kann, dass das Kind sich einen roten Punkt, den man ihm auf die Stirn geklebt hat, selbst wieder abnimmt. Das Fehlen dieses Selbstkonzeptes wird übrigens auch als eine Ursache für das Phänomen diskutiert, dass wir uns an unsere ersten 2 Lebensjahre in der Regel nicht erinnern können – weil vorher Erinnerungen nicht in Bezug auf das Selbst abgespeichert werden können (was wiederum nötig ist, um sie später im Leben noch abrufen zu können).

Zeitlich nach dem Selbstkonzept entwickelt sich derweil erst die Theory of Mind, die, kurz gesagt, die Fähigkeit beschreibt, anderen Menschen Gedanken, Absichten, etc. zuzuschreiben und hierauf zu reagieren (eine Fähigkeit, die bei z.B. bei Autismus eingeschränkt ist). Der bekannteste wissenschaftliche Vertreter der Entwicklungspsychologie ist sicherlich bis heute Jean Piaget, dessen Befunde zur kognitiven Entwicklung von Kindern großen Einfluss auf die Pädagogik genommen haben. Allerdings deutet inzwischen eine Vielzahl von neueren Forschungsergebnissen darauf hin, dass Piaget, ganz grob gesagt, die kognitiven Fähigkeiten von Kleinkindern stark unterschätzt hat. Psychologen, die sich heutzutage in der Entwicklungspsychologie spezialisieren, sind entweder auch in der Forschung tätig oder üben ähnliche diagnostische Tätigkeiten wie Neuropsychologen aus, nur eben mit Kindern. Das Fach ist zudem mit der Pädagogischen Psychologie verwandt (siehe weiter unten).

Sozialpsychologie

Wie schon im vorletzten Artikel vorgestellt, beschäftigt sich die Sozialpsychologie damit, wie das menschliche Verhalten und Erleben durch das Verhalten anderer Menschen, oder, allgemeiner gesagt, durch soziale Situationen beeinflusst wird. Aus der Sozialpsychologie stammt z.B. viel Forschung dazu, wie sich Menschen in Gruppen verhalten und wie insbesondere immenser sozialer Druck (z.B. durch Befehle in einem autoritären System) das Verhalten von Menschen auch gegen deren eigene Überzeugungen oder Persönlichkeitseigenschaften steuern können. So waren nach dem zweiten Weltkrieg viele Studien davon geprägt, dass man verstehen wollte, wie es in Deutschland zu einer so verheerenden Kastastrophe wie dem Emporkommen der Nazis und der Shoa kommen konnte. Viele dieser Experimente haben auch in der Laiengesellschaft große Berühmtheit erlangt, darunter z.B. das Stanford-Gefängnisexperiment von Zimbardo aus dem Jahr 1971.

Zimbardo untersuchte unter realistischen Bedingungen, wie Probanden, denen zufällig entweder die Rolle eines Insassen oder eines Gefängniswärters zugewiesen wurde, sich über die Zeit hinweg verhielten, wenn sie selbst während des gesamten Experiments anonym handelten. Das Experiment lieferte jedoch so massive Einblicke in die Grausamkeiten menschlichen Verhaltens (Gewaltexzesse, Folter…), dass es vorzeitig abgebrochen wurde. Es hat jedoch gezeigt, wie groß der Einfluss von Regeln und Vorschriften sowie von Anonymität (bzw. Deindividuierung) und der Übernahme einer Rolle (Insasse vs. Gefängniswärter) auf zwischenmenschliches Verhalten ist. Die gewaltsamen Exkalation des Experiments hat nicht zuletzt auch dazu beigetragen, dass die Ethikrichtlinien für psychologische Forschung sehr viel strenger geworden sind. Heutzutage ist es selbstverständlich, dass die Teilnehmer an einem psychologischen Experiment vor ihrer Zustimmung zur Teilnahme über das informiert werden, was passieren wird (informed consent), dass ihnen kein Schaden zukommt und dass sie jederzeit aus dem Experiment aussteigen können. Sozialpsychologen sind typischerweise Wissenschaftler, eine praktische Berufsrichtung gibt es nicht direkt. Allerdings werden sehr viele sozialpsychologische Ergebnisse in der Organisationspsychologie, einem primär anwendungsorienerten Fach, das ich gleich noch vorstellen werde, verwendet.

Differentielle Psychologie bzw. Persönlichkeitspsychologie

Im Gegensatz zur Sozialpsychologie versucht dieses Fach, das Verhalten von Personen nicht durch die soziale Situation zu erklären, sondern durch relativ stabile, der Person innewohnende Persönlichkeits- oder Charaktereigenschaften (auf Englisch traits). Sie untersucht daher zum einen, in welchen Eigenschaften sich Personen unterscheiden (das meint differentielle Psychologie), und zum anderen, welcher Art der Zusammenhang zwischen Persönlichkeitseigenschaften und tatsächlichem Verhalten ist. Zum ersten Thema ist der wohl bekannteste, auf Faktorenanalysen beruhende Befund der “Big 5” zu nennen  –  fünf globaler Eigenschaften, unter denen sich sämtliche Charaktereigenschaften, die wir im Alltag zur Beschreibung einer Person verwenden, zusammenfassen lassen. Eine Beschreibung der Big 5 finden Sie hier. Zum zweiten Thema lässt sich sagen, dass Persönlichkeitseigenschaften zwar nicht irrelevant in der Vorhersage von Verhalten sind (dass ein introvertierter Mensch freitags abends eher nicht in die Disco gehen wird, leuchtet ein), jedoch keine so guten Vorhersagen liefern wie persönliche Motive, die manche ebenfalls zur Persönlichkeitspsychologie rechnen und andere eher zur Allgemeinen Psychologie. Eine weitere ganz zentrale Domäne der Differentiellen Psychologie (und wahrscheinlich die am besten erforschte) ist außerdem die Intelligenz, inklusive ihrer Unterformen und Facetten. Die Erkenntnisse der Persönlichkeitspsychologie werden sowohl in der Arbeits- und Organisationspsychologie (z.B. als Variablen zur Beurteilung der Passung zwischen Bewerber und Arbeitsplatz) als auch in der klinischen Psychologie und Psychotherapie (z.B. als relevanter Faktor in Bezug auf die Entstehung einer psychischen Störung) sowie in der forensischen Psychologie (Warum werden Menschen kriminell?) genutzt.

Psychologische Diagnostik

In diesem Fach lernt man nicht primär, psychische Störungen zu diagnostizieren, sondern es geht darum, wie sich verschiedene Merkmale einer Person durch Tests, Fragebögen, Verhaltensbeobachtung, zielorientierte Gesprächsführung etc. erfassen bzw. möglichst verlässlich und präzise messen lassen. Die wichtigsten Mermale hierbei sind die allgemeine Intelligenz (auch bezeichnet als kognitive Leistungsfähigkeit) sowie ihre verschiedenenen Unterfacetten und die Persönlichkeitsstruktur einer Person (Charaktereigenschaften, Einstellungen, Motive, etc.). Darüber hinaus gibt es natürlich Tests, die weitere kognitive Leistungen wie Aufmerksamkeit und Konzentration messen, und klinische Fragebögen, die Symptome verschiedener psychischer Störungen erfassen. Zum Fach “Psychologische Diagnostik” gehört auch die Testtheorie, die sich damit beschäftigt, wie man solche psychologische Tests konstruiert, die gültige Aussagen über eine Person liefern. Was man unter psychometrischen Gütekriterien versteht, die solche Tests erfüllen müssen, können sie hier nachlesen; was Beispiele für gute und schlechte Tests sind, finden Sie zudem hier bzw. hier erklärt. Die Kenntnis darüber, wie man solche Tests und Fragebögen konstruiert (was alles andere als trivial ist), erachte ich neben den grundlegenden wissenschaftlichen und statistischen Kenntnissen als eine der wertvollsten, die man sich im Psychologiestudium aneignet.

Im Rahmen der psychologischen Diagnostik gibt es eine Menge von beruflichen Anwendungsfeldern. So kommen diagnostische Verfahren z.B. in der Auswahl von Bewerbern zum Einsatz, oft im Rahmen von Assessment Centern. Ebenso ist psychologische Diagnostik z.B. bei der Agentur für Arbeit oder bei Berufsförderungswerken gefragt, um zu entscheiden, ob z.B. jemand für eine bestimmte Umschulung geeignet ist. Ebenso ergänzen standardisierte klinisch-diagnostische Verfahren die Diagnostik in der Psychotherapie. Ein wichtiges Anwendungsfeld der psychologischen Diagnostik ist zudem die Verkehrspsychologie: Im Rahmen der medizinisch-psychologischen Untersuchung (kurz MPU, auch bekannt als “Idiotentest”) spielen die diagnostischen Kompetenzen von Psychologen eine entscheidende Rolle dabei, z.B. zu beurteilen, ob auffällig gewordenen Verkehrsteilnehmern die Fahrerlaubnis wieder erteilt werden sollte oder nicht. Viele Psychologen sind zudem auch als Gutachter vor Gericht tätig, wobei die Themen sehr verschieden sein und von Sorgerechtsentscheidungen (“Was entspricht dem Wohl des Kindes?”) über verkehrspsychologische Fragestellungen bis hin zur Glaubhaftigkeitseinschätzung von Zeugenaussagen reichen können. Bei solchen Fragenstellungen werden, um die diagnostischen Fragen zu beantworten, dann eher bestimmte diagnostische Gesprächsführungstechniken als Tests und Fragebögen zum Einsatz kommen, die ebenfalls Teil der Ausbildung in psychologischer Diagnostik sind und welche daher auch zum absoluten Standardrepertoire eines jeden Psychologen gehören.

Arbeits- & Organisationspsychologie

Dieses, neben der Klinischen Psychologie zweite große Anwendungsfach der Psychologie wendet psychologische Erkenntnisse in der Arbeitswelt an. Die Arbeitspsychologie fußt dabei eher auf der Allgemeinen Psychologie und ist konzeptuell mit den Ingenieurwissenschaften verwandt. So kümmern sich Arbeitspsychologen z.B. darum, Arbeitsabläufe in einer Fertigungshalle zu optimieren, Maschinen ergonomisch zu gestalten (also so, dass die Bedienbarkeit möglichst an den Menschen angepasst wird) oder Arbeitsabläufe durch Veränderungen an Menschen und Maschinen sicherer zu machen. Die Organisationspsychologie beschäftigt sich derweil hauptsächlich mit dem Personal (genannt human resources) in einer Organisation (meist einem Unternehmen) und basiert stark auf der Sozialpsychologie. Wichtige Felder innerhalb der Organisationspsychologie sind die Personalauswahl (wofür diagnostisch-psychologische Kenntnisse besonders wichtig sind, siehe oben) und die Personalentwicklung, die darauf abzielt, die Kompetenzen vorhandener Mitarbeiter durch Trainings- und Coachingmaßnahmen auszubauen, damit diese z.B. überzeugender auftreten oder besser mit Kunden interagieren können – ergo, um dem Unternehmen mehr Profit zu bringen. Zentral ist auch die Anwendung der sozialpsychologischen Befunde zur Gruppeninteraktion, da Teamarbeit in der freien Wirtschaft gerade absolut en vogue ist. Angegliedert an dieses Fach ist auch die Wirtschaftspsychologie, die sich z.B. mit Werbetechniken und den psychologischen Prozessen beschäftigt, die Phänome wie der Finanzkrise erklären können.

Pädagogische Psychologie

Auch wenn ich (Achtung Sarkasmus) im Studium nicht so richtig die Daseinsberechtigung dieses weiteren Anwendungsfaches verstanden habe, was ich größtenteils auf seine allumfassende Schwammigkeit zurückführe, möchte ich hier kurz beschreiben, worum es so in etwa geht. Die Pädagogische Psychologie (kurz PP) könnte man am ehesten als die empirische Mutter der Pädagogik bezeichnen – d.h., das, was angehende Lehrer in ihrem Studium lernen, basiert zu einem Großteil auf Befunden der PP. So werden z.B. die optimale Interaktion zwischen Lehrern und Lernenden oder die effektivste Art der Wissensvermittlung untersucht (ironischerweise genau das, was ich hier gerade tue). Daraus abgeleitet ist auch die Forschung zu den Merkmalen, die eine effektive Beratung kennzeichnen. Zudem ist ein weiterer Zweig der PP die Hochbegabungsforschung, die sich vor allem mit der Vorhersage und der Förderung von Hochbegabung beschäftigt. Die Anwendungsbereiche der PP sind vielfältig. Psychologen mit dieser Orientierung arbeiten z.B. in Erziehungs- oder Paarberatungsstellen, in der Hochbegabtenförderung oder in Schulen als Schulpsychologen, die meistens aber eine hoch undankbare Stellung zwischen Lehrern und Schülern einnehmen.

Soft-Skills: Gesprächsführung, soziale Kompetenzen & Co.

Wie in fast jedem Studium auch nimmt man aus dem Psychologiestudium eine Menge so genannter soft skills mit, also Fertigkeiten und Kompetenzen, die man mehr oder weniger automatisch mit auf den Weg bekommt. Dazu gehören bei Psychologen vor allem soziale Kompetenzen, sowohl eine effektive Teamarbeit betreffend als auch z.B. das selbstsichere Auftreten und Sprechen beim Halten einer Referatspräsentation vor anderen. Gesprächsführung ist, wie oben ja schon mehrfach angeklungen ist, wohl im Psychologiestudium die kennzeichnendste dieser Fertigkeiten, die je nach Uni unterschiedlich ausführlich vermittelt wird. Gemeint ist damit zum einen die diagnostische Gesprächsführung, mit der man möglichst viel über einen Menschen erfahren will, und zum anderen die therapeutische Gesprächsführung, die darauf abzielt, Veränderungsmotivation aufzubauen (“Motivational Interviewing”), Dinge zu hinterfragen und Veränderungen einzuleiten. Diese Grundlagen schon im Studium zu erlernen, ist sinnvoll, da man, wenn man z.B. anschließend noch die Ausbildung zum Psychologischen Psychotherapeuten machen will, auch schon zu Beginn der Ausbildung relativ selbstständig Therapien durchführen muss. Und auch in anderen Bereichen wie der Beratung oder der Personalentwicklung ist Gesprächsführung das Werkzeug Nr 1. Letztlich ist diese, neben der wissenschaftlichen Kompetenz und dem breiten Fachwissen, diejenige Kompetenz, für an Psychologen in der Arbeitswelt am meisten geschätzt wird. Und auch wenn es sich trivial anhört (“Gespräche führen kann doch jeder”), so ist es alles andere als das – was jeder schnell merkt, der es sich zu einfach vorstellt und dann vollends gegen die Wand fährt.

Und um zum Cliché des Analysierens zurückzukehren, ist zumindest mein Eindruck, dass man nach dem Studium einen anderen Blick auf Menschen hat. Man hinterfragt viel mehr, warum Menschen sich so verhalten, wie sie es tun, macht sich Gedanken über die bewussten oder unbewussten Ziele, die jene damit verfolgen, und fragt sich vielleicht auch, welche Erfahrungen in der Vergangenheit die Person zu dem gemacht haben, was sie heute ist. So kommt man z.B. eher als andere Menschen auf die Idee, dass ein angeberisches, egoistisches A*schloch vielleicht über eine narzisstische Persönlichkeitsstörung verfügt, die eigentlich auf einem furchtbar niedrigen Selbstwert fußt. Ob man denjenigen danach weniger hasst, ist die andere Frage. Als Psychologe muss man dann meiner Erfahrung nach in zweierlei Hinsicht aufpassen. Erstens muss man in der Lage sein, den “analytischen Blick” ausschalten zu können, weil sich Freunde oder Familie sonst zurecht in die Ecke gedrängt fühlen werden. Zweitens muss man aufpassen, sich selbst nicht zu stark zu “analysieren”, da man unglaublich schnell auf Dinge stößt, die man vielleicht aufgrund seines Fachwissens als gefährlich einstuft. Meine Erfahrung ist, dass man darüber sehr schnell ins Grübeln kommt und man sich in der Folge schlecht fühlt, weshalb es wichtig ist, sich von solchen Gedanken auch wieder distanzieren zu können. Was ich hier mit “analysieren” meine, ist übrigens nicht dasselbe, was Sigmund Freud hierunter verstanden hat. Darüber erfahren Sie mehr im nächsten Artikel.

Eine weitere wichtige Sache, die man im Psychologiestudium lernt, ist, mit der Situation umzugehen, dass man permanentem Leistungsdruck ausgesetzt ist, der einerseits aufgrund der extrem hohen Anforderungen und des massiven Lernaufwands (der meistens leider ein Auswendiglern-Aufwand ist) objektiv besteht, aber andererseits durch die Charakteristika der Menschen, die Psychologie studieren, noch verschlimmert wird. Stellen Sie sich vor, Sie sind in der Mehrzahl von Leuten umgeben, die ihr Abitur mit ca. 1,3 oder besser gemacht haben (oder im Masterstudium ihren Bachelor, was nochmal eine ganz andere Hausnummer ist). Im Normalfall sind das nicht die sympathischsten Menschen: Viele sind von ihrem Ehrgeiz leider so besessen, dass das inhaltliche Interesse am Fach in den Hintergrund rückt. Hauptsache top-Noten und Hauptsache besser als die anderen. Sie können sich vorstellen, was für Themen Sie in der Cafeteria erwarten, wenn man es nicht schafft, sich ein paar normale Freunde zu suchen. In der Folge und zum Abschluss ein kleiner typischer, von mir mit Sarkasmus und Zynismus gespickter Dialog, der einem dort begegnen könnte:

“Und, was hattest du für eine Note in Physiologie? Ich hatte ja eine 1,3.” (Gedanklich: “Wehe, die blöde Kuh hat was Besseres!”)

“Ich hatte eine 1,0, dabei war ich mir totaaal sicher, dass ich durchgefallen bin, hihi!” (Gedanklich: “Chakka!”)

“Hey cool, herzlichen Glückwunsch! Vielleicht sollte ich mal zur Klausureinsicht gehen, um zu gucken, ob die vielleicht was übersehen haben” (Gedanklich: “Dass diese dumme Pute besser ist als ich, geht einfach mal GAR nicht. Ich hasse sie!”)

“Ja, mach das doch. Hast du denn eigentlich schon angefangen, für Entwicklungspsychologie zu lernen?” (Gedanklich: “Hoffentlich bin ich ihr schon um Meilen voraus!”)

“Ja klar, bin schon längst fertig und muss nur nochmal wiederholen; jetzt erst anzufangen mit dem Auswendiglernen, wäre ja wohl von vornherein zum Scheitern verurteilt” (Gedanklich: “Als ob ich der jetzt auch noch den Trumpf erlauben würde! Warum sollte ich ihr sagen, dass ich erst vorgestern angefangen habe?”)

“Achso, ja cool. Ich komme auch super voran” (Gedanklich: “Mist, ich muss mich echt beeilen – Wie soll ich das bloß schaffen? Ich verkacke bestimmt und schreibe eine 2,0 oder so. Ich bin einfach zu dumm!”)

Ergebnis: Beide fühlen sich beschissen.

Wie Sie sehen: In dieser widrigen Umwelt muss man sich erst einmal zurechtfinden. Daher ist vielleicht das Wichtigste, das man im Psychologiestudium lernt, an sich selbst zu glauben. Aber der Fairness halber muss ich doch sagen, dass zum Glück nicht alle so drauf sind und ich in meinem Studium bisher auf viele sehr nette Leute gestoßen bin:-).

© Christian Rupp 2013

Warum Psychologie mehr mit Mathematik als mit einer Couch zu tun hat

Die landläufige Ansicht ist die, dass man, wenn man Psychologie studiert, vor allem lernt, andere Menschen zu analysieren und dass man in beruflicher Hinsicht grundsätzlich nur mit psychisch Kranken (“Verrückten”) zu tun hat. Nun, liebe Leserin bzw. lieber Leser – dies könnte nicht weiter an der Realität vorbei gehen. Was jedoch zutrifft, ist, dass auch ein sehr großer Teil derjenigen, die sich nach dem Abitur für ein Psychologiestudium entscheiden, diese Entscheidung auf Basis eines ähnlich falschen Bildes trifft und sich dann im ersten Semester wundert, warum irgendwie niemand ihnen etwas von Traumdeutung von verdrängten Bedürfnissen erzählt.

Wenn man sich die Inhalte des Psychologiestudiums ansieht, stellt man fest: Knapp die Hälfte der Lehrinhalte besteht aus Methodenlehre, Statistik, experimentellen Forschungspraktika und Dingen wie Testtheorie, Fragebogenkonstruktion und wissenschaftlicher Datenanalyse – mit anderen Worten: aus jeder Menge Mathematik und Computerarbeit. Zudem muss man das Studium mit einer eigenen wissenschaftlichen Arbeit (der Bachelor- und Masterarbeit oder im alten Diplomstudiengang der Diplomarbeit) abschließen, für die jeweils eine eigene empirische Untersuchung durchgeführt und ausgewertet werden muss. Wozu nun das ganze? Nun, wie schon im vorausgehenden Artikel beschrieben, ist die Psychologie eine empirische Naturwissenschaft, und ein wesentliches Hauptziel des Studiums besteht darin, die Studierenden zu Naturwissenschaftlern auszubilden – mit allem, was dazu gehört. Konkret bedeutet dies zweierlei: die Kenntnis wissenschaftlicher Methoden und Kenntnisse in der statistischen Datenanalyse.

Erstens gilt es (grob gesagt), sich Expertise darüber anzueignen, wie man welchen Forschungsfragen auf den Grund gehen kann. Hierzu gehört die komplette Gestaltung einer solchen Studie bzw. eines solchen Experiments, aus dem man dann am Ende auch tatsächlich aussagekräftige Schlussfolgerungen ziehen kann. Und das tatsächlich hinzubekommen, ist alles andere als leicht und rechtfertigt durchaus, dass nicht nur in den Methodenfächern selbst (die dann so schöne Namen haben wie “Forschungsmethoden der Psychologie”, “Versuchsplanung” oder “experimentelles Forschungspraktikum”), sondern in allen Fächern Wert darauf gelegt wird, die Prinzipien guter psychologischer Forschung deutlich zu machen. Im Hinblick auf das, was man bei der Planung eines psychologischen Experiments alles falsch machen kann, sind vor allem die interne und externe Validität zu nennen. Nehmen wir als Beispiel ein Experiment, in dem der Einfluss der Arbeitsbelastung auf das Stressempfinden von Probanden untersucht werden soll (eine ganz typische psychologische Fragestellung: Was ist der Einfluss von X auf Y?).

Interne Validität: Welchen Einfluss untersuche ich?

Die interne Validität ist gegeben, wenn Veränderungen in der abhängigen Variablen (Stressempfinden) ausschließlich auf die experimentelle Manipulation (also vom Versuchsleiter gesteuerte Veränderung) der unabhängigen Variablen (Arbeitsbelastung) zurückzuführen sind. Wenn aber in der Situation des Experiments noch andere Einflüsse vorhanden sind (so genannte Störvariablen), z.B. zusätzlicher Druck durch andere Probanden im selben Raum, dann weiß man ganz schnell schon nicht mehr, worauf etwaige Veränderungen der abhängigen Variablen (Stressempfinden) zurückzuführen sind: auf die experimentell kontrollierte Arbeitsbelastung oder auf die Anwesenheit der anderen Probanden? In diesem Fall ist die Lösung einfach: Jeder Proband muss einzeln getestet werden. Danach wären jedoch immer noch Einflüsse von anderen Störvariablen möglich: So könnte es z.B. eine Rolle spielen, ob der Versuchsleiter sich den Probanden gegenüber eher kühl-reserviert oder freundlich-motivierend verhält (ein so genannter Versuchsleiter-Effekt). Die Lösung hierfür wären standardisierte Instruktionen für jeden Probanden. Was ich hier beschreibe, sind, an einem sehr einfachen Beispiel dargestellt, typische Vorüberlegungen, die man vor der Durchführung einer psychologischen Studie unbedingt durchgehen sollte, um nicht am Ende ein Ergebnis ohne Aussagekraft zu haben. Wie ihr euch sicher vorstellen könnt, wird das ganze umso komplizierter, je schwieriger und spezifischer die Forschungsfrage ist. Besonders in der kognitiven Neurowissenschaft, wo es um die Untersuchung von Prozessen im Gehirn geht, kann dies schnell extreme Komplexitätsgrade annehmen. Was man daher unbedingt braucht, ist das Wissen aus der Methodenlehre, kombiniert mit spezifischem Wissen über dasjenige Fachgebiet, in dem man gerne forschen möchte.

Externe Validität: Gilt das Ergebnis für alle Menschen?

Die externe Validität ist derweil gegeben, wenn (die interne Validität vorausgesetzt), das Ergebnis der Studie verallgemeinerbar ist, d.h. repräsentativ. Dies ist vor allem eine Frage der Merkmale der Stichprobe (die Gruppe von Probanden, die man untersucht). Vor allem interessiert dabei deren Größe (bzw. Umfang), die insbesondere aus statistischer Sicht zentral ist, sowie deren Zusammensetzung. So leuchtet einem ziemlich gut ein, dass das Ergebnis einer Studie nur dann Aussagen über alle Menschen ermöglicht, wenn die Stichprobe auch repräsentativ für die Gesamtbevölkerung ist – also z.B. nicht nur weibliche Studierende einer bestimmten Altersklasse und einer bestimmten sozialen Schicht enthält. Tatsächlich konnte allerdings für sehr viele psychologische Merkmale gefunden werden, dass sie überraschend unabhängig von solchen Unterschieden sind, sodass die externe Validität häufig eine untergeordnete Rolle spielt (was allerdings auch mit daran liegt, dass es sehr aufwändig und teuer ist, repräsentative Stichproben zusammenzusetzen – Psychologiestudierende sind aufgrund der guten Verfügbarkeit einfach dankbare Versuchspersonen:-)).

Die operationale Definition: Messe ich, was ich messen will?

Neben interner und externer Validität ist auch die operationale Definition ein Punkt, an der sich gute Forschung von schlechter trennt. Gemeint ist hiermit die Übersetzung der abstrakten Variablen (unabhändige und abhängige) in konkrete, messbare Größen. Um zu meinem Beispiel von oben (Einfluss von Arbeitsbelastung auf Stressempfinden) zurückzukehren, müsste man sich also überlegen, wie man die Arbeitsbelastung und das Stressempfinden misst. Dies ist ein Punkt, der auf den ersten Blick vielleicht trivial erscheint und der einem Laien, wenn er über die Logik der Studie nachdenkt, wahrscheinlich auch nicht auffallen wird, der aber ebenfalls von zentraler Bedeutung für die Aussagekraft der Studie ist. Ebenso wie die Stichprobe repräsentativ für die Bevölkerung sein sollte, sollten die gemessene Größe (abhängige Variable) und die manipulierte Größe (unabhängige Variable) repräsentativ für das Konstrukt (Arbeitsbelastung, Stress) sein, das sich dahinter verbirgt. Die Arbeitsbelastung lässt sich noch recht einfach operational definieren – als Menge an Arbeitsaufträgen pro Stunde zum Beispiel. Aber wie sichert man, dass alle Aufträge auch wirklich gleich aufwändig sind und den Probanden gleich viel Zeit kosten? Dies ist eine Herausforderung für die Versuchsplaner. Das Stressempfinden stellt eine noch größere Herausforderung dar. Man könnte natürlich eine Blutprobe nehmen und die Konzentration des Cortisols (eines unter Stress ausgeschütteten Hormons) bestimmen. Das gibt aber nicht unbedingt den subjektiv empfundenen Stress wieder. Man könnte eben diesen mit einem eigens dafür konstruierten Fragebogen messen, der natürlich auf seine psychometrischen Gütekriterien hin überprüft werden muss (mit wie viel Aufwand und wie viel Rechnerei das verbunden ist, können sie hier nachlesen). Oder aber man lässt Fremdbeobachter den Stress der Probanden anhand deren Verhaltens einschätzen. Hierfür muss wiederum gesichert werden, dass die verschiedenen Beobachter ihre Bewertungen anhand desselben, auf beobachtbaren Verhaltensweisen basierenden Systems vornehmen und nicht irgendwelche subjektiven Einschätzungen vornehmen (das Kriterium der Objektivität). Was ich hoffe, hieran veranschaulicht zu haben, ist, dass psychologische Forschung weder trivial noch einfach ist, denn der Teufel liegt im Detail. Und von diesen kleinen Teufeln gibt es jede Menge, die man nur mit der nötigen wissenschaftlichen Expertise umgehen kann.

Statistik: Zufall oder nicht?

Die Statistik als Teilgebiet der Mathematik verdient sehr viel mehr, mit “Psychologie” in einem Atemzug genannt zu werden, als das Wort “Couch”. So komplex das Thema ist, mit dem Psychologiestudierende sich eine ganze Reihe von Semestern herumschlagen müssen, so kurz und verständlich lässt sich der Zweck erklären. Denken Sie zurück an die typischen Forschungsfragen, die die Psychologie bearbeitet. Meistens geht es darum, den Zusammenhang zwischen zwei Variablen (z.B. Intelligenz & Arbeitserfolg, siehe vorheriger Artikel) zu berechnen, eine Variable durch eine andere vorherzusagen oder im Rahmen eines Experiments systematisch den Einfluss einer unabhängigen auf eine abhängige Variable zu untersuchen. Auch hier hinterfragt der Laie typischerweise nicht, wie das geschieht – wie Forscher z.B. darauf kommen, zu behaupten, “Killer”-Spiele würden die Aggression des Spielers erhöhen. Nun, dies ist einerseits eine Frage der wissenschaftlichen Methode, wie ich oben ausführlich beschrieben habe. Doch nach dem Durchführen der Studie hat man einen Haufen Daten gesammelt – und der muss ausgewertet und analysiert werden. Zum Analysieren werden die Daten derweil nicht auf die Couch gelegt, sondern in den Computer eingegeben, konkret in typischerweise eines der beiden Programme “SPSS” oder “R”. Diese Programme ermöglichen es, für alle möglichen Formen, in denen Daten vorliegen können (und das sind sehr viele), statistische Maße zu berechnen, die den Zusammenhang zweier Variablen oder den Einfluss von einer Variablen auf die andere abbilden. Zum Fachjargon gehören bei Psychologen unter anderem (um einfach mal ein paar Begriffe ungeordnet in den Raum zu werfen) die Korrelation (von allen noch das nachvollziehbarste Maß), die multiple, logistische, hierarchische oder Poisson-Regression, das odds ratio, Kendall’s Tau-b, die Varianzanalyse oder ANOVA, das allgemeine und generalisierte lineare Modell, Faktorenanalysen, Strukturgleichungsmodelle, Survivalanalysen und viele, viele mehr.

Die Berechnung all dieser Maße ist der eine Zweck der Statistik. Der andere ist die Überprüfung der statistischen Signifikanz, die auf der Wahrscheinlichkeitstheorie und der Kenntnis ganz bestimmter Wahrscheinlichkeitsverteilungen beruht. Platt übersetzt ist ein Ergebnis einer Studie dann statistisch signifikant, wenn es nicht durch den Zufall zu erklären ist. Hierzu stellen wir uns einmal die allereinfachste Form eines psychologischen Experiments vor: den Vergleich von zwei Gruppen A und B, die sich nur anhand eines einzigen Merkmals unterscheiden – der experimentellen Manipulation der unabhängigen Variablen (z.B. Therapie ja oder nein), deren Einfluss auf eine abhängige Variable (z.B. Angst vor Spinnen) untersucht werden soll. Nach der Therapie vergleicht man A und B hinsichtlich ihrer Angst vor Spinnen und stellt fest, dass Gruppe A, die die Therapie erhalten hat, weniger Angst hat als Gruppe B, die keine Therapie erhalten hat (einen ausführlichen Artikel über die Art und Weise, wie die Wirksamkeit von Psychotherapie untersucht wird, finden Sie hier). Ein Laie würde jetzt wahrscheinlich sagen, dass die Therapie wirksam ist, vielleicht in Abhängigkeit davon, wie groß der Unterschied zwischen A und B ist. Das Tolle, das uns die Statistik ermöglicht, ist nun, zu überprüfen, ob der gefundene Unterschied zwischen den Gruppen signifikant ist, d.h. nicht durch den Zufall erklärt werden kann, der ja mitunter so einiges erklären kann. So berechnet man die konkrete Wahrscheinlichkeit dafür, dass das gefundene Ergebnis (z.B. der Gruppenunterschied zwischen A & B) durch reinen Zufall zustande gekommen ist, ohne das ein wahrer Unterschied (bzw. Effekt) vorliegt. Beträgt diese Warscheinlichkeit unter 5% (manchmal auch unter 1%), schließt man den Zufall als Erklärung aus. Achtung: Diese Festlegung der 5% oder 1%-Grenze (des so genannten Signifikanzniveaus) ist eine Konvention, keine naturgegebene Regel. Wenn der Stichprobenumfang groß genug ist (ein wichtiger Faktor bei der Überprüfung der Signifikanz), können übrigens auch schon kleine Effekte (z.B. Gruppenunterschiede) statistisch signifikant sein. Ob ein solcher kleiner Unterschied dann jedoch wirklich von Bedeutung ist, ist eine andere (inhaltliche) Frage. Wie ihr seht, erweist die Statistik uns sehr wertvolle Dienste – und auch, wenn ich sie in meinem Studium sehr häufig verflucht habe, bin ich rückblickend doch sehr froh, mit ihr jetzt vertraut zu sein.

Warum Ahnung von Wissenschaft Gold wert ist

Das allgemeine Wissen über die Prinzipien wissenschaftlicher Forschung (die nämlich in jeder Naturwissenschaft nahezu gleich sind) erachte ich als extrem wertvoll, weil es einem etwas unglaublich Wichtiges ermöglicht: zu beurteilen, welchen Quellen von Wissen man trauen kann und welchen nicht. Mit den Merkmalen von “guter”, d.h. aussagekräftiger Forschung im Kopf, ist es einem wissenschaftlich ausgebildeten Menschen möglich, zu beurteilen, ob er einer beliebigen Studie (egal, ob veröffentlicht in einer wissenschaftlichen Fachzeitschrift oder erwähnt in der Brigitte) Glauben schenken möchte. Ein solcher Mensch kann die angewandte Methode der Studie genau daraufhin überprüfen, ob die Voraussetzungen dafür geschaffen sind, dass man hieraus tatsächlich gültige Schlussfolgerungen ziehen kann (z.B. interne Validität gegeben, vernünftige operantionale Definition…). Man fällt nicht so schnell darauf rein, wenn es bei RTL in den Nachrichten heißt, Forscher von der Universität XV hätten “herausgefunden, dass…” (oder noch schlimmer: “bewiesen, dass…”), sondern fragt sich erstmal, wie die Forscher das überhaupt untersucht haben könnten und ob eine solche Aussage auf Basis der verwendeten Forschungsmethode überhaupt zulässig ist. Nicht zuletzt lernt man hierdurch, vermeintliches “Wissen”, das einem im Alltag so begegnet, dahingehend zu hinterfragen, woher es stammt bzw. worauf es basiert – eine Kenntnis von meiner Meinung nach unschätzbarem Wert, ermöglicht es einem doch z.B., der ein oder anderen bunt-schillernden esoterischen Weltanschauung etwas Handfestes entgegen zu setzen und diese als substanzlos zu entlarven. Und eben diese grundsätzliche naturwissenschaftliche Expertise ist das, was Psychologen den Vertretern anderer Fächer (Medizin und Pädagogik eingeschlossen) voraushaben, was sie wiederum aber mit der ebenfalls empirisch orientierten Soziologie verbindet. Darüber, wovon Psychologen darüber hinaus noch so Ahnung haben, wird es im nächsten Artikel gehen.

© Christian Rupp 2013

Warum Psychologen im Studium nicht lernen, ihr Gegenüber zu analysieren

Es ist das Cliché schlechthin, das in der breiten Gesellschaft über Psychologen und Psychologiestudierende kursiert, und damit verbunden ist eines der größten Irrtümer überhaupt, mit dem dieses Fach zu kämpfen hat. In diesem und im nächsten Artikel soll es darum gehen, kurz und bündig darzustellen, was man im Studium der Psychologie wirklich lernt, was beispielhafte Inhalte psychologischer Forschung sind, was fertige Psychologen tatsächlich können und worüber sie Bescheid wissen – und womit sie auf der anderen Seite nichts zu tun haben.

Psychologie, eine empirische Naturwissenschaft

Psychologie hat in der Gesellschaft oft einerseits den Ruf eines Heilberufes wie die Medizin, manchmal auch den eines “Laber-Fachs” ohne Substanz, weil Psychologen ja angeblich immer nur reden. Gleichzeitig haben Psychologen für viele Laien etwas Unheimliches an sich, geht doch das Gerücht um, sie würden ihr Gegenüber wie eine durchsichtige Figur analysieren und in jedem Wort etwas finden, was man doch eigentlich verbergen wollte. Nicht zuletzt hat Psychologie, ebenso wie Medizin, den Ruf eines Elite-Studienfachs, da man, um es zu studieren, aufgrund der wenigen Studienplätze und der hohen Nachfrage meist einen Abiturdurchschnitt von mindestens 1,5 aufweisen muss. Doch was erwartet einen nun wirklich im Studium?

Psychologie an sich ist weder ein Heilberuf wie die Medizin, noch eine Geisteswissenschaft wie Philosophie oder Pädagogik, noch beinhaltet es die Vermittlung von übernatürlichen Fähigkeiten. Psychologie ist eine Naturwissenschaft, die, grob gesagt, menschliches Verhalten und Erleben dahingehend untersucht, dass sie versucht, es vorherzusagen und zu erklären. Sie ist derweil eine empirische, keine theoretische Wissenschaft, d.h., sie sucht nach Erkenntnissen nicht durch die logische Herleitung von Theorien, sondern durch die systematische Untersuchung des menschlichen Verhaltens und Erlebens. Dies tut sie durch das Aufstellen und das darauf folgende Testen von Hypothesen. Basierend auf empirischen Befunden (also den Ergebnissen aus wissenschaftlichen Studien) werden dann wiederum Theorien formuliert, die diese Ergebnisse erklären können – und die dann durch darauf folgende Studien entweder bestätigt oder widerlegt werden. Die Psychologie folgt dabei weitgehend der Wissenschaftstheorie Carl Poppers, die besagt, dass man in der Wissenschaft nie etwas schlussendlich beweisen kann, sondern nur weitere Bestätigung für eine Theorie oder Hypothese sammeln kann. Das einzige, was endgültig möglich ist, ist, eine Theorie oder Hypothese zu widerlegen (d.h., zu falsifizieren). Mehr zum Thema Wissenschaftstheorie finden sie hier.

Da die Psychologie ein unglaublich weites Feld darstellt, kann dies sehr, sehr viele verschiedene Formen annehmen. Besonders gern wird mit Experimenten gearbeitet, bei denen typischerweise zwei Gruppen von Probanden (d.h. Versuchtsteilnehmern) miteinander verglichen werden, die sich nur dadurch unterscheiden, dass bei der einen eine experimentelle Manipulation stattgefunden hat und bei der anderen nicht. Unterscheiden sich die beiden Gruppen danach hinsichtlich eines bestimmten Merkmals (das abhängige Variable genannt wird), kann man sicher sein, dass dieser Unterschied nur auf die experimentelle Manipulation zurückzuführen ist. Zudem werden sehr oft Zusammenhänge zwischen Merkmalen (d.h. Variablen) untersucht, z.B. zwischen Intelligenz und späterem Berufserfolg. Dies erfolgt in der Regel durch die Berechnung von Korrelationen. Wenn die eine Variable zeitlich deutlich vor der anderen gemessen wird, kann man zudem Aussagen darüber treffen, wie gut die eine Variable (z.B. Verlustereignisse in der Kindheit) die andere (z.B. Entwicklung einer Depression im Erwachsenenalter) vorhersagen (oder prädizieren) kann. Um einen Eindruck von typischen Sorten von psychologischen Studien zu vermitteln und die ganzen kursiv gedruckten Begriffe ein wenig mit Leben zu füllen, seien im Folgenden vier Beispiele aus verschiedenen Bereichen der Psychologie genannt.

1. Arbeits- & Organisationspsychologie: Wie kann man Berufserfolg vorhersagen?

Dies ist ein Beispiel für eine Korrelationsstudie, bei der anhand der Intelligenz der Berufserfolg mehrere Jahre später vorhergesagt werden soll. Eine solche Erkenntnis ist von großem Wert für Psychologen, die in der freien Wirtschaft in der Personalauswahl tätig sind und die natürlich ein Interesse daran haben, solche Bewerber für einen Job auszuwählen, von denen erwartet werden kann, dass sie dem Unternehmen in Zukunft Geld in die Kasse spülen. Man geht hierbei so vor, dass man zu einem ersten Zeitpunkt die allgemeine Intelligenz einer Gruppe von Personen misst, die sich z.B. in dieser Gruppe zwischen 90 und 125 bewegt. Hierzu muss natürlich ein psychologischer Test gewählt werden, der präzise misst und gültige Aussagen über die Personen erlaubt. Zu einem späteren Zeitpunkt (z.B. 3 Jahre später) wird dann der Berufserfolg derselben Personen gemessen. Das kann man auf verschiedene Weise tun: Man kann das Einkommen oder die Berufszufriedenheit von den Probanden selbst erheben, oder man kann die jeweiligen Vorgesetzten bitten, die Leistung der Probanden zu bewerten. Die Übersetzung des recht allgemeinen Begriffs “berufliche Leistung” in konkret messbare Variablen nennt man derweil die operationale Definition.

Wenn man dann beides gemessen hat, kann man den Zusammenhang der beiden Variablen (Intelligenz & Berufserfolg) berechnen, was mittels einer Korrelation erfolgt. D.h., man möchte wissen, ob im Mittel über alle Probanden hinweg höhere Intelligenzwerte mit höherem Berufserfolg einhergehen. Achtung: das bedeutet, dass diese Aussage nicht für jeden Probanden gelten muss: Es wird immer Ausnahmen geben, die dem generellen Trend widersprechen – aber dieser generelle Trend ist von Bedeutung. Wie stark dieser Trend ist, kann man am Korrelationskoeffizienten ablesen, der zwischen -1 und +1 variieren kann. -1 stünde für einen perfekten negativen Zusammenhang (je intelligenter, desto weniger erfolgreich im Beruf), +1 für einen perfekten positiven Zusammenhang (je intelligenter, desto erfolgreicher) und 0 für keinen Zusammenhang (Berufserfolg hat nichts mit Intelligenz zu tun).

Im Falle des Zusammenhangs zwischen Intelligenz und Berufserfolg wurde in Metaanalysen (das sind statistische Verfahren, mit denen die Ergebnisse vieler Studien zum gleichen Thema zusammengefasst werden) herausgefunden, dass Intelligenz späteren Berufserfolg mit durchschnittlich 0,5 vorhersagt. Das ist in der Psychologie ein verdammt hoher Wert – und es ist von allen Variablen, die man zur Vorhersage von Berufserfolg herangezogen hat (u.a. Leistung in Assessment Centern, Persönlichkeitsmerkmale, Arbeitsproben, Referenzen früherer Arbeitgeber…) diejenige, die am allerbesten Berufserfolg vorhersagt (man sagt auch, Intelligenz stellt den besten Prädiktor für Berufserfolg dar). Zum Vergleich: Die bei Unternehmen sehr beliebten Assessment-Center zur Bewerberauswahl, die das Unternehmen gerne mehrere zehntausend Euro kosten, haben mit späterem Berufserfolg nur einen Zusammenhang von ungefähr 0,3, sagen diesen also sehr viel weniger verlässlich vorher. Dass Unternehmen in der Bewerberauswahl dennoch die viel teureren Assessment-Center einsetzen, hat einerseits mit der mangelhaften Kenntnis wissenschaftlicher Befunde zu tun, andererseits aber auch mit den beiden Tatsachen, dass die Anbieter von Assessment Centern gut daran verdienen und Intelligenztests trotz ihrer erwiesenen Vorteile oft angstbesetzt und daher verschrien sind.

2. Kognitive Neurowissenschaft: Wie unser Gehirn sich Gedächtnisinhalte einprägt

Hierbei handelt es sich ein Experiment aus einem vergleichsweise jungen Teilgebiet der Psychologie, der kognitiven Neurowissenschaft, die sich mit der Frage befasst, welche Prozesse im Gehirn unseren kognitiven Funktionen (Wahrnehmung, Aufmerksamkeit, Gedächtnis, Denken, Problemlösen, Entscheiden etc.) sowie auch unseren Emotionen zugrunde liegen. Viele psychologische Studien haben sich damit beschäftigt, wie unser Gedächtnis funktioniert. Die Studienart, die ich vorstellen möchte, widmet sich der Frage, wie unser Gehirn es schafft, dass wir uns Gedächtnisinhalte einprägen (d.h. enkodieren) können. Hierbei handelt es sich um eine Leistung des so genannten Arbeitsgedächtnisses, das früher als Kurzzeitgedächtnis bezeichnet wurde und eine begrenzte Menge von Material für maximal wenige Minuten aufrechterhalten kann. Dies ist abzugrenzen von unserem Langzeitgedächtnis, in das Gedächtnisinhalte eingehen, die aufgrund häufiger Wiederholung so weit gefestigt (d.h., konsolidiert) sind, dass sie dauerhaft gespeichert sind. Für diese Konsolidierung ist eine evolutionär alte und innen liegende Gehirnstruktur, der Hippocampus notwendig. Für das Einprägen bzw. das Enkodieren von Gedächtnisinhalten (eine Funktion, die konzeptuell Arbeits- und Langzeitgedächtnis verbindet) sind wiederum andere Gehirnareale verantwortlich.
Um herauszufinden, welche, haben sich Psychologen eines sehr eleganten Designs (so wird generell der Aufbau eines Experiments bzw. einer Studie bezeichnet) bedient, das folgendermaßen aussah: Während Versuchspersonen in einer fMRT-Röhre lagen (mit dem fMRT kann recht präzise die Aktivität einzelner Gehirnareale untersucht werden), wurden sie gebeten, sich in vorgegebener Reihenfolge eine Liste mit Wörtern so gut wie möglich einzuprägen. Außerhalb der Röhre wurden sie dann einige Zeit später gebeten, so viele Wörter wie möglich zu erinnern. Typischerweise berichten Probanden dann zwischen 50 und 75% der Wörter. Was dann kommt, ist wirklich außerordentlich clever und elegant: Man vergleicht die im fMRT gemessene Gehirnaktivität während des Einprägens derjenigen Wörter, die anschließend erinnert wurden, mit der Gehirnaktivität während des Einprägens von Wörtern, die anschließend nicht erinnert werden konnten. Wenn sich dann eine bestimmte Gehirnregion findet, die in den beiden Fällen unterschiedliche Aktivität aufweist, ist sie offenbar an dem oben beschriebenen Einpräge-Prozess beteiligt: Hohe Aktivität führt zu einer höheren Erinnerungswahrscheinlichkeit für Wörter und spiegelt eine intensivere Enkodierung wieder. Genau das wurde für verbale Gedächtnisinhalte (Wörter) für ein kleines Areal im frontalen Cortex gefunden, den linken inferioren frontalen Gyrus – auch bekannt als Broca-Areal. Dieses Areal ist auch essentiell für unsere Fähigkeit, zu sprechen, was darauf hinweist, dass das Einprägen von Wörtern eine Art “innere Stimme” nutzt, mit der die Wörter immer wieder wiederholt werden. Für visuelle Stimuli (z.B. Bilder) wurden währenddessen andere Gehirnareale gefunden, die für die Enkodierung wichtig sind.

3. Klinische Psychologie: Interaktion von Genetik und frühen Traumata bei Depression

In der klinischen Psychologie interessiert man sich neben der Untersuchung der Wirksamkeit von Psychotherapie im Rahmen kontrollierter Studien vor allem für die Frage nach der Ursache von psychischen Störungen. Bezüglich Depression weiß man, dass sowohl Stress in Form einschneidender und traumatischer Lebensereignisse (z.B. früher Verlust enger Bezugspersonen) als auch bestimmte Varianten eines Gens (des so genannten 5HTT-LPR-Polymorphismus) einen Risikofaktor für die Entwicklung einer späteren Depression darstellen. Was man hingehen lanfe Zeit nicht wusste, ist, wie genau diese Faktoren sich zueinander verhalten. Um dies zu untersuchen, führten die Wissenschaftler Caspi und Kollegen eine im Jahr 2003 veröffentlichte Längsschnittstudie durch. Das bedeutet, dass sie Probanden über mehrere Jahre begleiteten und im Zuge dessen einerseits durch Genanalysen die Ausprägung des oben genannten Gens und andererseits die im Laufe der Jahre aufgetretenen einschneidenden Lebensereignisse sowie die Zahl der Probanden, die eine Depression entwickelten, erfassten.

Das Ergebnis war verblüffend und schlug in der klinischen Psychologie wie eine Bombe ein: Sowohl die kritische Variante des Gens erhöte das Risiko für die Entwicklung einer Depression als auch die Anzahl der kritischen Lebensereignisse im Sinne einer “je mehr, desto höher”-Verbindung. Das ist an sich wenig überraschend, aber interessanterweise fanden die Autoren auch, dass der Einfluss der Zahl der Lebensereignisse sehr viel größer war, wenn die kritische Genausprägung (d.h. der unkritische Genotyp) im Gegensatz zur unkritischen vorlag. Und auch das Gegenteil war aus den Daten ersichtlich: Der Einfluss des Genotyps auf das Depressionsrisiko war erst von Bedeutung, wenn zwei oder mehr kritische Lebensereignisse vorlagen, vorher nicht. Man spricht in diesem Fall von einer Gen-Umwelt-Interaktion. Diese Ergebnisse haben eine sehr weitreichende Bedeutung für das Verständnis der Depression und die Art und Weise, wie sich genetische Ausstattung und Umweltfaktoren zueinander verhalten.

4. Sozialpsychologie: Saying-is-Believing – Ich glaube, was ich sage

Hierbei handelt es sich um ein klassische Sorte von Experimenten (ein so genanntes Paradigma) der Sozialpsychologie, die sich mit dem Verhalten von Menschen in sozialen Situationen beschäftigt. Der Saying-is-Believing-Effekt besagt, dass wir, wenn wir wissen, dass unser Gegenüber eine bestimmte Einstellung oder Meinung vertritt, ihm gegenüber auch hauptsächlich Dinge erwähnen, die mit dessen Meinung übereinstimmen – und in der Folge sich unsere eigene Einstellung der unseres Gegenübers angleicht. Dies weiß man aus Experimenten, in denen Versuchspersonen z.B. per Chat mit einer meist fiktiven (d.h. in die Studie eingeweihten) Person kommunizierten, über die sie entweder die Information erhielten, dass diese hinsichtlich eines bestimmten Themas ihrer Meinung oder anderer Meinung waren. Diese Information stellt hier die experimentelle Manipulation dar. So könnte die Information z.B. darin bestehen, dass das unbekannte Gegenüber ein Fan von Lady Gaga ist, während der Proband selbst zu Beginn die Information gegeben hat, dass er diese überhaupt nicht gut findet oder ihr neutral gegenüber steht. In der Kommunikation erwähnt der Proband dem fiktiven Gegenüber dann typischerweise tendenziell positive Dinge über Lady Gaga, was dazu führt, dass sich seine Einstellung dieser gegenüber ins Positive hin verändert – was man sehr gut nach der Kommunikationsphase anhand eines eigens dafür entwickelten Fragebogens erfassen kann.

Das war ein kleiner Einblick in verschiedene Forschungsthemen aus unterschiedlichen Fächern der Psychologie, mit dem ich hoffe, deutlich gemacht zu haben, wie facettenreich dieses Fach ist und wie wenig es mit dem zu tun hat, was die meisten Menschen generell im Kopf haben, wenn sie das Wort “Psychologie” hören. In den folgenden Artikeln wird es darum gehen, warum das Psychologiestudium so voller Statistik und Mathematik ist, mit wie vielen verschiedenen Themen Psychologen sich tatsächlich auskennen und warum Sigmund Freud weder der Begründer der Psychologie ist noch in dieser eine bedeutende Rolle spielt.

Intelligenz – Teil 1: Was ist Intelligenz überhaupt? Die Definition hängt ab von der Kultur, in der wir leben.

Normalerweise würde man an einer solchen einführenden Stelle eine Definition erwarten. Und in der Tat haben auch zahlreiche Forscher versucht, den Begriff “Intelligenz” zu definieren. Das Problem ist: Dieses Vorhaben ist entsetzlich schwierig, wenn nicht unmöglich. Dass es irgendetwas mit der geistigen (kognitiven) Leistungsfähigkeit und mit “Schlausein” zu tun hat, ist, in die Alltagssprache übersetzt, der einzige Kern, den die meisten Definitionen teilen.

Ich möchte daher einen anderen Zugang wählen und einen Auszug aus der Forschung vorstellen, die sich mit der Sicht des Begriffs “Intelligenz” in verschiedenen Kulturen der Erde befasst hat. Denn je nach Kultur kann die Bedeutung von “Intelligenz” eine ziemlich andere sein, und wenn man die verschiedenen kulturellen Bedeutungen dieses Konstrukts einmal genau bedenkt, so ist dies meiner Meinung nach die beste Möglichkeit, zu verstehen, dass es nicht “die eine” Definition gibt. In diesem Teil soll es also darum gehen, wie Laien in verschiedenen Kulturen Intelligenz definieren. Um wissenschaftliche, auf empirischen Befunden basierende Theorien der Intelligenz wird es dagegen in den folgenden Teilen gehen.

Wie Menschen “Intelligenz” definieren, bestimmt ganz maßgeblich, wie sie die eigene Intelligenz und die anderer Menschen wahrnehmen und beurteilen. Sehr gute Forschung zu Laientheorien über “Intelligenz” wurde von dem renommierten Psychologen Robert Sternberg betrieben. Hierzu wählte er u.a. zwei Methoden: Einmal bat er (bzw. wahrscheinlich eher seine Mitarbeiter) zufällig ausgewählte Menschen (die z.B. auf einen Zug warteten), kurz aufzulisten, welche Fähigkeiten und Verhaltensweisen ein sehr intelligenter Mensch ihrer Meinung nach zeigt, um dann anschließend die Antworten verschiedenen Oberkategorien zuzuordnen. Ein anderes Mal ergänzte er dieses Vorgehen um einen faktorenanalytischen Ansatz, indem er im Anschluss an eine solche Erhebung andere Probanden bat, die aufgelisteten Fähigkeiten und Verhaltensweisen danach zu sortieren, welche sehr wahrscheinlich zusammen auftreten. In beiden Fällen besteht das Ergebnis in unterschiedlich vielen verschiedenen “Faktoren” oder “Dimensionen” von Intelligenz.

Sternberg führte solche Studien in verschiedenen Kulturen durch. Am interessantesten ist der Vergleich zwischen “westlichen” (Nordamerika, Europa) und “östlichen” Kulturen (ost- und südostasiatische Länder). So fand Sternberg in einer seiner Studien durch Befragung von Laien in westlichen Kulturen, dass die Menschen dort vor allem drei Dimensionen (oder Arten) von Inteligenz unterscheiden:

  • praktische Problemlösefähigkeit (die Fähigkeit, Probleme in Alltagssituationen zu lösen)
  • verbale Fähigkeit (Redegewandtheit, Verständnis von grammatikalischen Strukturen, reicher Wortschatz, Verwendung von Analogien)
  • soziale Kompetenz (gute Selbstwahrnehmung, Selbstsicherheit, Wertschätzung für andere, Fähigkeit, sich zu entschuldigen, Sicherheit in sozialen Interaktionen)

Weitere Studien ergaben, dass westliche Kulturen sehr stark mentale Verarbeitungsgeschwindigkeit sowie die Fähigkeit, Informationen rasch und effizient zu sammeln und zu sortieren, betonen.

Vergleichbare Studien in östlichen Kulturen ergaben ein leicht abweichendes Bild. Hier verstehen die Menschen unter “Intelligenz” unter anderem soziale, historische und spirituelle Aspekte von alltäglichen Interaktionen, Wissen und Problemlösen. Das “östliche” Problemlösen unterscheidet sich jedoch in einem zentralen Aspekt von der “westlichen” Konzeption: Während in westlichen Kulturen ein Individuum dann als intelligent gilt, wenn es in der Lage ist, Probleme jeglicher Art alleine zu lösen, so sieht die in östlichen Kulturen weit verbreitete Sicht von Intelligenz vor, dass intelligentes Verhalten vor allem darin besteht, dass sich das Individuum dreier Arten von Hilfe bedient: indem es (1) Rat bei Familie und Freunden sucht, (2) geschichtliches Wissen hinzunimmt (wer hat dasselbe Problem schon einmal gelöst – und wie?) und (3) spirituelles Wissen hinzuzieht (welche Konsequenzen haben Handlungen zur Lösung des Problems für meine Seele?). Insbesondere spirituelle Aspekte spielen in östlichen Vorstellungen von Intelligenz eine große Rolle, während sie in westlichen Definitionen grundsätzlich nicht anzutreffen sind. Insgesamt liegt, wie gerade beschrieben, der Hauptunterschied darin, dass Intelligenz einmal als die Fähigkeit zum alleinigen Problemlösen aufgefasst wird – und einmal als die Fähigkeit, sich genau hierfür gezielter Hilfe zu bedienen.

Weitere Befunde aus China, Indien und Afrika

Es finden sich aber auch noch weitere interessante Aspekte von Intelligenz, die durch Studien in asiatischen und auch afrikanischen Kulturen entdeckt wurden. So fanden Yang und Sternberg (1997b) im Rahmen einer Befragung in China u.a. die Faktoren “Wohltätigkeit”, “Rechtschaffenheit”, “Bescheidenheit”, “Bemühungen zum Dazulernen” und “Freiheit von konventionellen Urteilsmaßstäben”. Baral und Das (2004) fanden in Indien neben “Urteilen” und “Bescheidenheit” auch die Dimension “Emotionen” als Facette von Intelligenz, und durch eine Untersuchung in Afrika fanden Irvine (1978) sowie Putnam und Kilbride (1980) u.a. die Aspekte “weniger sprachliche Äußerungen”, “Zuhören” und “Bedenken aller Aspekte eines Problems”.

Was Dimensionen wie “Bescheidenheit”, “Wohltätigkeit” und “Rechtschaffenheit” widerspiegeln, ist eng mit einem stabilen Befund der interkulturellen Persönlichkeitspsychologie verknüpft. Dieser Befund besagt, dass Menschen aus östlichen Kulturen eher kollektivistisch denken, d.h. das Wohl der Gemeinschaft die Maxime ihres Handelns darstellt und sie sich als Teil eines sozialen Gefüges wahrnehmen, ohne das sie nicht existieren könnten. Dem gegenüber weisen Menschen aus westlichen Kulturen (ganz besonders der US-amerikanischen) eher individualistische Denkstrukturen auf, was bedeutet, dass sie sich selbst eher als “Einzelkämpfer” wahrnehmen und davon ausgehen, dass jeder Mensch für sein Leben selbst verantwortlich ist. Dies wird u.a. auch durch das Verständnis von Intelligenz als Fähigkeit zum selbstständigen Problemlösen widergespiegelt.

Definition von “Intelligenz” je nach Alter

Aber nicht nur zwischen Nationalkulturen gibt es gravierende Unterschiede, was das Verständnis von Intelligenz angeht. Auch mit dem Alter ändert sich dieses Verständnis, wie z.B. die Psychologen Yussen und Kane (1985) zeigen konnten. Zum einen ist es so, dass Schüler_Innen unterschiedlicher Altersstufen Intelligenz anders definieren: Während jüngere Schüler eher davon ausgehen, dass man entweder intelligent ist oder nicht und dieses angeboren ist, hatten ältere Schüler bereits eine differenzierte Auffassung von Intelligenz und waren der Meinung, dass jemand z.B. im sprachlichen Bereich intelligenter sein kann als im mathematischen und dass die Intelligenz eher ein Zusammenspiel von angeborenen Anlagen und Umwelteinflüssen ist (was hiervon nun korrekt ist, ist ein anderes Thema, das ich natürlich in den folgenden Teilen noch ausgiebig behandeln werde).

Zum anderen hängt unsere Definition von intelligentem Verhalten natürlich stark davon ab, wie alt die zu beschreibende Person ist. So würden Sie wahrscheinlich dem zustimmen, dass “flüssige Ausdrucksweise” bei einer 20-Jährigen durchaus ein Zeichen von Intelligenz ist, nicht aber bei einer 3-Jährigen, wo vielmehr das schnelle Lernen und die im Kontext korrekte Anwendung eines neuen Wortes ein Anzeichen von Intelligenz ist. Berg und Steinberg (1992) fanden einen ähnlichen Effekt in ihrer Studie, die untersuchte, welche Verhaltensweisen Probanden bei 30-, 50- und 70-Jährigen für intelligent halten. Das Ergebnis zeigte, dass die Fähigkeit zum Umgang mit Neuem eher auf einen intelligenten 30-Jährigen zutrifft, während alltägliches Problemlösen und verbale Kompetenz eher einen sehr intelligenten Menschen zwischen 50 und 70 charakterisieren.

…und je nach Studienfach

Auch die akademische Fachrichtung spielt eine Rolle für das Verständnis von Intelligenz. Hierzu befragte Robert Sternberg (1985b), den wir oben bereits mehrfach kennen gelernt haben, Hochschulprofessoren verschiedener Fachrichtungen (Kunst, Wirtschaft, Philosophie, Physik) und fand sichtbare Unterschiede:

  • Kunst: u.a. Fähigkeit zum Umgang mit Wissen, Abwägen möglicher Alternativen, Sehen von Analogien
  • Wirtschaft: u.a. Fähigkeit zu logischem Denken sowie Durchschauen und Verstehen komplexer Argumentationslinien
  • Philosophie: u.a. kritische und logische Fähigkeiten sowie Auffinden von Fehlern in Argumentationen
  • Physik: u.a. präzises mathematisches Denken und schnelles Erfassen von Naturgesetzen

Fazit

Was ich nun hoffentlich zeigen konnte, ist, dass es in den Definitionen unterschiedlicher Kulturen (sowohl bezogen auf die Nationalität als auch auf die akademische Fachrichtung und das Alter) teils erhebliche Unterschiede bezüglich des Begriffs “Intelligenz” gibt. Neben diesen Unterschieden gibt es jedoch auch einige Komponenten, über die sich verschiedene Kulturen mehr oder weniger einig zu sein scheinen. Hierzu gehören eine allgemeine Problemlösefähigkeit (sowohl für alltagsnahe, d.h. praktische Probleme als für abstrakte), logisches Denkvermögen und soziale Kompetenz. Diese Begriffe werden Ihnen in den folgenden Teilen noch einmal begegnen, wenn ich die verschiedenen wissenschaftlichen Intelligenzmodelle vorstellen werde.

© Christian Rupp 2013