Wie mit der Corona-Krise umgehen? Vom Akzeptieren, Handeln und dem Käfer auf dem Rücken.

Aus aktuellem Anlass und weil diese Fragen bei vielen meiner Patient*innen gerade ganz weit vorne stehen, möchte ich das, was ich all meinen Patient*innen hierzu vermittle und nahelege, gerne mit allen Lesern meines Blogs teilen.

Mit Hilfe dieses Artikels möchte ich gerne meine Sichtweise dazu verdeutlichen, wie man am klügsten und gesündesten mit der Corona-Krise umgeht, die uns alle in eine Situation versetzt hat, die kaum jemand jemals zuvor erlebt hat. Ich greife dabei auf grundlegende Prinzipien der Akzeptanz- und Commitment-Therapie zurück, die ich für mein eigenes therapeutisches Arbeiten angepasst und ergänzt habe. Viele meiner Patient*innen werden das Schaubild, das Sie weiter unten finden, aus der einen oder anderen Therapiesitzung kennen. Da es sich hervorragend auf das Thema dieses Artikels anwenden lässt, habe ich es, speziell auf die Corona-Situation angepasst, in diesen Artikel mit aufgenommen. Wie Sie in diesem Schaubild sehen, geht es darum, sich drei grundlegende Wege anzuschauen, wie man mit einem Problem (also einem Umstand, der nicht so ist, wie man es gerne hätte) wie der Corona-Krise umgehen kann: Hadern, Akzeptieren und sinnvoll Handeln. Los geht’s.

Der ungünstigste Weg: „Wie ein Käfer auf dem Rücken“

Der mit Abstand unklügste und am wenigsten vorteilhafte Weg im Umgang mit einem Problem wie der Corona-Krise, das von außen bedingt und durch unser eigenes Handeln  nicht oder nur in geringem Maße zu ändern ist, besteht darin, zu hadern. Ich wähle dieses Wort mit Bedacht, um auf die Ineffektivität dieser Strategie hinzuweisen. Mit Hadern meine ich das, was in der Psychologie auch als maximale Lageorientierung bekannt ist: Man steht vor einem Problem, fühlt sich hilflos, kann dies aber nicht akzeptieren, weshalb man nach irrationalen und sinnlosen Kontrollversuchen strebt, mit denen man jedoch lediglich auf der Stelle tritt und sich im Kreis dreht. Mit anderen Worten: Man sieht das Problem, tut aber nichts, sondern verhält sich wie ein Käfer, der auf dem Rücken liegt: Man strampelt sich, überwiegend in Gedanken, ab, verliert dabei enorm viel Energie und erreicht – ganz genau – nichts. Man handelt nicht und löst nicht im Geringsten ein Problem – im Gegenteil: Man erschafft sich ein zusätzliches. Dieses Kernmerkmal ist neben der zugrundeliegenden Motivation, das Unkontrollierbare irgendwie kontrollierbar zu machen, der gemeinsame Nenner aller Dinge, die ich im unten stehenden Schaubild dem Hadern zugeordnet habe.

Es mag dem einen oder anderen widerstreben, dass dort neben Jammern und Klagen auch das Sich-Sorgen und Grübeln (was überwiegend dasselbe ist – Sorgen richten sich mehr auf die Zukunft, Grübeleien mehr auf die Vergangenheit) aufgeführt sind. Man könnte einwenden, dass man dadurch doch vielleicht auch auf Lösungen kommt. Dem entgegne ich ganz klar: Nein, denn wenn man durch Nachdenken nach nicht allzu langer Zeit zu einer Lösung gelangt und dann auch dementsprechend handelt (!), handelt es sich per definitionem eben nicht um Grübeln/Sich-Sorgen, sondern um lösungsorientiertes Denken. Sie sehen: Auch hier ist das ganz entscheidende Kriterium, das entscheidet, die Frage danach, ob das ganze zu einer produktiven Handlung führt, d. h. „etwas bringt“ – oder nicht. Grübeln und Sich-Sorgen ähneln eher einem Sich-im-Kreis-Drehen: Es kostet enorm viel Energie, der Stresshormonspiegel und die ängstliche Anspannung erhöhen sich dauerhaft, und je länger man es betreibt, desto mehr verliert man sich in Katastrophenszenarien, die immer weniger mit dem Hier und Jetzt zu tun haben.

Der Versuch, das Unkontrollierbare kontrollierbar zu machen (ja, auch Grübeln und Sich-Sorgen sind, psychologisch gesehen, ungünstige Kontrollversuche), ist auch das Bindeglied zu Verhaltensweisen wie dem Hamstern. Der aufmerksame Leser wird bemerken, dass es sich hierbei natürlich um eine Handlung und nicht nur um einen gedanklichen Prozess handelt. Das ist richtig, aber hier greift das Kriterium, dass die Handlung irrational und nicht sinnvoll ist – daher die Zuordnung zum Hadern. Sinnvoll wäre das Hamstern, wenn es in einem sinnvollen Bezug zur Realität stünde und ein probates Mittel wäre, um real etwas zu bewirken. Ich denke, es ist offensichtlich, dass dies auf das Horten von Klopapier z. B. nicht zutrifft. Hier greifen stattdessen mehrere Prozesse. Wie der Psychologe Jürgen Margraf neulich in einem Interview mit der Tagesschau sagte, kommt hier zum einen zum Tragen, dass wir à la „Herdentrieb“ dazu neigen, uns an anderen zu orientieren und im Zweifel dasselbe wie alle anderen tun. Ich finde das allerdings ein bisschen zu kurz gegriffen, blendet es doch wichtige innerpsychische Prozesse aus. Aus meiner Sicht kann man Verhaltensweisen wie das Klopapier-Hamstern zum einen als weiteren Versuch verstehen, Kontrolle in eine hochgradig unkontrollierbare Situation zu bringen. Durch Hamsterkäufe kann man sich zumindest vorgaukeln, „irgendwas getan“ zu haben, um sich „auf den Ernstfall“ vorzubereiten, den natürlich keiner kennt, weil niemand die Zukunft vorhersehen kann. Aber Hauptsache, man fühlt sich ein kleines bisschen weniger hilflos – auch wenn es im „Ernstfall“ sicher wichtiger wäre, Lebensmittel vorrätig zu haben, weil man das Klopapier-Problem wohl am ehesten auch anders lösen könnte und der Verzehr desselben zu Verdauungsproblemen führen dürfte. Zum anderen haben wir es mit einem Teufelskreis zu tun, der Dinge wie Klopapier in den Köpfen der Menschen zu einer begehrten Ressource macht: Allein die Tatsache, dass die Regale ständig leer sind, signalisiert: „Klopapier ist begehrt – Klopapier ist knapp – Sobald es wieder welches gibt, muss ich zuschlagen“. Das Ergebnis: Leere Regale, und der Teufelskreis beginnt von vorn.

Ich denke, es ist deutlich geworden, dass der Weg des Haderns derjenige ist, der, nicht nur in Zeiten der Corona-Krise, am sinnlosesten ist. Schauen wir uns nun also zwei alternative Wege an, die im Gegensatz zum Hadern erstens echte Lösungen darstellen und zweitens sehr viel besser für Ihre psychische Gesundheit sind. Diese beiden Wege – Akzeptieren und sinnvoll Handeln, kann man sich vorstellen wie zwei Seiten ein und derselben Medaille, weil sie nur miteinander funktionieren und das eine ohne das andere gar nicht denkbar ist.

Drei Wege im Umgang mit einem Problem – am Beispiel der Corona-Krise

Alternative 1: Akzeptieren & wertvolle Energie einsparen

Es klingt beinahe trivial, aber es ist unglaublich wichtig, sich folgendes klarzumachen: Wenn der Gegner nicht oder kaum unserer Kontrolle unterliegt, dann gibt es keinen gesünderen Weg, als ihn „radikal“ anzunehmen, d. h. zu akzeptieren, dass es ihn gibt. Akzeptieren in Zeiten der Corona-Krise meint, anzunehmen, dass es dieses Virus gibt, es sich ausbreitet und ca. bei 1-5% der Infizierten zum Tod führt, wir uns gesellschaftlich wie wirtschaftlich in einer zu den Lebzeiten der meisten von uns nie da gewesenen Ausnahmesituation befinden, die Politik so handelt, wie sie es tut – und keiner von uns sicher weiß, was in zwei Wochen, einem Monat und einem halben Jahr sein wird.

Wer jetzt denkt: „Das kann und will ich aber nicht akzeptieren“, der sei darauf verwiesen, dass er oder sie sich mit diesem Satz für das Hadern entschieden hat und ich ihm oder ihr diese Entscheidung nicht abnehmen kann. Vielleicht wäre es für diese Menschen ein erster Schritt, zunächst einmal die Gefühle zuzulassen, die hinter einer solchen Äußerung stecken: Wahrscheinlich eine Mischung aus Ärger und Frustration, denen wiederum Angst und Traurigkeit zugrunde liegen. Mein Tipp: Lassen Sie diese Gefühle zu, erleben Sie sie, sprechen Sie mit anderen Menschen (Angehörige, Freunde, Psychotherapeut*in…) darüber. Alternativ: Schreiben Sie sich die Gefühle von der Seele oder schreien Sie sie im Wald oder auf dem Feld heraus – aber grübeln Sie bitte nicht nur im Kopf darüber. Sie werden merken, es wird Ihnen dabei helfen, von diesen Gefühlen loszulassen. Und dann wird es mit dem Akzeptieren vielleicht auch eher klappen.

Allen anderen, die ich hiermit erreichen kann, möchte ich die Möglichkeit verdeutlichen, die sich dadurch eröffnet, dass man akzeptiert, was man nicht ändern kann, anstatt die Energie in das fruchtlose Hadern zu stecken: Denn plötzlich ist Energie da, die Sie in … na? … richtig, sinnvolles Handeln stecken können!

Alternative 2: Sinnvoll handeln – ändern, was man ändern kann

Sinnvoll zu handeln anstatt zu hadern, bedeutet, die eigene Energie für das zu verwenden, was man selbst bewirken kann, und stellt die andere Seite der Medaille dar, auf der vorne „Akzeptieren“ steht. Das heißt, das Kriterium, dem die jeweilige Handlung genügen muss, ist das der Effektivität: Es muss entweder Ihnen selbst oder anderen Menschen real etwas bringen, was Sie tun. In der Akzeptanz- und Commitment-Therapie wird dies ähnlich ausgedrückt: Hier geht es um die Frage, ob ihr Handeln Ihren eigenen Werten entspricht, was ich persönlich um den Aspekt der eigenen Ziele ergänzen möchte. Entspricht es Ihren Werten und Zielen, Klopapier zu horten, das dann anderen Menschen fehlt? Entspricht es Ihren Werten und Zielen, sich in gedanklichen Katastrophenszenarien zu verlieren und darüber zu vergessen, dass es eigentlich wichtig wäre, sich tatsächlich um sich selbst, andere Menschen oder anstehenden Aufgaben in Ihrem Leben zu kümmern? Die Antwort darauf können Sie sich nur selbst geben.

Was ich Ihnen sagen kann, ist, dass wenn Sie anfangen, sinnvoll zu handeln – das Schaubild enthält gleich eine Reihe von konkreten Vorschlägen – dies automatisch dazu führen wird, dass das Akzeptieren leichter fällt. Hier teile ich eine Grundauffassung der Akzeptanz- und Commitment-Therapie voll und ganz: Akzeptieren ist letztendlich Handeln. Egal ob Sie in diesen Zeiten die lange vernachlässigte Selbstfürsorge nachholen, ewig aufgeschobene Dinge erledigen oder sich um Ihre Mitmenschen kümmern: Handeln Sie anstatt mit dem zu hadern, was ohnehin nicht Ihrer Kontrolle unterliegt.

Mit einem Augenzwinkern möchte ich ergänzen, dass dieses Prinzip erst recht gilt, sollte unsere Welt wider Erwarten doch untergehen. Denn dann wäre es umso mehr zu bedauern, wenn man die Zeit vorher damit verbracht hätte, sich über Dinge zu sorgen, die noch gar nicht passiert sind. Zugespitzt bedeutet dies: Man kann sich aus Angst vor dem Tod auch prophylaktisch erschießen – oder man entscheidet sich, in der Gegenwart zu leben und zu handeln.

© Dr. Christian Rupp 2020

Warum schreibt er nicht zurück? – "Ghosting" aus Sicht eines Psychotherapeuten

Vor einiger Zeit habe ich auf Anfrage des Mannschaft Magazins ein Interview zum Thema „Ghosting“ gegeben. Falls Ihnen dieser Begriff bislang noch unbekannt ist, so kann ich, denke ich, versprechen, dass in dem folgenden Artikel alle Unklarheiten beseitigt werden. Der von Martin Busse dazu verfasste Magazinartikel soll voraussichtlich im Mai in der Printausgabe des Magazins erscheinen. Da ich in psycholography schon lange keinen inhaltlichen Artikel mehr veröffentlicht habe, habe ich mich entschlossen, vorab schon einen eigenen Beitrag mit meinen Interview-Antworten zu verfassen. Vielleicht ist es ja für den einen oder anderen eine willkommene Abwechslung in dieser von Corona dominierten Zeit. Ich weise vorab darauf hin: Meine Antworten basieren auf einer Mischung aus psychotherapeutischem Wissens- und Erfahrungsschatz, gepaart mit dem von mir so hochgehaltenen gesunden Menschenverstand. Wer hierzu wissenschaftliche Fachartikel lesen möchte, möge bitte an anderer Stelle suchen.

Warum kommt es zu „Ghosting“?

Wenn wir uns darauf einigen, dass „Ghosting“ beschreibt, dass man, ohne dies zu kommunizieren, den Kontakt zu Menschen abbricht (früher hätte man es wahrscheinlich „eine Beziehung einschlafen lassen“ genannt), dann dürften die wesentlichen Beweggründe wohl folgende sein: Erstens möchte die ghostende Person offenbar nichts mehr mit der anderen Person zu tun haben, z. B. weil sie bemerkt, dass sie sie eigentlich nicht mag, oder sie findet diese nicht mehr interessant genug (für welchen Zweck auch immer). Zweitens möchte die ghostende Person wahrscheinlich entweder (aus Angst, die andere Person zu verletzen und im Gegenzug selbst verletzt zu werden) vermeiden, der anderen Person ihr Desinteresse oder ihre Antipathie ehrlich mitzuteilen – oder aber die andere Person ist ihr schlichtweg nicht wichtig genug, um es ihr mitzuteilen. In beiden Fällen ist das Ergebnis dasselbe: Der anderen Person wird nicht mehr geantwortet, der Kontakt wird über schwammige Floskeln („Wir schreiben dann noch mal…“) ausgeschlichen – die Person wird „geghosted“

Ghosting im zeitlichen und gesellschaftlichen Kontext

Ich halte „Ghosting“ nicht per se für ein Phänomen der Neuzeit, denn wie schon oben beschrieben, hat es meiner Ansicht nach diese konfrontationsvermeidende Art, Beziehungen zu beenden, die einem unlieb geworden sind, schon früher gegeben. Sowohl meine eigene Erziehung als auch die Biographien vieler meiner Patient*innen sind voll mit expliziten und impliziten (d. h., am Modell gelernten) Erziehungsbotschaften der Art „So was kann man nicht einfach direkt sagen“, „Vermeide Auseinandersetzungen“ und „Pass auf, niemanden zu verletzen“. Letztere Botschaft hat aus meiner Sicht allerdings einen wichtigen Subtext, denn, wie oben schon angedeutet, hat diese Strategie auch zum Ziel, selbst nicht verletzt zu werden (weil das abgelehnte Gegenüber vielleicht aus seiner Kränkung heraus „zurückschießt“) und sich vor allem nicht mit der emotionalen Reaktion der abgelehnten Person auseinander setzen zu müssen – was wiederum Stress für einen selbst bedeutet. Aus der Perspektive der ghostenden Person könnte man somit „Ghosting“ durchaus als effiziente Gefühlsvermeidungsstrategie bezeichnen.

Ich wäre damit vorsichtig, mich so weit aus dem Fenster zu lehnen, dass Ghosting etwas über die Entwicklung unserer Gesellschaft aussagt, weil es eben ein altes Phänomen ist. Allerdings muss man einwenden, dass das Phänomen in unserer Zeit durch die sozialen Medien eine andere Qualität bekommen hat. Das liegt aus meiner Sicht daran, dass zwischenmenschliche Interaktionen in sozialen Medien, vor allem in Dating-Apps wie Grindr und Tinder erstens anonymer, zweitens oberflächlicher und drittens schnelllebiger geworden sind. Besonders gefährlich finde ich in diesem Kontext, dass durch die vermeintliche „Überauswahl“ an potenziellen Partner*innen (einmal wischen, und man kommt zum nächsten Kandidaten) erstens der Sinn für den Wert jedes einzelnen Menschen verloren geht und zweitens  sich der vor allem in der Generation Y omnipräsente Gedanke manifestiert: „Vielleicht findet sich ja doch noch was Besseres – also bloß keine Verbindlichkeiten eingehen“. Dies ist natürlich Wasser auf die Mühlen des o. g. Beweggrunds für Ghosting, der letztlich beinhaltet, dass die andere Person einem nicht wirklich wichtig ist. Warum sollte man sich also die Mühe machen, ihr zu sagen, dass und warum man sich gegen sie entscheidet.

Die Folgen von Ghosting für Betroffene

Während „Geghostet Werden“ für Menschen mit einem gefestigten Selbstwertgefühl und einer grundlegenden Selbstsicherheit aus meiner Sicht wenige bis keine Auswirkungen hat, kann es für Menschen, die hierüber eben nicht verfügen, durchaus drastische negative Effekte haben. Ich denke hierbei an Jugendliche und junge Erwachsene und noch einmal in besonderer Weise an junge Menschen aus der LGBTQI-Community, die aufgrund ihres Andersseins nicht selten in kritischen Entwicklungsphasen Ablehnungserfahrungen einer Qualität gemacht haben, die gender- und heteronormativ aufgewachsenen Menschen weitgehend fremd sein dürften. Diese Menschen verfügen überzufällig häufig eben nicht über ein stabiles Selbstwertgefühl und Selbstkonzept, sodass sie eine Ablehnung, wie sie beim Ghosten geschieht, schnell als Beleg dafür bewerten, dass sie selbst als Mensch nicht gut genug, inakzeptabel oder nicht liebenswert sind. Die Folgen können sozialer Rückzug und Depression oder die Entwicklung einer sozialen Angststörung sein – wobei ich betonen möchte, dass die Erfahrung des Ghostings dabei nicht die alleinige Ursache, sondern eher der Tropfen in einer langen Kette aus Ablehnungserfahrungen ist, der das Fass zum Überlaufen bringt. Insofern ist Ghosting sicherlich als problematisch einzustufen. Es bleibt die Frage, ob es für das Gegenüber besser ist, wenn es, anstatt geghostet zu werden, eine ehrliche Rückmeldung erhält. Ob sich diese schlimmer oder besser als Ghosting auswirkt, hängt wohl davon ab, wie diese formuliert ist: „Sorry, du bist nicht mein Typ“ ist sicher leichter zu verdauen als „Ich steh nicht auf Tunten“ oder „Du bist viel zu fett“. Ich persönlich tendiere dazu, dass jegliche Rückmeldung besser ist als keine. Denn so verletzend Aussagen die „Du bist mir zu fett“ sind – man weiß wenigstens, woran man ist. Die Erfahrung des Ghostings hingegen wirft viele Fragen, Unsicherheiten, Selbstzweifel auf, und eine Antwort auf diese bleibt aus.

Tipps für Geghostete

Menschen, die geghostet werden, würde ich dazu raten, ihre Bewertung dessen in eine bestimmte Richtung zu verändern. Anstatt das Geghostet Werden als Beleg dafür zu interpretieren, dass man selbst nicht okay ist, würde ich auf das altbewährte Kommunikationsmodell nach Schulz von Thun verweisen und in diesem Verhalten der anderen Person nicht die Beleidigung der eigenen, sondern die Selbstoffenbarung der anderen Person sehen. Man sollte sich fragen, was die Person über sich selbst aussagt, die jemanden ghostet, anstatt die ehrliche Konfrontation mit ihr zu suchen. Wahrscheinlich steckt dahinter entweder, wie oben beschrieben, eine große Selbstunsicherheit oder eine ausgeprägte Oberflächlichkeit. Insbesondere wenn letzteres zutrifft, könnte man sich ja auch denken, dass man eine solche Person nun wirklich nicht in seinem Leben braucht. Und dann hat man den Spieß auch schon umgedreht – frei nach dem Motto: Wer mich ghostet, denn sortiere ich aus.

Appell an Ghostende

Der folgende Appell an alle Ghostenden ergibt sich aus dem, was ich bisher beschrieben habe: Man sollte sich bewusst machen, 1) wie sehr man die andere Person ggf. verletzt, 2) was man von sich selbst für ein Bild zeichnet und, (3) ob man nicht lieber ein anderes Bild von sich zeichnen möchte. Und dann sollte man vielleicht den Mut aufbringen, ihr so viel Respekt entgegen zu bringen, dass man ihr eine ehrliche Rückmeldung gibt – um unser Miteinander, auch auf gesellschaftlicher Ebene, wieder ein wenig freundlicher zu machen.

© Dr. Christian Rupp 2020

Radiointerview zu Metakognitionen bei der Zwangsstörung

Radio Q, der Campus-Radiosender der Uni Münster, hat sich ihm Rahmen seiner Wissenschaftssendung „IQ Campus Science“ mit dem Thema Zwangsstörungen beschäftigt und wurde hierüber auch auf das Promotionsprojekt von mir und meiner Kollegin Charlotte Jürgens aufmerksam. Interessierte seien an dieser Stelle auf den knapp fünfminütigen Beitrag verwiesen, der aus einem Interview mit mir am vergangenen Mittwoch entstanden ist. Sehr hörenswert für Betroffene ebenso wie für ansonsten Interessierte sind natürlich auch die anderen drei Beiträge zum Thema Zwangsstörung, die Teil der einstündigen Sendung waren. Mit bestem Dank an Anne Kluger und Theresa Viefhaus.

Für eine aktuelle Therapiestudie suchen wir zudem im gesamten Jahr 2017 nach TeilnehmerInnen mit Zwangsstörung. Mehr darüber können Sie hier nachlesen.

 

Flug 4U9525: Hypothesen im Hinblick auf das scheinbar Unerklärliche

Auch wenn es ein ebenso trauriger wie tragischer Anlass ist, habe ich mich entschieden, den Absturz von Flug 4U9525 zum Anlass für einen neuen Blogartikel zu nehmen, nachdem über ein halbes Jahr berufsbedingte Funkstille herrschte. Dazu bewogen haben mich letztendlich die mehr als fragwürdigen Umstände, die gemäß der gestern veröffentlichten Ermittlungen zu dem Unglück geführt haben, und die damit verbundene Fassungslosigkeit bezüglich des Verhaltens des Copiloten.

Wie wir nun wissen, hat sehr wahrscheinlich der Copilot den Absturz der Maschine bewusst und vermutlich auch absichtlich herbeigeführt. Mit anderen Worten: Im Raum steht derzeit der begründete Verdacht, dass der Copilot sich selbst suizidiert und damit rund 150 unbeteiligte Menschen mit in den Tod gerissen hat. Dies ist für alle Beteiligten – und dabei beziehe ich mich neben den Angehörigen der Passagiere und Crewmitglieder auch auf die Familie des Copiloten – ein nur schwer nachzuvollziehender und noch schwerer zu akzeptierender Umstand, erzeugt er doch ein ungeheures Maß an Wut und Hilflosigkeit. Und hiermit verbunden ist (und auch dies ist absolut verständlich) immer auch relativ automatisch die Frage „Wie konnte so etwas passieren?“. Bei der großen Mehrzahl der Flugzeugunglücke richtet sich diese Frage auf technische Defizite, Sicherheitslücken und ggf. menschliches Versagen. Doch im Falle von Flug 4U9525 ist es anders: Hier richtet sich die Frage eher in die Richtung der fragwürdigen psychischen Verfassung des Copiloten, und ziemlich schnell wurden in den Medien auch die psychologischen Tests der Lufthansa aufs Korn genommen, die alle angehenden Piloten durchlaufen und bestehen müssen.

Typischerweise beinhalten diese Tests die Erfassung zentraler für die Tätigkeit als Pilot relevanten Persönlichkeitsmerkmale wie z.B. Stressresistenz, Gewissenhaftigkeit oder auch allgemeine Intelligenz. In der Tat hat insbesondere das Auswahlverfahren der Lufthansa einen sehr guten Ruf, und die Tatsache, dass möglicherweise nun erstmalig ein Kandidat „durchs Raster gefallen“ ist, spricht im Grunde eher für als gegen das psychologische Testverfahren, da es bisher offenbar ziemlich verlässlich in der Bewerberauswahl war. Dass psychologische Tests jedoch niemals eine 100% sichere Vorhersage über das spätere Verhalten eines Bewerbers machen können, liegt zum einen in den Eigenschaften psychologischer Tests per se begründet (hier und hier nachzulesen), zum anderen aber natürlich auch darin, dass sich Menschen im Laufe der Zeit verändern, wobei zum Zeitpunkt der psychologischen Untersuchung keinerlei Vorboten für solche (z.B. charakterlichen) Veränderungen erkennbar sein müssen. Doch was wären nun – auf Basis des aktuellen Erkenntnisstands – mögliche psychologische Erklärungen für das für die meisten so derart unfassbare Verhalten des Copiloten? Ich habe mir hierüber einige Gedanken gemacht und würde gerne einige Möglichkeiten näher erläutern. Bei den folgenden Darstellungen möchte ich allerdings noch einmal betonen, dass es sich hierbei um Erklärungsansätze handelt, die auf der Annahme beruhen, dass Ursache des Unglücks tatsächlich kein technisches Versagen, sondern die intentionale Handlung einer einzelnen Person war, die wiederum nicht im klassischen Sinne terroristisch motiviert war.

Möglichkeit 1: Psychose & Depression

Eine mögliche Erklärung für das durchaus „wahnsinnig“ anmutende Verhalten des Copiloten, ist, dass er tatsächlich unter einer akuten psychotischen Erkrankung wie der Schizophrenie oder aber einem verwandten Störungsbild wie beispielsweise einer schizoaffektiven oder einer wahnhaften Störung litt. Kennzeichnend für diese Gruppe von Störungsbildern sind im Wesentlichen der Verlust des Realitätsbezugs im Sinne einer Verkennung der Realität (Wahn) sowie Halluzinationen, die alle fünf Sinneskanäle betreffen können. Typisch für letzteres ist das Hören von Stimmen, die beispielsweise bestimmte Befehle erteilen. In Bezug auf Flug 4U9525 wäre also eine mögliche Erklärung für das Verhalten des Copiloten, dass er aufgrund eines akuten Wahns (Überzeugung, aus irgendeinem Grund das Flugzeug abstürzen lassen zu müssen) oder aufgrund von Stimmen, die ihm ebendies befohlen haben, entsprechend handelte. Hierdurch ließe sich auf jeden Fall das aus unseren Augen verantwortungslose Handeln erklären, da im Rahmen eines akuten psychotischen Zustands ein Hinterfragen der Wahninhalte und der Halluzinationen unmöglich wird – und somit auch die Übernahme einer anderen Perspektive wie z.B. der der Passagiere.

Es gibt jedoch mehrere Aspekte, die gegen diese Hypothese sprechen. Es gibt zwar den seltenen Fall, dass eine Schizophrenie oder eine wahnhafte Störung plötzlich und ohne „Vorwarnung“ (so genannte Prodromalsymptome) auftritt, doch es wäre dennoch mehr als ungewöhnlich. Denkbar wäre hier ggf. noch eine auf organische Ursachen (akute Erkrankungen des Gehirns wie z.B. eine Gehirnblutung) zurückgehende Psychose, jedoch sind auch diese vergleichsweise selten. Zudem gehen psychotische Erkrankungen in der Regel mit einer ziemlich allumfassenden Störung kognitiver Funktionen einher, d.h. mit zumeist derart starken Konzentrations- und Auffassungsstörungen, dass es eher unwahrscheinlich erscheint, dass ein solcher Zustand unbemerkt bleibt und ein Copilot so ins Cockpit gelangt. Dagegen spricht ferner das Alter des Copiloten, der meines Wissens nach 28 Jahre alt war – denn das typische Ersterkrankungsalter für psychotische Störungen liegt bei Männern ca. im Bereich zwischen dem 19. und 24. Lebensjahr. Auch für die Möglichkeit einer schweren Depression, die oft mit Suizidgedanken, -impulsen und -handlungen einhergeht, spricht aus meiner Sicht eher wenig, da auch diese in der Regel mit derart starken Symptomen wie Antriebsminderung und Konzentrationsschwäche einhergeht, dass das Ausüben des Pilotenberufs unmöglich wird. Zudem sind bei (reinen) Depressionen derart appellative Suizide (Erläuterung siehe unten) eher untypisch. Ähnliches gilt für den Fall, dass der Entschluss zum Suizid durch die Diagnose einer schweren und ggf. tödlich verlaufenden Erkrankung getroffen wird: Auch hier wäre es bei Vorliegen einer „gesunden“ Persönlichkeitsstruktur eher sehr ungewöhnlich, dass Unbeteiligte mit in den Tod gerissen werden.

Möglichkeit 2: Persönlichkeitsstörung

Die andere mögliche (psychologische) Erklärung für das Verhalten des Copiloten wäre, dass er an einer Persönlichkeitsstörung litt. Hierbei handelt es sich um tiefgreifende Störungen des menschlichen Interaktionsverhaltens vor dem Hintergrund einer extremen Ausprägung bestimmter Persönlichkeitsmerkmale, die in der Regel zu massiven Problemen zwischen der betroffenen Person und ihrer Umwelt führen (daher auch der eigentlich passendere Begriff der Beziehungsstörung). Kennzeichnend ist hierbei, dass Betroffene selbst eine Persönlichkeitsstörung meistens nicht als das eigentliche Problem sehen (man sagt daher, eine Persönlichkeitsstörung ist ich-synton) – in der Regel sehen Betroffene daher vorrangig die Schuld für ihre interaktionellen Probleme bei den Menschen in ihrer Umwelt.

Nun gibt es eine ganze Reihe verschiedener Persönlichkeitsstörungen, die sich am ehesten anhand des jeweiligen zwischenmenschlichen Motivs (bzw. Bedürfnisses) unterscheiden lassen, das die Betroffenen auf exzessive Weise und unter Anwendung problematischer Verhaltensweisen (z.B. Lügen, Manipulation, etc.) versuchen zu befriedigen. So könnte man z.B. sagen, dass bei der dependenten Persönlichkeitsstörung das Bedürfnis nach zwischenmenschlicher Nähe und bei der zwanghaften Persönlichkeitsstörung dasjenige nach Sicherheit und Verbindlichkeit in jeweils extremer Weise realisiert werden, wobei das, was die Störung zur Störung macht, die wachsenden negativen Konsequenzen und Einschränkungen sind, die die Person dadurch erleidet – und die (wenn überhaupt) meist den eigentlichen Grund für das Aufsuchen einer Behandlung darstellen.

Auf Basis der mir bekannten Umstände bzgl. des Absturzes der Germanwings-Maschine kämen aus meiner Sicht drei Persönlichkeitsstörungen in Frage. Zum einen ließe sich derart verantwortungsloses und im Grunde aggressives Verhalten durch eine antisoziale Persönlichkeitsstörung erklären, die u.a. auch durch einen Mangel an Empathie und Mitgefühl für die Opfer gekennzeichnet ist. Dagegen spricht allerdings erstens, dass Menschen mit antisozialer Persönlichkeitsstruktur in der Regel kaum einen Bildungsweg absolvieren, der schließlich zum Beruf des Piloten führt, und dass derartige Verhaltens- und Denkmuster in einer psychologischen Testung wie der der Lufthansa sehr wahrscheinlich aufgefallen wären. Zweitens spricht dagegen, dass Menschen mit antisozialer Persönlichkeitsstruktur zwar typischerweise anderen Menschen Schaden zufügen, jedoch kaum sich selbst, d.h. eher nicht den eigenen Tod mit in Kauf nehmen würden. In Frage käme darüber hinaus außerdem eine emotional-instabile Persönlichkeitsstörung (besser bekannt als Borderline-Störung), die durch eine Instabilität der Emotionen, Beziehungen und des Selbstbilds gekennzeichnet ist und mit Selbstverletzungen und Suizidversuchen einhergeht, die häufig appellativen Charakter haben, d.h. auf dramatische Weise die eigene Hilfsbedürftigkeit deutlich machen sollen. Hierzu würde zwar die Gestaltung des vermeintlichen Suizids des Copiloten passen, jedoch spricht hiergegen, dass Menschen mit emotional-instabiler Persönlichkeitsstörung selten in der Lage sind, ein so geordnetes Leben zu führen, dass sie eine Pilotenlaufbahn einschlagen und beibehalten können.

Hypothese: Appellativer Suizid nach narzisstischer Kränkung

Für die wahrscheinlichste Antwort auf die psychologische Frage nach dem „Warum“ halte ich eine narzisstische Persönlichkeitsstörung. Das zentrale zwischenmenschliche Motiv, um das sich Menschen mit dieser Art von Persönlichkeitsstörung unablässlich drehen, ist das nach Anerkennung und Bewunderung. Wie der bekannte Psychotherapeut Rainer Sachse herausstellte, ist das, worunter diese Menschen im Grunde leiden, ein unauflöslicher Konflikt zwischen einem sehr negativen Selbstkonzept („Ich bin ein inkompetenter Versager, der zu nichts in der Lage ist“) und einem übermäßig positiven Selbstkonzept („Ich bin sowieso der Beste, alle anderen sind nur neidisch auf mich“), das der Betroffene entwickelt, um das negative Selbstkonzept zu kompensieren. Dadurch – und vor dem Hintergrund des riesigen Bedürfnisses nach Bewunderung – erklären sich viele Verhaltensweisen von Narzissten. In der Regel haben sie eine Reihe von Größenphantasien im Kopf, die sich nicht selten darum drehen, wie sie im Mittelpunkt einer großen Menschenmenge stehen und als Gewinner  gefeiert werden. Menschen mit narzisstischer Persönlichkeitsstörung sind zudem meist äußerst wettkampforientiert und stabilisieren ihr positives Selbstkonzept häufig, indem sie andere Menschen massiv abwerten („Der kann doch nichts, der ist völlig inkompetent, der kann mir doch nie das Wasser reichen“). Kennzeichnend ist zudem ein Mangel an emotionaler Empathie (d.h. Narzissten können sich emotionale Zustände rational gut erschließen, emotional fühlen sie jedoch kaum mit) und eine damit zusammenhängende Tendenz zu manipulativem Verhalten, das letztendlich immer darauf abzielt, sich selbst in ein gutes Licht – und möglichst auch in den Mittelpunkt der kollektiven Aufmerksamkeit zu rücken. Vielleicht hat jetzt der ein oder andere Leser ein gewisses Aha-Erlebnis, weil er nun einen Begriff für manch eine Person hat, die ihn stets zur Weißglut treibt.

Das, was Menschen mit narzisstischer Persönlichkeitsstörung bisweilen unberechenbar und daher auch in einem gewissen Maß gefährlich macht, ist das, was passiert, wenn das positive Selbstbild durch Ereignisse in der Umwelt ins Wanken gebracht und das negative aktiviert wird – ein Prozess, der auch als narzisstische Kränkung bezeichnet wird. Diese kann aus unbeteiligter Sicht durch relative Lappalien ausgelöst werden, etwa durch eine vergleichsweise harmlose Kritik seitens eines Vorgesetzten, oder aber durch größere Einschnitte wie eine Kündigung oder eine vom Partner ausgesprochene Trennung. Nicht selten geraten Narzissten in diesem Moment wahrhaftig außer Kontrolle und versuchen, die Kränkung durch hasserfüllte Abwertung der Umwelt („Wie konnte das Miststück mir das nur antun?!“) und das Üben von Rache zu kompensieren. Letzteres ist das gefährlichste, denn Rache im Sinne eines Narzissten bedeutet, der Umwelt (und hierbei wird der Hass oft von der eigentlich verursachenden Person auf andere Menschen ausgeweitet) in dem Maße „wehzutun“, wie diese (in der subjektiven Sicht der gekränkten Person) auch ihm „wehgetan“ hat. Mit anderen Worten: Es ist möglich, dass ein derart gestrickter Mensch nach einer Kränkungserfahrung eine derartige Wut und einen solch ausgeprägten Hass entwickelt, dass diese sich schnell auf die gesamte Umwelt ausweiten („Die denken doch alle, sie könnten mit mir machen, was sie wollen – aber da haben die sich geschnitten“) und ein großes Bedürfnis nach Rache entsteht. Und eben diese Konstellation kann das zur Folge haben, was (wie oben schon angerissen) auch als appellativer oder demonstrativer Suizid bezeichnet wird – womit wir es übrigens auch häufig bei Amokläufen zu tun haben, denen nicht selten ebenfalls eine massive Kränkung des Täters vorausgeht, z.B. durch Mobbing. Werden (wie wahrscheinlich im Fall von Flug 4U9525) unbeteiligte Personen mit hineingezogen, spricht man zudem auch vom erweiterten Suizid oder vom Mitnahmesuizid.

Ein solcher appellativer Suizid beruht meist auf zwei Annahmen: Erstens, dass die gekränkte Person durch einen derart Aufmerksamkeit erregenden Tod der Welt „einen Denkzettel verpassen“ kann, da dieser somit vor Augen geführt wird, was sie der Person alles „angetan“ hat – und zweitens, dass sie durch das Mitreißen von im Grunde unbeteiligten Menschen zumindest zum Teil „Rache an der Menschheit“ nehmen kann, die sich gemäß der Wahrnehmung der gekränkten Person kollektiv gegen sie gerichtet hat. Mir ist bewusst, dass derartige Gedankengänge sehr erschreckend und beängstigend wirken können; dennoch sind sie ebenso Teil der Realität wie die Menschen, zu denen sie gehören. Das Gefährliche hieran ist dabei leider auch, dass Menschen mit narzisstischer Persönlichkeitsstörung häufig sehr gut darin sind, derartige Denkmuster zu verbergen, und sich oft nach außen hin sehr adäquat verhalten, was erklären könnte, dass entsprechende Persönlichkeitsmerkmale selbst in psychologischen Untersuchungen mitunter unentdeckt bleiben. Zudem ist es anders als bei den anderen beiden diskutierten Persönlichkeitsstörungen so, dass Betroffene in der Regel einen hohen Bildungserfolg aufweisen und so z.B. auch Zugang einer Pilotenausbildung erhalten.

Korrekterweise muss ich an dieser Stelle herausstellen, dass es sich bei dem, was ich im vergangenen Abschnitt beschrieben habe, um eine Extremform der narzisstischen Persönlichkeitsstörung handelt, die in der Mehrzahl der Fälle nicht zu derarzt verheerenden Handlungen führt wie soeben beschrieben. In Bezug auf das aktuelle Flugzeugunglück ist hierdurch jedoch eine mögliche Erklärung für das Verhalten des Copiloten von Flug 4U9525 gegeben, die mir auf Basis des aktuellen Erkenntnisstands und meines psychologischen Wissens zumindest plausibel erscheint. Ich erhebe dabei nicht den Anspruch, hiermit die richtige Erklärung gefunden zu haben. Mein Hauptanliegen hierbei ist, die Fassungslosigkeit der Menschen aufzugreifen und deutlich zu machen, wie es tatsächlich doch dazu kommen kann, dass Menschen in einer Art und Weise handeln, wie sie für die meisten von uns völlig unverständlich – und durchaus auch beängstigend ist.

 © Christian Rupp 2015

Intelligenz – Teil 6: „The Bell Curve“ & das dunkelste Kapitel der Psychologie

1994 veröffentlichten die beiden US-Amerikaner Richard Herrnstein und Charles Murray ein Buch namens „The Bell Curve: Intelligence and Class Structure in American Life“, wobei es sich bei der „bell curve“ natürlich um eine Anspielung an die Gauß’sche Glockenkurve handelt, der die IQ-Werte in der Population zumindest annähernd folgen (siehe auch hier). Dieses Buch hat für eine breite Kontroverse und heftige Kritik gesorgt, die man heutzutage wahrscheinlich als shit storm bezeichnen würde. Und das nicht ohne Grund, ziehen die Autoren doch auf Basis wackliger Prämissen Schlussfolgerungen, die schon im Nationalsozialismus en vogue waren.

Ethnische Unterschiede bezüglich der allgemeinen Intelligenz

Der wohl am kritischsten zu betrachtende Aspekt in der Darstellung von Herrnstein und Murray ist die Art und Weise, wie sie auf ethnische Unterschiede hinsichtlich des allgemeinen Intelligenzquotienten verweisen. So gelangen sie auf Basis der gesichteten Studienlage zu dem Schluss, dass in den USA Menschen asiatischer Herkunft in klassischen Intelligenztests wie den Wechsler-Tests durchschnittlich fünf IQ-Punkte mehr erzielen als „weiße“ US-Amerikaner, während Menschen afroamerikanischer Abstammung im Schnitt 15-18 Punkte (d.h. eine ganze Standardabweichung) weniger als „weiße“ Amerikaner erlangen. Nun kann man sich vorstellen, dass diese Befunde vor dem Hintergrund der Art und Weise, wie Afroamerikaner in der Vergangenheit in den USA behandelt wurden, gewaltigen sozialpolitischen Sprengstoff lieferten. Zudem weisen die Autoren darauf hin, dass der IQ von Einwandern zum Zeitpunkt der Immigration im Durchschnitt bei 95 und somit unterhalb des Populationsmittelwerts von 100 liege.

Sozialpolitische Schlussfolgerungen: Afro-Amerikaner und Immigranten loswerden

Nun, diese gefundenen Unterschiede sind zunächst einmal nicht so einfach wegzudiskutieren (worauf sie wahrscheinlich zurückzuführen sind, werde ich später noch beschreiben!), aber das Skandalöse an dem Buch „The Bell Curve“ ist etwas anderes: die sozialpolitischen Schlussfolgerungen und Forderungen, die Herrnstein und Murray daraus ableiten. Insgesamt zielt ihre Argumentation darauf ab, deutlich zu machen, dass durch eine Reihe von Faktoren die mittlere Intelligenz der US-Bürger heruntergedrückt werde und die Gesellschaft somit quasi zugrunde gehe. Hierfür seien eine Reihe von Faktoren verantwortlich. Neben dem nicht geringer werdenden Strom von Einwanderern, die mit ihrer geringeren Intelligenz den Durchschnitt „drücken“ (ebenso wie die afroamerikanische Bevölkerung), liege eine weitere Ursache in der Tatsache, dass Mütter mit unterdurchschnittlichem IQ mehr Kinder bekämen als solche mit durchschnittlichem IQ (was ein korrekter Befund ist). Da Intelligenz größtenteils erblich sei, vermehre sich somit die „dumme“ Bevölkerung immer mehr, während die „schlaue“ immer weniger werde. Aufgrund der angeblich hohen Heritabilität von Intelligenz seien ferner sämtliche großangelegte Fördermaßnahmen mit dem Ziel, Intelligenzunterschiede auszugleichen, völlige Fehlinvestitionen. Und es geht noch weiter: Antidiskriminierungsmaßnahmen, die dazu dienen sollen, Chancengleichheit in der Bevölkerung herzustellen (indem gezielt traditionell benachteiligte Gruppen wie Afroamerikaner gefördert werden), seien nicht nur unnütz, sondern auch ungerecht, da so z.B. Angehörige dieser Gruppen Studienplätze oder Jobs erhielten, für die sie aufgrund ihrer geringen Intelligenz gar nicht qualifiziert seien. Dies wiederum führe nur zu sozialen Spannungen und wachsendem Hass der eigentlich benachteiligten, „weißen“ Bevölkerung auf die afroamerikanische. Außerdem trüge diese Art von Fördermaßnahmen zur Verdummung von Schulen und Universitäten bei. Man solle, so Herrnstein und Murray, lieber die Ungleichbehandlung fortführen, da diese schlichtweg der Realität entspreche. Geld solle man lieber in die Förderung der Begabten (= hoch Intelligenten) stecken, da diese ohnehin bald in der absoluten Minderheit seien. Falls Ihnen diese Argumentationslinie bekannt vorkommt, wird das sehr wahrscheinlich daran liegen, dass ein ehemaliger deutscher Politiker namens Thilo Sarrazin in seinem Buch „Deutschland schafft sich ab“ vor einigen Jahren fast genau die gleichen Thesen aufgegriffen und auf die Einwanderungssituation in Deutschland angewendet hat.

Die Kritik

Die Kritik an „The Bell Curve“ ist allem voran eine Kritik an den von Herrnstein und Murray vorausgesetzten Prämissen. Denn ein Grundkonzept der Philosophie lautet nun einmal, dass ein Argument nur dann Gültigkeit besitzt, wenn die Wahrheit der Prämissen zwangsläufig zur Wahrheit der Schlussfolgerung (Konklusion) führt. Die wichtigsten nicht korrekten Prämissen sind, wie auch bereits von Stephen Jay Gould beschrieben, im Folgenden dargestellt.

Überschätzte Heritabilität

Einer der größten Schwachpunkte an der oben beschriebenen grotesken Argumentation ist in der Tat, dass Intelligenz auf Basis des heutigen Wissensstandes bei weitem nicht so stark erblich bedingt ist wie lange angenommen (was Sie hier nachlesen können). Und selbst wenn dies so wäre, wäre die Schlussfolgerung, die gemessenen IQ-Unterschiede zwischen den verschiedenen Bevölkerungsgruppen seien im unterschiedlichen genetischen Material der Gruppen begründet, immer noch falsch, denn: Die Gruppen unterscheiden sich ganz offenbar auch stark hinsichtlich ihrer Umweltbedingungen (sozioökonomischer Status etc.), sodass man selbst im Sinne der klassischen Verhaltensgenetik folgern muss, dass die Ursache für die Unterschiede unklar ist. Heutzutage gibt es viele Belege dafür, dass die gemessenen IQ-Unterschiede eher nicht auf genetische Unterschiede zurückzuführen sind, sondern sehr viel stärker durch Umweltfaktoren zu erklären sind, vor allem durch den z.B. in der afroamerikanischen Bevölkerung im Durchschnitt deutlich geringeren sozioökonomischen Status, den damit verbundenen schlechteren Zugang zu (in den USA meist sehr teuren) Bildungsangeboten sowie durch diverse psychologische Effekte wie die sich selbsterfüllende Prophezeiung und geringe Leistungserwartungen von Lehrern an afroamerikanische Kinder (die oft von Beginn an mit dem Vorurteil konfrontiert werden, dass sie weniger leistungsfähig sind als „weiße“ Kinder). Hinzu kommen wahrscheinlich Effekte durch schlechtere Englischkenntnisse, die zur Bearbeitung der Intelligenztests erforderlich sind, sowie möglicherweise kulturelle Unterschiede (siehe weiter unten).

Annahme eines für alle Menschen geltenden g-Faktors

Herrnstein und Murray gründen ihre Argumentation unter anderem auf die Prämisse, dass es einen für alle Menschen geltenden Generalfaktor der Intelligenz (g-Faktor) gibt, der im Wesentlichen auch von allen gängigen Intelligenztests gemessen wird. Beide Prämissen sind auf Basis des aktuellen Standes der Wissenschaft nur schwer haltbar, wie Sie auch hier nachlesen können.

Intelligenztests sind für alle ethnischen Gruppen gleich schwierig

Auch diese wichtige Prämisse wird zwar kontrovers diskutiert, ist aber durchaus als heikel einzustufen. Zum einen gibt es Hinweise darauf, dass Menschen in westlich geprägten Kulturen vertrauter sind mit typischen Intelligenztestaufgaben, sodass Menschen aus anderen Kulturen eine Benachteiligung bei der Aufgabenbearbeitung erfahren. Ein sehr pragmatisches Beispiel hierfür sind Untertests zur kristallinen Intelligenz, in denen allgemeines Wissen oder Wortschatz dadurch erfragt wird, dass den getesteten Personen Bilder der jeweiligen Objekte gezeigt werden (wie z.B. im WIE). Hier liegt es auf der Hand, dass die Bilder (z.B. Autos, Armbanduhren, Häuser) stark von derjenigen Kultur geprägt sind, in der der Test entwickelt wurde – und dass Menschen aus anderen Kulturkreisen hiermit weitaus weniger vertraut sein mögen. Verknüpft damit ist der zweite Aspekt, der beinhaltet, dass das Verständnis von Intelligenz, auf dem etablierte Intelligenztests beruhen, stark durch die westliche Kultur geprägt ist, die Intelligenz weitgehend als Ausmaß der Effizienz der Informationsverarbeitung sieht. Wie Sie hier nachlesen können, hängt die Definition von „Intelligenz“ jedoch stark vom kulturellen Umfeld ab, sodass eine Benachteiligung dadurch entsteht, dass eines von vielen verschiedenen Intelligenzkonzepten gleichsam auf alle Menschen angewendet wird. Ein ganz zentrales Element, das eine Benachteiligung nach sich zieht, sind zudem die ungleich guten Sprachkenntnisse der getesteten Menschen, also z.B. bei Einwanderern in die USA die Englischkenntnisse. Es erscheint relativ logisch, dass bei mangelndem sprachlichen Verständnis der Aufgaben (und das ist bei jedem Intelligenztest erforderlich) schlechtere Testergebnisse resultieren, weil die Voraussetzung dafür, dass Intelligenz überhaupt gemessen werden kann, gar nicht erfüllt ist.

Fehler in der Analyse der zugrunde gelegten Studien

Zusätzlich zu den bereits genannten Punkten muss man den Autoren von „The Bell Curve“ außerdem noch eine Reihe methodischer und statistischer Fehler bei der Analyse der herangezogenen Studien vorwerfen. Zum einen wäre da der wirklich sehr grobe Schnitzer, einen Korrelationszusammenhang, der grundsätzlich ungerichtet ist, auf kausale Weise zu interpretieren. Gemeint ist hier der Zusammenhang zwischen dem sozioökonomischen Status und Intelligenz, wobei Herrnstein und Murray verzweifelt versuchen, scheinbar zu beweisen, dass ein niedriger IQ die Ursache eines niedrigen sozioökonomischen Status ist und nicht umgekehrt. Was hierbei jedoch Ursache und was Wirkung ist, ist nicht eindeutig geklärt, und das Allerwahrscheinlichste und zugleich Logischste ist, dass beide Faktoren sich im Laufe eines Menschenlebens gegenseitig beeinflussen: Intelligenz ist förderlich dabei, einen hohen Bildungsstand zu erreichen und somit das Armutsrisiko zu reduzieren, aber ebenso beeinflussen der sozioökonomischen Status und die damit verbundenen Förderbedingungen in der Ursprungsfamilie maßgeblich, wie sich die Intelligenz eines Menschen entwickelt. Meiner Meinung nach muss man sogar sagen, dass es letztlich unmöglich ist, diese beiden Variablen zu trennen, weil sie derart stark verflochten und voneinander abhängig sind. Und da wir es hier sowohl auf Seiten der Intelligenz als auch auf Seiten des sozioökonomischen Status mit zahlreichen anderen Variablen zu tun haben, die mit beidem zusammenhängen, aber so gut wie nie in Studien berücksichtigt und kontrolliert wurden, werden vernünftige Schlussfolgerungen noch zusätzlich erschwert.

Zweitens kann man Herrnstein und Murray für die Auswahl der zugrunde gelegten Originalarbeiten kritisieren: So beziehen sie sich auf mehrere Studien, die methodisch mehr als zweifelhaft sind (z.B. weil lediglich IQ-Unterschiede zwischen Gruppen, aber keine Gruppenmittelwerte berichtet werden oder weil die gemessenen niedrigeren IQ-Werte von südafrikanischen Kindern offensichtlich auf kaum vorhandene Englischkenntnisse zurückgehen). Drittens muss man den beiden Autoren vorhalten, dass sie bei der Analyse der Studien selektiv solche aussortierten, die nicht ins Bild passten – z.B. Daten von südafrikanischen (schwarzen) Schülern, die in einem Intelligenztest im Durchschnitt besser abschnitten als weiße Schüler. Somit ist die Analyse von Herrnstein und Murray alles andere als ausgewogen.

Eugenik – künstliche Selektion zur Rettung der Menschheit

Die Eugenik ist zweifelsohne das dunkelste und grausamste Kapitel der Psychologie, das traurigerweise kaum Inhalt der akademischen Lehrpläne in diesem Fach ist. Gemeint ist mit diesem Begriff eine Form der künstlichen Selektion der Art, dass die Fortpflanzung dahingehend beeinflusst wird, dass Nachkommen mit gewünschten Eigenschaften (z.B. hoher Intelligenz) entstehen – entweder durch Förderung der Fortpflanzung „wertvoller“ Menschen (positive Eugenik) oder durch die Hinderung „minderwertiger“ Menschen daran, sich fortzupflanzen (negative Eugenik). Ein leidenschaftlicher Verfechter dieser Konzepte war in der zweiten Hälfte des 19. Jahrhunderts Sir Francis Galton, der, begeistert vom Werk „Die Entstehung der Arten“ seines Cousins Charles Darwin, die These aufstellte, dass die natürliche Selektion des Menschen dadurch behindert werde, dass die Gesellschaft ihre schwachen Mitglieder schütze. Daher, so Galton, sei eine künstliche Selektion im Sinne der Eugenik nötig, weil sich sonst die weniger intelligenten Menschen stärker vermehren und so zum Niedergang der menschlichen Rasse führen würden (man merkt: Sowohl die Ideen von Herrnstein und Murray als auch die Thilo Sarrazins sind schon recht alt). Niedrige Intelligenz war bereits damals mit der Einwanderungsgesellschaft und der afroamerikanischen Bevölkerung assoziiert, und Galton war fest davon überzeugt, dass Intelligenz erblich bedingt sei. Daher lag die Schlussfolgerung nahe, die Selektion (und so die „Rettung der Menschheit“) dadurch voranzutreiben, dass man jene „minderintelligenten“ Gruppen von der Fortpflanzung abhalten möge.

Konkret war die politisch bald durchgesetzte Folgerung hieraus die Sterilisation entsprechender Personengruppen. Diese bezog sich allerdings nicht auf alle oben genannten Bevölkerungsgruppen, sondern laut dem US-amerikanischen Model Eugenic Sterilization Law (1922) u.a. auf „Minderbegabte“, „Wahnsinnige“, Blinde, Behinderte, Kriminelle, Epileptiker, Obdachlose und Waisenkinder. Und man sollte nicht davon ausgehen, dass diese nicht durchgeführt wurde: So schätzte das Journal of the American Medical Association, dass allein in den USA zwischen 1941 und 1942 über 42000 Personen zwangssterilisiert wurden. Aber damit nicht genug: Neben den USA etablierte eine Fülle weiterer Länder in der Folge eigene Eugenik-Programme (sowohl positive als auch negative), darunter auch Schweden, Kanada, Australien, Norwegen, Finnland und die Schweiz. Trauriger Spitzenreiter war in der Zeit des Nationalsozialismus Deutschland, wo bis zum Ende des 2. Weltkriegs mehr als eine halbe Million Menschen wegen „Verdachts auf Erbdefekte“ oder „Gefahr der Rassenverunreinigung“ zwangssterilisiert wurden – worunter neben geistig und körperlich behinderten Menschen auch „Asoziale“ wie Sinti, Roma und Alkoholiker sowie Homosexuelle (hier entzieht sich mir selbst der vermeintliche Sinn), Prostituierte und Fremdrassige (v.a. Menschen afrikanischer und arabischer Abstammung) fielen. Dies gipfelte schließlich in den rund 100.000 Euthanasiemorden, die die Nazis im Rahmen der „Aktion T4“ an behinderten Menschen verübten. Ein Beispiel für positive Eugenik war zudem der vom NS-Regime ins Leben gerufene Lebensborn, der zum Ziel hatte, die Geburtenrate „reinrassig-arischer“ Kinder zu steigern.

Das einzig Gute an alldem war (wenn man in diesem Zusammenhang überhaupt das Wort „gut“ verwenden darf), dass nach Ende des 2. Weltkriegs das internationale Ansehen der Eugenik drastisch abnahm, weil kaum ein Land mit den Gräueltaten Deutschlands in Verbindung gebracht werden wollte. Die Eugenikprogramme der meisten Länder wurden eingestellt, und 1948 verabschiedeten die Vereinten Nationen eine Resolution, gemäß derer es allen Männern und Frauen unabhängig von ihrer Nationalität, Ethnie, etc. erlaubt sein sollte, zu heiraten und eine Familie zu gründen.

Eine Warnung: Damit Deutschland sich nicht abschafft

Es wäre falsch, zu sagen, dass das Buch von Herrnstein und Murray direkt zur Eugenik aufruft. Dennoch finden sich in der Argumentationslinie und den gezogenen Schlussfolgerungen ganz klar Parallelen zu den Konzepten und Praktiken der Eugenik (keine Förderung der Schwachen, Bewahrung der Menschheit vor der Überbevölkerung durch die „Minderintelligenten“), die von Thilo Sarrazin gleichermaßen für Deutschland übernommen wurden. Auch nicht gerade ein gutes Licht auf „The Bell Curve“ wirft die Tatsache, dass Herrnstein und Murray sich einer großen Zahl von Originalarbeiten Richard Lynns bedienen, der nicht nur als bekannter Intelligenzforscher, sondern auch als bekennender Verfechter der Eugenik bekannt ist und z.B. befürwortet, Embryonen bei der künstlichen Befruchtung auf genetische Eigenschaften hin zu untersuchen und nur die „besten“ zu verwenden.

Auffällig ist bei Lynn, dass er kein Demagoge ist, der die Gesellschaft aufhetzen will. Er ist Wissenschaftler und hat größtenteils die unbegrenzte Nutzung wissenschaftlich angesammelten Wissens als Ziel vor Augen. Diese mechanistische Denkweise ist allerdings eine, die meiner Ansicht nach niemals Macht erlangen sollte. Denn was Lynn völlig außer Acht lässt, sind all die ethischen Probleme und Menschenrechtskontroversen, die dies mit sich führen würde. Aber was ist die Alternative? Politiker wie Thilo Sarrazin, die mit menschenverachtendem Vokabular zur „Eugenik 2.0“ aufrufen? Bitte nicht. Was bleibt, ist die Hoffnung in die wirklich klugen Köpfe unserer Gesellschaft, die in der Lage sind, Weltanschauung und wissenschaftliche Befunde auf konstruktive Art und Weise miteinander zu verbinden, anstatt immer neue Katastrophen herbeizuschwören und noch katastrophalere Lösungen vorzuschlagen.

 

Intelligenz – Teil 5: Ist unser IQ ausschließlich genetisch bedingt?

Vielen Lesern mag diese Frage allein schon seltsam vorkommen, herrscht doch in vielen Bereichen unserer Gesellschaft doch die Meinung vor, dass Menschen hinsichtlich ihrer Fähigkeiten stark formbar sind. Schließlich schicken wir unsere Kinder in die Schule, regen sie bei schlechten Noten an, sich anzustrengen und besorgen ihnen eine nette Nachhilfelehrerin. Die in der Überschrift gestellte Frage ist jedoch berechtigt, herrschte (und herrscht oft heute noch) in der Psychologie doch die Ansicht vor, dass die allgemeine Intelligenz des Menschen ein Merkmal darstellt, das zu einem vergleichsweise großen Anteil vererbt wird, d.h. genetisch determiniert ist. Da man in der Psychologie ebenso wie in der gesamten Wissenschaft ziemlich sicher ist, dass kaum ein menschliches Merkmal (mit Ausnahme von Dingen wie Augenfarbe und Blutgruppe) zu 100% genetisch bestimmt ist, begann man vor einigen Jahrzehnten, sich der Frage nach dem Anteil zu widmen, der auf genetische einerseits und Umwelteinflüsse andererseits zurückzuführen ist. Der Wissenschaftszweig, der sich hieraus entwickelte, nennt sich Verhaltensgenetik.

Das Konzept der Heritabilität

Den Grad der Erblichkeit eines Merkmals wie Intelligenz vernünftig zu berechnen, ist alles andere als einfach. In der Regel wird als Anhaltspunkt die so genannte Heritabilität berechnet, welche zweifelsohne zu den Messgrößen gehört, die am häufigsten falsch und vor allem überinterpretiert werden. Meistens wird die Heritabilität auf Basis von Zwillingsstudien berechnet. Das sind Studien, in denen eineiige (die zu 100% dieselben Gene besitzen) oder aber zweieiige Zwillinge (die durchschnittlich, aber nicht immer genau, 50% der Gene teilen – genau wie „normale“ Geschwister) dahingehend untersucht werden, inwieweit jedes der untersuchten Zwillingspaare hinsichtlich eines bestimmten Merkmals übereinstimmt. In unserem Fall bedeutet das: Bei beiden Zwillingen wird der IQ gemessen, und dann wird über die gesamte Stichprobe von Zwillingspaaren die Korrelation berechnet, sodass man ein Maß dafür erhält, wie groß über alle Zwillingspaare hinweg die durchschnittliche Übereinstimmung zwischen Zwilling A und Zwilling B ist. Wenn ein Merkmal stark genetisch bedingt ist, würde man erwarten, dass die Korrelation bezüglich dieses Merkmals bei eineiigen Zwillingen sehr viel größer ausfällt als bei zweieiigen. Diese Korrelation wird nun für eineiige und zweieiige Zwillinge separat berechnet, und die Heritabilität stellt ein Maß dar, das diese beiden Korrelationen zueinander ins Verhältnis setzt. Daher variiert auch die Heritabilität zwischen 0% und 100%, wobei der errechnete Prozentsatz, genau gesagt, den Anteil an der Gesamtvarianz eines bestimmten messbaren Merkmals (wie Intelligenz) in einer Population wiedergibt, der auf genetische Unterschiede zurückgeführt werden kann. Mit anderen Worten: Eine Heritabilität von 50% würde z.B. bedeuten, dass 50% der Varianz (also der Streuung) der Intelligenzwerte in der gesamten Population (wofür die Stichprobe stellvertretend ist) auf genetische Unterschiede der Menschen zurückgeführt werden kann. Oder noch anders ausgedrückt: Es bedeutet, dass 50% der IQ-Unterschiede innerhalb der gemessenen Gruppe mit den genetischen Unterschiedenen der Gruppenmitglieder (linear) zusammenhängen. Für das Merkmal Intelligenz wurden so in der Vergangenheit meist Heritabilitätswerte zwischen 70 und 80% berichtet, was ziemlich hohe Werte sind.

Kritik am Konzept der Heritabilität

Keine Aussagen über einzelne Personen

Der wichtigste Aspekt ist hierbei, dass die Heritabilität sich immer nur auf die Population oder, genau genommen, auf die Stichprobe von Individuen bezieht, bei denen das Merkmal erhoben wurde. Die Prozentzahl kann somit nicht herangezogen werden, um Aussagen über eine einzelne Person zu treffen: Die Aussage „Bei jeder einzelnen Person ist die Intelligenz zu 80% genetisch bedingt“ ist daher nicht korrekt.

Mutmaßung statt Messung und irreführende Prozentzahlen

Außerdem ist es wichtig, anzumerken, dass bei alledem der Grad der genetischen Übereinstimmung einfach auf einen bestimmten Wert festgelegt wird. Das ist bei eineiigen Zwillingen (da sind die 100% unumstößlich) weit weniger problematisch als bei zweieiigen: Da nämlich ist der durchschnittliche Wert 50%, aber dieser kann erheblich variieren. Es würde also mehr Sinn machen, die tatsächliche Übereinstimmung zu messen anstatt sie zu schätzen – das allerdings würde den Aufwand einer solchen ohnehin komplexen Studie ins nahezu Unermessliche steigern. Übrigens: Die Zahl 50% ist hochgradig irreführend, weil alle Menschen (egal welcher ethnischer Abstammung) 100% aller Gene gemeinsam haben. Die Unterschiede liegen in den Genvarianten, den Allelen – und selbst diese sind bei allen Menschen zu 99,9% gleich. Die gesamte Varianz des menschlichen Erscheinungsbildes spielt sich also in diesen 0,1% ab – und wenn es heißt, zweieiige Zwillinge hätten 50% ihrer Gene gemeinsam, so bezieht sich das lediglich auf 50% dieser 0,1% der Allele. Korrekt wäre also eigentlich die Aussage: Zweieiige Zwillinge teilen 99,95% ihrer Allele, und eineiige 100%.

Aussagen sind zeitlich beschränkt

Der zweite Kritikpunkt betrifft die Tatsache, dass die Schätzung der Heritabilität immer nur eine Momentaufnahme darstellt, d.h. immer nur die Rolle des aktuell aktivierten genetischen Materials wiederspiegelt. Wie man aber inzwischen weiß, werden die unterschiedlichen Gene im Laufe eines menschlichen Lebens ziemlich häufig an- und wieder abgeschaltet, sodass die Heritabilität keine Schätzung über zum Zeitpunkt der Messung nicht aktiviertes genetisches Potenzial erlaubt.

Nicht mehr als ein Verhältnismaß

Das wohl wichtigste Argument gegen die Heritabilität, welches deren Interpretierbarkeit stark eingrenzt, ist die Tatsache, dass es sich hierbei, wenn man die Formel einmal übersetzt, um nicht mehr als ein Verhältnismaß handelt, das die genetische Varianz in einer Stichprobe ins Verhältnis setzt zur Umweltvarianz (also der Unterschiedlichkeit der Umweltbedingungen) in derselben Stichprobe. Das bedeutet, die berechnete Heritabilität ist von beidem abhängig. Das scheint trivial, ist aber von großer Bedeutung: Wenn nämlich aus Gründen der mangelnden Repräsentativität der Stichprobe z.B. die Umweltvarianz sehr gering ist (weil sich in der Stichprobe z.B. nur nordamerikanische Männer aus der Mittelschicht befinden, die alle unter ähnlichen Umweltbedingungen leben), dann wird die Heritabilität zwangsläufig hoch ausfallen, weil die genetische Varianz in der Regel größer ist. Und in der Tat ist es so, dass viele der Studien, die zur Berechnung der Heritabilität durchgeführt wurden, genau diesen Schwachpunkt haben, was den Schluss nahelegt, dass die Heritabilität durch diese deutlich überschätzt wird – weil in den Stichproben gar nicht genug Umweltvarianz vorliegt, um dieses Maß sinnvoll zu deuten. Tatsächlich führt dieser Umstand oft zu seltsamen Phänomen und mitunter auch zu bildungspolitischen Fehlentscheidungen. So kam es z.B. bereits vor, dass Regierungen durch diverse Maßnahmen die Chancengleichheit von Kindern verbesserten und somit quasi die Umweltvarianz reduzierten, weil sich die Bedingungen, unter denen die Kinder lebten, dadurch ähnlicher wurden. Wenn dann z.B. durch Schultests der Bildungserfolg (der nun als weiteres Merkmal analog zur Intelligenz zu sehen ist) der Kinder gemessen und damit die „Heritabilität des Bildungserfolgs“ berechnet wird, kommt natürlich ein hoher Wert dabei heraus – der dann von (dummen) Politikern dahingehend fehlgedeutet wird, dass das Schaffen von Chancengleichheit völliger Quatsch ist, da der Bildungserfolg ja offenbar doch nur von der genetischen Ausstattung der Kinder abhängt. Ein Beispiel für einen grandiosen Fehlschluss.

Weitere Kritik an der Verhaltensgenetik

Neben diesen eklatanten Nachteilen des Konstrukts „Heritabilität“ gibt es diverse weitere Kritikpunkte an der klassischen Verhaltensgenetik. Diese Punkte betreffen vor allem die eher steinzeitliche Auffassung von Genetik und die ziemlich stiefmütterliche Behandlung des Umweltfaktors.

Konzeption von „Genetik“

Wie schon beschrieben, wird in der klassischen Verhaltensgenetik der Grad der genetischen Übereinstimmung zwischen Menschen nicht gemessen bzw. erfasst, sondern aufgrund bestimmter Annahmen geschätzt (z.B. auf 50%). Das allein ist bereits wissenschaftlich ziemlich unbefriedigend. Hinzu kommt, dass man inzwischen (z.B. in der molekularen Verhaltensgenetik) sehr viel weiter ist und eine Fülle verschiedener Arten von „Genvarianz“ unterscheidet – unter anderem die Varianz, die dadurch entsteht, dass unterschiedliche Allele an weit voneinander entfernten Orten im Genom (d.h. der Gesamtheit aller Gene) miteinander interagieren. Im Rahmen von so genannten Kopplungs- und Assoziationsstudien wird zudem durch den Scan des menschlichen Genoms untersucht, welche bestimmten Allele in Zusammenhang mit bestimmten Merkmalen wie z.B. psychischen Störungen stehen.

Konzeption von „Umwelt“

Man muss wohl zugeben, dass der Begriff „Umwelt“ so ziemlich einer der schwammigsten in der gesamten Psychologie ist. Gemeint ist hiermit die Summe an externen Faktoren, die einen Menschen in seiner Entwicklung von Geburt an beeinflussen – d.h. ungefähr alles von Ernährung und Klimabedingungen über Einkommen und Bildungsniveau der Eltern (oft zusammengefasst zum sozioökonomischen Status) bis hin zum elterlichen Erziehungsstil, den zur Verfügung gestellten Förderbedingungen und der Art der Eltern-Kind-Bindung. Das Problem hieran: Die Gleichheit oder Unterschiedlichkeit der Umwelt wurde und wird in der klassischen Verhaltensgenetik nie ausreichend präzise erfasst. Stattdessen verlässt man sich auch hier viel zu oft auf Daumenregeln, wie z.B. in den auch sehr beliebten Adoptionsstudien. Diese wurden lange als die beste Art von Studien gesehen, um den Einfluss von Umwelt und Genetik auf ein bestimmtes Merkmal voneinander zu trennen. Untersucht wurden hierbei eineiige Zwillingspaare (die also genetisch identisch ausgestattet sind), die jedoch von jeweils unterschiedlichen Familien adoptiert wurden. Die Annahme, die man hierbei meist getroffen hat, ist, dass die Umwelt der beiden Zwillinge im Gegensatz zum genetischen Faktor somit unterschiedlich ist. Sehr viele Psychologen haben in der Vergangenheit immer wieder betont, dass später gefundene Übereinstimmungen der Zwillinge, z.B. bzgl. des IQs, somit auf die gemeinsamen Gene zurückgeführt werden können. Dieser Schluss ist jedoch falsch: In Wirklichkeit ist es umgekehrt, weil vielmehr die gefundenen Unterschiede interessant sind – denn diese müssen zwangsläufig auf die Umwelt zurückzuführen sein. Die Schlussfolgerung ist aber aus noch einem zweiten Grund nicht korrekt: Übereinstimmungen zwischen solchen getrennt aufgewachsenen Zwillingen können ebenso auch auf die Umweltbedingungen zurückzuführen sein, denn diese sind in der Tat bei weitem nicht so unterschiedlich wie oft vermutet. Dies geht unter anderem zurück auf die bei Adoptionen weit verbreitete Praktik der selektiven Platzierung, die beinhaltet, dass die zuständigen Behörden darauf achten, dass die Adoptivfamilie der biologischen Familie des Kindes möglichst ähnlich ist. Untermauert wird diese bedeutende Rolle der Umwelt ferner durch eine Studie von Bronfenbrenner (1975), die zeigen konnte, dass die Übereinstimmungsrate (zu verstehen wie eine Korrelation) zwischen den IQ-Werten eineiiger Zwillinge stolze 0,80 betrug, wenn die Umwelten der getrennt aufgewachsenen Zwillinge sich stark ähnelten. War diese Ähnlichkeit jedoch nicht gegeben, lag die Übereinstimmung bei dem sehr viel niedrigeren Wert von 0,28. Insgesamt lässt sich hiermit also festhalten, dass durch die in der klassischen Verhaltensgenetik etablierten Methoden die Unterschiedlichkeit der Umwelt (also die Umweltvarianz) systematisch und erheblich unterschätzt wurde. So liegen z.B. sehr robuste Befunde dafür vor, dass gute Ernährung und insbesondere das Stillen sich positiv auf die spätere Intelligenz auswirken (die Unterschiede liegen im Bereich von 2 – 4 IQ-Punkten), während der mütterliche Alkohol- und Tabakkonsum sich negativ auswirken und im Falle von Alkoholkonsum (bei dem die Menge übrigens keine Rolle spielt!) sogar ein fetales Alkoholsyndrom (FAS) resultieren kann.

Gen-Umwelt-Interaktion

Das stärkste Argument gegen die klassischen Verhaltensgenetik kommt zum Schluss. Nämlich die Tatsache, dass es unangemessen ist, von einem additiven Verhältnis von Genetik und Umwelt auszugehen – was die klassischen Verhaltensgenetik jedoch tut und was sich auch in Maßen wie der Heritabilität wiederspiegelt. Denn nur wenn man davon ausgeht, dass Umwelt und Genetik eine Summe bilden, macht es Sinn, ein Verhältnis zu bilden, das eine Aussage darüber trifft, wie viel Prozent eines Merkmals auf Gene und wie viel auf Umwelt zurückzuführen sind. Inzwischen weiß man allerdings, dass diese Ansicht grundlegend falsch ist, sodass die additive Sicht inzwischen durch das Konzept der Gen-Umwelt-Interaktion ersetzt wurde. Gemeint ist hiermit, dass Gen- und Umweltfaktoren nicht einfach immer mit dem gleichen Gewicht aufeinander treffen, sondern dass bestimmte Umweltfaktoren je nach genetischer Ausstattung unterschiedlich wirksam sein können – ebenso wie dass bestimmte genetische Anlagen einer „Aktivierung“ aus der Umwelt bedürfen, ohne die sie nicht wirksam werden können. Mit anderen Worten: Umwelt und Genetik sind voneinander abhängig und greifen wie Zahnräder ineinander. So gibt es z.B. aus dem Bereich der Intelligenzforschung sehr überzeugende Befunde, dass gute genetische Anlagen nur dann zu einer hohen Intelligenz in einem späteren Alter führen, wenn das Kind in einer Umwelt aufwächst, in der seine Fähigkeiten gefördert werden. Ebenso für die Bedeutung der Umwelt spricht, dass sich die Befunde mehren, dass vernünftig konzipierte Intelligenztrainings eine nachweisbare (wenn auch nicht exorbitant große) Wirkung zeigen. Was genau man sich unter einer Gen-Umwelt-Interaktion vorstellen kann, habe ich übrigens auch in einer meiner hochgeladenen Präsentationen erklärt – am Beispiel von Depressionen. Die Präsentation finden Sie hier.

Insgesamt legt all dies das Fazit nahe, dass durch unsere genetische Ausstattung offenbar zwar ein gewisser Rahmen abgesteckt wird, innerhalb dessen sich unsere letztliche Intelligenz später einmal bewegt – aber dass die Umwelt auf das endgültige „Ergebnis“ einen sehr viel größeren Einfluss hat als lange angenommen. Dass jedoch die Bedeutung der Umwelt lange unterschätzt, ignoriert und als unwissenschaftlich abgewertet wurde, hatte erhebliche soziale und politische Konsequenzen, was uns zu einem sehr dunklen Kapitel der klassischen Verhaltensgenetik – und somit der Psychologie – bringt. Dieses wird Teil des nächsten und letzten Artikels der Intelligenz-Reihe sein, der mir aufgrund seiner gesellschaftlichen Bedeutung so sehr am Herzen liegt wie nur wenige andere.

 © Christian Rupp 2014

Intelligenz – Teil 4: Was messen IQ-Tests und worin besteht ihre Berechtigung?

Nachdem es in Teil 3 darum ging, wie sich der so genannte „IQ“ berechnet und wie er zu interpretieren ist, widmet dieser Artikel sich der Frage: Wie lässt sich Intelligenz messen? Und messen Intelligenztests tatsächlich Intelligenz?

Die verschiedenen Arten von Intelligenztests lassen sich ganz grob in zwei Gruppen einteilen. Anhand ihrer Verbreitung und Etabliertheit habe ich diese zwei Kategorien einmal „untypisch“ und „typisch“ getauft.

„Untypische“ Vertreter

In diese Kategorie fallen zu allererst einmal die so genannten elementaren kognitiven Aufgaben (kurz EKAs). Hierbei handelt es sich um eine Reihe relativ einfacher Aufgaben, z.B. die Identifikation von präsentierten Reizen (Kreis oder Quadrat?), die Unterscheidung von Reizen (Welcher der zwei Töne ist höher?) oder die Erinnerungsleistung in Kurzzeitgedächtnisaufgaben (z.B. maximale Zahl von Zahlen, die jemand, unmittelbar nachdem er sie gehört hat, in derselben Reihenfolge wiedergeben kann). Die Variablen, die hier als Maß für Intelligenz herangezogen werden, sind unter anderem die Reaktionszeit, die so genannte inspection time (Zeit, die jemand benötigt, um z.B. zu sagen, welche von zwei Linien länger ist) oder aber auch mit dem EEG gemessene ereigniskorrelierte Potenziale, wobei die Dauer bis zum Auftreten des Pozentials im EEG (die so genannte Latenz) als Maß für die Verarbeitungsgeschwindigkeit herangezogen wird, die wiederum Intelligenz widerspiegeln soll. Zur Validität der EKAs (also der Frage, in wiefern diese tatsächlich Intelligenz messen), liegen divergierende Befunde vor. Untersucht wurde diese Fragestellung, indem der lineare Zusammenhang (die Korrelation) zwischen der Leistung in EKAs und der Leistung in „typischen“ Intelligenztests berechnet wurde. Diese Korrelation allerdings schwankt in den verschiedenen Studien zwischen 0,35 und 0,70 – mit anderen Worten: Der Zusammenhang ist nicht bombig, und es ist wenig naheliegend, die Leistung in EKAs als alleinigen Indikator für Intelligenz zu betrachten. Ähnliches gilt für die Gehirngröße (gemessen z.B. per MRT bei lebenden oder aber direkt am Objekt  bei toten Menschen), die laut einer Metaanalyse von McDaniel (2005) eine Korrelation von 0,33 mit der Leistung in typischen Intelligenztests aufweist. Dass hier kein so besonders großer Zusammenhang besteht, ist wenig verwunderlich, wenn man bedenkt, dass die Art der synaptischen Vernetzung in unserem Gehirn sehr viel wichtiger für die reibungslose Verarbeitung von Informationen ist als dessen einfaches Volumen.

Zweitens wären da eine Reihe von Tests, die offenkundig „typischen“ Vertretern ähneln, sich aber dadurch von diesen unterscheiden, dass sie den Generalfaktor g ablehnen, d.h. nicht von einem, allen Facetten übergeordneten allgemeinen Intelligenzfaktor ausgehen, sondern von mehreren voneinander unabhängigen Faktoren. In der Tat stellen die von diesen Tests postulierten Faktoren meist elementare kognitive Funktionen (ähnlich den EKAs) dar – und keine Intelligenzkomponenten, wie in den in Teil 2 beschriebenen Modellen aufgeführt. In diese Kategorie fallen z.B. das Cognitive Assessment System (CAS) und die Kaufman-Tests (z.B. das „K-ABC“). Während das CAS u.a. die Faktoren Planung (Strategien zur Problemlösung entwickeln) und Simultanität (getrennte Objekte zu etwas Ganzem integrieren) erfasst, unterscheidet das K-ABC zwischen erworbenen Fertigkeiten (Rechnen und Schreiben), simultaner Verarbeitung (Matrizen-Aufgaben der Sorte „Welches Bild ergänzt das Muster?“) und sequenzieller Verarbeitung (z.B. Zahlen nachsprechen). Wichtig beim K-ABC: Nur diese letzten zwei Faktoren sollen die kognitive Leistungsfähigkeit widerspiegeln; erworbene Fähigkeiten werden isoliert hiervon betrachtet.

„Typische“ Vertreter

Zu den typischen Vertretern gehören alle psychometrischen Tests, d.h. solche, die in der Regel auf einem bestimmten Intelligenzmodell (siehe Teil 2) basieren, eine Reihe verschiedener Aufgabentypen beinhalten, die normiert sind (damit die Leistung der getesten Person mit der von hinsichtlich Alter und Geschlecht ähnlichen Personen verglichen werden kann) und (das ist zentral) deren Gütekriterien (Objektivität, Reliabilität, Validität) überprüft wurden und als gesichert gelten.

Die meisten dieser Tests basieren auf Modellen, die einen g-Faktor annehmen, und ermöglichen daher auch die Berechnung eines allgemeinen Intelligenzquotienten. Ein Beispiel hierfür sind die Wechsler-Intelligenztests, z.B. der WIE (Wechsler-Intelligenztest für Erwachsene) oder der HAWIK-IV (Hamburg-Wechsler-Intelligenztest für Kinder, 4. Auflage). In den Wechsler-Tests gibt es u.a. die typischen Aufgabenbereiche Allgemeines Wissen, Finden von Gemeinsamkeiten, Matrizen ergänzen, Mosaike legen, Zahlen nachsprechen (vorwärts und rückwärts) und Kopfrechnen. Während die Wechsler-Tests sowohl die Berechnung der allgemeinen Intelligenz als auch verschiedener Unterfacetten ermöglichen, erlauben die so genannten Raven-Tests, die ausschließlich aus Matrizenaufgaben bestehen, nur die Berechnung eines allgemeinen IQs. Der Intelligenzstruktur-Tests (IST-2000-R), der auf dem Modell von Thurstone basiert, ermöglicht hingegen nur die Berechnung von IQ-Werten für die Bereiche schlussfolgerndes Denken (verbal, figural und numerisch) und Merkfähigkeit (verbal und figural). Zusätzlich gibt es einen Wissenstest, der aber nicht obligatorisch ist und am ehesten kristalline Intelligenz widerspiegelt.

Wozu das ganze? Der Sinn der Intelligenzmessung.

Nun kann man sich fragen, was es einem bringt, die Intelligenz einen Menschen (bzw. das, was diese ganzen Tests vorgeben, zu messen) zu erfassen. Die selbstwertregulierende Funktion liegt auf der Hand (es ist natürlich schön, von sich sagen zu können, dass man intelligenter als 99% der restlichen Menschheit ist), aber das ist zum Glück nicht alles.

Diagnostik von Intelligenzminderung & Hochbegabung

In der Tat sind Intelligenztests ein extrem wichtiges diagnostisches Instrument, das in vielen Bereichen zum Einsatz kommt. Im Bereich der pädagogischen Psychologie sind da z.B. die Diagnostik von Teilleistungsstörungen wie Lesestörungen, Rechtschreibstörungen und Dyskalkulie (Rechenstörung) zu nennen, zu deren Diagnose nämlich die Leistung im jeweils beeinträchtigten Bereich mindestens zwei Standardabweichungen (also deutlich) unterhalb der allgemeinen Intelligenz liegen müssen (um auszuschließen, dass es sich um eine generelle Intelligenzminderung oder gar eine geistige Behinderung handelt). Aber auch am anderen Ende der Skala ergibt sich ein wichtiges Anwendungsfeld: die Hochbegabtendiagnostik. Die ist deshalb so wichtig, weil es bei solchen Kindern von großer Bedeutung ist, diese hohe Intelligenz zu fördern, um Unterforderungserleben zu verhindern, das sonst leicht zu Problemen führen kann (z.B. weil das Kind den Unterricht stört oder sich zurückzieht). Vielleicht denken Sie hierbei auch gleichzeitig an die Diagnose einer ADHS. Das ist völlig richtig, denn auch zu dieser Diagnose muss eine Hochbegabung (genauso wie eine geistige Behinderung) als Ursache des unangepassten Verhaltens des Kindes ausgeschlossen werden.

Bewerberauswahl und Vorhersage des Schulerfolgs

Die weiteren Anwendungsgebiete von Intelligenztests ergeben sich aus der breitgefächerten prädiktiven Validität von Intelligenztests, d.h. aus der Tatsache, dass sich durch die Intelligenzleistung zu einem bestimmten Zeitpunkt bestimmte andere Variablen ziemlich gut vorhersagen lassen. So zeigte z.B. eine Metaanalyse von Schmidt und Hunter aus dem Jahr 1998, dass die allgemeine Intelligenz zu 0,54 mit dem späteren Arbeitserfolg bzw. der beruflichen Leistung korrelierte – damit sind Intelligenztests diejenige Methode mit der besten Vorhersagekraft für Berufserfolg. Trotz dieser Erkenntnis bevorzugen die meisten Unternehmen bei der Bewerberauswahl jedoch die sehr viel teureren Assessment-Center, wobei die Argumente hierfür denkbar schwach sind: Die Leistung in diesen korreliert nämlich im Mittel nur zu 0,37 mit späterem Berufserfolg. Ähnliche Korrelationen ergeben sich für die Beziehung von Intelligenz und Schulerfolg, gemessen z.B. durch die Schulnote. Diese schwanken nach Deary und Kollegen (2007) zwischen 0,43 im Fach Kunst und 0,77 im Fach Mathematik (und das ist in der Psychologie eine wirklich verdammt hohe Korrelation). Als Anwendungsfeld ergibt sich hierbei z.B. die Verteilung von Kindern auf verschiedene Schulformen, um eine jeweils optimale Förderung zu ermöglichen.

Von Haftstrafen bis Krebs

Die Vorhersagekraft der allgemeinen Intelligenz ist jedoch noch sehr viel größer. Eine große Zahl von Längsschnittstudien (d.h. solchen, die z.B. in der Kindheit den IQ messen und dann über die folgenden 20 Jahre weitere Variablen erfassen) wurde zu diesem Thema durchgeführt und führte zu verblüffenden Ergebnissen. So zeigte sich, dass mit steigendem IQ das Risiko für Arbeitslosigkeit und Armut abnimmt, ebenso wie für Scheidungen und Haftstrafen. Zudem ergab sich, dass sogar Krebsdiagnosen umso unwahrscheinlicher sind, je intelligenter der Mensch ist. Bei vielen dieser Zusammenhänge gibt es sehr wahrscheinlich so genannte vermittelnde Variablen, d.h. solche, die den Zusammenhang zwischen IQ und der jeweils anderen Variable erklären. So ist der Zusammenhang mit Arbeitslosigkeit und Armut sicherlich darauf zurückzuführen, dass ein höherer IQ höhere Bildungsabschlüsse ermöglicht, die dann wiederum das Risiko für Arbeitslosigkeit und Verarmung reduzieren. Ähnliches gilt für den Fall der Krebsdiagnosen: Menschen mit höherem IQ haben in der Regel einen gesünderen Lebensstil (trinken z.B. weniger Alkohol und rauchen nicht), was dann wiederum das Krebsrisiko niedrig hält.

Messen Intelligenztests wirklich Intelligenz?

Hier bewegen wir uns auf die Frage nach der Validität dieser Tests zu. Um die Frage aus der Überschrift zu beantworten, müssen wir jedoch verschiedene Aspekte des Konstrukts „Validität“ auseinander halten. Zunächst kann man davon ausgehen, dass bei Intelligenztests im Allgemeinen die Augenscheinvalidität (auch Inhaltsvalidität genannt) gegeben ist. Diese bezieht sich allerdings nur auf die einzelnen Untertests und meint nicht mehr, als dass die Aufgaben offenbar das erfassen, was sie vorgeben zu erfassen – z.B. dass man bei Rechenaufgaben rechnen muss, dass Wortschatzaufgaben die Größe des Wortschatzes erfassen, etc. Allerdings muss man zugeben, dass diese Inhaltsvalidität bei komplexeren Aufgaben wie Matrizenergänzungen durchaus nicht so einfach zu beurteilen ist, weil die Frage nach den Prozessen, die zur Lösung der Aufgaben bewältigt werden müssen, so groß ist, dass sie ein eigenes Forschungsfeld darstellt.

Wenn man jedoch den gesamten Test heranzieht und sich fragt, ob dieser das Konstrukt „Intelligenz“ misst, ist die Antwort schon weniger eindeutig. Dafür, dass zumindest die meisten Intelligenztests annähernd dasselbe messen, sprechen die ziemlich hohen Korrelationen zwischen den Ergebnissen derselben Person in verschiedenen Intelligenztests. Dies bezeichnet man auch als diagnostische Validität. Und dafür, dass mit diesen Tests offenbar etwas gemessen wird, das Auswirkungen auf extrem viele andere Lebensbereiche (Berufserfolg, Gesundheit, etc.) hat, liegen ebenfalls zahlreiche Belege vor (prädiktive Validität). Mit anderen Worten: Irgendetwas muss ganz offensichtlich dran sein an diesem Konstrukt.

Es gibt aber natürlich auch jede Menge Kritik an der gesamten Intelligenzmessung. An dieser Stelle sei noch einmal deutlich betont, dass es sich, wie in Teil 1 beschrieben, bei Intelligenz lediglich um ein Konstrukt handelt – und nicht um eine vom Himmel gefallene und unumstößlich definierte Begebenheit. So wird von Kritikern z.B. eingeworfen, dass klassische Intelligenztests viele Aspekte gar nicht berücksichtigen, z.B. sozio-emotionale Kompetenzen. Zudem wird häufig angemerkt, dass Intelligenz auch die Aneignung von Fertigkeiten und Wissen im kulturellen Kontext bedeutet – was die Tests allesamt nicht erfassen.

Letztendlich handelt es sich bei der Frage, was Intelligenztests messen, also um eine, die die Wissenschaft nie endgültig wird beantworten können, weil dies unmöglich ist. Man kann als Fazit allerdings zweierlei festhalten: Dass Intelligenztests das messen, was sie vorgeben zu messen, scheint auf Basis der Befunde zur Inhalts-, diagnostischen und prädiktiven Validität sehr wahrscheinlich – ebenso wie dass dieses Konstrukt, wie auch immer man es nennen mag, offenbar große Auswirkungen auf unser Leben hat. Ob diese Tests aber tatsächlich Intelligenz messen, lässt sich nicht beantworten, da es sich hierbei um ein höchst unterschiedlich definiertes Konstrukt handelt.

Bleibt der IQ immer gleich? Die Frage nach der Stabilität.

Auch diese Frage hat wiederum zwei Facetten. Die erste ist die Frage, ob Intelligenztests zuverlässig messen, d.h. reliabel sind. Im Wesentlichen ist hiermit die Frage verknüpft, wie genau Intelligenztests messen. Nun, ein psychometrischer Test misst nicht so genau wie eine Waage, das ist klar. Aber die meisten Intelligenztests haben Reliabilitäten von über 0,90, was ziemlich gut ist. Am geläufigsten ist hierbei die so genannte Retest-Reliabilität, d.h. die Frage nach der Übereinstimmung der Testergebnisse, wenn Personen denselben Test zweimal hintereinander bearbeiten. Hierbei muss das Zeitintervall natürlich groß genug sein, um auszuschließen, dass die Person die richtigen Lösungen bei der Bearbeitung lediglich erinnert. Der zeitliche Abstand darf aber auch nicht zu lang sein, da es sonst möglich ist, dass eine große Abweichung der Testwerte darauf zurückgeht, dass die tatsächliche Intelligenzleistung der Person sich verändert hat (was besonders bei Kindern der Fall ist, die einen schnellen Zuwachs verzeichnen).

Die zweite Frage ist die, ob die Intelligenzleistung selbst stabil ist. Hier bietet die Forschungslage erfreulicherweise einen relativ eindeutigen Befund: Obwohl IQ-Werte auch tagesformabhängig sind (logisch, da man sich nicht immer gleich gut konzentrieren kann), sind die Fluktuationen ziemlich gering, und Intelligenz erweist sich insgesamt als ziemlich stabile Eigenschaft. Stabil meint hierbei allerdings nicht, dass immer gleich viele Punkte im selben Test erreicht werden, sondern dass eine Person im Vergleich zur alters- und geschlechtsspezifischen Normstichprobe gleich gut bleibt. Als Beispiel: Natürlich wird ein zehnjähriges Kind im HAWIK mehr Punkte erzielen als mit sechs Jahren, aber es behält trotzdem denselben IQ, weil es bei den beiden Messungen mit unterschiedlichen Normstichproben verglichen wird. Verschiedene Untersuchungen zeigen sogar eine erstaunliche Stabilität des IQ über sehr lange Zeitspannen: So ergab sich in einer Studie von Deary und Kollegen (2000) eine beachtliche Korrelation von 0,77 zwischen den IQ-Werten einer Stichprobe, die zum ersten Mal 1932 und zum zweiten Mal 1995 an demselben Test teilgenommen hatte.

Interessant ist diesbezüglich übrigens der sehr unterschiedliche Verlauf von fluider und kristalliner Intelligenz über die Lebensspanne. Studien aus diesem Bereich zeigen, dass, während die kristalline Intelligenz (im Wesentliches also erworbenes Wissen) im Laufe des Lebens zunimmt bzw. stagniert, die fluide Intelligenz (logisches Denken etc.) abnimmt. Neuere Untersuchungen zeigen jedoch, dass der Rückgang der fluiden Intelligenz auf etwas anderes zurückzuführen ist – nämlich auf die mit dem Alter geringer werdende Erfahrung mit den Aufgabenformaten typischer Intelligenztests, die stark an die von Schulaufgaben angelehnt sind. Insgesamt kann man also sagen: Intelligenz ist ziemlich stabil, aber eben nicht perfekt stabil. Und das liegt maßgeblich daran, dass wir entgegen der weitläufigen Meinung nicht mit einem festgelegten IQ geboren werden – was Thema des fünften Teils der Intelligenz-Reihe sein wird.

 © Christian Rupp 2014