psycholography

Intelligenz – Teil 5: Ist unser IQ ausschließlich genetisch bedingt?

Vielen Lesern mag diese Frage allein schon seltsam vorkommen, herrscht doch in vielen Bereichen unserer Gesellschaft doch die Meinung vor, dass Menschen hinsichtlich ihrer Fähigkeiten stark formbar sind. Schließlich schicken wir unsere Kinder in die Schule, regen sie bei schlechten Noten an, sich anzustrengen und besorgen ihnen eine nette Nachhilfelehrerin. Die in der Überschrift gestellte Frage ist jedoch berechtigt, herrschte (und herrscht oft heute noch) in der Psychologie doch die Ansicht vor, dass die allgemeine Intelligenz des Menschen ein Merkmal darstellt, das zu einem vergleichsweise großen Anteil vererbt wird, d.h. genetisch determiniert ist. Da man in der Psychologie ebenso wie in der gesamten Wissenschaft ziemlich sicher ist, dass kaum ein menschliches Merkmal (mit Ausnahme von Dingen wie Augenfarbe und Blutgruppe) zu 100% genetisch bestimmt ist, begann man vor einigen Jahrzehnten, sich der Frage nach dem Anteil zu widmen, der auf genetische einerseits und Umwelteinflüsse andererseits zurückzuführen ist. Der Wissenschaftszweig, der sich hieraus entwickelte, nennt sich Verhaltensgenetik.

Das Konzept der Heritabilität

Den Grad der Erblichkeit eines Merkmals wie Intelligenz vernünftig zu berechnen, ist alles andere als einfach. In der Regel wird als Anhaltspunkt die so genannte Heritabilität berechnet, welche zweifelsohne zu den Messgrößen gehört, die am häufigsten falsch und vor allem überinterpretiert werden. Meistens wird die Heritabilität auf Basis von Zwillingsstudien berechnet. Das sind Studien, in denen eineiige (die zu 100% dieselben Gene besitzen) oder aber zweieiige Zwillinge (die durchschnittlich, aber nicht immer genau, 50% der Gene teilen – genau wie „normale“ Geschwister) dahingehend untersucht werden, inwieweit jedes der untersuchten Zwillingspaare hinsichtlich eines bestimmten Merkmals übereinstimmt. In unserem Fall bedeutet das: Bei beiden Zwillingen wird der IQ gemessen, und dann wird über die gesamte Stichprobe von Zwillingspaaren die Korrelation berechnet, sodass man ein Maß dafür erhält, wie groß über alle Zwillingspaare hinweg die durchschnittliche Übereinstimmung zwischen Zwilling A und Zwilling B ist. Wenn ein Merkmal stark genetisch bedingt ist, würde man erwarten, dass die Korrelation bezüglich dieses Merkmals bei eineiigen Zwillingen sehr viel größer ausfällt als bei zweieiigen. Diese Korrelation wird nun für eineiige und zweieiige Zwillinge separat berechnet, und die Heritabilität stellt ein Maß dar, das diese beiden Korrelationen zueinander ins Verhältnis setzt. Daher variiert auch die Heritabilität zwischen 0% und 100%, wobei der errechnete Prozentsatz, genau gesagt, den Anteil an der Gesamtvarianz eines bestimmten messbaren Merkmals (wie Intelligenz) in einer Population wiedergibt, der auf genetische Unterschiede zurückgeführt werden kann. Mit anderen Worten: Eine Heritabilität von 50% würde z.B. bedeuten, dass 50% der Varianz (also der Streuung) der Intelligenzwerte in der gesamten Population (wofür die Stichprobe stellvertretend ist) auf genetische Unterschiede der Menschen zurückgeführt werden kann. Oder noch anders ausgedrückt: Es bedeutet, dass 50% der IQ-Unterschiede innerhalb der gemessenen Gruppe mit den genetischen Unterschiedenen der Gruppenmitglieder (linear) zusammenhängen. Für das Merkmal Intelligenz wurden so in der Vergangenheit meist Heritabilitätswerte zwischen 70 und 80% berichtet, was ziemlich hohe Werte sind.

Kritik am Konzept der Heritabilität

Keine Aussagen über einzelne Personen

Der wichtigste Aspekt ist hierbei, dass die Heritabilität sich immer nur auf die Population oder, genau genommen, auf die Stichprobe von Individuen bezieht, bei denen das Merkmal erhoben wurde. Die Prozentzahl kann somit nicht herangezogen werden, um Aussagen über eine einzelne Person zu treffen: Die Aussage „Bei jeder einzelnen Person ist die Intelligenz zu 80% genetisch bedingt“ ist daher nicht korrekt.

Mutmaßung statt Messung und irreführende Prozentzahlen

Außerdem ist es wichtig, anzumerken, dass bei alledem der Grad der genetischen Übereinstimmung einfach auf einen bestimmten Wert festgelegt wird. Das ist bei eineiigen Zwillingen (da sind die 100% unumstößlich) weit weniger problematisch als bei zweieiigen: Da nämlich ist der durchschnittliche Wert 50%, aber dieser kann erheblich variieren. Es würde also mehr Sinn machen, die tatsächliche Übereinstimmung zu messen anstatt sie zu schätzen – das allerdings würde den Aufwand einer solchen ohnehin komplexen Studie ins nahezu Unermessliche steigern. Übrigens: Die Zahl 50% ist hochgradig irreführend, weil alle Menschen (egal welcher ethnischer Abstammung) 100% aller Gene gemeinsam haben. Die Unterschiede liegen in den Genvarianten, den Allelen – und selbst diese sind bei allen Menschen zu 99,9% gleich. Die gesamte Varianz des menschlichen Erscheinungsbildes spielt sich also in diesen 0,1% ab – und wenn es heißt, zweieiige Zwillinge hätten 50% ihrer Gene gemeinsam, so bezieht sich das lediglich auf 50% dieser 0,1% der Allele. Korrekt wäre also eigentlich die Aussage: Zweieiige Zwillinge teilen 99,95% ihrer Allele, und eineiige 100%.

Aussagen sind zeitlich beschränkt

Der zweite Kritikpunkt betrifft die Tatsache, dass die Schätzung der Heritabilität immer nur eine Momentaufnahme darstellt, d.h. immer nur die Rolle des aktuell aktivierten genetischen Materials wiederspiegelt. Wie man aber inzwischen weiß, werden die unterschiedlichen Gene im Laufe eines menschlichen Lebens ziemlich häufig an- und wieder abgeschaltet, sodass die Heritabilität keine Schätzung über zum Zeitpunkt der Messung nicht aktiviertes genetisches Potenzial erlaubt.

Nicht mehr als ein Verhältnismaß

Das wohl wichtigste Argument gegen die Heritabilität, welches deren Interpretierbarkeit stark eingrenzt, ist die Tatsache, dass es sich hierbei, wenn man die Formel einmal übersetzt, um nicht mehr als ein Verhältnismaß handelt, das die genetische Varianz in einer Stichprobe ins Verhältnis setzt zur Umweltvarianz (also der Unterschiedlichkeit der Umweltbedingungen) in derselben Stichprobe. Das bedeutet, die berechnete Heritabilität ist von beidem abhängig. Das scheint trivial, ist aber von großer Bedeutung: Wenn nämlich aus Gründen der mangelnden Repräsentativität der Stichprobe z.B. die Umweltvarianz sehr gering ist (weil sich in der Stichprobe z.B. nur nordamerikanische Männer aus der Mittelschicht befinden, die alle unter ähnlichen Umweltbedingungen leben), dann wird die Heritabilität zwangsläufig hoch ausfallen, weil die genetische Varianz in der Regel größer ist. Und in der Tat ist es so, dass viele der Studien, die zur Berechnung der Heritabilität durchgeführt wurden, genau diesen Schwachpunkt haben, was den Schluss nahelegt, dass die Heritabilität durch diese deutlich überschätzt wird – weil in den Stichproben gar nicht genug Umweltvarianz vorliegt, um dieses Maß sinnvoll zu deuten. Tatsächlich führt dieser Umstand oft zu seltsamen Phänomen und mitunter auch zu bildungspolitischen Fehlentscheidungen. So kam es z.B. bereits vor, dass Regierungen durch diverse Maßnahmen die Chancengleichheit von Kindern verbesserten und somit quasi die Umweltvarianz reduzierten, weil sich die Bedingungen, unter denen die Kinder lebten, dadurch ähnlicher wurden. Wenn dann z.B. durch Schultests der Bildungserfolg (der nun als weiteres Merkmal analog zur Intelligenz zu sehen ist) der Kinder gemessen und damit die „Heritabilität des Bildungserfolgs“ berechnet wird, kommt natürlich ein hoher Wert dabei heraus – der dann von (dummen) Politikern dahingehend fehlgedeutet wird, dass das Schaffen von Chancengleichheit völliger Quatsch ist, da der Bildungserfolg ja offenbar doch nur von der genetischen Ausstattung der Kinder abhängt. Ein Beispiel für einen grandiosen Fehlschluss.

Weitere Kritik an der Verhaltensgenetik

Neben diesen eklatanten Nachteilen des Konstrukts „Heritabilität“ gibt es diverse weitere Kritikpunkte an der klassischen Verhaltensgenetik. Diese Punkte betreffen vor allem die eher steinzeitliche Auffassung von Genetik und die ziemlich stiefmütterliche Behandlung des Umweltfaktors.

Konzeption von „Genetik“

Wie schon beschrieben, wird in der klassischen Verhaltensgenetik der Grad der genetischen Übereinstimmung zwischen Menschen nicht gemessen bzw. erfasst, sondern aufgrund bestimmter Annahmen geschätzt (z.B. auf 50%). Das allein ist bereits wissenschaftlich ziemlich unbefriedigend. Hinzu kommt, dass man inzwischen (z.B. in der molekularen Verhaltensgenetik) sehr viel weiter ist und eine Fülle verschiedener Arten von „Genvarianz“ unterscheidet – unter anderem die Varianz, die dadurch entsteht, dass unterschiedliche Allele an weit voneinander entfernten Orten im Genom (d.h. der Gesamtheit aller Gene) miteinander interagieren. Im Rahmen von so genannten Kopplungs- und Assoziationsstudien wird zudem durch den Scan des menschlichen Genoms untersucht, welche bestimmten Allele in Zusammenhang mit bestimmten Merkmalen wie z.B. psychischen Störungen stehen.

Konzeption von „Umwelt“

Man muss wohl zugeben, dass der Begriff „Umwelt“ so ziemlich einer der schwammigsten in der gesamten Psychologie ist. Gemeint ist hiermit die Summe an externen Faktoren, die einen Menschen in seiner Entwicklung von Geburt an beeinflussen – d.h. ungefähr alles von Ernährung und Klimabedingungen über Einkommen und Bildungsniveau der Eltern (oft zusammengefasst zum sozioökonomischen Status) bis hin zum elterlichen Erziehungsstil, den zur Verfügung gestellten Förderbedingungen und der Art der Eltern-Kind-Bindung. Das Problem hieran: Die Gleichheit oder Unterschiedlichkeit der Umwelt wurde und wird in der klassischen Verhaltensgenetik nie ausreichend präzise erfasst. Stattdessen verlässt man sich auch hier viel zu oft auf Daumenregeln, wie z.B. in den auch sehr beliebten Adoptionsstudien. Diese wurden lange als die beste Art von Studien gesehen, um den Einfluss von Umwelt und Genetik auf ein bestimmtes Merkmal voneinander zu trennen. Untersucht wurden hierbei eineiige Zwillingspaare (die also genetisch identisch ausgestattet sind), die jedoch von jeweils unterschiedlichen Familien adoptiert wurden. Die Annahme, die man hierbei meist getroffen hat, ist, dass die Umwelt der beiden Zwillinge im Gegensatz zum genetischen Faktor somit unterschiedlich ist. Sehr viele Psychologen haben in der Vergangenheit immer wieder betont, dass später gefundene Übereinstimmungen der Zwillinge, z.B. bzgl. des IQs, somit auf die gemeinsamen Gene zurückgeführt werden können. Dieser Schluss ist jedoch falsch: In Wirklichkeit ist es umgekehrt, weil vielmehr die gefundenen Unterschiede interessant sind – denn diese müssen zwangsläufig auf die Umwelt zurückzuführen sein. Die Schlussfolgerung ist aber aus noch einem zweiten Grund nicht korrekt: Übereinstimmungen zwischen solchen getrennt aufgewachsenen Zwillingen können ebenso auch auf die Umweltbedingungen zurückzuführen sein, denn diese sind in der Tat bei weitem nicht so unterschiedlich wie oft vermutet. Dies geht unter anderem zurück auf die bei Adoptionen weit verbreitete Praktik der selektiven Platzierung, die beinhaltet, dass die zuständigen Behörden darauf achten, dass die Adoptivfamilie der biologischen Familie des Kindes möglichst ähnlich ist. Untermauert wird diese bedeutende Rolle der Umwelt ferner durch eine Studie von Bronfenbrenner (1975), die zeigen konnte, dass die Übereinstimmungsrate (zu verstehen wie eine Korrelation) zwischen den IQ-Werten eineiiger Zwillinge stolze 0,80 betrug, wenn die Umwelten der getrennt aufgewachsenen Zwillinge sich stark ähnelten. War diese Ähnlichkeit jedoch nicht gegeben, lag die Übereinstimmung bei dem sehr viel niedrigeren Wert von 0,28. Insgesamt lässt sich hiermit also festhalten, dass durch die in der klassischen Verhaltensgenetik etablierten Methoden die Unterschiedlichkeit der Umwelt (also die Umweltvarianz) systematisch und erheblich unterschätzt wurde. So liegen z.B. sehr robuste Befunde dafür vor, dass gute Ernährung und insbesondere das Stillen sich positiv auf die spätere Intelligenz auswirken (die Unterschiede liegen im Bereich von 2 – 4 IQ-Punkten), während der mütterliche Alkohol- und Tabakkonsum sich negativ auswirken und im Falle von Alkoholkonsum (bei dem die Menge übrigens keine Rolle spielt!) sogar ein fetales Alkoholsyndrom (FAS) resultieren kann.

Gen-Umwelt-Interaktion

Das stärkste Argument gegen die klassischen Verhaltensgenetik kommt zum Schluss. Nämlich die Tatsache, dass es unangemessen ist, von einem additiven Verhältnis von Genetik und Umwelt auszugehen – was die klassischen Verhaltensgenetik jedoch tut und was sich auch in Maßen wie der Heritabilität wiederspiegelt. Denn nur wenn man davon ausgeht, dass Umwelt und Genetik eine Summe bilden, macht es Sinn, ein Verhältnis zu bilden, das eine Aussage darüber trifft, wie viel Prozent eines Merkmals auf Gene und wie viel auf Umwelt zurückzuführen sind. Inzwischen weiß man allerdings, dass diese Ansicht grundlegend falsch ist, sodass die additive Sicht inzwischen durch das Konzept der Gen-Umwelt-Interaktion ersetzt wurde. Gemeint ist hiermit, dass Gen- und Umweltfaktoren nicht einfach immer mit dem gleichen Gewicht aufeinander treffen, sondern dass bestimmte Umweltfaktoren je nach genetischer Ausstattung unterschiedlich wirksam sein können – ebenso wie dass bestimmte genetische Anlagen einer „Aktivierung“ aus der Umwelt bedürfen, ohne die sie nicht wirksam werden können. Mit anderen Worten: Umwelt und Genetik sind voneinander abhängig und greifen wie Zahnräder ineinander. So gibt es z.B. aus dem Bereich der Intelligenzforschung sehr überzeugende Befunde, dass gute genetische Anlagen nur dann zu einer hohen Intelligenz in einem späteren Alter führen, wenn das Kind in einer Umwelt aufwächst, in der seine Fähigkeiten gefördert werden. Ebenso für die Bedeutung der Umwelt spricht, dass sich die Befunde mehren, dass vernünftig konzipierte Intelligenztrainings eine nachweisbare (wenn auch nicht exorbitant große) Wirkung zeigen. Was genau man sich unter einer Gen-Umwelt-Interaktion vorstellen kann, habe ich übrigens auch in einer meiner hochgeladenen Präsentationen erklärt – am Beispiel von Depressionen. Die Präsentation finden Sie hier.

Insgesamt legt all dies das Fazit nahe, dass durch unsere genetische Ausstattung offenbar zwar ein gewisser Rahmen abgesteckt wird, innerhalb dessen sich unsere letztliche Intelligenz später einmal bewegt – aber dass die Umwelt auf das endgültige „Ergebnis“ einen sehr viel größeren Einfluss hat als lange angenommen. Dass jedoch die Bedeutung der Umwelt lange unterschätzt, ignoriert und als unwissenschaftlich abgewertet wurde, hatte erhebliche soziale und politische Konsequenzen, was uns zu einem sehr dunklen Kapitel der klassischen Verhaltensgenetik – und somit der Psychologie – bringt. Dieses wird Teil des nächsten und letzten Artikels der Intelligenz-Reihe sein, der mir aufgrund seiner gesellschaftlichen Bedeutung so sehr am Herzen liegt wie nur wenige andere.

 © Christian Rupp 2014

Intelligenz – Teil 4: Was messen IQ-Tests und worin besteht ihre Berechtigung?

Nachdem es in Teil 3 darum ging, wie sich der so genannte „IQ“ berechnet und wie er zu interpretieren ist, widmet dieser Artikel sich der Frage: Wie lässt sich Intelligenz messen? Und messen Intelligenztests tatsächlich Intelligenz?

Die verschiedenen Arten von Intelligenztests lassen sich ganz grob in zwei Gruppen einteilen. Anhand ihrer Verbreitung und Etabliertheit habe ich diese zwei Kategorien einmal „untypisch“ und „typisch“ getauft.

„Untypische“ Vertreter

In diese Kategorie fallen zu allererst einmal die so genannten elementaren kognitiven Aufgaben (kurz EKAs). Hierbei handelt es sich um eine Reihe relativ einfacher Aufgaben, z.B. die Identifikation von präsentierten Reizen (Kreis oder Quadrat?), die Unterscheidung von Reizen (Welcher der zwei Töne ist höher?) oder die Erinnerungsleistung in Kurzzeitgedächtnisaufgaben (z.B. maximale Zahl von Zahlen, die jemand, unmittelbar nachdem er sie gehört hat, in derselben Reihenfolge wiedergeben kann). Die Variablen, die hier als Maß für Intelligenz herangezogen werden, sind unter anderem die Reaktionszeit, die so genannte inspection time (Zeit, die jemand benötigt, um z.B. zu sagen, welche von zwei Linien länger ist) oder aber auch mit dem EEG gemessene ereigniskorrelierte Potenziale, wobei die Dauer bis zum Auftreten des Pozentials im EEG (die so genannte Latenz) als Maß für die Verarbeitungsgeschwindigkeit herangezogen wird, die wiederum Intelligenz widerspiegeln soll. Zur Validität der EKAs (also der Frage, in wiefern diese tatsächlich Intelligenz messen), liegen divergierende Befunde vor. Untersucht wurde diese Fragestellung, indem der lineare Zusammenhang (die Korrelation) zwischen der Leistung in EKAs und der Leistung in „typischen“ Intelligenztests berechnet wurde. Diese Korrelation allerdings schwankt in den verschiedenen Studien zwischen 0,35 und 0,70 – mit anderen Worten: Der Zusammenhang ist nicht bombig, und es ist wenig naheliegend, die Leistung in EKAs als alleinigen Indikator für Intelligenz zu betrachten. Ähnliches gilt für die Gehirngröße (gemessen z.B. per MRT bei lebenden oder aber direkt am Objekt  bei toten Menschen), die laut einer Metaanalyse von McDaniel (2005) eine Korrelation von 0,33 mit der Leistung in typischen Intelligenztests aufweist. Dass hier kein so besonders großer Zusammenhang besteht, ist wenig verwunderlich, wenn man bedenkt, dass die Art der synaptischen Vernetzung in unserem Gehirn sehr viel wichtiger für die reibungslose Verarbeitung von Informationen ist als dessen einfaches Volumen.

Zweitens wären da eine Reihe von Tests, die offenkundig „typischen“ Vertretern ähneln, sich aber dadurch von diesen unterscheiden, dass sie den Generalfaktor g ablehnen, d.h. nicht von einem, allen Facetten übergeordneten allgemeinen Intelligenzfaktor ausgehen, sondern von mehreren voneinander unabhängigen Faktoren. In der Tat stellen die von diesen Tests postulierten Faktoren meist elementare kognitive Funktionen (ähnlich den EKAs) dar – und keine Intelligenzkomponenten, wie in den in Teil 2 beschriebenen Modellen aufgeführt. In diese Kategorie fallen z.B. das Cognitive Assessment System (CAS) und die Kaufman-Tests (z.B. das „K-ABC“). Während das CAS u.a. die Faktoren Planung (Strategien zur Problemlösung entwickeln) und Simultanität (getrennte Objekte zu etwas Ganzem integrieren) erfasst, unterscheidet das K-ABC zwischen erworbenen Fertigkeiten (Rechnen und Schreiben), simultaner Verarbeitung (Matrizen-Aufgaben der Sorte „Welches Bild ergänzt das Muster?“) und sequenzieller Verarbeitung (z.B. Zahlen nachsprechen). Wichtig beim K-ABC: Nur diese letzten zwei Faktoren sollen die kognitive Leistungsfähigkeit widerspiegeln; erworbene Fähigkeiten werden isoliert hiervon betrachtet.

„Typische“ Vertreter

Zu den typischen Vertretern gehören alle psychometrischen Tests, d.h. solche, die in der Regel auf einem bestimmten Intelligenzmodell (siehe Teil 2) basieren, eine Reihe verschiedener Aufgabentypen beinhalten, die normiert sind (damit die Leistung der getesten Person mit der von hinsichtlich Alter und Geschlecht ähnlichen Personen verglichen werden kann) und (das ist zentral) deren Gütekriterien (Objektivität, Reliabilität, Validität) überprüft wurden und als gesichert gelten.

Die meisten dieser Tests basieren auf Modellen, die einen g-Faktor annehmen, und ermöglichen daher auch die Berechnung eines allgemeinen Intelligenzquotienten. Ein Beispiel hierfür sind die Wechsler-Intelligenztests, z.B. der WIE (Wechsler-Intelligenztest für Erwachsene) oder der HAWIK-IV (Hamburg-Wechsler-Intelligenztest für Kinder, 4. Auflage). In den Wechsler-Tests gibt es u.a. die typischen Aufgabenbereiche Allgemeines Wissen, Finden von Gemeinsamkeiten, Matrizen ergänzen, Mosaike legen, Zahlen nachsprechen (vorwärts und rückwärts) und Kopfrechnen. Während die Wechsler-Tests sowohl die Berechnung der allgemeinen Intelligenz als auch verschiedener Unterfacetten ermöglichen, erlauben die so genannten Raven-Tests, die ausschließlich aus Matrizenaufgaben bestehen, nur die Berechnung eines allgemeinen IQs. Der Intelligenzstruktur-Tests (IST-2000-R), der auf dem Modell von Thurstone basiert, ermöglicht hingegen nur die Berechnung von IQ-Werten für die Bereiche schlussfolgerndes Denken (verbal, figural und numerisch) und Merkfähigkeit (verbal und figural). Zusätzlich gibt es einen Wissenstest, der aber nicht obligatorisch ist und am ehesten kristalline Intelligenz widerspiegelt.

Wozu das ganze? Der Sinn der Intelligenzmessung.

Nun kann man sich fragen, was es einem bringt, die Intelligenz einen Menschen (bzw. das, was diese ganzen Tests vorgeben, zu messen) zu erfassen. Die selbstwertregulierende Funktion liegt auf der Hand (es ist natürlich schön, von sich sagen zu können, dass man intelligenter als 99% der restlichen Menschheit ist), aber das ist zum Glück nicht alles.

Diagnostik von Intelligenzminderung & Hochbegabung

In der Tat sind Intelligenztests ein extrem wichtiges diagnostisches Instrument, das in vielen Bereichen zum Einsatz kommt. Im Bereich der pädagogischen Psychologie sind da z.B. die Diagnostik von Teilleistungsstörungen wie Lesestörungen, Rechtschreibstörungen und Dyskalkulie (Rechenstörung) zu nennen, zu deren Diagnose nämlich die Leistung im jeweils beeinträchtigten Bereich mindestens zwei Standardabweichungen (also deutlich) unterhalb der allgemeinen Intelligenz liegen müssen (um auszuschließen, dass es sich um eine generelle Intelligenzminderung oder gar eine geistige Behinderung handelt). Aber auch am anderen Ende der Skala ergibt sich ein wichtiges Anwendungsfeld: die Hochbegabtendiagnostik. Die ist deshalb so wichtig, weil es bei solchen Kindern von großer Bedeutung ist, diese hohe Intelligenz zu fördern, um Unterforderungserleben zu verhindern, das sonst leicht zu Problemen führen kann (z.B. weil das Kind den Unterricht stört oder sich zurückzieht). Vielleicht denken Sie hierbei auch gleichzeitig an die Diagnose einer ADHS. Das ist völlig richtig, denn auch zu dieser Diagnose muss eine Hochbegabung (genauso wie eine geistige Behinderung) als Ursache des unangepassten Verhaltens des Kindes ausgeschlossen werden.

Bewerberauswahl und Vorhersage des Schulerfolgs

Die weiteren Anwendungsgebiete von Intelligenztests ergeben sich aus der breitgefächerten prädiktiven Validität von Intelligenztests, d.h. aus der Tatsache, dass sich durch die Intelligenzleistung zu einem bestimmten Zeitpunkt bestimmte andere Variablen ziemlich gut vorhersagen lassen. So zeigte z.B. eine Metaanalyse von Schmidt und Hunter aus dem Jahr 1998, dass die allgemeine Intelligenz zu 0,54 mit dem späteren Arbeitserfolg bzw. der beruflichen Leistung korrelierte – damit sind Intelligenztests diejenige Methode mit der besten Vorhersagekraft für Berufserfolg. Trotz dieser Erkenntnis bevorzugen die meisten Unternehmen bei der Bewerberauswahl jedoch die sehr viel teureren Assessment-Center, wobei die Argumente hierfür denkbar schwach sind: Die Leistung in diesen korreliert nämlich im Mittel nur zu 0,37 mit späterem Berufserfolg. Ähnliche Korrelationen ergeben sich für die Beziehung von Intelligenz und Schulerfolg, gemessen z.B. durch die Schulnote. Diese schwanken nach Deary und Kollegen (2007) zwischen 0,43 im Fach Kunst und 0,77 im Fach Mathematik (und das ist in der Psychologie eine wirklich verdammt hohe Korrelation). Als Anwendungsfeld ergibt sich hierbei z.B. die Verteilung von Kindern auf verschiedene Schulformen, um eine jeweils optimale Förderung zu ermöglichen.

Von Haftstrafen bis Krebs

Die Vorhersagekraft der allgemeinen Intelligenz ist jedoch noch sehr viel größer. Eine große Zahl von Längsschnittstudien (d.h. solchen, die z.B. in der Kindheit den IQ messen und dann über die folgenden 20 Jahre weitere Variablen erfassen) wurde zu diesem Thema durchgeführt und führte zu verblüffenden Ergebnissen. So zeigte sich, dass mit steigendem IQ das Risiko für Arbeitslosigkeit und Armut abnimmt, ebenso wie für Scheidungen und Haftstrafen. Zudem ergab sich, dass sogar Krebsdiagnosen umso unwahrscheinlicher sind, je intelligenter der Mensch ist. Bei vielen dieser Zusammenhänge gibt es sehr wahrscheinlich so genannte vermittelnde Variablen, d.h. solche, die den Zusammenhang zwischen IQ und der jeweils anderen Variable erklären. So ist der Zusammenhang mit Arbeitslosigkeit und Armut sicherlich darauf zurückzuführen, dass ein höherer IQ höhere Bildungsabschlüsse ermöglicht, die dann wiederum das Risiko für Arbeitslosigkeit und Verarmung reduzieren. Ähnliches gilt für den Fall der Krebsdiagnosen: Menschen mit höherem IQ haben in der Regel einen gesünderen Lebensstil (trinken z.B. weniger Alkohol und rauchen nicht), was dann wiederum das Krebsrisiko niedrig hält.

Messen Intelligenztests wirklich Intelligenz?

Hier bewegen wir uns auf die Frage nach der Validität dieser Tests zu. Um die Frage aus der Überschrift zu beantworten, müssen wir jedoch verschiedene Aspekte des Konstrukts „Validität“ auseinander halten. Zunächst kann man davon ausgehen, dass bei Intelligenztests im Allgemeinen die Augenscheinvalidität (auch Inhaltsvalidität genannt) gegeben ist. Diese bezieht sich allerdings nur auf die einzelnen Untertests und meint nicht mehr, als dass die Aufgaben offenbar das erfassen, was sie vorgeben zu erfassen – z.B. dass man bei Rechenaufgaben rechnen muss, dass Wortschatzaufgaben die Größe des Wortschatzes erfassen, etc. Allerdings muss man zugeben, dass diese Inhaltsvalidität bei komplexeren Aufgaben wie Matrizenergänzungen durchaus nicht so einfach zu beurteilen ist, weil die Frage nach den Prozessen, die zur Lösung der Aufgaben bewältigt werden müssen, so groß ist, dass sie ein eigenes Forschungsfeld darstellt.

Wenn man jedoch den gesamten Test heranzieht und sich fragt, ob dieser das Konstrukt „Intelligenz“ misst, ist die Antwort schon weniger eindeutig. Dafür, dass zumindest die meisten Intelligenztests annähernd dasselbe messen, sprechen die ziemlich hohen Korrelationen zwischen den Ergebnissen derselben Person in verschiedenen Intelligenztests. Dies bezeichnet man auch als diagnostische Validität. Und dafür, dass mit diesen Tests offenbar etwas gemessen wird, das Auswirkungen auf extrem viele andere Lebensbereiche (Berufserfolg, Gesundheit, etc.) hat, liegen ebenfalls zahlreiche Belege vor (prädiktive Validität). Mit anderen Worten: Irgendetwas muss ganz offensichtlich dran sein an diesem Konstrukt.

Es gibt aber natürlich auch jede Menge Kritik an der gesamten Intelligenzmessung. An dieser Stelle sei noch einmal deutlich betont, dass es sich, wie in Teil 1 beschrieben, bei Intelligenz lediglich um ein Konstrukt handelt – und nicht um eine vom Himmel gefallene und unumstößlich definierte Begebenheit. So wird von Kritikern z.B. eingeworfen, dass klassische Intelligenztests viele Aspekte gar nicht berücksichtigen, z.B. sozio-emotionale Kompetenzen. Zudem wird häufig angemerkt, dass Intelligenz auch die Aneignung von Fertigkeiten und Wissen im kulturellen Kontext bedeutet – was die Tests allesamt nicht erfassen.

Letztendlich handelt es sich bei der Frage, was Intelligenztests messen, also um eine, die die Wissenschaft nie endgültig wird beantworten können, weil dies unmöglich ist. Man kann als Fazit allerdings zweierlei festhalten: Dass Intelligenztests das messen, was sie vorgeben zu messen, scheint auf Basis der Befunde zur Inhalts-, diagnostischen und prädiktiven Validität sehr wahrscheinlich – ebenso wie dass dieses Konstrukt, wie auch immer man es nennen mag, offenbar große Auswirkungen auf unser Leben hat. Ob diese Tests aber tatsächlich Intelligenz messen, lässt sich nicht beantworten, da es sich hierbei um ein höchst unterschiedlich definiertes Konstrukt handelt.

Bleibt der IQ immer gleich? Die Frage nach der Stabilität.

Auch diese Frage hat wiederum zwei Facetten. Die erste ist die Frage, ob Intelligenztests zuverlässig messen, d.h. reliabel sind. Im Wesentlichen ist hiermit die Frage verknüpft, wie genau Intelligenztests messen. Nun, ein psychometrischer Test misst nicht so genau wie eine Waage, das ist klar. Aber die meisten Intelligenztests haben Reliabilitäten von über 0,90, was ziemlich gut ist. Am geläufigsten ist hierbei die so genannte Retest-Reliabilität, d.h. die Frage nach der Übereinstimmung der Testergebnisse, wenn Personen denselben Test zweimal hintereinander bearbeiten. Hierbei muss das Zeitintervall natürlich groß genug sein, um auszuschließen, dass die Person die richtigen Lösungen bei der Bearbeitung lediglich erinnert. Der zeitliche Abstand darf aber auch nicht zu lang sein, da es sonst möglich ist, dass eine große Abweichung der Testwerte darauf zurückgeht, dass die tatsächliche Intelligenzleistung der Person sich verändert hat (was besonders bei Kindern der Fall ist, die einen schnellen Zuwachs verzeichnen).

Die zweite Frage ist die, ob die Intelligenzleistung selbst stabil ist. Hier bietet die Forschungslage erfreulicherweise einen relativ eindeutigen Befund: Obwohl IQ-Werte auch tagesformabhängig sind (logisch, da man sich nicht immer gleich gut konzentrieren kann), sind die Fluktuationen ziemlich gering, und Intelligenz erweist sich insgesamt als ziemlich stabile Eigenschaft. Stabil meint hierbei allerdings nicht, dass immer gleich viele Punkte im selben Test erreicht werden, sondern dass eine Person im Vergleich zur alters- und geschlechtsspezifischen Normstichprobe gleich gut bleibt. Als Beispiel: Natürlich wird ein zehnjähriges Kind im HAWIK mehr Punkte erzielen als mit sechs Jahren, aber es behält trotzdem denselben IQ, weil es bei den beiden Messungen mit unterschiedlichen Normstichproben verglichen wird. Verschiedene Untersuchungen zeigen sogar eine erstaunliche Stabilität des IQ über sehr lange Zeitspannen: So ergab sich in einer Studie von Deary und Kollegen (2000) eine beachtliche Korrelation von 0,77 zwischen den IQ-Werten einer Stichprobe, die zum ersten Mal 1932 und zum zweiten Mal 1995 an demselben Test teilgenommen hatte.

Interessant ist diesbezüglich übrigens der sehr unterschiedliche Verlauf von fluider und kristalliner Intelligenz über die Lebensspanne. Studien aus diesem Bereich zeigen, dass, während die kristalline Intelligenz (im Wesentliches also erworbenes Wissen) im Laufe des Lebens zunimmt bzw. stagniert, die fluide Intelligenz (logisches Denken etc.) abnimmt. Neuere Untersuchungen zeigen jedoch, dass der Rückgang der fluiden Intelligenz auf etwas anderes zurückzuführen ist – nämlich auf die mit dem Alter geringer werdende Erfahrung mit den Aufgabenformaten typischer Intelligenztests, die stark an die von Schulaufgaben angelehnt sind. Insgesamt kann man also sagen: Intelligenz ist ziemlich stabil, aber eben nicht perfekt stabil. Und das liegt maßgeblich daran, dass wir entgegen der weitläufigen Meinung nicht mit einem festgelegten IQ geboren werden – was Thema des fünften Teils der Intelligenz-Reihe sein wird.

 © Christian Rupp 2014

Homöopathie & Co.: Von Placebo, Nocebo und einem paradoxen Dilemma

Vorab: Was ist eigentlich Homöopathie?

Diese Frage ist deshalb ganz zentral, weil im Volksmund häufig eine ganz bestimmte Verwechslung vorgenommen wird: nämlich die von homöopathischen und pflanzlichen Mitteln. Denn diese beiden Kategorien sind keineswegs dasselbe! Weder sind alle pflanzlichen Mittel homöopathisch, noch sind alle homöopathischen Mittel pflanzlich. Ein Beispiel für ein nicht-homöopathisches, aber pflanzliches Mittel ist z.B. Johanniskraut, dessen Wirksamkeit in Bezug auf Depressionen als gut belegt gilt, wenngleich der Effekt nicht so groß ist wie der klassischer Antidepressiva. Zudem ist Johanniskraut ein sehr gutes Beispiel dafür, dass auch pflanzliche Medikamente erhebliche Nebenwirkungen haben können – aber das nur nebenbei. Derweil enthalten homöopathische Mittel oft keinerlei pflanzliche Substanzen, sondern anorganische chemische Stoffe, wie z.B. Quecksilber.

Aber was ist nun der Unterschied? Im Wesentlichen liegt dieser in der Wirkstoffkonzentration. Überspitzt gesagt ist es nämlich so, dass pflanzliche Medikamente Wirkstoffe enthalten, homöopathische hingegen nicht. Warum das so ist? Das liegt in der Herstellung und den meiner Meinung nach als esoterisch zu bezeichnenden Annahmen bezüglich der Wirkung. Denn homöopathische Mittel beruhen auf dem Prinzip der extremen Verdünnung, die ein Verhältnis von bis zu 1 : 50000 annehmen kann (wobei der Wirkstoff entweder in Wasser oder Alkohol gelöst wird). Das Ergebnis dessen ist, dass in einem 50ml-Fläschchen rein rechnerisch oft kein einziges Wirkstoffmolekül mehr enthalten ist. Nun kann man sich zurecht fragen, wie dann noch eine Wirkung eintreten soll. Die Antwort der Homöopathen lautet in etwa so: Dadurch dass die Lösung zusätzlich auf eine ganz bestimmte Weise geschüttelt wird („Dilutation“), überträgt sich die Wirkung auf die Wasser- oder Alkoholmoleküle. Ferner sei es so, dass sich die Wirkung durch die Verdünnung nicht verringere, sondern gar vergrößere („Potenzierung“). Wie genau das geschehen soll, lassen sie derweil offen. Die wissenschaftliche Forschung hat derweil ein paar andere Antworten parat.

Homöopathie trifft auf wissenschaftliche Realität

Der durch zahlreiche Studien belegte wissenschaftliche Konsens bezüglich homöopathischer Medikamente ist der, dass sie zwar wirksam sind, aber eben nicht wirksamer als eine Zuckerpille, die das häufigste Beispiel für eine so genannte Placebo-Behandlung darstellt. Dieser Befund gilt für alle Formen von Erkrankungen, die bisher in solchen Studien betrachtet wurden. Untersucht werden Fragestellungen der Wirksamkeit von Medikamenten in der Regel in randomisierten kontrollierten Studien, in denen verschiedene Behandlungsgruppen miteinander verglichen werden, die jeweils mit nur einem Präparat über eine gewisse Zeit behandelt werden. So könnte man sich z.B. eine Studie vorstellen, in der vier Bedingungen miteinander verglichen werden: ein Medikament mit klassischem Wirkstoff, ein homöopathisches Mittel, eine Zuckerpille (Placebo) – und eine Gruppe von Patienten, die gar keine Behandlung erfährt. Das Ergebnis in einer solchen Studie sieht typischerweise so aus (Beispiel: Reduktion von Schmerzen bei Arthritis): Das klassische Medikament führt zu einer deutlichen Abnahme der Schmerzen, die Patienten ohne Behandlung verändern sich kaum hinsichtlich ihres Schmerzniveaus. Die Schmerzen in der homöopathisch behandelten Gruppen lassen auch signifikant nach (d.h. die Reduktion kann nicht auf einen Zufall zurückgeführt werden) – aber, und das ist das Wichtige: Die Schmerzen in der Placebo-Gruppe reduzieren sich ebenfalls signifikant um einen ähnlichen Betrag. Wie kann das sein?

Von Placebo- und Nocebo-Effekten

Die Antwort lautet „Placeboeffekt“. Abgeleitet von dem lateinischen Verb „placere“ (= „gefallen“) beschreibt dieser in der Psychologie sehr gut erforschte Effekt das Phänomen, das bloße Wirkungserwartungen schon Berge versetzen können. So weiß man sowohl aus der Forschung zur Wirksamkeit von Medikamenten als auch von Psychotherapie, dass am Ende eine stärkere Wirkung resultiert, wenn der Patient auch eine Verbesserung erwartet. Oder mit anderen Worten: an eine Besserung glaubt. Hierzu müssen diese Wirkungserwartungen allerdings in ausreichendem Maße ausgelöst werden (z.B. indem der Patient eine nach echter Tablette aussehende Pille schluckt), aber das genügt dann auch schon. Da man sich dieses Effekts bewusst ist, ist das, was Heilmethoden liefern müssen, um zugelassen zu werden, der Nachweis einer Wirkung, die über eben diesen Placeboeffekt hinausgeht. Und genau dieser fehlt bei homöopathischen Mitteln leider – sie zeigen keine größere Wirkung als eine Zuckerpille, von der Patienten denken, es sei eine „echte“ Pille.

Es gibt allerdings auch den bösen Zwillingsbruder des Placeboeffekts – genannt Nocebo-Effekt. Er beschreibt das Phänomen, dass negative Wirkungserwartungen auch einen negativen Effekt auf die tatsächliche Wirkung haben. Konkret bedeutet das: Sagt man Patienten, die eine echte Pille einnehmen, es handle sich hierbei um eine Zuckerpille ohne Wirkstoff, dann lässt sich tatsächlich eine geringere objektive Wirkung nachweisen als bei Patienten, die eine echte Pille einnehmen und dies auch wissen. Was man hieran also erkennt, ist: Jede Form von Therapie, sei es ein Medikament, ein wissenschaftlich fundiertes psychotherapeutisches Verfahren – oder aber homöopathische Globuli, Reiki und Akupunktur – sind von solchen Erwartungseffekten betroffen. Bedeutet das also, dass es eigentlich egal ist, welche Behandlungsform wir wählen, Hauptsache der Patient glaubt an ihre Wirkung?

Das paradoxe Dilemma

Zunächst einmal: Nein. Denn der zentrale Unterschied liegt nun einmal darin, dass sich wissenschaftlich fundierte Behandlungsmethoden, wie oben beschrieben, eben genau dadurch auszeichnen, dass sie wirksamer sind als eine entsprechende Placebo-Behandlung. Dennoch ist es natürlich, wie bereits dargelegt, unverkennbar, dass die Erwartung des Patienten an die Wirksamkeit und die Wirkweise einer Behandlung großen Einfluss auf seine Genesung oder Nicht-Genesung haben kann. Die bedeutsame Rolle dessen, dass derartige Erwartungen durch eine glaubwürdige „Coverstory“ aber überhaupt erst erzeugt werden müssen, wird an dem Dilemma deutlich, dass ein Placebo zwar ohne Wirkstoff (bzw. als wirksam erachtete Elemente) wirkt – aber eben auch mehr als nichts ist (und somit klar von dem Effekt abzugrenzen ist, dass mit der Zeit „von selbst“ eine Besserung eintritt). Daher macht es z.B. im Kontext einer Psychotherapie Sinn, dem Patienten ein Störungs- sowie ein Veränderungsmodell zu vermitteln, welches er nachvollziehen und mit dem er sich zudem identifizieren kann – in anderen Worten: ein Modell, an das er glauben kann – um sich den Placeboeffekt zunutze zu machen.

Erwartungseffekte in der Psychotherapie

Zumindest in Bezug auf die Wirkung von Psychotherapie lässt sich der Befund, dass Wirkungserwartungen und die Passung zwischen dem subjektiven Patientenmodell und dem Veränderungsmodell der Therapie den Therapieerfolg maßgeblich bestimmen, durchaus mit dem aktuellen Forschungsstand der Psychotherapieforschung vereinbaren. Letzterer nämlich lässt sich am ehesten dadurch zusammenfassen, dass die Wirksamkeitsunterschiede zwischen den verschiedenen Therapieformen bestenfalls gering ausfallen (siehe auch mein Artikel zum Dodo-Bird-Verdict). Allerdings haftet dieser Forschung meiner Meinung eine reduzierte Aussagekraft an, da ihre externe Validität sowohl im Hinblick auf die Repräsentativität der Patienten (Patienten in klinischen Studien sind eher untypisch für die große Masse der Patienten in der Bevölkerung) als auch bezüglich der schulenspezifischen Reinheit der Therapie (die dem in der Praxis üblichen eklektischen Mix sehr fern ist) stark hinterfragt werden muss. Zudem ist die viel interessantere Frage, der sich die klinisch-psychologische Forschung zum Glück inzwischen vermehrt widmet, die nach den Prozessen bzw. Mediatoren, über die Psychotherapie wirkt. Ein sehr heißer Kandidat hierfür ist z.B. schulenübergreifend die therapeutische Beziehung, auch working alliance genannt. Zwar wurden in diesem Sinne bereits (z.B. von Klaus Grawe, der leider verstorben ist) integrative Ansätze zu Wirkmechanismen von Psychotherapie vorgeschlagen, jedoch herrschen in den Köpfen der meisten Forscher und Praktiker noch immer kategoriale Denkweisen vor.

Hierbei handelt es sich allerdings um ein mir weitgehend unverständliches Phänomen, da die Quintessenz, die ich aus meinem Studium in klinischer Psychologie mitnehme, die ist, dass im Grunde, wenn man einmal die Dinge zu Ende denkt, alle psychotherapeutischen Verfahren weitgehend dasselbe beinhalten und lediglich unterschiedliche Begriffe verwenden oder Perspektiven einnehmen. Und ich könnte mir in der Tat sehr gut vorstellen, dass es letztlich hauptsächlich darauf ankommt, ob der Patient diese Begriffe und Perspektiven für sich annehmen kann – sodass etwaige Wirksamkeitsunterschiede zwischen verschiedenen Therapieverfahren am Ende vielleicht genau darauf zurückzuführen sein könnten. Ich weiß nicht, ob Erwartungseffekte in der Psychotherapie bereits dahingehend untersucht wurden, ob eine generelle Wirkungserwartung bzw. ein allgemeiner Glaube an Psychotherapie eine notwendige Bedingung für Veränderung darstellen; so ließe sich in der Tat eventuell Licht ins Dunkel der Frage bringen, ob etwaige weitere Wirkmechanismen der Therapie im Sinne eines Interaktionseffekts erst dann wirksam werden, wenn diese notwendige Bedingung erfüllt ist.

Egal warum – Hauptsache, es wirkt?

Doch rechtfertigt dies die (oft in Bezug auf Homöopathie gehörte) Aussage: „Egal warum es wirkt – Hauptsache, es wirkt“? In Bezug auf psychotherapeutische Verfahren und Medikamente, deren Überlegenheit gegenüber einem Placebo belegt wurde, würde ich ganz klar sagen: Ja – aber mit dem Zusatz, dass es aber durchaus wünschenswert wäre, den Wirkmechanismus genauer zu kennen. Hinsichtlich Medikamenten und Therapien, für die diese Überlegenheit nicht gilt (z.B. Homöopathie), würde ich hingegen sagen: Bevor man hierfür Geld ausgibt, sollte man lieber die günstigere Zuckerpille schlucken – wenngleich die schwierige Crux natürlich gerade darin besteht, bei einer solchen Zuckerpille die notwendigen Wirkungserwartungen auszulösen. Dennoch wäre meine persönliche Empfehlung, dass man bei Zugrundelegung der Nicht-Überlegenheit homöopathischer Mittel gegenüber einem Placebo, deren fragwürdiger Herstellungsweise – und dem oft exorbitant hohen Preis – eher die Finger davon lassen sollte. Ein Ratschlag, den ich auch einigen deutschen Krankenkassen geben würde, von denen, wie ich vor Kurzem voller Entsetzen feststellen musste, eine große Zahl die Kosten für homöopathische Mittel übernimmt, während bei anderen Behandlungsformen, deren Wirksamkeit weitaus besser belegt ist, gerne gegeizt wird. Geht es djedoch nicht um die Frage des Geldes (angenommen, der Referenzwert ist der Preis einer Zuckerpille), sehe ich derweil keinerlei Nachteil darin, den Placeboeffekt voll auszunutzen. Nur leider ist es in der Regel so, dass am anderen Ende des Verkaufstisches, der Massageliege oder des Akupunkturnadelkissens meist kein altruistischer Kommunist steht, sondern in der Regel eine Person, die Geld verdienen möchte.

© Christian Rupp 2014

Couch & Klemmbrett: Wie Film & Fernsehen die Psychologie zu einem Heilberuf mach(t)en

Anders als bei den drei zurückliegenden Einträgen bilden die Grundlage von diesem mehrere Diskussionsrunden, an denen ich im Rahmen einer mit dem schrecklichen Namen „World Café“ titulierten Lehrveranstaltung teilgenommen habe. Es ging weder um die Welt, noch gab es Kaffee, aber trotzdem kamen wir gut ins Gespräch, und es war interessant, Erfahrungen und Sichtweisen auszutauschen. Die erste dieser Diskussionsrunden beschäftigte sich mit der Frage, wie man als Psychologe auf Vorurteile bzgl. dieses Berufsbilds reagiert und welches öffentliche Bild der Psychologie wir uns wünschen bzw. erzeugen möchten. Neben den Punkten, auf die ich in vorherigen Einträgen bereits eingegangen bin (Aufklärung in der Schule über Psychologie als Naturwissenschaft) gab es hierbei einige weitere, meiner Meinung nach interessante Denkanstöße. Zum einen haben wir uns – mit Bezug auf den sehr häufigen Kommentar: „Oh, du studierst Psychologie, dann muss ich ja jetzt aufpassen, was ich sage“ – längere Zeit darüber unterhalten, ob dieses „Analysieren-Couch-Image“ und die damit verbundene Angst der Menschen, von ihrem Gegenüber „durchschaut“ zu werden, eventuell typisch für Deutschland sind, da hier (anders z.B. als in den USA, wo immer schon Lerntheorien dominierten) der Einfluss der Psychoanalyse sensu Freud überproportional groß war.

Direkt damit einher geht natürlich das Missverständnis, das sich in der Gleichsetzung von Psychologie und klinischer Psychologie wiederfindet und somit gleichermaßen die Verwechslung dieser Wissenschaft mit einem Heilberuf erklärt. Im Zuge dessen erschien uns aber hinsichtlich der Ursache des verzerrten öffentlichen Bildes vor allem die Rolle von Film, Fernsehen und Nachrichtenmedien als zentral. Zum einen, da Psychologen in Filmen und Fernsehserien typischerweise mit immer wiederkehrenden äußerlichen (Brille, Klemmbrett, obligatorisches Couch-Mobiliar), charakterlichen (weitgehende Skurrilität bis hin zum selbst stark ausgeprägten Neurotizismus) und Verhaltensmerkmalen (analytischer Blick, analytische Interpretationen, Rolle des Ratgebers, dem man seine Probleme schildert) ausgestattet werden. An dieser Stelle sei übrigens angemerkt, dass in der Regel hierbei keine Unterscheidung vorgenommen wird zwischen Psychologen, Psychiatern und Psychotherapeuten, was der beschriebenen Verzerrung noch überdies zuträglich ist. In Nachrichtenformaten hingegen findet sich ein anderes Phänomen: Wann immer (mehr oder weniger seriös und angemessen) von (an den jeweiligen Themen deutlich als solchen erkennbaren) psychologischen Forschungsergebnissen berichtet wird, wird grundsätzlich unterschlagen, dass es wissenschaftlich tätige Psychologen waren, die diese Studie durchgeführt haben. Stattdessen, so fast immer der Wortlaut, heißt es: „Forscher der Universität XY haben herausgefunden, dass…“ (wenn nicht sogar noch das Wort „bewiesen“ anstelle von „herausgefunden“ Verwendung findet). Woher sollen Laien also wissen, dass diese Wissenschaftler Psychologen sind und dass Psychologen nicht nur analytisch ausgerichtete Psychotherapeuten sind? Man kann ihnen im Grunde keinerlei Vorwurf machen.

In Bezug auf die Frage, wie man bei Konfrontation mit diesen enorm hartnäckigen Fehlvorstellungen reagieren kann/sollte/möchte, reichte die Spannbreite der diskutierten Möglichkeiten von der geduldigen, gebetsmühlenartigen Erläuterung der Unangemessenheit dieser Vorstellungen über die (je nach Sympathie zum Gegenüber) Nutzung der beschriebenen Angst vor dem Analysiertwerden – bis hin zum einfachen Umdrehen und Gehen. Ich selbst muss sagen, dass ich es mittlerweile mehr als leid bin, meinen Freunden und Verwandten (nicht meinen engeren Familienangehörigen, die durch meine ältere Schwester und mich bereits genügend „Psychoedukation“ erfahren haben) immer und immer wieder zu erklären, dass mein Studium nicht das Erlernen von Gedankenlesen beinhaltet und sich in unserem Institutsgebäude kaum eine einzige Couch befindet. Noch mehr stören mich aber tatsächlich zwei weitere Dinge, und zwar zu allererst die Tendenz eben solcher Mitmenschen, mein gesamtes Verhalten (von der Art der Fragen bis hin zur Sitzhaltung auf einem handelsüblichen Stuhl) im Lichte meines (angestrebten) Berufes zu deuten – oder sollte ich lieber sagen: im Lichte des Berufsbilds, das auf mich projiziert bzw. mir unterstellt wird?

Der zweite Aspekt ist derweil noch direkter mit jenen verzerrten Vorstellungen verbunden und schließt im Grunde nahtlos an die Gleichsetzung von Psychologie und klinischer Psychologie an. Was ich hiermit meine, ist die radikale Unterschätzung der Vielfalt dieses Fachs und die damit verbundene Nicht-Zuschreibung von Kompetenzen und Wissen, die Psychologen in Wirklichkeit aber gerade auszeichnen und sie von anderen Disziplinen wie z.B. der Pädagogik, aber auch der Medizin, abgrenzen. Oft habe ich bei mir persönlich sogar den Eindruck, dass mich diese Nicht-Zuschreibung noch mehr stört als die geschilderten (falschen) Zuschreibungen. Die Bereiche, auf die ich mich hier explizit beziehe, umfassen einerseits methodische Kenntnisse (insbesondere statistisch-mathematischer Art und solche bzgl. des Designs von Untersuchungen im Allgemeinen) und zum anderen eine Reihe von Wissensbereichen, die genuine Domänen der Psychologie darstellen, z.B. das Thema Intelligenz. Am Beispiel der Intelligenzforschung wird ganz besonders anschaulich, wie groß die Diskrepanz zwischen dem Experten- und dem Laienbild der Psychologie tatsächlich ist – ist es doch so, dass die Intelligenzforschung von Expertenseite als eines der größten Flaggschiffe der Psychologie angesehen wird, während der durchschnittliche Laie einen Intelligenztest (aber auch allgemein das Thema Testkonstruktion) in der Regel nicht mit der Psychologie in Verbindung bringen würde. Ähnliches gilt für den großen Bereich der Neurowissenschaften bzw. der Biologischen/Allgemeinen Psychologie, der, obgleich er ein interdisziplinäres Forschungsfeld darstellt, einen bedeutenden Teil des Psychologiestudiums ausmacht, was kaum ein Laie für gewöhnlich bedenkt.

Doch, wie im vorherigen Eintrag bereits im Fazit formuliert: Da sich die Situation mittelfristig eher wenig ändern wird, sind Gelassenheit und vielleicht auch ein Stück Gleichgültigkeit gefragt. Bis dahin werde zumindest ich, sollte mir nicht irgendwann doch der Geduldsfaden reißen, weiter versuchen, meine Freunde sowie (über diesen eigens zu diesem Zweck eingerichteten Blog) die Öffentlichkeit zumindest ein Stück weit darüber aufzuklären, was Psychologie ist – und was nicht.

© Christian Rupp 2014

 

Über die Frustration im Psychologiestudium – und wie sie sich verhindern ließe

Welche Auffassungen von und Einstellungen zur Psychologie als Natur-, Geistes- oder Sozialwissenschaft findet man bei Schüler_innen der Oberstufe? Und in wieweit hängen diese korrekten oder inkorrekten Auffassungen mit dem Wunsch zusammen, nach dem Abitur tatsächlich Psychologie zu studieren? Hierzu möchte ich auf zwei Studien der Erstautorin Dr. Sabine Fischer eingehen, die sich erstens mit den bei Schüler_innen vorliegenden konzeptuellen Vorstellungen bezüglich der Psychologie und zweitens mit Prädiktoren des Wunsches, Psychologie zu studieren, beschäftigten. Die vorgestellten Ergebnisse zur ersten Studie deuteten zum einen darauf hin, dass die befragten Schüler eine weniger naturwissenschaftliche, dafür aber stärker qualitativ-sozialwissenschaftliche Auffassung der Psychologie aufwiesen (im Vergleich zu befragten Experten). Zum anderen schätzten jene Schüler_innen psychologisches Forschungswissen als eher weniger relevant für die Berufspraxis ein. Die zweite Studie ergab derweil, dass das Wissen über den empirisch-experimentellen Charakter der akademischen Psychologie bei Schüler_innen mit starkem gesellschaftswissenschaftlichen Interesse den Wunsch, Psychologie zu studieren, abschwächte – und dass naturwissenschaftliches Interesse sich hingegen nicht auf den Studienwunsch „Psychologie“ auswirkte.

Ich finde diese Ergebnisse zugleich interessant und enorm wenig überraschend. Schließlich ist es auch in meinem Fall noch nicht so viele Jahre her, dass ich den Entschluss fasste, ein Psychologiestudium zu beginnen, sodass ich mich noch gut in die Lage der befragten Oberstufenschüler_innen hineinversetzen kann. Das verzerrte Image der Psychologie macht eben auch vor den Schulen keinen Halt. Woher sollen Oberstufenschüler_innen wissen, dass die akademische Psychologie (um sie einmal von der Alltagspsychologie zu unterscheiden) eine Naturwissenschaft ist, wenn Ihnen im Pädagogik-Leistungskurs Sigmund Freud als Lichtgestalt der Psychologie vorgestellt wird und der Großteil der unterrichtenden Lehrer selbst weder über ein adäquates Konzept der Psychologie noch über eine wissenschaftliche Ausbildung verfügt? Ich erachte dies als ein grundsätzliches Problem in der deutschen Schullandschaft, auf das ich aber an dieser Stelle nicht weiter eingehen möchte, da ich dies bereits in den vorigen zwei Einträgen getan habe.

Die Ergebnisse geben meiner Meinung jedoch noch weitere wichtige Impulse. Der Befund, dass das Wissen um die „wahre Gestalt“ der Psychologie bei geisteswissenschaftlich interessierten Befragten den Studienwunsch schmälerte, ist der Schlüssel zu der Frage, wie man die allgegenwärtige Frustration im ersten Semester des Psychologiestudiums vermeiden könnte. Da ich das große Glück hatte, eine zum damaligen Zeitpunkt schon „fertige“ Psychologin als große Schwester zu haben, hatte ich das Privileg, mit realistischen Erwartungen ins Studium zu starten. Gut, dass es aufgrund des Leistungsdrucks und des extremen Lernaufwands die für mich persönlich schlimmsten fünf Jahre meines Lebens werden würden, habe ich zu Beginn nicht geahnt – dass mich zu Beginn viel Mathematik und Neurophysiologie erwarten würde, wusste ich hierdurch aber immerhin. Ganz im Gegensatz zu den meisten meiner Kommiliton_innen, denen die blanke Enttäuschung nur so ins Gesicht geschrieben stand. So äußerte im zweiten Semester beispielsweise eine Kommilitonin mir gegenüber ihre ausufernde Enttäuschung darüber, dass sie in der Vorlesung zur Allgemeinen Psychologie nichts über Traumdeutung nach Freud erfahren hatte. Dies alles ließe sich vermeiden, wenn man angehende Studierende früh genug so weit informieren würde, dass sie vor Beginn des Studiums wissen, worauf sie sich einlassen (eine Art „informed consent“ also). So könnte man einerseits geisteswissenschaftlich Interessierte eine Enttäuschung und viel unnötige Frustration ersparen und andererseits naturwissenschaftlich Interessierte für die Psychologie begeistern, die andernfalls vielleicht in die Biologie oder die Physik abwandern würden. Allerdings sollte man hierbei auch den (relativ einzigartigen) Umstand positiv hervorheben, dass man als Psychologe sowohl Wissenschaftler als auch Praktiker sein kann (scientist-practioner-Modell). Letzteren Aspekt kann und darf man einfach nicht unter den Tisch kehren, wenn man bedenkt, dass die allermeisten Psychologen nach dem Studium eben – auch wenn sie sicherlich im Beruf von ihrer wissenschaftlichen Ausbildung profitieren – tatsächlich nicht als Wissenschaftler arbeiten, sondern klassischerweise therapeutischen oder beratenden Tätigkeiten nachgehen, weshalb ich hier auch festhalten möchte, dass das verzerrte Image (Psychologe = jemand, dem man seine Probleme erzählt) durchaus nicht völlig aus der Luft gegriffen ist.

Neben solchen schulischen Informationsangeboten (die dringend notwendig sind, da die Psychologie im Schulunterricht in der Regel nicht oder falsch repräsentiert ist) ist es meiner Ansicht nach aber auch Aufgabe der Hochschullehrer und Dozenten – die über all diese Fehlkonzepte schließlich Bescheid wissen – etwas sensibler auf diese zu reagieren. Darunter verstehe ich vor allem, diese Diskrepanzen offen anzusprechen und die Studierenden da abzuholen, wo sie stehen, und sie nicht direkt zu Beginn mit Begriffen, Theorien und Denkweisen zu überschütten, zu denen sie keinerlei Bezug haben und auch nicht haben können. Und letztlich muss es vielleicht ja auch nicht das Ziel sein, geisteswissenschaftlich Interessierte „abzuschrecken“: Warum nicht ein bisschen Energie darauf verwenden, solche Schüler_innen für die Psychologie zu begeistern, indem man ihnen zeigt, was sie alles kann? Denn zu bieten hat sie wahrlich genug.

Ich möchte nun noch kurz eine andere Perspektive beleuchten, und zwar die der Relevanz dieser Vorstellungen über die Psychologie in der beruflichen Praxis. Ich denke nämlich, dass die oben beschriebenen Fehlkonzepte (Psychologe = jemand, der einem zuhört und einen analysiert, etc.) für Psychologen in fast allen beruflichen Bereichen von größter Relevanz sind, da sowohl Klienten, Patienten, Kunden & Co. einen mit von der Realität abweichenden Erwartungen konfrontieren, als auch Kollegen anderer Berufsgruppen (Ärzte, Betriebswirte, Juristen…) oft fehlerhafte Erwartungen an einen hegen. Zentral sind hierbei sicherlich vor allem die Reduktion des Psychologenberufs auf einen Heilberuf und die mangelhafte Kenntnis über die wissenschaftlichen Kenntnisse von Psychologen, worauf sehr wahrscheinlich auch die teilweise geringe Anerkennung oder das Belächeln dieses Berufs zurückzuführen sind. Hierbei handelt es sich zweifelsohne um einen Umstand, der Änderungsbedarf birgt. Da man aber leider in absehbarer Zeit keine für alle psychologischen Laien verpflichtende Grundausbildung in Psychologie wird durchsetzen können, ist man, denke ich, als Psychologe gut bedient, wenn man mit der Zeit eine gewisse Gelassenheit entwickelt, die es einem erlaubt, zumindest jede zweite Couch-Anspielung im Sinne der Achtsamkeit wahrzunehmen, nicht zu bewerten und einfach wie die Wolken am Himmel vorbei ziehen zu lassen.

Sendung mit der Maus & Co.: Was ist und tut Wissenschaft wirklich?

In diesem und in den folgenden Artikeln werde ich auf verschiedene Themen eingehen, mit denen ich mich im Rahmen einer Vorlesung zum Thema „Wissenschaft & Öffentlichkeit“ beschäftigt habe, die ich in meinem – sich nun dem Ende zuneigenden – letzten Studiensemester besucht habe. Es ist daher das erste Mal, dass ich Texte, die auch Teil meiner Studienleistung waren (einem so genannten „Lerntagebuch“) quasi für dieses Blog recycle. Aber da die Vorlesung sich thematisch einfach genau mit den Themen beschäftigte, um die sich auch psycholography dreht, drängte sich diese Option förmlich auf.

In diesem ersten Eintrag soll es darum gehen, was unter dem Begriff der Wissenschaftskommunikation zu verstehen ist und in welchen Fällen es sich im Grunde nicht um Wissenschaftskommunikation per se, sondern vielmehr lediglich um eine Art der Reflexion über die Natur als solches handelt. Als Beispiel für letzteres können z.B. kindgerechte Fernsehformate wie die „Sendung mit der Maus“ und „Wissen macht Ah“ gelten, ebenso wie sich an Erwachsene richtende Formate wie „Quarks & Co.“ oder die Zeitschrift „Geo Wissen“. Was ich an dieser Unterscheidung zwischen „Kommunikation über Wissenschaft“ und „Kommunikation über die Natur“ für so wichtig erachte, ist die Tatsache, dass hiermit unmittelbar die Frage nach dem Bild der Wissenschaft in der Öffentlichkeit bzw. nach der Laien-Definition von „Wissenschaft“ verbunden ist.

Um zu verstehen, warum diese Unterscheidung keineswegs belanglos ist, sollte man sich vor Augen führen, welches Bild die meisten populärwissenschaftlichen Fernseh- und Zeitschriftenformate von der Wissenschaft zeichnen: nämlich das einer Fabrik fertigen Wissens. „Wissenschaftlich belegt“, „wissenschaftlich überprüft“ oder gar „wissenschaftlich bewiesen“ gelten als Aushängeschilder in den Medien ebenso wie in der Produktvermarktung und stellen in den Köpfen der meisten Laien das höchste Qualitätssiegel dar. Im Grunde kann man sich als Wissenschaftler natürlich über ein derartiges Kompliment freuen – werden einem so doch die Rolle der verlässlichsten Quelle von Wissen und nahezu grenzenlose Kompetenz zugeschrieben. Und in einem Punkt trifft diese (implizite) Definition ja auch durchaus zu: In der Tat kann man mit Recht behaupten, dass die empirischen Wissenschaften wohl mit Abstand die verlässlichsten Quellen von Wissen in unserer Welt darstellen – vergleicht man sie z.B. mit esoterischen Lehren oder den verschiedenen Religionen, bei denen das vermeintliche „Wissen“ immer ideologisch determiniert und somit nie objektiv ist. Aber – und das ist der springende Punkt: Auch die Wissenschaft liefert keine fertigen und unumstößlichen Aussagen über die Welt, sie ist keine Produzentin ultimativer Wahrheiten. Noch kann sie (zumindest der Wissenschaftstheorie Carl Poppers folgend) jemals irgendetwas beweisen – ein Punkt, der wohl einen der größten Irrtümer im öffentlichen Bild der Wissenschaft darstellt und dem gleichzeitig das größte Frustrationspotenzial zu Beginn eines naturwissenschaftlichen Studiums innewohnt.

Doch wie erklärt sich eben dieses Frustrationspotenzial? Wenn ich an meinen nun schon viereinhalb Jahre zurückliegenden Studienbeginn zurückdenke, erinnere ich mich gut an eben dieses Gefühl der Frustration und die omnipräsente Frage: „Wozu das ganze?“. In der Tat ist dieses Gefühl der enttäuschten Erwartung und der Verwirrung noch sehr gegenwärtig, wenn ich an die Lektüre von Zeitschriftenartikeln und Lehrbüchern in den ersten Semestern meines Bachelorstudiums zurückdenke. Darüber lesen, was Wissenschaftler X in Studie Y herausgefunden hat, wonach dann aber Forscher A in Studie B das Gegenteil zeigte, sodass die einzige Quintessenz lautet: „Es könnte so sein, es könnte aber auch anders sein – man weiß es nicht“.

In der Schule aber wurde einem durch Lehrer und Schulbücher nun einmal leider vorgegaukelt, dass Wissen über die Natur sich lediglich aufkumuliert, sich aber nicht verändert oder gar widerspricht – eine, wie ich finde, grandiose Veranschaulichung des Unterschieds zwischen „Kommunikation über die Welt“ und „Kommunikation über Wissenschaft“. Eine gelungene Wissenschaftskommunikation besteht meiner Ansicht nach nämlich gerade darin, der Öffentlichkeit – in der Schule beginnend – zu vermitteln, dass Wissenschaft nicht zaubern kann und sich vielmehr als dynamischer Prozess der Wissensgenerierung und Wissensveränderung beschreiben lässt – und dass vermeintlich etabliertes, „festes“ Wissen auch in der Regel nur einen momentan geltenden Konsens unter Wissenschaftlern darstellt. Ein Konsens, der sicherlich fundiert ist, aber keineswegs unantastbar.

Eine weitere Folge des schulischen Lehrplans ist zudem das unvollständige Bild naturwissenschaftlicher Disziplinen, das dadurch vermittelt wird, dass man als Schüler in seiner Laufbahn maximal mit der Mathematik, der Physik, der Chemie, der Biologie – und eventuell noch mit der Informatik konfrontiert wird. Und sollte man mit der Psychologie in Kontakt kommen, dann in der Regel meist doch nicht wirklich, da sich diese leider i.d.R. auf die Freud’schen Lehren beschränkt, die einem im Pädagogik-Leistungskurs präsentiert werden – traurigerweise meistens, ohne die dringend notwendige Kritik an diesen Theorien zu beleuchten. Diese Form von „Bias“ führt unweigerlich zu einer verzerrten Sicht von „Wissenschaft“ in den Köpfen derjenigen Menschen, die nicht gerade ein naturwissenschaftliches Studium hinter sich bringen. Und sie ist gleichsam die Ursache dafür, warum so viele Studienanfänger von der Psychologie zu Beginn (und manchmal noch weit darüber hinaus) so fürchterlich enttäuscht sind: Woher sollen sie denn auch wissen, dass es gar nicht um verdrängte Triebe und Traumdeutung, sondern vielmehr um Regressionsmodelle und Signifikanztests geht?

Das verzerrte Bild von „Wissenschaft“ zu korrigieren, hat in meinem Fall sicherlich mehr als zwei Semester in Anspruch genommen. Und auch, wenn ich bis heute die Meinung vertrete, dass gute Wissenschaft nur eine solche sein kann, die nicht nur sich selbst, sondern allen Menschen in einer gewissen Weise nützt und die sich nicht (wie es in der Psychologie vielerorts der Fall ist) in Belanglosigkeiten verliert, habe ich die Wissenschaft und ihre Möglichkeiten inzwischen definitiv schätzen gelernt. Mein Psychologiestudium hat mir daher nicht nur eine ganz neue Perspektive auf die Erklärung von menschlichem Erleben und Verhalten eröffnet (inklusive der sehr zufriedenstellenden Fähigkeit, besser zu verstehen, warum Menschen so handeln, wie sie handeln), sondern es hat mich noch etwas anderes sehr Wichtiges und Fächerübergreifendes gelehrt: nämlich, woher unser Wissen kommt, wie ich Quellen von Wissen beurteile – und was der Unterschied ist zwischen Glauben und Wissen.

© Christian Rupp 2014

Intelligenz – Teil 3: Warum man nicht nur einen IQ hat und wir lange Zeit immer schlauer wurden

Vorab: Was ist eigentlich „der IQ“?

Der so genannte Intelligenzquotient, kurz IQ, ist im Grunde schon der Schlüssel zu der Art und Weise, wie er berechnet wird – und doch wird diese Tatsache im alltäglichen Sprachgebrauch viel zu selten berücksichtigt. Ursprünglich erfolgte die Berechnung dieses Maßes für menschliche Intelligenz allerdings auf etwas andere Weise als heute. Geprägt wurde der Begriff des Intelligenzquotienten nämlich durch den Psychologen William Stern, der den von Alfred Binet geprägten Begriff des Intelligenzalters aufgriff und weiterentwickelte. Das Intelligenzalter ergibt sich nach Binet, grob gesagt, durch die Summe der gelösten Aufgaben in einem Intelligenztest. Aufschluss über die kognitive Leistungsfähigkeit gibt dann der Vergleich von Intelligenzalter und tatsächlichem Lebensalter: Wenn ein 8-jähriges Kind z.B. deutlich mehr (d.h. schwierigere) Aufgaben löst, als andere 8-jährige Kinder es im Durchschnitt tun, dann könnte sein Intelligenzalter z.B. 9,5 Jahre betragen – mit anderen Worten: Dieses Kind wäre in seiner kognitiven Entwicklung schon überdurchschnittlich weit fortgeschritten. William Stern setzte schließlich diese beiden Größen (also das Lebensalter und das Intelligenzalter nach Binet) einfach ins Verhältnis (bildete also einen Quotienten), multiplizierte sie mit dem Faktor 100 – und schon war der IQ geboren. Für unser Beispiel-Kind ergäbe sich somit ein IQ von (9,5/8)*100 = 118,75 (bzw. 119, da es aufgrund der nicht perfekten Reliabilität von Intelligenztests unüblich ist, IQ-Werte mit Nachkommastellen anzugeben).

Heutzutage berechnet man den IQ nicht mehr auf diese Weise, wenngleich das Grundprinzip der Berechnung erhalten geblieben ist: Weiterhin werden zwei verschiedene Werte miteinander ins Verhältnis gesetzt, weshalb der Begriff „Quotient“ auch heute noch gerechtfertigt ist. Dies ist mit einer ganz wichtigen Tatsache verbunden, die in der Öffentlichkeit und in den Medien leider so oft untergeht: Es gibt nicht den IQ, und es ist keineswegs so, dass ein Mensch genau einen IQ hat. Derartige Aussagen kann man guten Gewissens als Unsinn bezeichnen. In der Tat kann man einer jeden Person unzählige IQ-Werte zuweisen; aber um zu verstehen, warum das so ist, muss man sich vor Augen führen, wie der IQ berechnet wird.

Wie schon gesagt, basiert die IQ-Berechnung auf dem Bilden von Verhältnissen. Was wird nun ins Verhältnis gesetzt? Grob gesagt wird (egal mit welchem Intelligenztest) immer ein Rohwert zu einem bestimmten Mittelwert und einer Standardabweichung gesetzt. Der Rohwert meint meist die Anzahl der in einem Intelligenztest gelösten Aufgaben (was deshalb Sinn macht, weil fast alle diese Tests so aufgebaut sind, dass die Aufgaben im Verlauf immer schwieriger werden). Bei unserem Beispiel-Kind von oben könnten das z.B. 21 von 30 Aufgaben sein. So, dieser Rohwert sagt einem zunächst einmal gar nichts. Um an einen IQ-Wert zu gelangen, braucht man zusätzlich eine Normstichprobe, d.h. eine repräsentative Stichprobe anderer Menschen, mit der man das Kind nun vergleichen kann. Von dieser Normstichprobe braucht man zwei Informationen: den Mittelwert (d.h. die durchschnittliche Zahl der gelösten Aufgaben in dieser Gruppe von Menschen, hier z.B. 18,1) und die Standardabweichung (d.h. die „durchschnittliche“ Abweichung von diesem Mittelwert, z.B. 2,7). Nun muss die Zahl der von unserem Beispiel-Kind gelösten Aufgaben ins Verhältnis zu dieser Normstichprobe gesetzt werden . Hierzu berechnet man zunächst die Differenz zwischen dem Rohwert des Kindes und dem Mittelwert der Normstichprobe: 21-18,1 = 2,9. Dies ist die also die „Abweichung“ unseres Kindes vom Mittelwert der Normstichprobe – und diese muss man nun ins Verhältnis setzen zur „durchschnittlichen Abweichung“ vom Mittelwert der Normstichprobe (also deren Standardabweichung); d.h. man rechnet: 2,9/2,6 = 1,12. Man sagt: Das Kind liegt etwas mehr als eine Standardabweichung über dem Mittelwert der Normstichprobe. Nun fehlt nur noch die Umrechung in IQ-Werte. Hierzu nutzt man die Tatsache, dass IQ-Werte eine Art Maßzahl sind – deren Mittelwert und deren Standardabweichung festgelegt sind. D.h., man kann sie nutzen, um die Ergebnisse unterschiedlichster Tests (die alle andere Skalierungen verwenden), in ein und derselben Metrik anzugeben. Der Mittelwert des IQ ist auf 100 festgelegt, und die Standardabweichung auf einen Wert von 15. Um unserem Kind nun einen IQ-Wert zuweisen zu können, muss man nur noch den Wert 1,12 mit 15 multiplizieren und 100 addieren – und es ergibt sich ein IQ von 116,8 (bzw. 117).

Und schon hat man das, was in der Praxis meist noch in viel gravierender Form auftritt: Die beiden IQ-Werte (119 und 117) sind nicht gleich. Während es in unserem konstruierten Fall natürlich daran liegt, dass ich bei der obigen Berechnung die Werte ins Blaue hinein erfunden habe, liegt es in der Realität an einem anderen Faktor – nämlich an der Frage, welche Normstichprobe ich heranziehe, um die Person, deren IQ ich messen will, mit ihr zu vergleichen. Im Allgemeinen sollte man hierzu immer diejenige Normstichprobe wählen, die der Person bezüglich Alter und Geschlecht am ähnlichsten und zudem möglichst aktuell ist. Es finden sich aber auch noch feiner aufgegliederte Normen, z.B. auch bezüglich des Bildungsstands oder der besuchten Schulform. Ein IQ-Wert bedeutet immer nur, wie gut oder schlecht die Leistungen einer Person im Vergleich mit einer ihr möglichst ähnlichen Gruppe von Menschen sind. Und das ist genau der Grund, aus dem man für ein und denselben Menschen unzählige IQ-Werte berechnen kann – und ein IQ-Wert völlig ohne Aussage ist, solange man nicht mit angibt, zu welcher Normstichprobe man die Person ins Verhältnis gesetzt hat: Wenn der IQ unseres Kindes aus dem Vergleich mit einer Stichprobe Fünfjähriger resultiert, würde man den IQ von 118 nicht als besonders hoch einstufen; stammt er jedoch aus einem Vergleich mit einer Gruppe 16-Jähriger, kann man sich ziemlich sicher sein, dass das Kind wohl hochbegabt ist. Das ganze noch einmal in Kürze: Wenn jemand Ihnen das nächste Mal erzählt, er habe einen IQ von 150 – dann fragen Sie ihn doch bitte, aus dem Vergleich mit welcher Normstichprobe dieses Ergebnis resultiert.

Wie ist Intelligenz in der Menschheit verbreitet?

Wie oben bereits erwähnt, handelt es sich bei IQ-Werten um eine standardisierte Skala, auf der sich durch einfache Umrechnung alle möglichen Werte abbilden lassen, solange man die zwei wichtigen Angaben vorliegen hat: den Mittelwert und die Standardabweichung der betreffenden Stichprobe. Wann immer ich im Rest dieses Artikels von IQ-Werten spreche, bitte ich, dieses zu berücksichtigen.

Wie man aus zahlreichen Untersuchungen an großen repräsentativen Stichproben weiß, folgen IQ-Werte in der menschlichen Bevölkerung ziemlich genau einer so genannten Gauss’schen Normalverteilung (auch Gauss’sche Glockenkurve oder einfach kurz Normalverteilung genannt). Bei diesem Begriff handelt es sich im Grunde um eine Art „Etikett“, da es eine besondere Form von Verteilung bezeichnet, der (statistische) Werte (wie eben IQ-Werte) folgen können. Eine Normalverteilung lässt sich anhand zweiter Werte genau beschreiben, und zwar wiederum anhand des Mittelwertes und der Standardabweichung, die maßgeblich die Form der Kurve beeinflussen. Was ich im vergangenen Abschnitt noch verschwiegen habe, ist der sehr wichtige Umstand, dass die Tatsache, dass IQ-Werte einer solchen Normalverteilung folgen, einen ganz entscheidenden Vorteil mit sich bringt: nämlich den, dass die Berechnungen und Umrechnungen, die ich oben dargestellt habe, dadurch überhaupt erst mathematisch zulässig sind. Würden IQ-Werte keiner Normalverteilung folgen, hätten wir es um einiges schwieriger. So jedoch lässt sich (wie oben schon erwähnt) guten Gewissens sagen: IQ-Werte haben in der menschlichen Bevölkerung einen Mittelwert von 100 und eine Standardabweichung von 15. Um das ganze einmal ein bisschen plakativer zu machen, habe ich einmal eine entsprechende Abbildung gebastelt.

Verteilung des IQ in der Bevölkerung
Verteilung des IQ in der Bevölkerung

Um diese Glockenkurve nun zu verstehen, ist es wichtig, dass man nicht versucht, die y-Achse zu interpretieren (weshalb ich sie auch weggelassen habe). Mathematisch betrachtet handelt es sich bei dieser Kurve um eine Dichte-Funktion, d.h. auf der y-Achse ist die schwer interpretierbare Dichte abgetragen. Man darf und kann diese Kurve daher nicht direkt so lesen, dass sie einem Aufschluss darüber gibt, wie vielen Prozent der Menschen welcher IQ-Wert zugordnet ist (das geht daher nicht, weil die Intelligenz hier mathematisch als stetiges Merkmal konzipiert ist – aber nun genug mit dem statistischen Wirrwarr).

Sinnvoll interpretierbar ist hingegen das Integral, also die Fläche unter der Glockenkurve. Mit deren Hilfe kann man zumindest Aussagen darüber treffen, wie viele IQ-Werte sich in einem bestimmten Bereich bewegen. So liegen z.B. im Bereich einer Standardabweichung unter- und überhalb vom Mittelwert von 100 (also zwischen den IQ-Werten von 85 und 115) rund 68% aller IQ-Werte, und somit auch aller Menschen. Zwischen 70 und 130 liegen derweil z.B. rund 95% aller Werte, d.h. es liegen nur 2,5% unter 70 und 2,5% über 130. Als Konvention hat sich daher eingebürgert, alle IQ-Werte zwischen 85 und 115 als „durchschnittlich“ zu bezeichnen, Werte zwischen 70 und 85 als „niedrig“ und Werte zwischen 115 und 130 als „hoch“. „Hochintelligent“ ist daher streng genommen etwas anderes als „hochbegabt“, was sich als Begriff für IQ-Werte über 130 etabliert hat. Zur Erinnerung: Diese Menschen liegen bzgl. ihrer kognitiven Leistungen mehr als zwei Standardabweichungen über dem Mittelwert ihrer (hoffentlich) alters- und geschlechtsspezifischen Normstichprobe. Ähnliches gilt in umgekehrter Richtung für IQ-Werte unter 70. Hier bewegen wir uns (allerdings noch mit bedeutenden Abstufungen!) im Bereich der geistigen Behinderung (für deren Definition vorrangig der IQ herangezogen wird). Diese praktischen Prozentangaben haben einen weiteren Vorteil: Man kann jedem IQ-Wert einen Prozentrang zuweisen und somit z.B. Aussagen der Sorte „besser als 84% aller Mitglieder der Normstichprobe“ (bei einem IQ von 115) treffen. Um zu der Anmerkung von vorhin zurückzukommen: Ein IQ von 150 würde bedeuten, dass 99,96% der Menschen in der Normstrichprobe (und somit gewissermaßen auch in der Bevölkerung, für die die Normstichprobe ja repräsentativ sein soll) einen niedrigeren Wert aufweisen: Und das ist, wie sie auch an der Abbildung sehen können, hochgradig unwahrscheinlich – mal davon abgesehen, dass kein Intelligenztest einen so hohen Wert vernünftig messen kann (Thema des nächsten Artikels).

Exkurs: Männer & Frauen

Ein ganz heikles Thema ist es natürlich, ob nun Männer oder Frauen im Durchschnitt intelligenter sind. Der mir bekannte aktuelle Forschungsstand hierzu ist der, dass es – bezüglich der allgemeinen Intelligenz – einen marginalen Unterschied dahingehend gibt, dass Männer ein paar wenige IQ-Punkte vorne liegen, gleichzeitig aber die Varianz bei Männern höher ist: Sowohl in den sehr hohen als auch in den sehr niedrigen IQ-Bereichen überwiegen Männer. Dazu sei noch gesagt, dass dieser Unterschied durch zwei Aspekte an Bedeutung verliert: Zum einen ist die Varianz innerhalb jeder der beiden Gruppen um ein Vielfaches größer als der Unterschied zwischen den Gruppen, und zum anderen ist es gut möglich, dass jener Unterschied dadurch zustande gekommen ist, dass viele Intelligenztests bestimmte Aufgaben in den Vordergrund stellen, die Männer bevorteilen. Denn was als gut gesichert gilt, ist, dass Männer und Frauen sich deutlich hinsichtlich ihrer kognitiven Stärken und Schwächen unterscheiden: Es gilt als sehr robuster Befund, dass Männer z.B. im Mittel besser im visuell-räumlichen Denken abschneiden als Frauen, die wiederum im Durchschnitt die Nase vorn haben, was die verbale Intelligenz betrifft.

Der Flynn-Effekt: Wird die Menschheit wirklich immer intelligenter?

Eine andere Fragestellung ist die, ob der durchschnittliche IQ der Menschheit tatsächlich zunimmt – ein Phänomen, das in Anlehnung an den neuseeländischen Politologen James R. Flynn als Flynn-Effekt bezeichnet wird. Dieser Fragestellung auf den Grund zu gehen, ist aufgrund der beschriebenen Berechnungsweise des IQ gar nicht so einfach – denn um herauszufinden, ob der IQ im Mittel steigt, darf man Menschen eben nicht mit aktuellen Normstichproben vergleichen, sondern muss ältere heranziehen: Nur so kommt man dem Flynn-Effekt auf die Schliche.

In der Tat haben groß angelegte Studien ergeben, dass der mittlere IQ in der westlichen Bevölkerung zwischen den 1930er und den 1990er Jahren um 0,2 – 0,5 Punkte pro Jahr gestiegen ist. Dieser Anstieg ergibt sich natürlich aus dem Vergleich mit den immer gleichen Normen aus den 1930er Jahren – anders wäre ein Anstieg ja gar nicht messbar. Dabei nahmen die Leistungen in nicht-sprachlichen Tests (die vor allem fluide Intelligenz messen) deutlich stärker zu als die in sprachlich basierten Tests (die vor allem kristalline Intelligenz messen). Für diesen Befund wurden diverse Erklärungshypothesen diskutiert, die im Folgenden kurz angeschnitten werden sollen.

Dauer des Schulbesuchs und Erfahrung mit typischen Intelligenztestaufgaben

In der Tat nahm die durchschnittliche Dauer des Schulbesuchs in dieser Zeit deutlich zu – was deshalb wichtig ist, weil somit auch die Erfahrung und die Geübtheit im systematischen Lösen von schulischen Aufgaben zunahm, die typischen Intelligenztests sehr ähnlich sind. Der Anteil dieser Faktoren am Flynn-Effekt ist jedoch eher als gering zu einzustufen.

Erziehungsstil

Weiterhin wurde in den Raum geworfen, dass der typische elterliche Erziehungsstil in dieser Zeitspanne natürlich auch einem erheblichen Wandel unterlegen war. Konkret wird von den Vetretern dieser Hypothese angeführt, dass von Eltern zunehmend Wert darauf gelegt wurde, ihre Kinder schon früh in ihrer kognitiven Entwicklung zu fördern. Dieser Trend fand aber nicht nur im familiären Rahmen, sondern auch in viel größerem Maße in den Medien (Beispiel „Sesamstraße“) und in der Politik statt. Die Befunde hierzu sind widersprüchlich. Während man weiß, dass große, national initiierte Bildungsprogramme eher keine Wirksamkeit bezüglich der Erhöhung des durchschnittlichen IQs vorweisen können, wirkt sich frühe Förderung auf der individuellen Ebene durchaus positiv auf die kognitive Entwicklung aus.

Weniger Fälle geistiger Behinderung

Zu bedenken ist sicherlich auch, dass aufgrund besserer medizinischer Versorgung die Zahl der mit geistigen Behinderungen geborenen Kinder in der beschriebenen Zeitspanne zurückgegangen ist. Einige Studien hierzu messen diesem Aspekt im Hinblick auf den Flynn-Effekt eine zentrale Bedeutung bei: Durch den überproportionalen Wegfall sehr niedriger IQ-Werte (<70) in der Bevölkerung stieg der durchschnittliche IQ im Mittel an.

Ernährung

Es ist gut belegt, dass bessere Ernährung (z.B. vitaminreiche Kost, weniger Schadstoffe, etc.) die geistige Entwicklung von Kindern positiv beeinflusst. Durch ungesunde Ernährung kann es z.B. zu Schilddrüsenunterfunktionen kommen (gekennzeichnet durch einen Mangel an Triiodthyroxin und Triiodthyronin), die dann wiederum eine Verzögerung der geistigen Entwicklung bedingen können, sodass der mittlere IQ infolgedessen gestiegen sein könnte.

Vermutlich ist es tatsächlich nicht einer dieser Faktoren, die den Flynn-Effekt erklären, sondern ihr Zusammenspiel. Interessanterweise ist es derweil übrigens so, dass der Anstieg des mittleren IQ seit Anfang der 1990er Jahre als „gestoppt“ gilt, sodass man zumindest momentan sagen kann, dass der Flynn-Effekt der Vergangenheit angehört. Manche deuten dies als Beleg für die Richtigkeit der Ernährungshypothese (da die Nahrungsversorgung in der westlichen Gesellschaft gewissermaßen nicht noch viel besser werden kann), ich jedoch würde eher sagen, dass diese Tatsache der „Sättigung“ in entsprechender Weise auf alle Erklärungsansätze zutrifft.

In diesem Artikel habe ich mehrfach schon das Thema der Intelligenzmessung gestreift. Ob, wie – und vor allem – wie genau man die Intelligenz eines Menschen tatsächlich messen kann, wird daher der Inhalt des nächsten Artikels sein.

© Christian Rupp 2014