Intelligenz – Teil 6: „The Bell Curve“ & das dunkelste Kapitel der Psychologie

1994 veröffentlichten die beiden US-Amerikaner Richard Herrnstein und Charles Murray ein Buch namens „The Bell Curve: Intelligence and Class Structure in American Life“, wobei es sich bei der „bell curve“ natürlich um eine Anspielung an die Gauß’sche Glockenkurve handelt, der die IQ-Werte in der Population zumindest annähernd folgen (siehe auch hier). Dieses Buch hat für eine breite Kontroverse und heftige Kritik gesorgt, die man heutzutage wahrscheinlich als shit storm bezeichnen würde. Und das nicht ohne Grund, ziehen die Autoren doch auf Basis wackliger Prämissen Schlussfolgerungen, die schon im Nationalsozialismus en vogue waren.

Ethnische Unterschiede bezüglich der allgemeinen Intelligenz

Der wohl am kritischsten zu betrachtende Aspekt in der Darstellung von Herrnstein und Murray ist die Art und Weise, wie sie auf ethnische Unterschiede hinsichtlich des allgemeinen Intelligenzquotienten verweisen. So gelangen sie auf Basis der gesichteten Studienlage zu dem Schluss, dass in den USA Menschen asiatischer Herkunft in klassischen Intelligenztests wie den Wechsler-Tests durchschnittlich fünf IQ-Punkte mehr erzielen als „weiße“ US-Amerikaner, während Menschen afroamerikanischer Abstammung im Schnitt 15-18 Punkte (d.h. eine ganze Standardabweichung) weniger als „weiße“ Amerikaner erlangen. Nun kann man sich vorstellen, dass diese Befunde vor dem Hintergrund der Art und Weise, wie Afroamerikaner in der Vergangenheit in den USA behandelt wurden, gewaltigen sozialpolitischen Sprengstoff lieferten. Zudem weisen die Autoren darauf hin, dass der IQ von Einwandern zum Zeitpunkt der Immigration im Durchschnitt bei 95 und somit unterhalb des Populationsmittelwerts von 100 liege.

Sozialpolitische Schlussfolgerungen: Afro-Amerikaner und Immigranten loswerden

Nun, diese gefundenen Unterschiede sind zunächst einmal nicht so einfach wegzudiskutieren (worauf sie wahrscheinlich zurückzuführen sind, werde ich später noch beschreiben!), aber das Skandalöse an dem Buch „The Bell Curve“ ist etwas anderes: die sozialpolitischen Schlussfolgerungen und Forderungen, die Herrnstein und Murray daraus ableiten. Insgesamt zielt ihre Argumentation darauf ab, deutlich zu machen, dass durch eine Reihe von Faktoren die mittlere Intelligenz der US-Bürger heruntergedrückt werde und die Gesellschaft somit quasi zugrunde gehe. Hierfür seien eine Reihe von Faktoren verantwortlich. Neben dem nicht geringer werdenden Strom von Einwanderern, die mit ihrer geringeren Intelligenz den Durchschnitt „drücken“ (ebenso wie die afroamerikanische Bevölkerung), liege eine weitere Ursache in der Tatsache, dass Mütter mit unterdurchschnittlichem IQ mehr Kinder bekämen als solche mit durchschnittlichem IQ (was ein korrekter Befund ist). Da Intelligenz größtenteils erblich sei, vermehre sich somit die „dumme“ Bevölkerung immer mehr, während die „schlaue“ immer weniger werde. Aufgrund der angeblich hohen Heritabilität von Intelligenz seien ferner sämtliche großangelegte Fördermaßnahmen mit dem Ziel, Intelligenzunterschiede auszugleichen, völlige Fehlinvestitionen. Und es geht noch weiter: Antidiskriminierungsmaßnahmen, die dazu dienen sollen, Chancengleichheit in der Bevölkerung herzustellen (indem gezielt traditionell benachteiligte Gruppen wie Afroamerikaner gefördert werden), seien nicht nur unnütz, sondern auch ungerecht, da so z.B. Angehörige dieser Gruppen Studienplätze oder Jobs erhielten, für die sie aufgrund ihrer geringen Intelligenz gar nicht qualifiziert seien. Dies wiederum führe nur zu sozialen Spannungen und wachsendem Hass der eigentlich benachteiligten, „weißen“ Bevölkerung auf die afroamerikanische. Außerdem trüge diese Art von Fördermaßnahmen zur Verdummung von Schulen und Universitäten bei. Man solle, so Herrnstein und Murray, lieber die Ungleichbehandlung fortführen, da diese schlichtweg der Realität entspreche. Geld solle man lieber in die Förderung der Begabten (= hoch Intelligenten) stecken, da diese ohnehin bald in der absoluten Minderheit seien. Falls Ihnen diese Argumentationslinie bekannt vorkommt, wird das sehr wahrscheinlich daran liegen, dass ein ehemaliger deutscher Politiker namens Thilo Sarrazin in seinem Buch „Deutschland schafft sich ab“ vor einigen Jahren fast genau die gleichen Thesen aufgegriffen und auf die Einwanderungssituation in Deutschland angewendet hat.

Die Kritik

Die Kritik an „The Bell Curve“ ist allem voran eine Kritik an den von Herrnstein und Murray vorausgesetzten Prämissen. Denn ein Grundkonzept der Philosophie lautet nun einmal, dass ein Argument nur dann Gültigkeit besitzt, wenn die Wahrheit der Prämissen zwangsläufig zur Wahrheit der Schlussfolgerung (Konklusion) führt. Die wichtigsten nicht korrekten Prämissen sind, wie auch bereits von Stephen Jay Gould beschrieben, im Folgenden dargestellt.

Überschätzte Heritabilität

Einer der größten Schwachpunkte an der oben beschriebenen grotesken Argumentation ist in der Tat, dass Intelligenz auf Basis des heutigen Wissensstandes bei weitem nicht so stark erblich bedingt ist wie lange angenommen (was Sie hier nachlesen können). Und selbst wenn dies so wäre, wäre die Schlussfolgerung, die gemessenen IQ-Unterschiede zwischen den verschiedenen Bevölkerungsgruppen seien im unterschiedlichen genetischen Material der Gruppen begründet, immer noch falsch, denn: Die Gruppen unterscheiden sich ganz offenbar auch stark hinsichtlich ihrer Umweltbedingungen (sozioökonomischer Status etc.), sodass man selbst im Sinne der klassischen Verhaltensgenetik folgern muss, dass die Ursache für die Unterschiede unklar ist. Heutzutage gibt es viele Belege dafür, dass die gemessenen IQ-Unterschiede eher nicht auf genetische Unterschiede zurückzuführen sind, sondern sehr viel stärker durch Umweltfaktoren zu erklären sind, vor allem durch den z.B. in der afroamerikanischen Bevölkerung im Durchschnitt deutlich geringeren sozioökonomischen Status, den damit verbundenen schlechteren Zugang zu (in den USA meist sehr teuren) Bildungsangeboten sowie durch diverse psychologische Effekte wie die sich selbsterfüllende Prophezeiung und geringe Leistungserwartungen von Lehrern an afroamerikanische Kinder (die oft von Beginn an mit dem Vorurteil konfrontiert werden, dass sie weniger leistungsfähig sind als „weiße“ Kinder). Hinzu kommen wahrscheinlich Effekte durch schlechtere Englischkenntnisse, die zur Bearbeitung der Intelligenztests erforderlich sind, sowie möglicherweise kulturelle Unterschiede (siehe weiter unten).

Annahme eines für alle Menschen geltenden g-Faktors

Herrnstein und Murray gründen ihre Argumentation unter anderem auf die Prämisse, dass es einen für alle Menschen geltenden Generalfaktor der Intelligenz (g-Faktor) gibt, der im Wesentlichen auch von allen gängigen Intelligenztests gemessen wird. Beide Prämissen sind auf Basis des aktuellen Standes der Wissenschaft nur schwer haltbar, wie Sie auch hier nachlesen können.

Intelligenztests sind für alle ethnischen Gruppen gleich schwierig

Auch diese wichtige Prämisse wird zwar kontrovers diskutiert, ist aber durchaus als heikel einzustufen. Zum einen gibt es Hinweise darauf, dass Menschen in westlich geprägten Kulturen vertrauter sind mit typischen Intelligenztestaufgaben, sodass Menschen aus anderen Kulturen eine Benachteiligung bei der Aufgabenbearbeitung erfahren. Ein sehr pragmatisches Beispiel hierfür sind Untertests zur kristallinen Intelligenz, in denen allgemeines Wissen oder Wortschatz dadurch erfragt wird, dass den getesteten Personen Bilder der jeweiligen Objekte gezeigt werden (wie z.B. im WIE). Hier liegt es auf der Hand, dass die Bilder (z.B. Autos, Armbanduhren, Häuser) stark von derjenigen Kultur geprägt sind, in der der Test entwickelt wurde – und dass Menschen aus anderen Kulturkreisen hiermit weitaus weniger vertraut sein mögen. Verknüpft damit ist der zweite Aspekt, der beinhaltet, dass das Verständnis von Intelligenz, auf dem etablierte Intelligenztests beruhen, stark durch die westliche Kultur geprägt ist, die Intelligenz weitgehend als Ausmaß der Effizienz der Informationsverarbeitung sieht. Wie Sie hier nachlesen können, hängt die Definition von „Intelligenz“ jedoch stark vom kulturellen Umfeld ab, sodass eine Benachteiligung dadurch entsteht, dass eines von vielen verschiedenen Intelligenzkonzepten gleichsam auf alle Menschen angewendet wird. Ein ganz zentrales Element, das eine Benachteiligung nach sich zieht, sind zudem die ungleich guten Sprachkenntnisse der getesteten Menschen, also z.B. bei Einwanderern in die USA die Englischkenntnisse. Es erscheint relativ logisch, dass bei mangelndem sprachlichen Verständnis der Aufgaben (und das ist bei jedem Intelligenztest erforderlich) schlechtere Testergebnisse resultieren, weil die Voraussetzung dafür, dass Intelligenz überhaupt gemessen werden kann, gar nicht erfüllt ist.

Fehler in der Analyse der zugrunde gelegten Studien

Zusätzlich zu den bereits genannten Punkten muss man den Autoren von „The Bell Curve“ außerdem noch eine Reihe methodischer und statistischer Fehler bei der Analyse der herangezogenen Studien vorwerfen. Zum einen wäre da der wirklich sehr grobe Schnitzer, einen Korrelationszusammenhang, der grundsätzlich ungerichtet ist, auf kausale Weise zu interpretieren. Gemeint ist hier der Zusammenhang zwischen dem sozioökonomischen Status und Intelligenz, wobei Herrnstein und Murray verzweifelt versuchen, scheinbar zu beweisen, dass ein niedriger IQ die Ursache eines niedrigen sozioökonomischen Status ist und nicht umgekehrt. Was hierbei jedoch Ursache und was Wirkung ist, ist nicht eindeutig geklärt, und das Allerwahrscheinlichste und zugleich Logischste ist, dass beide Faktoren sich im Laufe eines Menschenlebens gegenseitig beeinflussen: Intelligenz ist förderlich dabei, einen hohen Bildungsstand zu erreichen und somit das Armutsrisiko zu reduzieren, aber ebenso beeinflussen der sozioökonomischen Status und die damit verbundenen Förderbedingungen in der Ursprungsfamilie maßgeblich, wie sich die Intelligenz eines Menschen entwickelt. Meiner Meinung nach muss man sogar sagen, dass es letztlich unmöglich ist, diese beiden Variablen zu trennen, weil sie derart stark verflochten und voneinander abhängig sind. Und da wir es hier sowohl auf Seiten der Intelligenz als auch auf Seiten des sozioökonomischen Status mit zahlreichen anderen Variablen zu tun haben, die mit beidem zusammenhängen, aber so gut wie nie in Studien berücksichtigt und kontrolliert wurden, werden vernünftige Schlussfolgerungen noch zusätzlich erschwert.

Zweitens kann man Herrnstein und Murray für die Auswahl der zugrunde gelegten Originalarbeiten kritisieren: So beziehen sie sich auf mehrere Studien, die methodisch mehr als zweifelhaft sind (z.B. weil lediglich IQ-Unterschiede zwischen Gruppen, aber keine Gruppenmittelwerte berichtet werden oder weil die gemessenen niedrigeren IQ-Werte von südafrikanischen Kindern offensichtlich auf kaum vorhandene Englischkenntnisse zurückgehen). Drittens muss man den beiden Autoren vorhalten, dass sie bei der Analyse der Studien selektiv solche aussortierten, die nicht ins Bild passten – z.B. Daten von südafrikanischen (schwarzen) Schülern, die in einem Intelligenztest im Durchschnitt besser abschnitten als weiße Schüler. Somit ist die Analyse von Herrnstein und Murray alles andere als ausgewogen.

Eugenik – künstliche Selektion zur Rettung der Menschheit

Die Eugenik ist zweifelsohne das dunkelste und grausamste Kapitel der Psychologie, das traurigerweise kaum Inhalt der akademischen Lehrpläne in diesem Fach ist. Gemeint ist mit diesem Begriff eine Form der künstlichen Selektion der Art, dass die Fortpflanzung dahingehend beeinflusst wird, dass Nachkommen mit gewünschten Eigenschaften (z.B. hoher Intelligenz) entstehen – entweder durch Förderung der Fortpflanzung „wertvoller“ Menschen (positive Eugenik) oder durch die Hinderung „minderwertiger“ Menschen daran, sich fortzupflanzen (negative Eugenik). Ein leidenschaftlicher Verfechter dieser Konzepte war in der zweiten Hälfte des 19. Jahrhunderts Sir Francis Galton, der, begeistert vom Werk „Die Entstehung der Arten“ seines Cousins Charles Darwin, die These aufstellte, dass die natürliche Selektion des Menschen dadurch behindert werde, dass die Gesellschaft ihre schwachen Mitglieder schütze. Daher, so Galton, sei eine künstliche Selektion im Sinne der Eugenik nötig, weil sich sonst die weniger intelligenten Menschen stärker vermehren und so zum Niedergang der menschlichen Rasse führen würden (man merkt: Sowohl die Ideen von Herrnstein und Murray als auch die Thilo Sarrazins sind schon recht alt). Niedrige Intelligenz war bereits damals mit der Einwanderungsgesellschaft und der afroamerikanischen Bevölkerung assoziiert, und Galton war fest davon überzeugt, dass Intelligenz erblich bedingt sei. Daher lag die Schlussfolgerung nahe, die Selektion (und so die „Rettung der Menschheit“) dadurch voranzutreiben, dass man jene „minderintelligenten“ Gruppen von der Fortpflanzung abhalten möge.

Konkret war die politisch bald durchgesetzte Folgerung hieraus die Sterilisation entsprechender Personengruppen. Diese bezog sich allerdings nicht auf alle oben genannten Bevölkerungsgruppen, sondern laut dem US-amerikanischen Model Eugenic Sterilization Law (1922) u.a. auf „Minderbegabte“, „Wahnsinnige“, Blinde, Behinderte, Kriminelle, Epileptiker, Obdachlose und Waisenkinder. Und man sollte nicht davon ausgehen, dass diese nicht durchgeführt wurde: So schätzte das Journal of the American Medical Association, dass allein in den USA zwischen 1941 und 1942 über 42000 Personen zwangssterilisiert wurden. Aber damit nicht genug: Neben den USA etablierte eine Fülle weiterer Länder in der Folge eigene Eugenik-Programme (sowohl positive als auch negative), darunter auch Schweden, Kanada, Australien, Norwegen, Finnland und die Schweiz. Trauriger Spitzenreiter war in der Zeit des Nationalsozialismus Deutschland, wo bis zum Ende des 2. Weltkriegs mehr als eine halbe Million Menschen wegen „Verdachts auf Erbdefekte“ oder „Gefahr der Rassenverunreinigung“ zwangssterilisiert wurden – worunter neben geistig und körperlich behinderten Menschen auch „Asoziale“ wie Sinti, Roma und Alkoholiker sowie Homosexuelle (hier entzieht sich mir selbst der vermeintliche Sinn), Prostituierte und Fremdrassige (v.a. Menschen afrikanischer und arabischer Abstammung) fielen. Dies gipfelte schließlich in den rund 100.000 Euthanasiemorden, die die Nazis im Rahmen der „Aktion T4“ an behinderten Menschen verübten. Ein Beispiel für positive Eugenik war zudem der vom NS-Regime ins Leben gerufene Lebensborn, der zum Ziel hatte, die Geburtenrate „reinrassig-arischer“ Kinder zu steigern.

Das einzig Gute an alldem war (wenn man in diesem Zusammenhang überhaupt das Wort „gut“ verwenden darf), dass nach Ende des 2. Weltkriegs das internationale Ansehen der Eugenik drastisch abnahm, weil kaum ein Land mit den Gräueltaten Deutschlands in Verbindung gebracht werden wollte. Die Eugenikprogramme der meisten Länder wurden eingestellt, und 1948 verabschiedeten die Vereinten Nationen eine Resolution, gemäß derer es allen Männern und Frauen unabhängig von ihrer Nationalität, Ethnie, etc. erlaubt sein sollte, zu heiraten und eine Familie zu gründen.

Eine Warnung: Damit Deutschland sich nicht abschafft

Es wäre falsch, zu sagen, dass das Buch von Herrnstein und Murray direkt zur Eugenik aufruft. Dennoch finden sich in der Argumentationslinie und den gezogenen Schlussfolgerungen ganz klar Parallelen zu den Konzepten und Praktiken der Eugenik (keine Förderung der Schwachen, Bewahrung der Menschheit vor der Überbevölkerung durch die „Minderintelligenten“), die von Thilo Sarrazin gleichermaßen für Deutschland übernommen wurden. Auch nicht gerade ein gutes Licht auf „The Bell Curve“ wirft die Tatsache, dass Herrnstein und Murray sich einer großen Zahl von Originalarbeiten Richard Lynns bedienen, der nicht nur als bekannter Intelligenzforscher, sondern auch als bekennender Verfechter der Eugenik bekannt ist und z.B. befürwortet, Embryonen bei der künstlichen Befruchtung auf genetische Eigenschaften hin zu untersuchen und nur die „besten“ zu verwenden.

Auffällig ist bei Lynn, dass er kein Demagoge ist, der die Gesellschaft aufhetzen will. Er ist Wissenschaftler und hat größtenteils die unbegrenzte Nutzung wissenschaftlich angesammelten Wissens als Ziel vor Augen. Diese mechanistische Denkweise ist allerdings eine, die meiner Ansicht nach niemals Macht erlangen sollte. Denn was Lynn völlig außer Acht lässt, sind all die ethischen Probleme und Menschenrechtskontroversen, die dies mit sich führen würde. Aber was ist die Alternative? Politiker wie Thilo Sarrazin, die mit menschenverachtendem Vokabular zur „Eugenik 2.0“ aufrufen? Bitte nicht. Was bleibt, ist die Hoffnung in die wirklich klugen Köpfe unserer Gesellschaft, die in der Lage sind, Weltanschauung und wissenschaftliche Befunde auf konstruktive Art und Weise miteinander zu verbinden, anstatt immer neue Katastrophen herbeizuschwören und noch katastrophalere Lösungen vorzuschlagen.

 

Intelligenz – Teil 5: Ist unser IQ ausschließlich genetisch bedingt?

Vielen Lesern mag diese Frage allein schon seltsam vorkommen, herrscht doch in vielen Bereichen unserer Gesellschaft doch die Meinung vor, dass Menschen hinsichtlich ihrer Fähigkeiten stark formbar sind. Schließlich schicken wir unsere Kinder in die Schule, regen sie bei schlechten Noten an, sich anzustrengen und besorgen ihnen eine nette Nachhilfelehrerin. Die in der Überschrift gestellte Frage ist jedoch berechtigt, herrschte (und herrscht oft heute noch) in der Psychologie doch die Ansicht vor, dass die allgemeine Intelligenz des Menschen ein Merkmal darstellt, das zu einem vergleichsweise großen Anteil vererbt wird, d.h. genetisch determiniert ist. Da man in der Psychologie ebenso wie in der gesamten Wissenschaft ziemlich sicher ist, dass kaum ein menschliches Merkmal (mit Ausnahme von Dingen wie Augenfarbe und Blutgruppe) zu 100% genetisch bestimmt ist, begann man vor einigen Jahrzehnten, sich der Frage nach dem Anteil zu widmen, der auf genetische einerseits und Umwelteinflüsse andererseits zurückzuführen ist. Der Wissenschaftszweig, der sich hieraus entwickelte, nennt sich Verhaltensgenetik.

Das Konzept der Heritabilität

Den Grad der Erblichkeit eines Merkmals wie Intelligenz vernünftig zu berechnen, ist alles andere als einfach. In der Regel wird als Anhaltspunkt die so genannte Heritabilität berechnet, welche zweifelsohne zu den Messgrößen gehört, die am häufigsten falsch und vor allem überinterpretiert werden. Meistens wird die Heritabilität auf Basis von Zwillingsstudien berechnet. Das sind Studien, in denen eineiige (die zu 100% dieselben Gene besitzen) oder aber zweieiige Zwillinge (die durchschnittlich, aber nicht immer genau, 50% der Gene teilen – genau wie „normale“ Geschwister) dahingehend untersucht werden, inwieweit jedes der untersuchten Zwillingspaare hinsichtlich eines bestimmten Merkmals übereinstimmt. In unserem Fall bedeutet das: Bei beiden Zwillingen wird der IQ gemessen, und dann wird über die gesamte Stichprobe von Zwillingspaaren die Korrelation berechnet, sodass man ein Maß dafür erhält, wie groß über alle Zwillingspaare hinweg die durchschnittliche Übereinstimmung zwischen Zwilling A und Zwilling B ist. Wenn ein Merkmal stark genetisch bedingt ist, würde man erwarten, dass die Korrelation bezüglich dieses Merkmals bei eineiigen Zwillingen sehr viel größer ausfällt als bei zweieiigen. Diese Korrelation wird nun für eineiige und zweieiige Zwillinge separat berechnet, und die Heritabilität stellt ein Maß dar, das diese beiden Korrelationen zueinander ins Verhältnis setzt. Daher variiert auch die Heritabilität zwischen 0% und 100%, wobei der errechnete Prozentsatz, genau gesagt, den Anteil an der Gesamtvarianz eines bestimmten messbaren Merkmals (wie Intelligenz) in einer Population wiedergibt, der auf genetische Unterschiede zurückgeführt werden kann. Mit anderen Worten: Eine Heritabilität von 50% würde z.B. bedeuten, dass 50% der Varianz (also der Streuung) der Intelligenzwerte in der gesamten Population (wofür die Stichprobe stellvertretend ist) auf genetische Unterschiede der Menschen zurückgeführt werden kann. Oder noch anders ausgedrückt: Es bedeutet, dass 50% der IQ-Unterschiede innerhalb der gemessenen Gruppe mit den genetischen Unterschiedenen der Gruppenmitglieder (linear) zusammenhängen. Für das Merkmal Intelligenz wurden so in der Vergangenheit meist Heritabilitätswerte zwischen 70 und 80% berichtet, was ziemlich hohe Werte sind.

Kritik am Konzept der Heritabilität

Keine Aussagen über einzelne Personen

Der wichtigste Aspekt ist hierbei, dass die Heritabilität sich immer nur auf die Population oder, genau genommen, auf die Stichprobe von Individuen bezieht, bei denen das Merkmal erhoben wurde. Die Prozentzahl kann somit nicht herangezogen werden, um Aussagen über eine einzelne Person zu treffen: Die Aussage „Bei jeder einzelnen Person ist die Intelligenz zu 80% genetisch bedingt“ ist daher nicht korrekt.

Mutmaßung statt Messung und irreführende Prozentzahlen

Außerdem ist es wichtig, anzumerken, dass bei alledem der Grad der genetischen Übereinstimmung einfach auf einen bestimmten Wert festgelegt wird. Das ist bei eineiigen Zwillingen (da sind die 100% unumstößlich) weit weniger problematisch als bei zweieiigen: Da nämlich ist der durchschnittliche Wert 50%, aber dieser kann erheblich variieren. Es würde also mehr Sinn machen, die tatsächliche Übereinstimmung zu messen anstatt sie zu schätzen – das allerdings würde den Aufwand einer solchen ohnehin komplexen Studie ins nahezu Unermessliche steigern. Übrigens: Die Zahl 50% ist hochgradig irreführend, weil alle Menschen (egal welcher ethnischer Abstammung) 100% aller Gene gemeinsam haben. Die Unterschiede liegen in den Genvarianten, den Allelen – und selbst diese sind bei allen Menschen zu 99,9% gleich. Die gesamte Varianz des menschlichen Erscheinungsbildes spielt sich also in diesen 0,1% ab – und wenn es heißt, zweieiige Zwillinge hätten 50% ihrer Gene gemeinsam, so bezieht sich das lediglich auf 50% dieser 0,1% der Allele. Korrekt wäre also eigentlich die Aussage: Zweieiige Zwillinge teilen 99,95% ihrer Allele, und eineiige 100%.

Aussagen sind zeitlich beschränkt

Der zweite Kritikpunkt betrifft die Tatsache, dass die Schätzung der Heritabilität immer nur eine Momentaufnahme darstellt, d.h. immer nur die Rolle des aktuell aktivierten genetischen Materials wiederspiegelt. Wie man aber inzwischen weiß, werden die unterschiedlichen Gene im Laufe eines menschlichen Lebens ziemlich häufig an- und wieder abgeschaltet, sodass die Heritabilität keine Schätzung über zum Zeitpunkt der Messung nicht aktiviertes genetisches Potenzial erlaubt.

Nicht mehr als ein Verhältnismaß

Das wohl wichtigste Argument gegen die Heritabilität, welches deren Interpretierbarkeit stark eingrenzt, ist die Tatsache, dass es sich hierbei, wenn man die Formel einmal übersetzt, um nicht mehr als ein Verhältnismaß handelt, das die genetische Varianz in einer Stichprobe ins Verhältnis setzt zur Umweltvarianz (also der Unterschiedlichkeit der Umweltbedingungen) in derselben Stichprobe. Das bedeutet, die berechnete Heritabilität ist von beidem abhängig. Das scheint trivial, ist aber von großer Bedeutung: Wenn nämlich aus Gründen der mangelnden Repräsentativität der Stichprobe z.B. die Umweltvarianz sehr gering ist (weil sich in der Stichprobe z.B. nur nordamerikanische Männer aus der Mittelschicht befinden, die alle unter ähnlichen Umweltbedingungen leben), dann wird die Heritabilität zwangsläufig hoch ausfallen, weil die genetische Varianz in der Regel größer ist. Und in der Tat ist es so, dass viele der Studien, die zur Berechnung der Heritabilität durchgeführt wurden, genau diesen Schwachpunkt haben, was den Schluss nahelegt, dass die Heritabilität durch diese deutlich überschätzt wird – weil in den Stichproben gar nicht genug Umweltvarianz vorliegt, um dieses Maß sinnvoll zu deuten. Tatsächlich führt dieser Umstand oft zu seltsamen Phänomen und mitunter auch zu bildungspolitischen Fehlentscheidungen. So kam es z.B. bereits vor, dass Regierungen durch diverse Maßnahmen die Chancengleichheit von Kindern verbesserten und somit quasi die Umweltvarianz reduzierten, weil sich die Bedingungen, unter denen die Kinder lebten, dadurch ähnlicher wurden. Wenn dann z.B. durch Schultests der Bildungserfolg (der nun als weiteres Merkmal analog zur Intelligenz zu sehen ist) der Kinder gemessen und damit die „Heritabilität des Bildungserfolgs“ berechnet wird, kommt natürlich ein hoher Wert dabei heraus – der dann von (dummen) Politikern dahingehend fehlgedeutet wird, dass das Schaffen von Chancengleichheit völliger Quatsch ist, da der Bildungserfolg ja offenbar doch nur von der genetischen Ausstattung der Kinder abhängt. Ein Beispiel für einen grandiosen Fehlschluss.

Weitere Kritik an der Verhaltensgenetik

Neben diesen eklatanten Nachteilen des Konstrukts „Heritabilität“ gibt es diverse weitere Kritikpunkte an der klassischen Verhaltensgenetik. Diese Punkte betreffen vor allem die eher steinzeitliche Auffassung von Genetik und die ziemlich stiefmütterliche Behandlung des Umweltfaktors.

Konzeption von „Genetik“

Wie schon beschrieben, wird in der klassischen Verhaltensgenetik der Grad der genetischen Übereinstimmung zwischen Menschen nicht gemessen bzw. erfasst, sondern aufgrund bestimmter Annahmen geschätzt (z.B. auf 50%). Das allein ist bereits wissenschaftlich ziemlich unbefriedigend. Hinzu kommt, dass man inzwischen (z.B. in der molekularen Verhaltensgenetik) sehr viel weiter ist und eine Fülle verschiedener Arten von „Genvarianz“ unterscheidet – unter anderem die Varianz, die dadurch entsteht, dass unterschiedliche Allele an weit voneinander entfernten Orten im Genom (d.h. der Gesamtheit aller Gene) miteinander interagieren. Im Rahmen von so genannten Kopplungs- und Assoziationsstudien wird zudem durch den Scan des menschlichen Genoms untersucht, welche bestimmten Allele in Zusammenhang mit bestimmten Merkmalen wie z.B. psychischen Störungen stehen.

Konzeption von „Umwelt“

Man muss wohl zugeben, dass der Begriff „Umwelt“ so ziemlich einer der schwammigsten in der gesamten Psychologie ist. Gemeint ist hiermit die Summe an externen Faktoren, die einen Menschen in seiner Entwicklung von Geburt an beeinflussen – d.h. ungefähr alles von Ernährung und Klimabedingungen über Einkommen und Bildungsniveau der Eltern (oft zusammengefasst zum sozioökonomischen Status) bis hin zum elterlichen Erziehungsstil, den zur Verfügung gestellten Förderbedingungen und der Art der Eltern-Kind-Bindung. Das Problem hieran: Die Gleichheit oder Unterschiedlichkeit der Umwelt wurde und wird in der klassischen Verhaltensgenetik nie ausreichend präzise erfasst. Stattdessen verlässt man sich auch hier viel zu oft auf Daumenregeln, wie z.B. in den auch sehr beliebten Adoptionsstudien. Diese wurden lange als die beste Art von Studien gesehen, um den Einfluss von Umwelt und Genetik auf ein bestimmtes Merkmal voneinander zu trennen. Untersucht wurden hierbei eineiige Zwillingspaare (die also genetisch identisch ausgestattet sind), die jedoch von jeweils unterschiedlichen Familien adoptiert wurden. Die Annahme, die man hierbei meist getroffen hat, ist, dass die Umwelt der beiden Zwillinge im Gegensatz zum genetischen Faktor somit unterschiedlich ist. Sehr viele Psychologen haben in der Vergangenheit immer wieder betont, dass später gefundene Übereinstimmungen der Zwillinge, z.B. bzgl. des IQs, somit auf die gemeinsamen Gene zurückgeführt werden können. Dieser Schluss ist jedoch falsch: In Wirklichkeit ist es umgekehrt, weil vielmehr die gefundenen Unterschiede interessant sind – denn diese müssen zwangsläufig auf die Umwelt zurückzuführen sein. Die Schlussfolgerung ist aber aus noch einem zweiten Grund nicht korrekt: Übereinstimmungen zwischen solchen getrennt aufgewachsenen Zwillingen können ebenso auch auf die Umweltbedingungen zurückzuführen sein, denn diese sind in der Tat bei weitem nicht so unterschiedlich wie oft vermutet. Dies geht unter anderem zurück auf die bei Adoptionen weit verbreitete Praktik der selektiven Platzierung, die beinhaltet, dass die zuständigen Behörden darauf achten, dass die Adoptivfamilie der biologischen Familie des Kindes möglichst ähnlich ist. Untermauert wird diese bedeutende Rolle der Umwelt ferner durch eine Studie von Bronfenbrenner (1975), die zeigen konnte, dass die Übereinstimmungsrate (zu verstehen wie eine Korrelation) zwischen den IQ-Werten eineiiger Zwillinge stolze 0,80 betrug, wenn die Umwelten der getrennt aufgewachsenen Zwillinge sich stark ähnelten. War diese Ähnlichkeit jedoch nicht gegeben, lag die Übereinstimmung bei dem sehr viel niedrigeren Wert von 0,28. Insgesamt lässt sich hiermit also festhalten, dass durch die in der klassischen Verhaltensgenetik etablierten Methoden die Unterschiedlichkeit der Umwelt (also die Umweltvarianz) systematisch und erheblich unterschätzt wurde. So liegen z.B. sehr robuste Befunde dafür vor, dass gute Ernährung und insbesondere das Stillen sich positiv auf die spätere Intelligenz auswirken (die Unterschiede liegen im Bereich von 2 – 4 IQ-Punkten), während der mütterliche Alkohol- und Tabakkonsum sich negativ auswirken und im Falle von Alkoholkonsum (bei dem die Menge übrigens keine Rolle spielt!) sogar ein fetales Alkoholsyndrom (FAS) resultieren kann.

Gen-Umwelt-Interaktion

Das stärkste Argument gegen die klassischen Verhaltensgenetik kommt zum Schluss. Nämlich die Tatsache, dass es unangemessen ist, von einem additiven Verhältnis von Genetik und Umwelt auszugehen – was die klassischen Verhaltensgenetik jedoch tut und was sich auch in Maßen wie der Heritabilität wiederspiegelt. Denn nur wenn man davon ausgeht, dass Umwelt und Genetik eine Summe bilden, macht es Sinn, ein Verhältnis zu bilden, das eine Aussage darüber trifft, wie viel Prozent eines Merkmals auf Gene und wie viel auf Umwelt zurückzuführen sind. Inzwischen weiß man allerdings, dass diese Ansicht grundlegend falsch ist, sodass die additive Sicht inzwischen durch das Konzept der Gen-Umwelt-Interaktion ersetzt wurde. Gemeint ist hiermit, dass Gen- und Umweltfaktoren nicht einfach immer mit dem gleichen Gewicht aufeinander treffen, sondern dass bestimmte Umweltfaktoren je nach genetischer Ausstattung unterschiedlich wirksam sein können – ebenso wie dass bestimmte genetische Anlagen einer „Aktivierung“ aus der Umwelt bedürfen, ohne die sie nicht wirksam werden können. Mit anderen Worten: Umwelt und Genetik sind voneinander abhängig und greifen wie Zahnräder ineinander. So gibt es z.B. aus dem Bereich der Intelligenzforschung sehr überzeugende Befunde, dass gute genetische Anlagen nur dann zu einer hohen Intelligenz in einem späteren Alter führen, wenn das Kind in einer Umwelt aufwächst, in der seine Fähigkeiten gefördert werden. Ebenso für die Bedeutung der Umwelt spricht, dass sich die Befunde mehren, dass vernünftig konzipierte Intelligenztrainings eine nachweisbare (wenn auch nicht exorbitant große) Wirkung zeigen. Was genau man sich unter einer Gen-Umwelt-Interaktion vorstellen kann, habe ich übrigens auch in einer meiner hochgeladenen Präsentationen erklärt – am Beispiel von Depressionen. Die Präsentation finden Sie hier.

Insgesamt legt all dies das Fazit nahe, dass durch unsere genetische Ausstattung offenbar zwar ein gewisser Rahmen abgesteckt wird, innerhalb dessen sich unsere letztliche Intelligenz später einmal bewegt – aber dass die Umwelt auf das endgültige „Ergebnis“ einen sehr viel größeren Einfluss hat als lange angenommen. Dass jedoch die Bedeutung der Umwelt lange unterschätzt, ignoriert und als unwissenschaftlich abgewertet wurde, hatte erhebliche soziale und politische Konsequenzen, was uns zu einem sehr dunklen Kapitel der klassischen Verhaltensgenetik – und somit der Psychologie – bringt. Dieses wird Teil des nächsten und letzten Artikels der Intelligenz-Reihe sein, der mir aufgrund seiner gesellschaftlichen Bedeutung so sehr am Herzen liegt wie nur wenige andere.

 © Christian Rupp 2014

Intelligenz – Teil 2: Die Sicht der wissenschaftlichen Psychologie

Nachdem ich im ersten Artikel zum Thema “Intelligenz” versucht habe, zu beschreiben, wie die Definition des Konstrukts “Intelligenz” von Kultur zu Kultur schwankt, soll es in diesem Beitrag nun darum gehen, wie die wissenschaftliche Psychologie die Intelligenz betrachtet und wie sehr auch unter den Experten auf diesem Gebiet die Meinungen hierüber auseinander gehen.

Die Intelligenzforschung nahm ihren Anfang in den ersten Jahrzehnten des 20. Jahrhunderts, initiiert durch Charles Spearman, den ersten Psychologen, der sich der Erforschung dieses Kontrukts widmete. Er war es auch, der das erste Intelligenzmodell formulierte, welches heutzutage unter dem Begriff der “Zweifaktorentheorie der Intelligenz” bekannt ist. Dieses Modell basiert, wie fast alle anderen Modelle, die im Übrigen grundsätzlich auf Spearmans Modell aufbauen, auf dem Prinzip der Faktorenanalyse, d.h. auf einem statistischen Verfahren, mit dessen Hilfe man anhand typischer Muster von häufig gemeinsam gelösten und gemeinsam nicht gelösten Aufgaben Rückschlüsse über die Formen von Intelligenz ziehen kann, die von einer Gruppe ähnlicher Aufgaben erfordert werden und somit unterschiedliche Subtypen von Intelligenz darstellen.

Nun hat die Faktorenanalyse aber den Nachteil, dass die Ergebnisse, die sie liefert (die so genannte Faktorstruktur) dem Wissenschaftler enorm viel Interpretationsspielraum lassen und man aus dem gleichen statistischen Ergebnis unterschiedliche Modelle über die Struktur der Intelligenz, d.h. ihre verschiedenen Unterformen, ableiten kann. Das Ergebnis sind unterschiedliche hierarchische Modelle, die die sich allem voran in einem ganz wesentlichen Punkt unterscheiden, und zwar der Frage, ob es einen allgemeinen, allen anderen intellektuellen Fähigkeiten übergeordneten, Generalfaktor der Intelligenz (auch g-Faktor oder einfach nur g genannt) gibt – oder ob die verschiedenen Formen der Intelligenz doch voneinander unabhängig sind. Dies hat für die Praxis sehr weitreichende Folgen, hängt es doch genau von dieser Frage ab, ob wir uns bei der Messung der Intelligenz auf einen einzelnen Wert beschränken können oder ob wir differenzierter vorgehen müssen. Auf der zweiten Ebene spaltet die allgemeine Intelligenz sich in einige wenige Unterfaktoren auf, die zumindest teilweise voneinander unabhängig sind, aber dennoch beide auch mit g zusammenhängen. Auf der dritten Ebene gliedern sich diese Unterfaktoren dann wiederum in spezifische intellektuelle Fähigkeiten wie z.B. Wortgewandtheit und logisches Schlussfolgern auf. Damit Ihnen die Vorstellung dieser (immer sehr ähnlich aufgebauten) hierarchischen Modelle etwas leichter fällt, habe ich in der unten stehenden Abbildung einmal selbst ein beispielhaftes Modell erstellt, von dem ich behaupten würde, dass es zwar vereinfacht ist, aber in vielerlei Hinsicht einen derzeit weit verbreiteten Konsens darstellt, nämlich die Annahme eines gewissen g-Faktors, eine Unterscheidung zwischen fluider und kristalliner Intelligenz auf der zweiten Ebene sowie einige typische, diesen beiden Faktoren wiederum unterordnete Subformen intellektueller/kognitiver Fähigkeiten. Worauf die einzelnen Komponenten dieses beispielhaften Modells jeweils zurückgehen, erfahren Sie in den nächsten Abschnitten.

Beispiel für ein hierarchisches Modell
Beispiel für ein hierarchisches Modell

 

Spearman: G thront über allem

Das von Spearman entwickelte Modell ist sowohl das allerälteste als auch dasjenige, das den Begriff des g-Faktors bzw. der “Allgemeinen Intelligenz” geprägt hat. Spearman interpretierte die aus der Faktorenanalyse resultierenden hohen Korrelationen (= statistische Zusammenhänge) zwischen den Lösungsmustern unterschiedlichster Aufgaben derart, dass es einen solchen Generalfaktor der Intelligenz geben müsse, da, grob gesagt, Personen, die in einem Aufgabenbereich (z.B. räumliches Denken) gut abschnitten, tendenziell auch in anderen Bereichen (z.B. Wortschatz und logisches Schlussfolgern) gute Ergebnisse erzielten. Dieser Generalfaktor, so Spearman, sei die Grundlage aller Leistungen in Intelligenztests, und er beschreibt ihn als die “Fähigkeit, Zusammenhänge wahrzunehmen und daraus Schlüsse zu ziehen” – kurz: als “mentale Energie”. G untergeordnet sind im Spearman-Modell nur die “spezifischen Fähigkeiten”, die mit s bezeichnet werden und sprachliche, mathematische und räumliche Intelligenz umfassen. D.h. es gibt im Gegensatz zum oben skizzierten Beispielmodell keinerlei mittlere Ebene.

Auf Spearmans Modell basieren mehrere Intelligenztests, die auch heute noch weit verbreitet sind. Man erkennt diese Tests daran, dass sie am Ende die Berechnung eines Intelligenzquotienten ermöglichen, der als Index für das Niveau der Allgemeinen Intelligenz herangezogen wird. Hierzu gehören z.B. alle Tests aus der Wechsler-Reihe (die aktuellsten sind der Wechsler Intelligenztest für Erwachsene, kurz WIE, und der Hamburg Wechsler Intelligenztest für Kinder in seiner 4. Ausgabe, kurz HAWIK-IV) sowie die Raven-Tests, die nur aus Matrizen-Aufgaben (“Welches Bild gehört in das leere Kästchen?”) bestehen und zum Ziel haben, unabhängig von Sprache und Kultur abstraktes, nicht angewandtes Denken zu erfassen.

Abgrenzung von Spearman: Thurstone & Cattell

Im Verlauf des 20. Jahrhunderts wurde dann von anderen Psychologen eine Fülle weiterer, meist auf Faktorenanalysen und ihrer Interpretation basierender Intelligenzmodelle entwickelt, die sich, wenn man einmal ehrlich ist, nicht wirklich exorbitant voneinander unterscheiden. Dies hat sicherlich auch damit zu tun, dass sie fast ausnahmslos in Abgrenzung vom Spearman-Modell enstanden sind und sich somit alle in irgendeiner Form hierauf beziehen. Der zweite Grund ist der, dass man in der Wissenschaft leider auch nicht ständig das Rad neu erfinden kann.

Das Primärfaktorenmodell nach Thurstone: Ebenbürtiges Nebeneinander?

Anders als Spearman betrachtete Louis Leon Thurstone die Intelligenz als eine Sammlung von sieben klar voneinander angrenzbaren, also unabhängigen Intelligenzarten. Diese sieben Primärfaktoren sind: Rechenfähigkeit, Auffassungsgeschwindigkeit, schlussfolgerndes Denken, räumliches Vorstellungsvermögen, assoziatives Gedächtnis, Sprachbeherrschung und Wortflüssigkeit. Widergespiegelt wird dies durch den bekannten Intelligenz-Struktur-Test, kurz IST-2000-R, in dem eben nicht ein IQ-Wert am Ende berechnet wird, sondern mehrere. Kritisch an diesem Modell ist anzumerken, dass Thurstone bei seinen Faktorenanalysen in den Augen einiger Wissenschaftler etwas “gepfuscht” hat, da er anstatt einer orthogonalen eine oblique Faktorenrotation verwendete – mit dem Ergebnis, dass seine sieben Primärfaktoren leider doch nicht völlig unabhängig voneinander sind. Thurstone räumte tatsächlich später ein, dass diese Kritik berechtigt sei, und erkannte einen gewissen g-Faktor als mögliche Ursache dieser Zusammenhänge an.

Die Zweikomponententheorie nach Cattell: Einführung einer mittleren Ebene

Raymond Bernard Cattell hingegen nahm von vornherein einen g-Faktor als oberste Instanz in seinem Intelligenzmodell an, war zugleich aber der erste, der eine mittlere Ebene (wie im obigen Beispielmodell gezeigt) einführte. Auf ihn geht die bis heute weit etablierte und bewährte Unterscheidung zwischen kristalliner (meist abgekürzt c) und fluider Intelligenz (meist abgekürzt f) zurück, in die sich im zufolge die Allgemeine Intelligenz aufspaltet. Unter der fluiden Intelligenz versteht Cattell eine generelle Denk- und Problemlösefähigkeit, die er als weitgehend unabhängig von kulturellen Einflüssen versteht und die eine wichtige Voraussetzung für den Erwerb neuer Informationen darstellt. Nach Cattell ist die fluide Intelligenz ein angeborenes Merkmal, die sich im Laufe des Lebens stabilisiert oder sogar gegen Ende stagniert. Gegenteilig hierzu verhält sich die bis zum Lebensende stetig anwachsende kristalline Intelligenz, die als kumulative Lebenserfahrung zu sehen ist. Dies deutet bereits darauf hin, dass diese sämtliches im Laufe des Lebens erworbenes Wissen, erworbene Fertigkeiten und Kompetenzen umfasst. Diese erachtet Cattell als stark von kulturellen Einflüssen geprägtes und maßgeblich von sprachlichen Fähigkeiten bestimmtes Konstrukt. Fluide und kristalline Intelligenz sind somit, wie es typisch für Elemente der mittleren Ebene ist, insofern nicht gänzlich unabhängig voneinander, als sie durch die “gemeinsame Mutter” g verbunden sind, und gleichzeitig ist ihr Zusammenhang hinreichend gering, um sie als zwei separate Unterfaktoren zu betrachten. Dabei wird übrigens durchaus angenommen, dass c und f auf vielfältige Weise interagieren: Zum Beispiel wird davon ausgegangen, dass eine gut ausgeprägte fluide Intelligenz den Erwerb von kritalliner Intelligenz in Form von Wissen und Fertigkeiten erleichtert. Cattells Modell ähnelt sehr stark dem von John B. Carroll. Da letzteres keinen meiner Meinung nach wesentlichen Unterschied aufweist, werde ich es an dieser Stelle nicht gesondert beschreiben.

Auch Cattells Theorie ist in die Entwicklung von Intelligenztests eingeflossen. So findet sich (wenn auch nicht explizit so bezeichnet) die Unterteilung in f und c auch im IST-2000-R wieder. Die Tests aus der Wechsler-Serie erfassen typischerweise leicht überwiegend kristalline Intelligenz, während die ebenfalls bereits erwähnten Raven-Tests, ebenso wie die so genannten Culture Fair Tests (kurz CFTs), hauptsächlich fluide Intelligenz messen, um ausdrücklich kulturelle Unterschiede außen vor zu lassen und diesem Sinne “fair” zu sein.

Nicht-hierarchische Modelle

Neben den hierarchischen Modellen gibt es auch noch ein paar Vertreter, die von verschiedenen Intelligenzformen ausgehen, die unabhängig und sozusagen “gleichberechtigt” nebeneinander stehen, ohne dass es einen übergeordneten g-Faktor oder untergeordnete Fähigkeiten gäbe. Im Grunde hätte ich an dieser Stelle auch das Primärfaktorenmodell von Thurstone anführen können; da Thurstone aber im Nachhinein einen g-Faktor doch mehr oder weniger eingeräumt hat, findet es sich bei den hierarchischen Modellen.

Mehrdimensionale Modelle: Inhalt, Prozess & Co.

Zu den im Vergleich zu den hierarchischen Modellen fast schon exotisch anmutenden mehrdimensionalen Modellen gehören das Würfelmodell nach Guilford und das Berliner Intelligenzstrukturmodell nach Jäger. Beiden Modellen gemeinsam ist, dass sich eine sehr große Menge unterschiedlicher “Intelligenzen” ergeben, und zwar als Produkt einiger weniger Faktoren, die unterschiedliche Ausprägungen aufweisen können. Dabei beruhen auch diese Modelle auf Faktorenanalysen und sind somit ein anschaulicher Beleg dafür, auf welch unterschiedliche Weise man die im Prinzip gleiche Datenlage interpretieren kann.

Im Würfelmodell ist es so, dass sich 150 verschiedene Intelligenzarten als Produkt drei verschiedener Faktoren mit wiederum verschiedenen Ausprägungen ergeben. Unter diesen drei Faktoren versteht Guilford den zu verarbeitenden Inhalt (z.B. akustische Reize), den nötigen Vorgang (z.B. Auswertung der akustischen Reize) und das Produkt (z.B. Herausstellung der Implikationen). Das klingt sehr abtrakt, komplex und schwer überprüfbar, was es auch tatsächlich ist. Ähnliches gilt für das Berliner Intelligenzstrukturmodell, bei dem es im Gegensatz zum Würfelmodell nur zwei Faktoren gibt. Zum einen führt Jäger den Faktor “Operationen” an, als dessen mögliche Ausprägungen er Merkfähigkeit, Bearbeitungsgeschwindigkeit, Einfallsreichtum und Verarbeitungskapazität anführt. Zum anderen gibt es den Faktor “Inhalte” mit drei Varianten, und zwar bildhaftem, verbalem und numerischem Material. Insgesamt ergeben sich hieraus also 3×4=12 verschiedene Intelligenzformen, abhängig von der Art des zu bearbeitenden Materials und der Art der geforderten mentalen Operation. Jägers Modell enthält daneben übrigens auch noch einen g-Faktor, der in gewisser Weise allen Faktoren und ihren Ausprägungen gleichsam zugrunde liegt.

Die praktische Anwendung dieser Form von Modellen ist schwieriger als bei den oben beschriebenen Modellen, da, wenn man die Modelle ernst nimmt, für alle möglichen Kombinationen von Faktorausprägungen eine geeignete Aufgabe finden muss. Zwar hat Guilford für den Großteil der in seinem Modell postulierten Intelligenzfacetten inzwischen Aufgabentypen vorgeschlagen, dass diese jedoch in einen standardisierten Intelligenztest übertragen wurden, ist mir nicht bekannt. Anders sieht es mit dem (ja doch deutlich sparsameren) Jäger-Modell aus, welches in Form des Berliner Intelligenzstruktur-Tests (kurz BIS) Anwendung findet.

Gardners Theorie der Multiplen Intelligenzen: Ein Plädoyer gegen G

In den 1980er Jahren veröffentlichte Howard Gardner seine Theorie der Multiplen Intelligenzen und wetterte gewaltig gegen das Konzept der Allgemeinen Intelligenz bzw. den g-Faktor. Er argumentierte, dass klassische Intelligenztests nicht imstande wären, die Fülle an kognitiven Fähigkeiten, über die ein Mensch verfügen kann, zu erfassen, und schlug ein Modell mit sieben voneinander unabhängigen und nicht durch einen übergeordneten g-Faktor bestimmten Intelligenzfacetten vor. An diesem, ebenfalls auf Faktorenanalysen basierenden Modell ist, neben der Tatsache, dass die Unabhängigkeit der Intelligenzfacetten nicht belegt ist, zu kritisieren, dass es eine große Überlappung mit dem (lange vorher veröffentlichten) Thurstone-Modell aufweist (allein schon, was die Zahl der Faktoren angeht). So finden sich bei Gardner u.a. auch die logisch-mathematische, die sprachliche und die bildlich-räumliche Intelligenz. Neu sind allerdings vier Faktoren, die eher den Fokus auf künstlerische und sozio-emotionale Fähigkeiten legen, nämlich die musikalisch-rhythmische, die körperlich-kinästhetische (Einsatz des eigenen Körpers), die interpersonale (Verstehen von und Umgang mit anderen Menschen) und die intrapersonale Intelligenz (Verständnis seinerselbst). Insbesondere die letzten beiden Intelligenzarten sind in der Psychologie inzwischen anerkannte Konstrukte, werden jedoch eher nicht direkt als Form von Intelligenz betrachtet, sondern unter dem Begriff “sozio-emotionale Kompetenz” zusammengefasst (im Volksmund und in Klatschzeitschriften erfreuen sich allerdings die Begriffe “emotionale Intelligenz” und “soziale Intelligenz” allerdings weiter Verbreitung) und als etwas erachtet, das in der Regel in der Kindheit und in der Interaktion mit anderen Menschen erworben wird und eher nicht angeboren ist. Zu diesem Konstrukt gehören z.B. u.a. die Fähigkeit, die Perspektive anderer einzunehmen (Theory of Mind), die Fähigkeit, die emotionale Lage anderer nachzuempfinden (Empathie), das Bewusstsein über eigene emotionale Vorgänge, Wege der Emotionsäußerung und das Bewusstsein über die Wirkung der eigenen Emotionen auf andere sowie die Fähigkeit zur Regulation der eigenen Emotionen.

Sternbergs Triarchisches Modell: Radikale Abkehr vom Hierarchie-Gedanken?

Das von Robert Sternberg postulierte Triarchische Modell, auch bekannt unter dem Namen Komponentenmodell, basiert auf der Informationsverarbeitungstheorie, die, grob gesagt, die menschliche Kognition als Informationsverarbeitungsprozess betrachtet, und gibt vor, eine radikale Abkehr von hierarchischen Strukturen und der Annahme voneinander abgrenzbarer Faktoren darzustellen. Es ist daher auch das einzige bekannte Intelligenzmodell, das nicht auf Faktorenanalysen beruht. Sternberg prägte hiermit auch eine neuartige Definition von Intelligenz und nannte als Teile der Definition die Elemente “Lernen aus Erfahrung”, “abstraktes Schlussfolgern”, “die Fähigkeit, sich einer sich ständig weiterentwickelnden und verändernden Umwelt anzupassen” und “die Motivation, überhaupt neues Wissen bzw. Fertigkeiten zu erlangen”. Die ersten beiden Aspekte überlappen stark mit der kristallinen und der fluiden Intelligenz, die beiden letzten hingegen sind in der Tat relativ neu und haben bisher kaum Eingang in die Messung von Intelligenz gefunden.

Die eigentliche Intelligenztheorie von Sternberg ist hingegen sehr komplex und meiner Ansicht alles andere als leicht verständlich. Ich wage auch, die kühne Behauptung aufzustellen, dass sich diese Theorie kaum prägnant zusammenfassen lässt, weil sie sich teilweise in Einzelheiten verliert. Daher möchte ich mich darauf beschränken, einige meiner Meinung nach wichtige Teilaspekte der Theorie herauszustellen. Zunächst wird, abgeleitet von der Informationsverarbeitungstheorie, die wichtige Unterscheidung getroffen zwischen der Art des ablaufenden kognitiven Prozesses, der Genauigkeit, mit dem dieser abläuft, und der Art der mentalen Repräsentation, die diesem Prozess zugrunde liegt (z.B. bildliches oder sprachliches Material). Insofern erinnert es es schon an dieser Stelle stark an die oben beschriebenen mehrdimensionalen Modelle. Dann verliert sich die Theorie (meiner Auffassung nach) in mehr und mehr Unter-Theorien, die einen eher geringen Erklärungswert haben und darüber hinaus mehr Ähnlichkeit mit den bereits beschriebenen Modellen haben, als man eigentlich aufgrund der revolutionären Aura der Theorie erwarten würde. Wirklich eingängig ist mir lediglich die “Komponenten-Subtheorie”, die drei Intelligenzkomponenten beschreibt und im Gegensatz zum Rest relativ anschaulich ist. Und zwar stellt Sternberg hier die analytische Intelligenz (abstrakte Denkprozesse, die einer Problemlösung vorausgehen), die praktische Intelligenz (Lösung von Problemen durch Anpassung an die Umwelt, Formung einer Umwelt oder Auswahl einer passenden Umwelt) und die kreative Intelligenz (Nutzen von Erfahrungen zur Lösung von Problemen) dar. Diese, so Sternberg, seien aber nicht in ein hierarchisches System eingebunden und stellten auch keinerlei Intelligenzfaktoren im klassischen Sinne dar – vielmehr seien sie eine Beschreibung dessen, was die Intelligenz leisten muss. Was genau er damit meint, und in wiefern dieser Gedanke sich wirklich von den beschriebenen hierarchischen oder mehrdimensionalen Modellen unterscheidet, bleibt zumindest mir unklar. Fest steht, dass Sternberg keinen g-Faktor anerkennt – doch dies allein ist, wie ich ausführlich dargestellt habe, nichts Revolutionäres.

Fazit

Was ich hoffe, vermittelt zu haben, ist, dass es derzeit kein allgemeingültiges und eindeutiges Verständnis dessen gibt, was “Intelligenz” ist, in wie vielen verschiedenen Formen sie vorliegt und ob es einen allem übergeordneten g-Faktor gibt. Wenn man sich die empirische Evidenz anschaut, muss man allerdings zugeben, dass die Existenz einer Allgemeinen Intelligenz bzw. eines solchen g-Faktors sehr wahrscheinlich ist, da sich die starken Zusammenhänge zwischen unterschiedlichsten Intelligenztestaufgaben nicht einfach so wegdiskutieren lassen. Weitere Evidenz für dieses Konstrukt der Allgemeinen Intelligenz findet sich übrigens auch aus der Anwendungsforschung, z.B. aus der Arbeits- und Organisationspsychologie, die ergeben hat, dass die Allgemeine Intelligenz mit Abstand der bester Prädiktor von Berufserfolg ist (Näheres dazu hier). Andererseits gibt es auch Belege, die deutlich zeigen, dass sich mit g auch nicht alles erklären lässt und eine Unterteilung auf unterer Ebene durchaus Sinn macht – so gilt die Unterscheidung zwischen kristalliner und fluider Intelligenz z.B. als gut belegt.

Für mich persönlich bedeutet dies, dass die “Wahrheit” (sollte es diese denn geben) am ehesten durch ein Modell abgebildet wird, das dem von Cattell bzw. Carroll ähnelt – vom Konzept also einem solchen, wie Sie es in der obigen Abbildung finden. Bedenken Sie aber, dass all diese Modelle im Wesentlichen unterschiedliche Interpretationen der weitgehend gleichen Sachlage sind und somit automatisch auch von der jeweiligen Ideologie geprägt sind, die ein Forscher vertritt (z.B. bzgl. der Frage, ob es einen g-Faktor geben darf). Und nicht zu vergessen ist auch, dass die Modelle sich, wenngleich sie sich alle natürlich als neuartig und daher wichtig darstellen, im Grunde nicht besonders stark unterscheiden – wenn man einmal genau nachdenkt.

Im nächsten Teil wird es um die Fragen gehen, was es mit dem Intelligenzquotienten auf sich hat, wie Intelligenz in der Bevölkerung verteilt ist und ob es stimmt, dass wir immer intelligenter werden.

© Christian Rupp 2014