Intelligenz – Teil 6: „The Bell Curve“ & das dunkelste Kapitel der Psychologie

1994 veröffentlichten die beiden US-Amerikaner Richard Herrnstein und Charles Murray ein Buch namens „The Bell Curve: Intelligence and Class Structure in American Life“, wobei es sich bei der „bell curve“ natürlich um eine Anspielung an die Gauß’sche Glockenkurve handelt, der die IQ-Werte in der Population zumindest annähernd folgen (siehe auch hier). Dieses Buch hat für eine breite Kontroverse und heftige Kritik gesorgt, die man heutzutage wahrscheinlich als shit storm bezeichnen würde. Und das nicht ohne Grund, ziehen die Autoren doch auf Basis wackliger Prämissen Schlussfolgerungen, die schon im Nationalsozialismus en vogue waren.

Ethnische Unterschiede bezüglich der allgemeinen Intelligenz

Der wohl am kritischsten zu betrachtende Aspekt in der Darstellung von Herrnstein und Murray ist die Art und Weise, wie sie auf ethnische Unterschiede hinsichtlich des allgemeinen Intelligenzquotienten verweisen. So gelangen sie auf Basis der gesichteten Studienlage zu dem Schluss, dass in den USA Menschen asiatischer Herkunft in klassischen Intelligenztests wie den Wechsler-Tests durchschnittlich fünf IQ-Punkte mehr erzielen als „weiße“ US-Amerikaner, während Menschen afroamerikanischer Abstammung im Schnitt 15-18 Punkte (d.h. eine ganze Standardabweichung) weniger als „weiße“ Amerikaner erlangen. Nun kann man sich vorstellen, dass diese Befunde vor dem Hintergrund der Art und Weise, wie Afroamerikaner in der Vergangenheit in den USA behandelt wurden, gewaltigen sozialpolitischen Sprengstoff lieferten. Zudem weisen die Autoren darauf hin, dass der IQ von Einwandern zum Zeitpunkt der Immigration im Durchschnitt bei 95 und somit unterhalb des Populationsmittelwerts von 100 liege.

Sozialpolitische Schlussfolgerungen: Afro-Amerikaner und Immigranten loswerden

Nun, diese gefundenen Unterschiede sind zunächst einmal nicht so einfach wegzudiskutieren (worauf sie wahrscheinlich zurückzuführen sind, werde ich später noch beschreiben!), aber das Skandalöse an dem Buch „The Bell Curve“ ist etwas anderes: die sozialpolitischen Schlussfolgerungen und Forderungen, die Herrnstein und Murray daraus ableiten. Insgesamt zielt ihre Argumentation darauf ab, deutlich zu machen, dass durch eine Reihe von Faktoren die mittlere Intelligenz der US-Bürger heruntergedrückt werde und die Gesellschaft somit quasi zugrunde gehe. Hierfür seien eine Reihe von Faktoren verantwortlich. Neben dem nicht geringer werdenden Strom von Einwanderern, die mit ihrer geringeren Intelligenz den Durchschnitt „drücken“ (ebenso wie die afroamerikanische Bevölkerung), liege eine weitere Ursache in der Tatsache, dass Mütter mit unterdurchschnittlichem IQ mehr Kinder bekämen als solche mit durchschnittlichem IQ (was ein korrekter Befund ist). Da Intelligenz größtenteils erblich sei, vermehre sich somit die „dumme“ Bevölkerung immer mehr, während die „schlaue“ immer weniger werde. Aufgrund der angeblich hohen Heritabilität von Intelligenz seien ferner sämtliche großangelegte Fördermaßnahmen mit dem Ziel, Intelligenzunterschiede auszugleichen, völlige Fehlinvestitionen. Und es geht noch weiter: Antidiskriminierungsmaßnahmen, die dazu dienen sollen, Chancengleichheit in der Bevölkerung herzustellen (indem gezielt traditionell benachteiligte Gruppen wie Afroamerikaner gefördert werden), seien nicht nur unnütz, sondern auch ungerecht, da so z.B. Angehörige dieser Gruppen Studienplätze oder Jobs erhielten, für die sie aufgrund ihrer geringen Intelligenz gar nicht qualifiziert seien. Dies wiederum führe nur zu sozialen Spannungen und wachsendem Hass der eigentlich benachteiligten, „weißen“ Bevölkerung auf die afroamerikanische. Außerdem trüge diese Art von Fördermaßnahmen zur Verdummung von Schulen und Universitäten bei. Man solle, so Herrnstein und Murray, lieber die Ungleichbehandlung fortführen, da diese schlichtweg der Realität entspreche. Geld solle man lieber in die Förderung der Begabten (= hoch Intelligenten) stecken, da diese ohnehin bald in der absoluten Minderheit seien. Falls Ihnen diese Argumentationslinie bekannt vorkommt, wird das sehr wahrscheinlich daran liegen, dass ein ehemaliger deutscher Politiker namens Thilo Sarrazin in seinem Buch „Deutschland schafft sich ab“ vor einigen Jahren fast genau die gleichen Thesen aufgegriffen und auf die Einwanderungssituation in Deutschland angewendet hat.

Die Kritik

Die Kritik an „The Bell Curve“ ist allem voran eine Kritik an den von Herrnstein und Murray vorausgesetzten Prämissen. Denn ein Grundkonzept der Philosophie lautet nun einmal, dass ein Argument nur dann Gültigkeit besitzt, wenn die Wahrheit der Prämissen zwangsläufig zur Wahrheit der Schlussfolgerung (Konklusion) führt. Die wichtigsten nicht korrekten Prämissen sind, wie auch bereits von Stephen Jay Gould beschrieben, im Folgenden dargestellt.

Überschätzte Heritabilität

Einer der größten Schwachpunkte an der oben beschriebenen grotesken Argumentation ist in der Tat, dass Intelligenz auf Basis des heutigen Wissensstandes bei weitem nicht so stark erblich bedingt ist wie lange angenommen (was Sie hier nachlesen können). Und selbst wenn dies so wäre, wäre die Schlussfolgerung, die gemessenen IQ-Unterschiede zwischen den verschiedenen Bevölkerungsgruppen seien im unterschiedlichen genetischen Material der Gruppen begründet, immer noch falsch, denn: Die Gruppen unterscheiden sich ganz offenbar auch stark hinsichtlich ihrer Umweltbedingungen (sozioökonomischer Status etc.), sodass man selbst im Sinne der klassischen Verhaltensgenetik folgern muss, dass die Ursache für die Unterschiede unklar ist. Heutzutage gibt es viele Belege dafür, dass die gemessenen IQ-Unterschiede eher nicht auf genetische Unterschiede zurückzuführen sind, sondern sehr viel stärker durch Umweltfaktoren zu erklären sind, vor allem durch den z.B. in der afroamerikanischen Bevölkerung im Durchschnitt deutlich geringeren sozioökonomischen Status, den damit verbundenen schlechteren Zugang zu (in den USA meist sehr teuren) Bildungsangeboten sowie durch diverse psychologische Effekte wie die sich selbsterfüllende Prophezeiung und geringe Leistungserwartungen von Lehrern an afroamerikanische Kinder (die oft von Beginn an mit dem Vorurteil konfrontiert werden, dass sie weniger leistungsfähig sind als „weiße“ Kinder). Hinzu kommen wahrscheinlich Effekte durch schlechtere Englischkenntnisse, die zur Bearbeitung der Intelligenztests erforderlich sind, sowie möglicherweise kulturelle Unterschiede (siehe weiter unten).

Annahme eines für alle Menschen geltenden g-Faktors

Herrnstein und Murray gründen ihre Argumentation unter anderem auf die Prämisse, dass es einen für alle Menschen geltenden Generalfaktor der Intelligenz (g-Faktor) gibt, der im Wesentlichen auch von allen gängigen Intelligenztests gemessen wird. Beide Prämissen sind auf Basis des aktuellen Standes der Wissenschaft nur schwer haltbar, wie Sie auch hier nachlesen können.

Intelligenztests sind für alle ethnischen Gruppen gleich schwierig

Auch diese wichtige Prämisse wird zwar kontrovers diskutiert, ist aber durchaus als heikel einzustufen. Zum einen gibt es Hinweise darauf, dass Menschen in westlich geprägten Kulturen vertrauter sind mit typischen Intelligenztestaufgaben, sodass Menschen aus anderen Kulturen eine Benachteiligung bei der Aufgabenbearbeitung erfahren. Ein sehr pragmatisches Beispiel hierfür sind Untertests zur kristallinen Intelligenz, in denen allgemeines Wissen oder Wortschatz dadurch erfragt wird, dass den getesteten Personen Bilder der jeweiligen Objekte gezeigt werden (wie z.B. im WIE). Hier liegt es auf der Hand, dass die Bilder (z.B. Autos, Armbanduhren, Häuser) stark von derjenigen Kultur geprägt sind, in der der Test entwickelt wurde – und dass Menschen aus anderen Kulturkreisen hiermit weitaus weniger vertraut sein mögen. Verknüpft damit ist der zweite Aspekt, der beinhaltet, dass das Verständnis von Intelligenz, auf dem etablierte Intelligenztests beruhen, stark durch die westliche Kultur geprägt ist, die Intelligenz weitgehend als Ausmaß der Effizienz der Informationsverarbeitung sieht. Wie Sie hier nachlesen können, hängt die Definition von „Intelligenz“ jedoch stark vom kulturellen Umfeld ab, sodass eine Benachteiligung dadurch entsteht, dass eines von vielen verschiedenen Intelligenzkonzepten gleichsam auf alle Menschen angewendet wird. Ein ganz zentrales Element, das eine Benachteiligung nach sich zieht, sind zudem die ungleich guten Sprachkenntnisse der getesteten Menschen, also z.B. bei Einwanderern in die USA die Englischkenntnisse. Es erscheint relativ logisch, dass bei mangelndem sprachlichen Verständnis der Aufgaben (und das ist bei jedem Intelligenztest erforderlich) schlechtere Testergebnisse resultieren, weil die Voraussetzung dafür, dass Intelligenz überhaupt gemessen werden kann, gar nicht erfüllt ist.

Fehler in der Analyse der zugrunde gelegten Studien

Zusätzlich zu den bereits genannten Punkten muss man den Autoren von „The Bell Curve“ außerdem noch eine Reihe methodischer und statistischer Fehler bei der Analyse der herangezogenen Studien vorwerfen. Zum einen wäre da der wirklich sehr grobe Schnitzer, einen Korrelationszusammenhang, der grundsätzlich ungerichtet ist, auf kausale Weise zu interpretieren. Gemeint ist hier der Zusammenhang zwischen dem sozioökonomischen Status und Intelligenz, wobei Herrnstein und Murray verzweifelt versuchen, scheinbar zu beweisen, dass ein niedriger IQ die Ursache eines niedrigen sozioökonomischen Status ist und nicht umgekehrt. Was hierbei jedoch Ursache und was Wirkung ist, ist nicht eindeutig geklärt, und das Allerwahrscheinlichste und zugleich Logischste ist, dass beide Faktoren sich im Laufe eines Menschenlebens gegenseitig beeinflussen: Intelligenz ist förderlich dabei, einen hohen Bildungsstand zu erreichen und somit das Armutsrisiko zu reduzieren, aber ebenso beeinflussen der sozioökonomischen Status und die damit verbundenen Förderbedingungen in der Ursprungsfamilie maßgeblich, wie sich die Intelligenz eines Menschen entwickelt. Meiner Meinung nach muss man sogar sagen, dass es letztlich unmöglich ist, diese beiden Variablen zu trennen, weil sie derart stark verflochten und voneinander abhängig sind. Und da wir es hier sowohl auf Seiten der Intelligenz als auch auf Seiten des sozioökonomischen Status mit zahlreichen anderen Variablen zu tun haben, die mit beidem zusammenhängen, aber so gut wie nie in Studien berücksichtigt und kontrolliert wurden, werden vernünftige Schlussfolgerungen noch zusätzlich erschwert.

Zweitens kann man Herrnstein und Murray für die Auswahl der zugrunde gelegten Originalarbeiten kritisieren: So beziehen sie sich auf mehrere Studien, die methodisch mehr als zweifelhaft sind (z.B. weil lediglich IQ-Unterschiede zwischen Gruppen, aber keine Gruppenmittelwerte berichtet werden oder weil die gemessenen niedrigeren IQ-Werte von südafrikanischen Kindern offensichtlich auf kaum vorhandene Englischkenntnisse zurückgehen). Drittens muss man den beiden Autoren vorhalten, dass sie bei der Analyse der Studien selektiv solche aussortierten, die nicht ins Bild passten – z.B. Daten von südafrikanischen (schwarzen) Schülern, die in einem Intelligenztest im Durchschnitt besser abschnitten als weiße Schüler. Somit ist die Analyse von Herrnstein und Murray alles andere als ausgewogen.

Eugenik – künstliche Selektion zur Rettung der Menschheit

Die Eugenik ist zweifelsohne das dunkelste und grausamste Kapitel der Psychologie, das traurigerweise kaum Inhalt der akademischen Lehrpläne in diesem Fach ist. Gemeint ist mit diesem Begriff eine Form der künstlichen Selektion der Art, dass die Fortpflanzung dahingehend beeinflusst wird, dass Nachkommen mit gewünschten Eigenschaften (z.B. hoher Intelligenz) entstehen – entweder durch Förderung der Fortpflanzung „wertvoller“ Menschen (positive Eugenik) oder durch die Hinderung „minderwertiger“ Menschen daran, sich fortzupflanzen (negative Eugenik). Ein leidenschaftlicher Verfechter dieser Konzepte war in der zweiten Hälfte des 19. Jahrhunderts Sir Francis Galton, der, begeistert vom Werk „Die Entstehung der Arten“ seines Cousins Charles Darwin, die These aufstellte, dass die natürliche Selektion des Menschen dadurch behindert werde, dass die Gesellschaft ihre schwachen Mitglieder schütze. Daher, so Galton, sei eine künstliche Selektion im Sinne der Eugenik nötig, weil sich sonst die weniger intelligenten Menschen stärker vermehren und so zum Niedergang der menschlichen Rasse führen würden (man merkt: Sowohl die Ideen von Herrnstein und Murray als auch die Thilo Sarrazins sind schon recht alt). Niedrige Intelligenz war bereits damals mit der Einwanderungsgesellschaft und der afroamerikanischen Bevölkerung assoziiert, und Galton war fest davon überzeugt, dass Intelligenz erblich bedingt sei. Daher lag die Schlussfolgerung nahe, die Selektion (und so die „Rettung der Menschheit“) dadurch voranzutreiben, dass man jene „minderintelligenten“ Gruppen von der Fortpflanzung abhalten möge.

Konkret war die politisch bald durchgesetzte Folgerung hieraus die Sterilisation entsprechender Personengruppen. Diese bezog sich allerdings nicht auf alle oben genannten Bevölkerungsgruppen, sondern laut dem US-amerikanischen Model Eugenic Sterilization Law (1922) u.a. auf „Minderbegabte“, „Wahnsinnige“, Blinde, Behinderte, Kriminelle, Epileptiker, Obdachlose und Waisenkinder. Und man sollte nicht davon ausgehen, dass diese nicht durchgeführt wurde: So schätzte das Journal of the American Medical Association, dass allein in den USA zwischen 1941 und 1942 über 42000 Personen zwangssterilisiert wurden. Aber damit nicht genug: Neben den USA etablierte eine Fülle weiterer Länder in der Folge eigene Eugenik-Programme (sowohl positive als auch negative), darunter auch Schweden, Kanada, Australien, Norwegen, Finnland und die Schweiz. Trauriger Spitzenreiter war in der Zeit des Nationalsozialismus Deutschland, wo bis zum Ende des 2. Weltkriegs mehr als eine halbe Million Menschen wegen „Verdachts auf Erbdefekte“ oder „Gefahr der Rassenverunreinigung“ zwangssterilisiert wurden – worunter neben geistig und körperlich behinderten Menschen auch „Asoziale“ wie Sinti, Roma und Alkoholiker sowie Homosexuelle (hier entzieht sich mir selbst der vermeintliche Sinn), Prostituierte und Fremdrassige (v.a. Menschen afrikanischer und arabischer Abstammung) fielen. Dies gipfelte schließlich in den rund 100.000 Euthanasiemorden, die die Nazis im Rahmen der „Aktion T4“ an behinderten Menschen verübten. Ein Beispiel für positive Eugenik war zudem der vom NS-Regime ins Leben gerufene Lebensborn, der zum Ziel hatte, die Geburtenrate „reinrassig-arischer“ Kinder zu steigern.

Das einzig Gute an alldem war (wenn man in diesem Zusammenhang überhaupt das Wort „gut“ verwenden darf), dass nach Ende des 2. Weltkriegs das internationale Ansehen der Eugenik drastisch abnahm, weil kaum ein Land mit den Gräueltaten Deutschlands in Verbindung gebracht werden wollte. Die Eugenikprogramme der meisten Länder wurden eingestellt, und 1948 verabschiedeten die Vereinten Nationen eine Resolution, gemäß derer es allen Männern und Frauen unabhängig von ihrer Nationalität, Ethnie, etc. erlaubt sein sollte, zu heiraten und eine Familie zu gründen.

Eine Warnung: Damit Deutschland sich nicht abschafft

Es wäre falsch, zu sagen, dass das Buch von Herrnstein und Murray direkt zur Eugenik aufruft. Dennoch finden sich in der Argumentationslinie und den gezogenen Schlussfolgerungen ganz klar Parallelen zu den Konzepten und Praktiken der Eugenik (keine Förderung der Schwachen, Bewahrung der Menschheit vor der Überbevölkerung durch die „Minderintelligenten“), die von Thilo Sarrazin gleichermaßen für Deutschland übernommen wurden. Auch nicht gerade ein gutes Licht auf „The Bell Curve“ wirft die Tatsache, dass Herrnstein und Murray sich einer großen Zahl von Originalarbeiten Richard Lynns bedienen, der nicht nur als bekannter Intelligenzforscher, sondern auch als bekennender Verfechter der Eugenik bekannt ist und z.B. befürwortet, Embryonen bei der künstlichen Befruchtung auf genetische Eigenschaften hin zu untersuchen und nur die „besten“ zu verwenden.

Auffällig ist bei Lynn, dass er kein Demagoge ist, der die Gesellschaft aufhetzen will. Er ist Wissenschaftler und hat größtenteils die unbegrenzte Nutzung wissenschaftlich angesammelten Wissens als Ziel vor Augen. Diese mechanistische Denkweise ist allerdings eine, die meiner Ansicht nach niemals Macht erlangen sollte. Denn was Lynn völlig außer Acht lässt, sind all die ethischen Probleme und Menschenrechtskontroversen, die dies mit sich führen würde. Aber was ist die Alternative? Politiker wie Thilo Sarrazin, die mit menschenverachtendem Vokabular zur „Eugenik 2.0“ aufrufen? Bitte nicht. Was bleibt, ist die Hoffnung in die wirklich klugen Köpfe unserer Gesellschaft, die in der Lage sind, Weltanschauung und wissenschaftliche Befunde auf konstruktive Art und Weise miteinander zu verbinden, anstatt immer neue Katastrophen herbeizuschwören und noch katastrophalere Lösungen vorzuschlagen.

 

Intelligenz – Teil 5: Ist unser IQ ausschließlich genetisch bedingt?

Vielen Lesern mag diese Frage allein schon seltsam vorkommen, herrscht doch in vielen Bereichen unserer Gesellschaft doch die Meinung vor, dass Menschen hinsichtlich ihrer Fähigkeiten stark formbar sind. Schließlich schicken wir unsere Kinder in die Schule, regen sie bei schlechten Noten an, sich anzustrengen und besorgen ihnen eine nette Nachhilfelehrerin. Die in der Überschrift gestellte Frage ist jedoch berechtigt, herrschte (und herrscht oft heute noch) in der Psychologie doch die Ansicht vor, dass die allgemeine Intelligenz des Menschen ein Merkmal darstellt, das zu einem vergleichsweise großen Anteil vererbt wird, d.h. genetisch determiniert ist. Da man in der Psychologie ebenso wie in der gesamten Wissenschaft ziemlich sicher ist, dass kaum ein menschliches Merkmal (mit Ausnahme von Dingen wie Augenfarbe und Blutgruppe) zu 100% genetisch bestimmt ist, begann man vor einigen Jahrzehnten, sich der Frage nach dem Anteil zu widmen, der auf genetische einerseits und Umwelteinflüsse andererseits zurückzuführen ist. Der Wissenschaftszweig, der sich hieraus entwickelte, nennt sich Verhaltensgenetik.

Das Konzept der Heritabilität

Den Grad der Erblichkeit eines Merkmals wie Intelligenz vernünftig zu berechnen, ist alles andere als einfach. In der Regel wird als Anhaltspunkt die so genannte Heritabilität berechnet, welche zweifelsohne zu den Messgrößen gehört, die am häufigsten falsch und vor allem überinterpretiert werden. Meistens wird die Heritabilität auf Basis von Zwillingsstudien berechnet. Das sind Studien, in denen eineiige (die zu 100% dieselben Gene besitzen) oder aber zweieiige Zwillinge (die durchschnittlich, aber nicht immer genau, 50% der Gene teilen – genau wie „normale“ Geschwister) dahingehend untersucht werden, inwieweit jedes der untersuchten Zwillingspaare hinsichtlich eines bestimmten Merkmals übereinstimmt. In unserem Fall bedeutet das: Bei beiden Zwillingen wird der IQ gemessen, und dann wird über die gesamte Stichprobe von Zwillingspaaren die Korrelation berechnet, sodass man ein Maß dafür erhält, wie groß über alle Zwillingspaare hinweg die durchschnittliche Übereinstimmung zwischen Zwilling A und Zwilling B ist. Wenn ein Merkmal stark genetisch bedingt ist, würde man erwarten, dass die Korrelation bezüglich dieses Merkmals bei eineiigen Zwillingen sehr viel größer ausfällt als bei zweieiigen. Diese Korrelation wird nun für eineiige und zweieiige Zwillinge separat berechnet, und die Heritabilität stellt ein Maß dar, das diese beiden Korrelationen zueinander ins Verhältnis setzt. Daher variiert auch die Heritabilität zwischen 0% und 100%, wobei der errechnete Prozentsatz, genau gesagt, den Anteil an der Gesamtvarianz eines bestimmten messbaren Merkmals (wie Intelligenz) in einer Population wiedergibt, der auf genetische Unterschiede zurückgeführt werden kann. Mit anderen Worten: Eine Heritabilität von 50% würde z.B. bedeuten, dass 50% der Varianz (also der Streuung) der Intelligenzwerte in der gesamten Population (wofür die Stichprobe stellvertretend ist) auf genetische Unterschiede der Menschen zurückgeführt werden kann. Oder noch anders ausgedrückt: Es bedeutet, dass 50% der IQ-Unterschiede innerhalb der gemessenen Gruppe mit den genetischen Unterschiedenen der Gruppenmitglieder (linear) zusammenhängen. Für das Merkmal Intelligenz wurden so in der Vergangenheit meist Heritabilitätswerte zwischen 70 und 80% berichtet, was ziemlich hohe Werte sind.

Kritik am Konzept der Heritabilität

Keine Aussagen über einzelne Personen

Der wichtigste Aspekt ist hierbei, dass die Heritabilität sich immer nur auf die Population oder, genau genommen, auf die Stichprobe von Individuen bezieht, bei denen das Merkmal erhoben wurde. Die Prozentzahl kann somit nicht herangezogen werden, um Aussagen über eine einzelne Person zu treffen: Die Aussage „Bei jeder einzelnen Person ist die Intelligenz zu 80% genetisch bedingt“ ist daher nicht korrekt.

Mutmaßung statt Messung und irreführende Prozentzahlen

Außerdem ist es wichtig, anzumerken, dass bei alledem der Grad der genetischen Übereinstimmung einfach auf einen bestimmten Wert festgelegt wird. Das ist bei eineiigen Zwillingen (da sind die 100% unumstößlich) weit weniger problematisch als bei zweieiigen: Da nämlich ist der durchschnittliche Wert 50%, aber dieser kann erheblich variieren. Es würde also mehr Sinn machen, die tatsächliche Übereinstimmung zu messen anstatt sie zu schätzen – das allerdings würde den Aufwand einer solchen ohnehin komplexen Studie ins nahezu Unermessliche steigern. Übrigens: Die Zahl 50% ist hochgradig irreführend, weil alle Menschen (egal welcher ethnischer Abstammung) 100% aller Gene gemeinsam haben. Die Unterschiede liegen in den Genvarianten, den Allelen – und selbst diese sind bei allen Menschen zu 99,9% gleich. Die gesamte Varianz des menschlichen Erscheinungsbildes spielt sich also in diesen 0,1% ab – und wenn es heißt, zweieiige Zwillinge hätten 50% ihrer Gene gemeinsam, so bezieht sich das lediglich auf 50% dieser 0,1% der Allele. Korrekt wäre also eigentlich die Aussage: Zweieiige Zwillinge teilen 99,95% ihrer Allele, und eineiige 100%.

Aussagen sind zeitlich beschränkt

Der zweite Kritikpunkt betrifft die Tatsache, dass die Schätzung der Heritabilität immer nur eine Momentaufnahme darstellt, d.h. immer nur die Rolle des aktuell aktivierten genetischen Materials wiederspiegelt. Wie man aber inzwischen weiß, werden die unterschiedlichen Gene im Laufe eines menschlichen Lebens ziemlich häufig an- und wieder abgeschaltet, sodass die Heritabilität keine Schätzung über zum Zeitpunkt der Messung nicht aktiviertes genetisches Potenzial erlaubt.

Nicht mehr als ein Verhältnismaß

Das wohl wichtigste Argument gegen die Heritabilität, welches deren Interpretierbarkeit stark eingrenzt, ist die Tatsache, dass es sich hierbei, wenn man die Formel einmal übersetzt, um nicht mehr als ein Verhältnismaß handelt, das die genetische Varianz in einer Stichprobe ins Verhältnis setzt zur Umweltvarianz (also der Unterschiedlichkeit der Umweltbedingungen) in derselben Stichprobe. Das bedeutet, die berechnete Heritabilität ist von beidem abhängig. Das scheint trivial, ist aber von großer Bedeutung: Wenn nämlich aus Gründen der mangelnden Repräsentativität der Stichprobe z.B. die Umweltvarianz sehr gering ist (weil sich in der Stichprobe z.B. nur nordamerikanische Männer aus der Mittelschicht befinden, die alle unter ähnlichen Umweltbedingungen leben), dann wird die Heritabilität zwangsläufig hoch ausfallen, weil die genetische Varianz in der Regel größer ist. Und in der Tat ist es so, dass viele der Studien, die zur Berechnung der Heritabilität durchgeführt wurden, genau diesen Schwachpunkt haben, was den Schluss nahelegt, dass die Heritabilität durch diese deutlich überschätzt wird – weil in den Stichproben gar nicht genug Umweltvarianz vorliegt, um dieses Maß sinnvoll zu deuten. Tatsächlich führt dieser Umstand oft zu seltsamen Phänomen und mitunter auch zu bildungspolitischen Fehlentscheidungen. So kam es z.B. bereits vor, dass Regierungen durch diverse Maßnahmen die Chancengleichheit von Kindern verbesserten und somit quasi die Umweltvarianz reduzierten, weil sich die Bedingungen, unter denen die Kinder lebten, dadurch ähnlicher wurden. Wenn dann z.B. durch Schultests der Bildungserfolg (der nun als weiteres Merkmal analog zur Intelligenz zu sehen ist) der Kinder gemessen und damit die „Heritabilität des Bildungserfolgs“ berechnet wird, kommt natürlich ein hoher Wert dabei heraus – der dann von (dummen) Politikern dahingehend fehlgedeutet wird, dass das Schaffen von Chancengleichheit völliger Quatsch ist, da der Bildungserfolg ja offenbar doch nur von der genetischen Ausstattung der Kinder abhängt. Ein Beispiel für einen grandiosen Fehlschluss.

Weitere Kritik an der Verhaltensgenetik

Neben diesen eklatanten Nachteilen des Konstrukts „Heritabilität“ gibt es diverse weitere Kritikpunkte an der klassischen Verhaltensgenetik. Diese Punkte betreffen vor allem die eher steinzeitliche Auffassung von Genetik und die ziemlich stiefmütterliche Behandlung des Umweltfaktors.

Konzeption von „Genetik“

Wie schon beschrieben, wird in der klassischen Verhaltensgenetik der Grad der genetischen Übereinstimmung zwischen Menschen nicht gemessen bzw. erfasst, sondern aufgrund bestimmter Annahmen geschätzt (z.B. auf 50%). Das allein ist bereits wissenschaftlich ziemlich unbefriedigend. Hinzu kommt, dass man inzwischen (z.B. in der molekularen Verhaltensgenetik) sehr viel weiter ist und eine Fülle verschiedener Arten von „Genvarianz“ unterscheidet – unter anderem die Varianz, die dadurch entsteht, dass unterschiedliche Allele an weit voneinander entfernten Orten im Genom (d.h. der Gesamtheit aller Gene) miteinander interagieren. Im Rahmen von so genannten Kopplungs- und Assoziationsstudien wird zudem durch den Scan des menschlichen Genoms untersucht, welche bestimmten Allele in Zusammenhang mit bestimmten Merkmalen wie z.B. psychischen Störungen stehen.

Konzeption von „Umwelt“

Man muss wohl zugeben, dass der Begriff „Umwelt“ so ziemlich einer der schwammigsten in der gesamten Psychologie ist. Gemeint ist hiermit die Summe an externen Faktoren, die einen Menschen in seiner Entwicklung von Geburt an beeinflussen – d.h. ungefähr alles von Ernährung und Klimabedingungen über Einkommen und Bildungsniveau der Eltern (oft zusammengefasst zum sozioökonomischen Status) bis hin zum elterlichen Erziehungsstil, den zur Verfügung gestellten Förderbedingungen und der Art der Eltern-Kind-Bindung. Das Problem hieran: Die Gleichheit oder Unterschiedlichkeit der Umwelt wurde und wird in der klassischen Verhaltensgenetik nie ausreichend präzise erfasst. Stattdessen verlässt man sich auch hier viel zu oft auf Daumenregeln, wie z.B. in den auch sehr beliebten Adoptionsstudien. Diese wurden lange als die beste Art von Studien gesehen, um den Einfluss von Umwelt und Genetik auf ein bestimmtes Merkmal voneinander zu trennen. Untersucht wurden hierbei eineiige Zwillingspaare (die also genetisch identisch ausgestattet sind), die jedoch von jeweils unterschiedlichen Familien adoptiert wurden. Die Annahme, die man hierbei meist getroffen hat, ist, dass die Umwelt der beiden Zwillinge im Gegensatz zum genetischen Faktor somit unterschiedlich ist. Sehr viele Psychologen haben in der Vergangenheit immer wieder betont, dass später gefundene Übereinstimmungen der Zwillinge, z.B. bzgl. des IQs, somit auf die gemeinsamen Gene zurückgeführt werden können. Dieser Schluss ist jedoch falsch: In Wirklichkeit ist es umgekehrt, weil vielmehr die gefundenen Unterschiede interessant sind – denn diese müssen zwangsläufig auf die Umwelt zurückzuführen sein. Die Schlussfolgerung ist aber aus noch einem zweiten Grund nicht korrekt: Übereinstimmungen zwischen solchen getrennt aufgewachsenen Zwillingen können ebenso auch auf die Umweltbedingungen zurückzuführen sein, denn diese sind in der Tat bei weitem nicht so unterschiedlich wie oft vermutet. Dies geht unter anderem zurück auf die bei Adoptionen weit verbreitete Praktik der selektiven Platzierung, die beinhaltet, dass die zuständigen Behörden darauf achten, dass die Adoptivfamilie der biologischen Familie des Kindes möglichst ähnlich ist. Untermauert wird diese bedeutende Rolle der Umwelt ferner durch eine Studie von Bronfenbrenner (1975), die zeigen konnte, dass die Übereinstimmungsrate (zu verstehen wie eine Korrelation) zwischen den IQ-Werten eineiiger Zwillinge stolze 0,80 betrug, wenn die Umwelten der getrennt aufgewachsenen Zwillinge sich stark ähnelten. War diese Ähnlichkeit jedoch nicht gegeben, lag die Übereinstimmung bei dem sehr viel niedrigeren Wert von 0,28. Insgesamt lässt sich hiermit also festhalten, dass durch die in der klassischen Verhaltensgenetik etablierten Methoden die Unterschiedlichkeit der Umwelt (also die Umweltvarianz) systematisch und erheblich unterschätzt wurde. So liegen z.B. sehr robuste Befunde dafür vor, dass gute Ernährung und insbesondere das Stillen sich positiv auf die spätere Intelligenz auswirken (die Unterschiede liegen im Bereich von 2 – 4 IQ-Punkten), während der mütterliche Alkohol- und Tabakkonsum sich negativ auswirken und im Falle von Alkoholkonsum (bei dem die Menge übrigens keine Rolle spielt!) sogar ein fetales Alkoholsyndrom (FAS) resultieren kann.

Gen-Umwelt-Interaktion

Das stärkste Argument gegen die klassischen Verhaltensgenetik kommt zum Schluss. Nämlich die Tatsache, dass es unangemessen ist, von einem additiven Verhältnis von Genetik und Umwelt auszugehen – was die klassischen Verhaltensgenetik jedoch tut und was sich auch in Maßen wie der Heritabilität wiederspiegelt. Denn nur wenn man davon ausgeht, dass Umwelt und Genetik eine Summe bilden, macht es Sinn, ein Verhältnis zu bilden, das eine Aussage darüber trifft, wie viel Prozent eines Merkmals auf Gene und wie viel auf Umwelt zurückzuführen sind. Inzwischen weiß man allerdings, dass diese Ansicht grundlegend falsch ist, sodass die additive Sicht inzwischen durch das Konzept der Gen-Umwelt-Interaktion ersetzt wurde. Gemeint ist hiermit, dass Gen- und Umweltfaktoren nicht einfach immer mit dem gleichen Gewicht aufeinander treffen, sondern dass bestimmte Umweltfaktoren je nach genetischer Ausstattung unterschiedlich wirksam sein können – ebenso wie dass bestimmte genetische Anlagen einer „Aktivierung“ aus der Umwelt bedürfen, ohne die sie nicht wirksam werden können. Mit anderen Worten: Umwelt und Genetik sind voneinander abhängig und greifen wie Zahnräder ineinander. So gibt es z.B. aus dem Bereich der Intelligenzforschung sehr überzeugende Befunde, dass gute genetische Anlagen nur dann zu einer hohen Intelligenz in einem späteren Alter führen, wenn das Kind in einer Umwelt aufwächst, in der seine Fähigkeiten gefördert werden. Ebenso für die Bedeutung der Umwelt spricht, dass sich die Befunde mehren, dass vernünftig konzipierte Intelligenztrainings eine nachweisbare (wenn auch nicht exorbitant große) Wirkung zeigen. Was genau man sich unter einer Gen-Umwelt-Interaktion vorstellen kann, habe ich übrigens auch in einer meiner hochgeladenen Präsentationen erklärt – am Beispiel von Depressionen. Die Präsentation finden Sie hier.

Insgesamt legt all dies das Fazit nahe, dass durch unsere genetische Ausstattung offenbar zwar ein gewisser Rahmen abgesteckt wird, innerhalb dessen sich unsere letztliche Intelligenz später einmal bewegt – aber dass die Umwelt auf das endgültige „Ergebnis“ einen sehr viel größeren Einfluss hat als lange angenommen. Dass jedoch die Bedeutung der Umwelt lange unterschätzt, ignoriert und als unwissenschaftlich abgewertet wurde, hatte erhebliche soziale und politische Konsequenzen, was uns zu einem sehr dunklen Kapitel der klassischen Verhaltensgenetik – und somit der Psychologie – bringt. Dieses wird Teil des nächsten und letzten Artikels der Intelligenz-Reihe sein, der mir aufgrund seiner gesellschaftlichen Bedeutung so sehr am Herzen liegt wie nur wenige andere.

 © Christian Rupp 2014

Homöopathie & Co.: Von Placebo, Nocebo und einem paradoxen Dilemma

Vorab: Was ist eigentlich Homöopathie?

Diese Frage ist deshalb ganz zentral, weil im Volksmund häufig eine ganz bestimmte Verwechslung vorgenommen wird: nämlich die von homöopathischen und pflanzlichen Mitteln. Denn diese beiden Kategorien sind keineswegs dasselbe! Weder sind alle pflanzlichen Mittel homöopathisch, noch sind alle homöopathischen Mittel pflanzlich. Ein Beispiel für ein nicht-homöopathisches, aber pflanzliches Mittel ist z.B. Johanniskraut, dessen Wirksamkeit in Bezug auf Depressionen als gut belegt gilt, wenngleich der Effekt nicht so groß ist wie der klassischer Antidepressiva. Zudem ist Johanniskraut ein sehr gutes Beispiel dafür, dass auch pflanzliche Medikamente erhebliche Nebenwirkungen haben können – aber das nur nebenbei. Derweil enthalten homöopathische Mittel oft keinerlei pflanzliche Substanzen, sondern anorganische chemische Stoffe, wie z.B. Quecksilber.

Aber was ist nun der Unterschied? Im Wesentlichen liegt dieser in der Wirkstoffkonzentration. Überspitzt gesagt ist es nämlich so, dass pflanzliche Medikamente Wirkstoffe enthalten, homöopathische hingegen nicht. Warum das so ist? Das liegt in der Herstellung und den meiner Meinung nach als esoterisch zu bezeichnenden Annahmen bezüglich der Wirkung. Denn homöopathische Mittel beruhen auf dem Prinzip der extremen Verdünnung, die ein Verhältnis von bis zu 1 : 50000 annehmen kann (wobei der Wirkstoff entweder in Wasser oder Alkohol gelöst wird). Das Ergebnis dessen ist, dass in einem 50ml-Fläschchen rein rechnerisch oft kein einziges Wirkstoffmolekül mehr enthalten ist. Nun kann man sich zurecht fragen, wie dann noch eine Wirkung eintreten soll. Die Antwort der Homöopathen lautet in etwa so: Dadurch dass die Lösung zusätzlich auf eine ganz bestimmte Weise geschüttelt wird („Dilutation“), überträgt sich die Wirkung auf die Wasser- oder Alkoholmoleküle. Ferner sei es so, dass sich die Wirkung durch die Verdünnung nicht verringere, sondern gar vergrößere („Potenzierung“). Wie genau das geschehen soll, lassen sie derweil offen. Die wissenschaftliche Forschung hat derweil ein paar andere Antworten parat.

Homöopathie trifft auf wissenschaftliche Realität

Der durch zahlreiche Studien belegte wissenschaftliche Konsens bezüglich homöopathischer Medikamente ist der, dass sie zwar wirksam sind, aber eben nicht wirksamer als eine Zuckerpille, die das häufigste Beispiel für eine so genannte Placebo-Behandlung darstellt. Dieser Befund gilt für alle Formen von Erkrankungen, die bisher in solchen Studien betrachtet wurden. Untersucht werden Fragestellungen der Wirksamkeit von Medikamenten in der Regel in randomisierten kontrollierten Studien, in denen verschiedene Behandlungsgruppen miteinander verglichen werden, die jeweils mit nur einem Präparat über eine gewisse Zeit behandelt werden. So könnte man sich z.B. eine Studie vorstellen, in der vier Bedingungen miteinander verglichen werden: ein Medikament mit klassischem Wirkstoff, ein homöopathisches Mittel, eine Zuckerpille (Placebo) – und eine Gruppe von Patienten, die gar keine Behandlung erfährt. Das Ergebnis in einer solchen Studie sieht typischerweise so aus (Beispiel: Reduktion von Schmerzen bei Arthritis): Das klassische Medikament führt zu einer deutlichen Abnahme der Schmerzen, die Patienten ohne Behandlung verändern sich kaum hinsichtlich ihres Schmerzniveaus. Die Schmerzen in der homöopathisch behandelten Gruppen lassen auch signifikant nach (d.h. die Reduktion kann nicht auf einen Zufall zurückgeführt werden) – aber, und das ist das Wichtige: Die Schmerzen in der Placebo-Gruppe reduzieren sich ebenfalls signifikant um einen ähnlichen Betrag. Wie kann das sein?

Von Placebo- und Nocebo-Effekten

Die Antwort lautet „Placeboeffekt“. Abgeleitet von dem lateinischen Verb „placere“ (= „gefallen“) beschreibt dieser in der Psychologie sehr gut erforschte Effekt das Phänomen, das bloße Wirkungserwartungen schon Berge versetzen können. So weiß man sowohl aus der Forschung zur Wirksamkeit von Medikamenten als auch von Psychotherapie, dass am Ende eine stärkere Wirkung resultiert, wenn der Patient auch eine Verbesserung erwartet. Oder mit anderen Worten: an eine Besserung glaubt. Hierzu müssen diese Wirkungserwartungen allerdings in ausreichendem Maße ausgelöst werden (z.B. indem der Patient eine nach echter Tablette aussehende Pille schluckt), aber das genügt dann auch schon. Da man sich dieses Effekts bewusst ist, ist das, was Heilmethoden liefern müssen, um zugelassen zu werden, der Nachweis einer Wirkung, die über eben diesen Placeboeffekt hinausgeht. Und genau dieser fehlt bei homöopathischen Mitteln leider – sie zeigen keine größere Wirkung als eine Zuckerpille, von der Patienten denken, es sei eine „echte“ Pille.

Es gibt allerdings auch den bösen Zwillingsbruder des Placeboeffekts – genannt Nocebo-Effekt. Er beschreibt das Phänomen, dass negative Wirkungserwartungen auch einen negativen Effekt auf die tatsächliche Wirkung haben. Konkret bedeutet das: Sagt man Patienten, die eine echte Pille einnehmen, es handle sich hierbei um eine Zuckerpille ohne Wirkstoff, dann lässt sich tatsächlich eine geringere objektive Wirkung nachweisen als bei Patienten, die eine echte Pille einnehmen und dies auch wissen. Was man hieran also erkennt, ist: Jede Form von Therapie, sei es ein Medikament, ein wissenschaftlich fundiertes psychotherapeutisches Verfahren – oder aber homöopathische Globuli, Reiki und Akupunktur – sind von solchen Erwartungseffekten betroffen. Bedeutet das also, dass es eigentlich egal ist, welche Behandlungsform wir wählen, Hauptsache der Patient glaubt an ihre Wirkung?

Das paradoxe Dilemma

Zunächst einmal: Nein. Denn der zentrale Unterschied liegt nun einmal darin, dass sich wissenschaftlich fundierte Behandlungsmethoden, wie oben beschrieben, eben genau dadurch auszeichnen, dass sie wirksamer sind als eine entsprechende Placebo-Behandlung. Dennoch ist es natürlich, wie bereits dargelegt, unverkennbar, dass die Erwartung des Patienten an die Wirksamkeit und die Wirkweise einer Behandlung großen Einfluss auf seine Genesung oder Nicht-Genesung haben kann. Die bedeutsame Rolle dessen, dass derartige Erwartungen durch eine glaubwürdige „Coverstory“ aber überhaupt erst erzeugt werden müssen, wird an dem Dilemma deutlich, dass ein Placebo zwar ohne Wirkstoff (bzw. als wirksam erachtete Elemente) wirkt – aber eben auch mehr als nichts ist (und somit klar von dem Effekt abzugrenzen ist, dass mit der Zeit „von selbst“ eine Besserung eintritt). Daher macht es z.B. im Kontext einer Psychotherapie Sinn, dem Patienten ein Störungs- sowie ein Veränderungsmodell zu vermitteln, welches er nachvollziehen und mit dem er sich zudem identifizieren kann – in anderen Worten: ein Modell, an das er glauben kann – um sich den Placeboeffekt zunutze zu machen.

Erwartungseffekte in der Psychotherapie

Zumindest in Bezug auf die Wirkung von Psychotherapie lässt sich der Befund, dass Wirkungserwartungen und die Passung zwischen dem subjektiven Patientenmodell und dem Veränderungsmodell der Therapie den Therapieerfolg maßgeblich bestimmen, durchaus mit dem aktuellen Forschungsstand der Psychotherapieforschung vereinbaren. Letzterer nämlich lässt sich am ehesten dadurch zusammenfassen, dass die Wirksamkeitsunterschiede zwischen den verschiedenen Therapieformen bestenfalls gering ausfallen (siehe auch mein Artikel zum Dodo-Bird-Verdict). Allerdings haftet dieser Forschung meiner Meinung eine reduzierte Aussagekraft an, da ihre externe Validität sowohl im Hinblick auf die Repräsentativität der Patienten (Patienten in klinischen Studien sind eher untypisch für die große Masse der Patienten in der Bevölkerung) als auch bezüglich der schulenspezifischen Reinheit der Therapie (die dem in der Praxis üblichen eklektischen Mix sehr fern ist) stark hinterfragt werden muss. Zudem ist die viel interessantere Frage, der sich die klinisch-psychologische Forschung zum Glück inzwischen vermehrt widmet, die nach den Prozessen bzw. Mediatoren, über die Psychotherapie wirkt. Ein sehr heißer Kandidat hierfür ist z.B. schulenübergreifend die therapeutische Beziehung, auch working alliance genannt. Zwar wurden in diesem Sinne bereits (z.B. von Klaus Grawe, der leider verstorben ist) integrative Ansätze zu Wirkmechanismen von Psychotherapie vorgeschlagen, jedoch herrschen in den Köpfen der meisten Forscher und Praktiker noch immer kategoriale Denkweisen vor.

Hierbei handelt es sich allerdings um ein mir weitgehend unverständliches Phänomen, da die Quintessenz, die ich aus meinem Studium in klinischer Psychologie mitnehme, die ist, dass im Grunde, wenn man einmal die Dinge zu Ende denkt, alle psychotherapeutischen Verfahren weitgehend dasselbe beinhalten und lediglich unterschiedliche Begriffe verwenden oder Perspektiven einnehmen. Und ich könnte mir in der Tat sehr gut vorstellen, dass es letztlich hauptsächlich darauf ankommt, ob der Patient diese Begriffe und Perspektiven für sich annehmen kann – sodass etwaige Wirksamkeitsunterschiede zwischen verschiedenen Therapieverfahren am Ende vielleicht genau darauf zurückzuführen sein könnten. Ich weiß nicht, ob Erwartungseffekte in der Psychotherapie bereits dahingehend untersucht wurden, ob eine generelle Wirkungserwartung bzw. ein allgemeiner Glaube an Psychotherapie eine notwendige Bedingung für Veränderung darstellen; so ließe sich in der Tat eventuell Licht ins Dunkel der Frage bringen, ob etwaige weitere Wirkmechanismen der Therapie im Sinne eines Interaktionseffekts erst dann wirksam werden, wenn diese notwendige Bedingung erfüllt ist.

Egal warum – Hauptsache, es wirkt?

Doch rechtfertigt dies die (oft in Bezug auf Homöopathie gehörte) Aussage: „Egal warum es wirkt – Hauptsache, es wirkt“? In Bezug auf psychotherapeutische Verfahren und Medikamente, deren Überlegenheit gegenüber einem Placebo belegt wurde, würde ich ganz klar sagen: Ja – aber mit dem Zusatz, dass es aber durchaus wünschenswert wäre, den Wirkmechanismus genauer zu kennen. Hinsichtlich Medikamenten und Therapien, für die diese Überlegenheit nicht gilt (z.B. Homöopathie), würde ich hingegen sagen: Bevor man hierfür Geld ausgibt, sollte man lieber die günstigere Zuckerpille schlucken – wenngleich die schwierige Crux natürlich gerade darin besteht, bei einer solchen Zuckerpille die notwendigen Wirkungserwartungen auszulösen. Dennoch wäre meine persönliche Empfehlung, dass man bei Zugrundelegung der Nicht-Überlegenheit homöopathischer Mittel gegenüber einem Placebo, deren fragwürdiger Herstellungsweise – und dem oft exorbitant hohen Preis – eher die Finger davon lassen sollte. Ein Ratschlag, den ich auch einigen deutschen Krankenkassen geben würde, von denen, wie ich vor Kurzem voller Entsetzen feststellen musste, eine große Zahl die Kosten für homöopathische Mittel übernimmt, während bei anderen Behandlungsformen, deren Wirksamkeit weitaus besser belegt ist, gerne gegeizt wird. Geht es djedoch nicht um die Frage des Geldes (angenommen, der Referenzwert ist der Preis einer Zuckerpille), sehe ich derweil keinerlei Nachteil darin, den Placeboeffekt voll auszunutzen. Nur leider ist es in der Regel so, dass am anderen Ende des Verkaufstisches, der Massageliege oder des Akupunkturnadelkissens meist kein altruistischer Kommunist steht, sondern in der Regel eine Person, die Geld verdienen möchte.

© Christian Rupp 2014

Intelligenz – Teil 3: Warum man nicht nur einen IQ hat und wir lange Zeit immer schlauer wurden

Vorab: Was ist eigentlich „der IQ“?

Der so genannte Intelligenzquotient, kurz IQ, ist im Grunde schon der Schlüssel zu der Art und Weise, wie er berechnet wird – und doch wird diese Tatsache im alltäglichen Sprachgebrauch viel zu selten berücksichtigt. Ursprünglich erfolgte die Berechnung dieses Maßes für menschliche Intelligenz allerdings auf etwas andere Weise als heute. Geprägt wurde der Begriff des Intelligenzquotienten nämlich durch den Psychologen William Stern, der den von Alfred Binet geprägten Begriff des Intelligenzalters aufgriff und weiterentwickelte. Das Intelligenzalter ergibt sich nach Binet, grob gesagt, durch die Summe der gelösten Aufgaben in einem Intelligenztest. Aufschluss über die kognitive Leistungsfähigkeit gibt dann der Vergleich von Intelligenzalter und tatsächlichem Lebensalter: Wenn ein 8-jähriges Kind z.B. deutlich mehr (d.h. schwierigere) Aufgaben löst, als andere 8-jährige Kinder es im Durchschnitt tun, dann könnte sein Intelligenzalter z.B. 9,5 Jahre betragen – mit anderen Worten: Dieses Kind wäre in seiner kognitiven Entwicklung schon überdurchschnittlich weit fortgeschritten. William Stern setzte schließlich diese beiden Größen (also das Lebensalter und das Intelligenzalter nach Binet) einfach ins Verhältnis (bildete also einen Quotienten), multiplizierte sie mit dem Faktor 100 – und schon war der IQ geboren. Für unser Beispiel-Kind ergäbe sich somit ein IQ von (9,5/8)*100 = 118,75 (bzw. 119, da es aufgrund der nicht perfekten Reliabilität von Intelligenztests unüblich ist, IQ-Werte mit Nachkommastellen anzugeben).

Heutzutage berechnet man den IQ nicht mehr auf diese Weise, wenngleich das Grundprinzip der Berechnung erhalten geblieben ist: Weiterhin werden zwei verschiedene Werte miteinander ins Verhältnis gesetzt, weshalb der Begriff „Quotient“ auch heute noch gerechtfertigt ist. Dies ist mit einer ganz wichtigen Tatsache verbunden, die in der Öffentlichkeit und in den Medien leider so oft untergeht: Es gibt nicht den IQ, und es ist keineswegs so, dass ein Mensch genau einen IQ hat. Derartige Aussagen kann man guten Gewissens als Unsinn bezeichnen. In der Tat kann man einer jeden Person unzählige IQ-Werte zuweisen; aber um zu verstehen, warum das so ist, muss man sich vor Augen führen, wie der IQ berechnet wird.

Wie schon gesagt, basiert die IQ-Berechnung auf dem Bilden von Verhältnissen. Was wird nun ins Verhältnis gesetzt? Grob gesagt wird (egal mit welchem Intelligenztest) immer ein Rohwert zu einem bestimmten Mittelwert und einer Standardabweichung gesetzt. Der Rohwert meint meist die Anzahl der in einem Intelligenztest gelösten Aufgaben (was deshalb Sinn macht, weil fast alle diese Tests so aufgebaut sind, dass die Aufgaben im Verlauf immer schwieriger werden). Bei unserem Beispiel-Kind von oben könnten das z.B. 21 von 30 Aufgaben sein. So, dieser Rohwert sagt einem zunächst einmal gar nichts. Um an einen IQ-Wert zu gelangen, braucht man zusätzlich eine Normstichprobe, d.h. eine repräsentative Stichprobe anderer Menschen, mit der man das Kind nun vergleichen kann. Von dieser Normstichprobe braucht man zwei Informationen: den Mittelwert (d.h. die durchschnittliche Zahl der gelösten Aufgaben in dieser Gruppe von Menschen, hier z.B. 18,1) und die Standardabweichung (d.h. die „durchschnittliche“ Abweichung von diesem Mittelwert, z.B. 2,7). Nun muss die Zahl der von unserem Beispiel-Kind gelösten Aufgaben ins Verhältnis zu dieser Normstichprobe gesetzt werden . Hierzu berechnet man zunächst die Differenz zwischen dem Rohwert des Kindes und dem Mittelwert der Normstichprobe: 21-18,1 = 2,9. Dies ist die also die „Abweichung“ unseres Kindes vom Mittelwert der Normstichprobe – und diese muss man nun ins Verhältnis setzen zur „durchschnittlichen Abweichung“ vom Mittelwert der Normstichprobe (also deren Standardabweichung); d.h. man rechnet: 2,9/2,6 = 1,12. Man sagt: Das Kind liegt etwas mehr als eine Standardabweichung über dem Mittelwert der Normstichprobe. Nun fehlt nur noch die Umrechung in IQ-Werte. Hierzu nutzt man die Tatsache, dass IQ-Werte eine Art Maßzahl sind – deren Mittelwert und deren Standardabweichung festgelegt sind. D.h., man kann sie nutzen, um die Ergebnisse unterschiedlichster Tests (die alle andere Skalierungen verwenden), in ein und derselben Metrik anzugeben. Der Mittelwert des IQ ist auf 100 festgelegt, und die Standardabweichung auf einen Wert von 15. Um unserem Kind nun einen IQ-Wert zuweisen zu können, muss man nur noch den Wert 1,12 mit 15 multiplizieren und 100 addieren – und es ergibt sich ein IQ von 116,8 (bzw. 117).

Und schon hat man das, was in der Praxis meist noch in viel gravierender Form auftritt: Die beiden IQ-Werte (119 und 117) sind nicht gleich. Während es in unserem konstruierten Fall natürlich daran liegt, dass ich bei der obigen Berechnung die Werte ins Blaue hinein erfunden habe, liegt es in der Realität an einem anderen Faktor – nämlich an der Frage, welche Normstichprobe ich heranziehe, um die Person, deren IQ ich messen will, mit ihr zu vergleichen. Im Allgemeinen sollte man hierzu immer diejenige Normstichprobe wählen, die der Person bezüglich Alter und Geschlecht am ähnlichsten und zudem möglichst aktuell ist. Es finden sich aber auch noch feiner aufgegliederte Normen, z.B. auch bezüglich des Bildungsstands oder der besuchten Schulform. Ein IQ-Wert bedeutet immer nur, wie gut oder schlecht die Leistungen einer Person im Vergleich mit einer ihr möglichst ähnlichen Gruppe von Menschen sind. Und das ist genau der Grund, aus dem man für ein und denselben Menschen unzählige IQ-Werte berechnen kann – und ein IQ-Wert völlig ohne Aussage ist, solange man nicht mit angibt, zu welcher Normstichprobe man die Person ins Verhältnis gesetzt hat: Wenn der IQ unseres Kindes aus dem Vergleich mit einer Stichprobe Fünfjähriger resultiert, würde man den IQ von 118 nicht als besonders hoch einstufen; stammt er jedoch aus einem Vergleich mit einer Gruppe 16-Jähriger, kann man sich ziemlich sicher sein, dass das Kind wohl hochbegabt ist. Das ganze noch einmal in Kürze: Wenn jemand Ihnen das nächste Mal erzählt, er habe einen IQ von 150 – dann fragen Sie ihn doch bitte, aus dem Vergleich mit welcher Normstichprobe dieses Ergebnis resultiert.

Wie ist Intelligenz in der Menschheit verbreitet?

Wie oben bereits erwähnt, handelt es sich bei IQ-Werten um eine standardisierte Skala, auf der sich durch einfache Umrechnung alle möglichen Werte abbilden lassen, solange man die zwei wichtigen Angaben vorliegen hat: den Mittelwert und die Standardabweichung der betreffenden Stichprobe. Wann immer ich im Rest dieses Artikels von IQ-Werten spreche, bitte ich, dieses zu berücksichtigen.

Wie man aus zahlreichen Untersuchungen an großen repräsentativen Stichproben weiß, folgen IQ-Werte in der menschlichen Bevölkerung ziemlich genau einer so genannten Gauss’schen Normalverteilung (auch Gauss’sche Glockenkurve oder einfach kurz Normalverteilung genannt). Bei diesem Begriff handelt es sich im Grunde um eine Art „Etikett“, da es eine besondere Form von Verteilung bezeichnet, der (statistische) Werte (wie eben IQ-Werte) folgen können. Eine Normalverteilung lässt sich anhand zweiter Werte genau beschreiben, und zwar wiederum anhand des Mittelwertes und der Standardabweichung, die maßgeblich die Form der Kurve beeinflussen. Was ich im vergangenen Abschnitt noch verschwiegen habe, ist der sehr wichtige Umstand, dass die Tatsache, dass IQ-Werte einer solchen Normalverteilung folgen, einen ganz entscheidenden Vorteil mit sich bringt: nämlich den, dass die Berechnungen und Umrechnungen, die ich oben dargestellt habe, dadurch überhaupt erst mathematisch zulässig sind. Würden IQ-Werte keiner Normalverteilung folgen, hätten wir es um einiges schwieriger. So jedoch lässt sich (wie oben schon erwähnt) guten Gewissens sagen: IQ-Werte haben in der menschlichen Bevölkerung einen Mittelwert von 100 und eine Standardabweichung von 15. Um das ganze einmal ein bisschen plakativer zu machen, habe ich einmal eine entsprechende Abbildung gebastelt.

Verteilung des IQ in der Bevölkerung
Verteilung des IQ in der Bevölkerung

Um diese Glockenkurve nun zu verstehen, ist es wichtig, dass man nicht versucht, die y-Achse zu interpretieren (weshalb ich sie auch weggelassen habe). Mathematisch betrachtet handelt es sich bei dieser Kurve um eine Dichte-Funktion, d.h. auf der y-Achse ist die schwer interpretierbare Dichte abgetragen. Man darf und kann diese Kurve daher nicht direkt so lesen, dass sie einem Aufschluss darüber gibt, wie vielen Prozent der Menschen welcher IQ-Wert zugordnet ist (das geht daher nicht, weil die Intelligenz hier mathematisch als stetiges Merkmal konzipiert ist – aber nun genug mit dem statistischen Wirrwarr).

Sinnvoll interpretierbar ist hingegen das Integral, also die Fläche unter der Glockenkurve. Mit deren Hilfe kann man zumindest Aussagen darüber treffen, wie viele IQ-Werte sich in einem bestimmten Bereich bewegen. So liegen z.B. im Bereich einer Standardabweichung unter- und überhalb vom Mittelwert von 100 (also zwischen den IQ-Werten von 85 und 115) rund 68% aller IQ-Werte, und somit auch aller Menschen. Zwischen 70 und 130 liegen derweil z.B. rund 95% aller Werte, d.h. es liegen nur 2,5% unter 70 und 2,5% über 130. Als Konvention hat sich daher eingebürgert, alle IQ-Werte zwischen 85 und 115 als „durchschnittlich“ zu bezeichnen, Werte zwischen 70 und 85 als „niedrig“ und Werte zwischen 115 und 130 als „hoch“. „Hochintelligent“ ist daher streng genommen etwas anderes als „hochbegabt“, was sich als Begriff für IQ-Werte über 130 etabliert hat. Zur Erinnerung: Diese Menschen liegen bzgl. ihrer kognitiven Leistungen mehr als zwei Standardabweichungen über dem Mittelwert ihrer (hoffentlich) alters- und geschlechtsspezifischen Normstichprobe. Ähnliches gilt in umgekehrter Richtung für IQ-Werte unter 70. Hier bewegen wir uns (allerdings noch mit bedeutenden Abstufungen!) im Bereich der geistigen Behinderung (für deren Definition vorrangig der IQ herangezogen wird). Diese praktischen Prozentangaben haben einen weiteren Vorteil: Man kann jedem IQ-Wert einen Prozentrang zuweisen und somit z.B. Aussagen der Sorte „besser als 84% aller Mitglieder der Normstichprobe“ (bei einem IQ von 115) treffen. Um zu der Anmerkung von vorhin zurückzukommen: Ein IQ von 150 würde bedeuten, dass 99,96% der Menschen in der Normstrichprobe (und somit gewissermaßen auch in der Bevölkerung, für die die Normstichprobe ja repräsentativ sein soll) einen niedrigeren Wert aufweisen: Und das ist, wie sie auch an der Abbildung sehen können, hochgradig unwahrscheinlich – mal davon abgesehen, dass kein Intelligenztest einen so hohen Wert vernünftig messen kann (Thema des nächsten Artikels).

Exkurs: Männer & Frauen

Ein ganz heikles Thema ist es natürlich, ob nun Männer oder Frauen im Durchschnitt intelligenter sind. Der mir bekannte aktuelle Forschungsstand hierzu ist der, dass es – bezüglich der allgemeinen Intelligenz – einen marginalen Unterschied dahingehend gibt, dass Männer ein paar wenige IQ-Punkte vorne liegen, gleichzeitig aber die Varianz bei Männern höher ist: Sowohl in den sehr hohen als auch in den sehr niedrigen IQ-Bereichen überwiegen Männer. Dazu sei noch gesagt, dass dieser Unterschied durch zwei Aspekte an Bedeutung verliert: Zum einen ist die Varianz innerhalb jeder der beiden Gruppen um ein Vielfaches größer als der Unterschied zwischen den Gruppen, und zum anderen ist es gut möglich, dass jener Unterschied dadurch zustande gekommen ist, dass viele Intelligenztests bestimmte Aufgaben in den Vordergrund stellen, die Männer bevorteilen. Denn was als gut gesichert gilt, ist, dass Männer und Frauen sich deutlich hinsichtlich ihrer kognitiven Stärken und Schwächen unterscheiden: Es gilt als sehr robuster Befund, dass Männer z.B. im Mittel besser im visuell-räumlichen Denken abschneiden als Frauen, die wiederum im Durchschnitt die Nase vorn haben, was die verbale Intelligenz betrifft.

Der Flynn-Effekt: Wird die Menschheit wirklich immer intelligenter?

Eine andere Fragestellung ist die, ob der durchschnittliche IQ der Menschheit tatsächlich zunimmt – ein Phänomen, das in Anlehnung an den neuseeländischen Politologen James R. Flynn als Flynn-Effekt bezeichnet wird. Dieser Fragestellung auf den Grund zu gehen, ist aufgrund der beschriebenen Berechnungsweise des IQ gar nicht so einfach – denn um herauszufinden, ob der IQ im Mittel steigt, darf man Menschen eben nicht mit aktuellen Normstichproben vergleichen, sondern muss ältere heranziehen: Nur so kommt man dem Flynn-Effekt auf die Schliche.

In der Tat haben groß angelegte Studien ergeben, dass der mittlere IQ in der westlichen Bevölkerung zwischen den 1930er und den 1990er Jahren um 0,2 – 0,5 Punkte pro Jahr gestiegen ist. Dieser Anstieg ergibt sich natürlich aus dem Vergleich mit den immer gleichen Normen aus den 1930er Jahren – anders wäre ein Anstieg ja gar nicht messbar. Dabei nahmen die Leistungen in nicht-sprachlichen Tests (die vor allem fluide Intelligenz messen) deutlich stärker zu als die in sprachlich basierten Tests (die vor allem kristalline Intelligenz messen). Für diesen Befund wurden diverse Erklärungshypothesen diskutiert, die im Folgenden kurz angeschnitten werden sollen.

Dauer des Schulbesuchs und Erfahrung mit typischen Intelligenztestaufgaben

In der Tat nahm die durchschnittliche Dauer des Schulbesuchs in dieser Zeit deutlich zu – was deshalb wichtig ist, weil somit auch die Erfahrung und die Geübtheit im systematischen Lösen von schulischen Aufgaben zunahm, die typischen Intelligenztests sehr ähnlich sind. Der Anteil dieser Faktoren am Flynn-Effekt ist jedoch eher als gering zu einzustufen.

Erziehungsstil

Weiterhin wurde in den Raum geworfen, dass der typische elterliche Erziehungsstil in dieser Zeitspanne natürlich auch einem erheblichen Wandel unterlegen war. Konkret wird von den Vetretern dieser Hypothese angeführt, dass von Eltern zunehmend Wert darauf gelegt wurde, ihre Kinder schon früh in ihrer kognitiven Entwicklung zu fördern. Dieser Trend fand aber nicht nur im familiären Rahmen, sondern auch in viel größerem Maße in den Medien (Beispiel „Sesamstraße“) und in der Politik statt. Die Befunde hierzu sind widersprüchlich. Während man weiß, dass große, national initiierte Bildungsprogramme eher keine Wirksamkeit bezüglich der Erhöhung des durchschnittlichen IQs vorweisen können, wirkt sich frühe Förderung auf der individuellen Ebene durchaus positiv auf die kognitive Entwicklung aus.

Weniger Fälle geistiger Behinderung

Zu bedenken ist sicherlich auch, dass aufgrund besserer medizinischer Versorgung die Zahl der mit geistigen Behinderungen geborenen Kinder in der beschriebenen Zeitspanne zurückgegangen ist. Einige Studien hierzu messen diesem Aspekt im Hinblick auf den Flynn-Effekt eine zentrale Bedeutung bei: Durch den überproportionalen Wegfall sehr niedriger IQ-Werte (<70) in der Bevölkerung stieg der durchschnittliche IQ im Mittel an.

Ernährung

Es ist gut belegt, dass bessere Ernährung (z.B. vitaminreiche Kost, weniger Schadstoffe, etc.) die geistige Entwicklung von Kindern positiv beeinflusst. Durch ungesunde Ernährung kann es z.B. zu Schilddrüsenunterfunktionen kommen (gekennzeichnet durch einen Mangel an Triiodthyroxin und Triiodthyronin), die dann wiederum eine Verzögerung der geistigen Entwicklung bedingen können, sodass der mittlere IQ infolgedessen gestiegen sein könnte.

Vermutlich ist es tatsächlich nicht einer dieser Faktoren, die den Flynn-Effekt erklären, sondern ihr Zusammenspiel. Interessanterweise ist es derweil übrigens so, dass der Anstieg des mittleren IQ seit Anfang der 1990er Jahre als „gestoppt“ gilt, sodass man zumindest momentan sagen kann, dass der Flynn-Effekt der Vergangenheit angehört. Manche deuten dies als Beleg für die Richtigkeit der Ernährungshypothese (da die Nahrungsversorgung in der westlichen Gesellschaft gewissermaßen nicht noch viel besser werden kann), ich jedoch würde eher sagen, dass diese Tatsache der „Sättigung“ in entsprechender Weise auf alle Erklärungsansätze zutrifft.

In diesem Artikel habe ich mehrfach schon das Thema der Intelligenzmessung gestreift. Ob, wie – und vor allem – wie genau man die Intelligenz eines Menschen tatsächlich messen kann, wird daher der Inhalt des nächsten Artikels sein.

© Christian Rupp 2014

Psychologe, Psychiater, Psychotherapeut & Co. – Was ist der Unterschied?

Im Volksmund werden die „Psych“-Berufe ganz häufig synonym, oft völlig falsch und selten sachgemäß verwendet. Dabei lohnt es sich, einmal die Unterschiede genauer zu betrachten. Fangen wir also mit den Definitionen an. Ich bitte um Nachsehen dafür, dass ich der besseren Lesbarkeit wegen an allen Stellen nur die männliche Form verwende.

Psychologe

Psychologe ist ein geschützter Titel, den man nach einem abgeschlossenen Hochschulstudium der Psychologie erwirbt. In der Vergangenheit lautete der Titel (und auch die Berufsbezeichnung) nach dem Abschluss dann „Diplom-Psychologe“ (kurz: „Dipl.-Psych.“). Das Diplom war bis vor einigen Jahren der Regelabschluss im Fach Psychologie, den man nach ca. 9-10 Semestern erreichte. Im Zuge der Bologna-Reform der Studienabschlüsse wurde das Diplom als Abschluss abgeschafft und durch einen Bachelor- und einen Masterabschluss ersetzt. Den Bachelorabschluss hat man, wenn man in der Tretmühle dieses anstrengenden Studiums nicht auf der Strecke bleibt, nach 6 Semestern geschafft und darf sich dann „Bachelor of Science“ (kurz „B. Sc.“ oder „BSc“) nennen. Der Zusatz des Faches, in dem der Abschluss erworben wurde (Psychologie) ist hierbei (dämlicherweise) nicht vorgesehen, sodass keiner erkennen kann, ob man den Abschluss in Psychologie, Physik, Chemie, Biologie oder vielleicht auch in BWL gemacht hat. Der BDP (Der Berufsverband für Psychologen in Deutschland) möchte derweil nicht, dass Bachelor-Absolventen sich schon „Psychologen“ nennen, und auch die meisten Jobs erfordern einen Masterabschluss. Das Masterstudium kann jeder beginnen, der einen guten bis sehr guten Bachelorabschluss hingelegt hat (der Rest hat mehr oder weniger Pech), und es dauert weitere 4 Semester. Das Masterstudium ist meist sehr schwerpunktspezifisch, häufig angebotene Schwerpunkte sind z.B. Klinische Psychologie, Personal- und Wirtschaftspsychologie und Neurowissenschaften. Nach dem Masterabschluss lautet der Titel „Master of Science“ (kurz: „M. Sc.“ oder „MSc“), und man darf sich laut BDP nun auch Psychologe nennen, da der Masterabschluss dem alten Diplom in Psychologie gleichgesetzt wird. Um den damit erlangten Beruf deutlich zu machen, wird dann häufig die Bezeichnung „Psychologe M. Sc.“ oder „Psychologe (M. Sc.)“ gewählt. Analog zum „Dipl.-Psych“ findet sich in der letzten Zeit aber immer häufiger auch die Bezeichnung „M.Sc. Psych.“.

Der Zusatz „of Science“ zeigt übrigens an, dass es sich bei Psychologie um ein (natur)wissenschaftliches Fach handelt, nicht um eine Geisteswissenschaft. Das gesamte Psychologiestudium ist sehr reich an Wissenschaftsmethodik und –praxis, Statistik und viel auswendig zu lernendem Wissen. Für beide Abschlussarbeiten (Bachelor- und Masterarbeit) muss man in der Regel auch eine eigene empirische Studie durchführen und auswerten.

Psychologen sind übrigens nicht automatisch klinische Psychologen (was ich hier mal, auch wegen des klinischen Schwerpunkts dieses Blogs, mal hervorheben muss), auch wenn diese die größte Gruppe darstellen. Viele Psychologen sind an Universitäten und Forschungsinstituten als Wissenschaftler tätig (in allen Bereichen, die die Psychologie bietet, z.B. Sozialpsychologie, Neurowissenschaften, Entwicklungspsychologie, Persönlichkeitspsychologie…), andere arbeiten in der Wirtschaft, vor allem Personalabteilungen (Personalauswahl und –entwicklung sind ganz große Bereiche für Psychologen) oder freiberuflich in allen möglichen Funktionen.

Psychologischer Psychotherapeut (kurz: PP)

Als Psychologe kann man in der Regel nicht therapeutisch tätig sein, zumindest nicht, wenn man mit den gesetzlichen Krankenkassen und den privaten Krankenversicherungen und der Beihilfe abrechnen möchte. Hierzu muss man eine zwischen drei und fünf Jahren dauernde und 10.000 € bis 25.000 € teure Zusatzausbildung in Psychologischer Psychotherapie absolvieren, die man mit der Facharztausbildung vergleichen kann, die Ärzte nach dem Abschluss ihres Medizinstudiums absolvieren. Diese Ausbildung ist derzeit in fünf anerkannten Verfahren möglich: der (Kognitiven) Verhaltenstherapie (KVT oder VT), der analytischen Psychotherapie (AP), der tiefenpsychologisch fundierten Psychotherapie (TP), der Gesprächspsychotherapie und der systemischen Therapie. In allen fünf Verfahren kann man als Psychologe eine Ausbildung zum Psychologischen Psychotherapeuten absolvieren, allerdings werden aufgrund der Beschlüsse des Gemeinsamen Bundesausschusses, der den Leistungskatalog der gesetzlichen Krankenkassen festlegt, nur für die VT, die TP und die AP die Kosten von den Krankenversicherungen in Deutschland übernommen. Da die Wirksamkeit der TP und besonders der AP weitaus schlechter wissenschaftlich belegt (und wegen der größeren Sitzungskontingente die Kosten für das Gesundheitssystem deutlich höher) sind als die Gesprächspsychotherapie und die systemische Therapie, macht das zwar wenig Sinn im Sinne des Wirtschaftlichkeitsprinzips der Krankenkassen, aber leider ist es so.

Nach einer solchen postgraualen Ausbildung erhält man als Psychologe die Approbation, d.h. die Zulassung zum Heilberuf des Psychotherapeuten bzw. die Befugnis zur Ausübung der psychotherapeutischen Heilkunde (hier findet sich ein Unterschied zu den Ärzten: Sie erhalten ihre Approbation bereits nach Abschluss des Studiums und nicht erst nach abgeschlossener Facharztausbildung). Man erhält mit der Approbation den Titel „Psychologischer Psychotherapeut“ und ist dann befugt, in Kliniken oder in eigener Praxis eigenverantwortlich Patienten behandeln. Für die Behandlung von Privatpatienten genügen in der Regel die Approbation und ein Eintrag in das Arztregister der jeweiligen Kassenärztlichen Vereinigung; um hingegen gesetzlich Versicherte zu behandeln, benötigt man zusätzlich eine Kassenzulassung, die in den meisten Regionen nur von einem in den Ruhestand gehenden Psychotherapeuten erworben werden kann und meist mit 20.000 € bis 100.000 € bezahlt wird. Anders als Ärzte, die eine Praxis von ihrem Vorgänger übernehmen, erhält man dafür keinerlei Ausstattung oder einen Patientenstamm – man zahlt lediglich für die Erlaubnis, mit den Krankenkassen abrechnen zu dürfen (!).

Der Begriff „Psychologischer Psychotherapeut“ impliziert bereits, dass es auch noch andere gibt. Nämlich die „Ärztlichen Psychotherapeuten“, die aber weitaus seltener sind. Das sind Ärzte mit psychotherapeutischer Zusatzausbildung, die aber bei Weitem nicht so umfangreich ist wie die, die Psychologen absolvieren. Daher würde ich mit einem psychotherapeutischen Anliegen (Achtung: meine, allerdings durch zahlreiche eigene Erfahrungen untermauerte Meinung) immer zu einem Psychologischen Psychotherapeuten gehen, da ich die Qualität der psychotherapeutischen Behandlung dort als gesicherter ansehe und Psychologische Psychotherapeuten auf diesem Gebiet im Allgemeinen kompeteter und eher auf dem neusten Stand sind – allein schon deshalb, weil sie mit dem Psychologiestudium eine ganz andere Grundlage haben und die psychotherapeutische Ausbildung viel umfangreicher ist als bei Ärzten.

Psychologische und Ärztliche Psychotherapeuten besitzen eine Approbation (also die Befugnis zur Ausübung der Heilkunde), die altersunabhängig ist, dürfen sozialrechtlich (d.h. im System der gesetzlichen Krankenkassen) aber nur Erwachsene über 18 Jahren behandeln. Das bedeutet im Klartext: Ist der Jugendliche oder das Kind privatversichert (wofür nur die Approbation wichtig ist), kann es/er durch einen Psychologischen Psychotherapeuten behandelt werden – bei gesetzlicher Krankenversicherung muss die Behandlung durch einen Kinder- und Jugendlichenpsychotherapeuten (siehe nächster Abschnitt) erfolgen. Allerdings sollte man meiner Ansicht nach gerade bei Kindern immer eher einen Kinder- und Jugendlichenpsychotherapeuten aufsuchen, da Psychologische Psychotherapeuten meist über wenig bis keine Erfahrung in der Psychotherapie mit Kindern verfügen.

Psychologische Psychotherapeuten sind formal-rechtlich einem Facharzt gleichgestellt. Wenn Sie in NRW wohnen und einen Psychotherapeuten suchen, können Sie eine gezielte Suche z.B. auf den Seiten der Psychotherapeutenkammer NRW durchführen;  diese finden Sie hier. Diese Suchfunktion wird meines Wissens nach von jeder der 16 Psychotherapeutenkammern (pro Bundesland eine) angeboten – für das jeweilige Bundesland dann einfach googeln.

Kinder- und Jugendlichenpsychotherapeut (kurz: KJP)

Diese Bandwurmberufsbezeichnung steht für die Gruppe von Psychotherapeuten, die Kinder und Jugendliche unter 21 Jahren behandeln darf, aber keine Erwachsenen. Anders als bei psychologischen Psychotherapeuten, bei denen die Approbation altersungebunden ist, ist die von KJP wirklich auf Personen unter 21 Jahren beschränkt. Ansonsten ist alles identisch mit den Erwachsenen-Psychotherapeuten, außer dass neben Psychologie und Medizin auch ein Studium der Pädagogik, Sozialpädagogik oder der Heilpädagogik als Zugangsvoraussetzung für die Ausbildung anerkannt wird. In einigen Bundesländern genügt für diese Ausbildung übrigens ein Bachelorabschluss, was im Hinblick auf die Qualitätssicherung und den Facharztstandard als sehr kritisch zu betrachten ist und bei einer Überarbeitung des Psychotherapeutengesetzes unbedingt berücksichtigt werden sollte.

Von Heilpraktikern und  & „Psychologischen Beratern“

Der Begriff „Psychotherapeut“ ist als akademischer Heilberuf (genau wie „Arzt“ und „Apotheker“) geschützt, d.h. er darf nur mit der entsprechenden Ausbildung und einem vorher absolvierten wissenschaftlichen Hochschulstudium (Psychologie oder Medizin) getragen werden, ansonsten macht man sich strafbar. Dies soll im Grunde dabei helfen, die Menschen vor unseriösen Behandlern mit geringfügiger bis fehlender Ausbildung zu schützen. Leider jedoch ist es nicht verboten, auf sein Praxisschild „Psychotherapie“ zu schreiben. Heilpraktiker (die ich an dieser Stelle natürlich weder diffamieren noch als grundsätzlich unseriös bezeichnen möchte) können aufgrund des fehlenden Studiums nicht den Titel des Psychotherapeuten (und eben auch keine Approbation) erlangen, sondern nur den Zusatz „Psychotherapie HGP“, wobei HPG für das Heilpraktikergesetzt steht. Auch hier ist aus meiner Sicht häufig die Qualität gegenüber der Behandlung bei Psychologischen oder Ärztlichen Psychotherapeuten als fraglich einzustufen, und allzu häufig finden sich äußerst esoterische und selten verantwortungsvoll angebotene „Heilbehandlungen“.  Oft finden sich in diesem Kontext die Bezeichnungen „Heilpraktiker Psychotherapie“ oder „Psychotherapeutischer Heilpraktiker“. Was viele Patienten nicht wissen, ist, dass der Beruf des Heilpraktikers an sich nur recht wenigen gesetzlichen Regularien unterliegt (es gibt, anders bei als bei Psychotherapeuten und Ärzten, zum Beispiel keine Berufsordnung) – und Heilpraktiker, im Gegensatz zu Psychotherapeuten und Ärzten, über keine Approbation, sondern lediglich über eine Erlaubnis zur Ausübung der Heilkunde verfügen. Es gibt zwar eine relativ umfangreiche und nicht leicht zu bestehende Prüfung, die man bestehen muss, um sich Heilpraktiker nennen zu dürfen, aber es gibt keine staatlich geregelte und somit keine einheitliche Ausbildung zum Heilpraktiker, so dass jedem selbst überlassen ist, wie er sich den Prüfungsstoff aneignet.

Bevor 1999 das Psychotherapeutengesetzt in Kraft trat und all das regelte, was ich hier beschreibe, war eine solche Erlaubnis als Heilpraktiker (traurigerweise) die einzige Möglichkeit für Psychologen, psychotherapeutisch tätig zu werden. Aber auch heute noch nutzen manche Psychologen dieses „Schlupfloch“, um die lange und teure Ausbildung zum Psychotherapeuten zu umgehen und Patienten (dann i. d. R. auf Selbstzahlerbasis) behandeln zu können.

Vorsicht ist auch bei der Berufsbezeichnung „Psychologischer Berater“ geboten, da es sich auch hier nicht um echte Psychologen handelt. Eine solche Qualifikation kann man bei diversen Heilpraktikerschulen in einigen Monaten erwerben und ist nicht im Entferntesten mit einem Studium in Psychologie zu vergleichen, wenngleich man hierdurch sicherlich besser auf eine beratende Tätigkeit vorbereitet wird, als wenn man einfach so loslegt. Dennoch würde ich, wenn man nach psychologischer Beratung sucht (die im Gegensatz zur Psychotherapie leider keine Leistung der Krankenkassen ist), immer darauf achten, dass die betreffende Person, an die ich mich wende, auch tatsächlich einen Universitätsabschluss in Psychologie (Master oder Diplom oder zumindest einen Bachelor) vorweisen kann.

Psychiater & Facharzt für psychosomatische Medizin

Psychiater sind Fachärzte, d.h. sie haben Medizin studiert und dann eine Facharztausbildung absolviert, die auch ungefähr drei Jahre dauert. Der offizielle Titel lautet daher auch „Facharzt für Psychiatrie“ bzw. für Patienten unter 18 „Facharzt für Kinder- und Jugendlichenpsychiatrie“. Oft findet sich auch die Facharztbezeichnung „Neurologie und Psychiatrie“ sowie „Psychiatrie und Psychotherapie“. Psychiater behandeln, weil sie oft keine oder nur eine oberflächliche psychotherapeutische Ausbildung haben, psychische Störungen vorrangig mit anderen Mitteln, z.B. Medikamenten, Tiefenhirnstimulation, Elektrokrampftherapie, transkranieller Magnetstimulation etc. Im Gegensatz zu Psychologischen Psychotherapeuten dürfen sie diese Heilmittel auch verschreiben. Sie arbeiten in Kliniken (Psychiatrien) oder in eigenen Praxen. Psychiater können zu ihrer Berufsbezeichnung auch den Zusatz „Psychotherapie“ erwerben, wenn sie sich entsprechend fortbilden. In psychiatrischer Behandlung befinden sich meist Patienten mit eher schweren psychischen Erkrankungen oder solchen, die rein psychotherapeutisch gar nicht oder nur schlecht zu behandeln sind (z.B. schwere Depressionen mit vorrangig biologischer Ursache oder Psychosen wie die Schizophrenie).

Der Vollständigkeit halber sei an dieser Stelle auch noch der „Facharzt für psychosomatische Medizin“ genannt, der für einige Jahre auch „Facharzt für psychotherapeutische Medizin“ hieß. Diese Sorte von Facharzt ist noch mehr als der Facharzt für Psychiatrie mit dem Psychologischen Psychotherapeuten zu vergleichen, da die Behandlungform der Wahl vorrangig tatsächlich die Psychotherapie ist.

Die Sache mit dem „Dr.“

Ganz wichtig: Der Doktortitel sagt nichts über die berufliche Qualifikation einer Person in einem Heilberuf aus, sondern stellt eine wissenschaftliche Zusatzqualifikation dar. Die meisten Ärzte haben einen, aber das hauptsächlich deshalb, weil der Erwerb eines Doktortitels im Fach Medizin („Dr. med.“) im Vergleich zu anderen Fächern relativ leicht ist und in aller Regel deutlich schneller geht. Die Doktorarbeit im (an sich nicht wissenschaftlich ausgelegten) Studium der Medizin entspricht meiner Erfahrung nach in etwa der Master- oder Diplomarbeit in anderen Studiengängen wie z.B. Psychologie.

Im Prinzip handelt es sich aber um den höchsten akademischen Grad („Professor“ ist kein akademischer Grad, sondern eine Berufsbezeichnung), den man durch das Verfassen einer Dissertation („Doktorarbeit“) erlangt. In den Naturwissenschaften, und so auch in der Psychologie, muss man hierzu eine eigenständige wissenschaftliche Untersuchung durchführen, und die Dissertation muss am Ende veröffentlicht werden, bevor einem der Titel verliehen wird. Diesen gesamten Prozess bezeichnet man als „Promotion“. Während im Fach Medizin eine Promotion selten länger als ein Jahr dauert und oft nicht ganz so hohe wissenschaftliche Standards gelten, dauert es im Fach Psychologie, das sich hohen methodischen Standards verschrieben hat, meistens mindestens drei und in der Regel eher fünf Jahre, bis einem der Doktortitel verliehen wird. Um was für einen Doktortitel es sich handelt, erkennt man am Zusatz hinter dem „Dr.“: „Dr. med.“ ist der für Ärzte relativ einfach zu erlangende, in wissenschaftlichen Kreisen aber oftmals eher belächelte „Doktor der Medizin“. Für Psychologen gibt es entweder den „Dr. phil.“ (Doktor der Philosophie, der dann irrsinniger Weise für eine naturwissenschaftliche Dissertation vergeben wird, aber einen sehr guten Ruf hat) oder den ebenso hoch anerkannten „Dr. rer. nat.“ („Doktor der Naturwissenschaften“). In den letzten 10-20 Jahren wurde an Psychologen auch immer häufiger der „Dr. rer. medic.“ (Doktor der Medizinwissenschafen) vergeben, was möglich ist, wenn Psychologen an einer medizinischen Fakultät promovieren. Das bedeutet, das Thema der Dissertation ist grundsätzlich klinischer Natur, und die Kandidaten müssen je nach Universität, um überhaupt promovieren zu dürfen, ein vier- bis sechssemestriges medizinisches Zusatzstudium absolvieren. Also: auch nicht mal eben im Vorbeigehen erledigt! Dies gilt allerdings erst seit einigen Jahren; vorher war dieser Doktortitel vergleichsweise einfach zu erwerben und hatte daher keinen so hohen Wert wie ein „Dr. phil.“ oder ein „Dr. rer. nat“.

Insgesamt heißt das also:  Auch einen Psychologen oder Psychotherapeuten kann man mit „Herrn Doktor“ anreden, wenn er einen „Dr. phil.“ oder „Dr. rer. nat.“ hat, und er verdient diese Ehre meines Erachtens auch noch einmal mehr als ein Arzt,  weil er deutlich mehr für diesen Titel tun musste. Das bedeutet auch: Ein Doktortitel heißt nicht automatisch, dass jemand Arzt ist (eine Annahme, der man sehr häufig begegnet) – genau so wie es auch Ärzte ohne Doktortitel gibt, die denen mit Doktortitel fachlich in nichts nachstehen. Mein Tipp: immer auf den Zusatz nach dem „Dr.“ achten!

Man sieht also – es gibt da einige Unterschiede und, wie ich finde, hilfreiche Dinge, die man wissen sollte, wenn man in dem Bereich einen Behandler sucht. Bezüglich der Stellen, wo der Text ein bisschen kritisch wird, möchte ich nochmal betonen, dass es sich dort um meine persönliche Meinung handelt und sich niemand angegriffen fühlen muss.

© Christian Rupp 2018