Psychologe, Psychiater, Psychotherapeut & Co. – Was ist der Unterschied?

Im Volksmund werden die „Psych“-Berufe ganz häufig synonym, oft völlig falsch und selten sachgemäß verwendet. Dabei lohnt es sich, gerade wenn man z. B. auf der Suche nach einem „Therapieplatz“ ist, einmal die Unterschiede genauer zu betrachten. Was Sie sich gleich zu Anfang schon einmal merken können: Wenn Sie einen Therapieplatz suchen, dann müssen Sie sich auf die Suche nach einem Psychotherapeuten begeben und nicht nach einem Psychologen suchen, auch wenn die meisten Psychotherapeuten auch Psychologen sind. Zu genüge verwirrt? Fangen wir also mit den Definitionen an. Ich bitte um Nachsehen dafür, dass ich der besseren Lesbarkeit wegen an allen Stellen nur die männliche Form verwende.

Psychologe

Psychologe ist ein geschützter Titel, den man nach einem abgeschlossenen Hochschulstudium der Psychologie erwirbt. In der Vergangenheit lautete der Titel (und auch die Berufsbezeichnung) nach dem Abschluss dann „Diplom-Psychologe“ (kurz: „Dipl.-Psych.“). Das Diplom war bis vor gut 10 Jahren der Regelabschluss im Fach Psychologie, den man nach ca. 9-10 Semestern erreichte. Im Zuge der Bologna-Reform der Studienabschlüsse wurde das Diplom als Abschluss abgeschafft und durch einen Bachelor- und einen Masterabschluss ersetzt, die aufeinander aufbauen. Den Bachelorabschluss hat man, wenn man in der Tretmühle dieses anstrengenden Studiums nicht auf der Strecke bleibt, nach frühestens 6 Semestern geschafft und trägt dann den akademischen Titel „Bachelor of Science“ (kurz „B. Sc.“ oder „BSc“). Der Zusatz des Faches, in dem der Abschluss erworben wurde (Psychologie) ist hierbei (unsinnigerweise) nicht vorgesehen, sodass keiner erkennen kann, ob man den Abschluss in Psychologie, Physik, Chemie, Biologie oder vielleicht auch in BWL gemacht hat. Der BDP (Der Berufsverband für Psychologen in Deutschland) möchte derweil nicht, dass Bachelor-Absolventen sich schon „Psychologen“ nennen, und auch die meisten Jobs erfordern einen Masterabschluss.

Das Masterstudium kann jeder beginnen, der einen guten bis sehr guten Bachelorabschluss geschafft hat (der Rest hat mehr oder weniger Pech), und man muss sich auf einen Masterstudienplatz erneut bewerben. Das Masterstudium dauert in der Regel weitere 4 Semester, wenn man es in der Regelstudienzeit absolviert und nicht länger braucht. Manche Universitäten, wie die CAU Kiel, bieten hingegen einen Master mit nur zwei Semestern Dauer an; allerdings haben diese Universitäten auch jeweils achtsemestrige Bachelorstudiengänge, sodass es am Ende auf dieselbe Gesamtdauer von mindestens 10 Semestern hinausläuft. Das Masterstudium ist meist sehr schwerpunktspezifisch, häufig angebotene Schwerpunkte sind z.B. Klinische Psychologie, Personal- und Wirtschaftspsychologie und Neurowissenschaften. Nach dem Masterabschluss lautet der Titel „Master of Science“ (kurz: „M. Sc.“ oder „MSc“), und man darf sich laut BDP nun auch Psychologe nennen, da der Masterabschluss dem alten Diplom in Psychologie gleichgesetzt wird. Um den damit erlangten Beruf deutlich zu machen, wird dann häufig die Bezeichnung „Psychologe M. Sc.“ oder „Psychologe (M. Sc.)“ gewählt. Analog zum „Dipl.-Psych“ findet sich in der letzten Zeit aber immer häufiger auch die Bezeichnung „M.Sc. Psych.“.

Ja, Psychologen sind Naturwissenschaftler

Der Zusatz „of Science“ zeigt übrigens an, dass es sich bei Psychologie um ein (natur)wissenschaftliches Fach handelt und bei Weitem nicht um eine Geisteswissenschaft (mehr dazu hier). Das gesamte Psychologiestudium ist sehr reich an Wissenschaftsmethodik und –praxis, Statistik und viel auswendig zu lernendem Wissen. Für beide Abschlussarbeiten (Bachelor- und Masterarbeit) muss man in der Regel auch eine eigene empirische Studie durchführen und auswerten. Da die grundlegende Wissenschaftsmethodik in allen Naturwissenschaften, egal ob Psychologie, Biologie, Chemie oder Physik, weitgehend gleich ist, erreicht man durch ein Studium der Psychologie also zunächst einmal sehr viel wissenschaftliche Kompetenz. Das mag den Studierenden vielleicht anfangs zuwider sein, kann sich aber im gesamten weiteren Leben als sehr nützlich erweisen – z. B. wenn es bei so aktuellen und politischen Themen wie dem Klimawandel oder der Covid-19-Krise darum geht, die verschiedenen Aussagen auf ihre Qualität und Fundiertheit hin zu bewerten. Mit anderen Worten: Man ist den Menschen ohne diese wissenschaftliche Kompetenz um einiges Voraus, was zwar von Vorteil ist, aber auch zu Frustration führen kann.

Psychologen sind, was ich hier mal, auch wegen des klinischen Schwerpunkts dieses Blogs, mal hervorheben muss, nicht automatisch klinische Psychologen, auch wenn diese die größte Gruppe darstellen. Viele Psychologen sind an Universitäten und Forschungsinstituten als Wissenschaftler tätig (in allen Bereichen, die die Psychologie bietet, z.B. Sozialpsychologie, Neurowissenschaften, Entwicklungspsychologie, Persönlichkeitspsychologie…), andere arbeiten in der Wirtschaft, vor allem in Personalabteilungen (Personalauswahl und –entwicklung sind ganz große Bereiche für Psychologen), in Erziehungsberatungsstellen (hier führen Sie z. B. Entwicklungs- und Intelligenzdiagnostik durch), als Verkehrspsychologen bei der Medizinisch-Psychologischen Untersuchung (MPU) – oder freiberuflich in allen möglichen Funktionen.

(Psychologischer) Psychotherapeut

Als Psychologe kann man in der Regel nicht therapeutisch tätig sein, zumindest nicht, wenn man mit den gesetzlichen Krankenkassen und den privaten Krankenversicherungen und der Beihilfe abrechnen möchte. Deshalb ist die Berufsbezeichnung, nach der Sie suchen müssen, wenn Sie einen Therapieplatz suchen, die des Psychotherapeuten. Um, wenn man schon Psychologe ist, auch noch Psychotherapeut zu werden, muss man nach erfolgreich abgeschlossenem Psychologiestudium (M. Sc. oder Diplom) eine zwischen drei und fünf Jahren dauernde und 10.000 € bis 25.000 € teure Zusatzausbildung zum Psychologischen Psychotherapeuten absolvieren, die man mit der Facharztausbildung vergleichen kann, die Ärzte nach dem Abschluss ihres Medizinstudiums absolvieren, um z. B. Facharzt für Innere Medizin oder Gynäkologie zu werden. Dies ist zumindest aktuell noch so – wie weiter unten beschrieben, wird sich in den nächsten 10 Jahren hier ein bisschen was ändern.

Ausbildung, Approbation & Krankenkassenzulassung

Diese Ausbildung ist derzeit in fünf anerkannten Verfahren möglich: der (Kognitiven) Verhaltenstherapie (KVT oder VT), der analytischen Psychotherapie (AP), der tiefenpsychologisch fundierten Psychotherapie (TP), der Gesprächspsychotherapie und der systemischen Therapie (ST). In allen fünf Verfahren kann man als Psychologe eine Ausbildung zum Psychologischen Psychotherapeuten (oder kurz „Psychotherapeuten“) absolvieren, allerdings werden aufgrund der Beschlüsse des Gemeinsamen Bundesausschusses, der den Leistungskatalog der gesetzlichen Krankenkassen festlegt, nur für die VT, die TP, die AP und (ganz neu seit Sommer 2020!) die ST die Kosten von den Krankenversicherungen in Deutschland übernommen. Da die Wirksamkeit der TP und besonders der AP weitaus schlechter wissenschaftlich belegt (und wegen der größeren Sitzungskontingente die Kosten für das Gesundheitssystem deutlich höher) sind als die Gesprächspsychotherapie und die systemische Therapie, macht das zwar wenig Sinn im Sinne des Wirtschaftlichkeitsprinzips der Krankenkassen, aber leider ist es so.

Nach einer solchen postgradualen (das bedeutet: an ein Studium dran gehängten) Ausbildung erhält man als Psychologe die Approbation, d.h. die Zulassung zum Heilberuf des Psychotherapeuten bzw. die Befugnis zur Ausübung der psychotherapeutischen Heilkunde (hier findet sich ein Unterschied zu den Ärzten: Sie erhalten ihre Approbation bereits nach Abschluss des Studiums und nicht erst nach abgeschlossener Facharztausbildung). Man erhält mit der Approbation den Titel „Psychologischer Psychotherapeut“ und ist dann befugt, in Kliniken oder in eigener Praxis eigenverantwortlich Patienten behandeln. Dabei sind Psychologische Psychotherapeuten formal-rechtlich einem Facharzt gleichgestellt. Für die Behandlung von Privatpatienten genügen in der Regel die Approbation und ein Eintrag in das Arztregister der jeweiligen Kassenärztlichen Vereinigung; um hingegen gesetzlich Versicherte zu behandeln, benötigt man zusätzlich eine Kassenzulassung, die in den meisten Regionen nur von einem in den Ruhestand gehenden Psychotherapeuten erworben werden kann und meist mit 20.000 € bis 100.000 € bezahlt wird. Anders als Ärzte, die eine Praxis von ihrem Vorgänger übernehmen, erhält man dafür allerdings keinerlei Ausstattung oder einen Patientenstamm – man zahlt letzlich lediglich für die Erlaubnis, mit den Krankenkassen abrechnen zu dürfen (!).

Ärztliche Psychotherapeuten

Der Begriff „Psychologischer Psychotherapeut“ impliziert bereits, dass es auch noch andere gibt. Nämlich die „Ärztlichen Psychotherapeuten“, die aber weitaus seltener sind. Das sind Ärzte mit psychotherapeutischer Zusatzausbildung, die aber bei Weitem nicht so umfangreich ist wie die, die Psychologen nach ihrem Psychologiestudium absolvieren. Daher würde ich mit einem psychotherapeutischen Anliegen (Achtung: meine, wohlgemerkt jedoch von Erfahrung untermauerte Meinung) immer eher zu einem Psychologischen Psychotherapeuten gehen, da ich die Qualität der psychotherapeutischen Behandlung dort als gesicherter ansehe und Psychologische Psychotherapeuten auf diesem Gebiet im Allgemeinen kompeteter und eher auf dem neusten Stand sind – allein schon deshalb, weil sie mit dem Psychologiestudium eine ganz andere Grundlage haben und die psychotherapeutische Ausbildung viel umfangreicher ist als bei Ärzten.

Früher war nicht alles besser

Allerdings muss ich einschränkend ergänzen, dass die Qualität durch die oben beschriebene lange Ausbildung erst seit Inkrafttreten des Psychotherapeutengesetzes Ende der 1990er Jahre so richtig gesichert ist. Psychologen, die ohne eine solch umfangreiche Ausbildung schon vor diesem Gesetz schon psychotherapeutisch tätig waren, mussten hingegen entweder nur eine Schmalspurabusbildung von der Dauer eines Jahres absolvieren oder bekamen die Approbation und somit die Bezeichnung „Psychologischer Psychotherapeut“ quasi geschenkt, ohne eine staatliche Prüfung abzulegen, wie es heute erforderlich ist. Die Kassenzulassung gab es Anfang der 2000er Jahre übrigens meistens direkt gratis mit dazu.

Wichtige Frage: Wie alt ist der Patient?

Psychologische und Ärztliche Psychotherapeuten besitzen eine Approbation (also die Befugnis zur Ausübung der Heilkunde), die altersunabhängig ist, dürfen sozialrechtlich (d.h. im System der gesetzlichen Krankenkassen) aber nur Erwachsene über 18 Jahren behandeln. Das bedeutet im Klartext: Ist der Jugendliche oder das Kind privatversichert (wofür nur die Approbation wichtig ist), kann es/er durch einen Psychologischen Psychotherapeuten behandelt werden – bei gesetzlicher Krankenversicherung muss die Behandlung durch einen Kinder- und Jugendlichenpsychotherapeuten (siehe nächster Abschnitt) erfolgen. Allerdings sollte man meiner Ansicht nach gerade bei Kindern immer eher einen Kinder- und Jugendlichenpsychotherapeuten aufsuchen, da Psychologische Psychotherapeuten meist über wenig bis keine Erfahrung in der Psychotherapie mit Kindern verfügen.

Kinder- und Jugendlichenpsychotherapeut

Diese Bandwurmberufsbezeichnung steht für die Gruppe von Psychotherapeuten, die Kinder und Jugendliche unter 21 Jahren behandeln darf, aber keine Erwachsenen. Anders als bei Psychologischen Psychotherapeuten, bei denen die Approbation altersungebunden ist, ist die von KJP wirklich auf Personen unter 21 Jahren beschränkt. Ansonsten ist alles identisch mit den Erwachsenen-Psychotherapeuten, außer dass neben Psychologie und Medizin auch ein Studium der Pädagogik, Sozialpädagogik oder der Heilpädagogik als Zugangsvoraussetzung für die Ausbildung anerkannt wird. In einigen Bundesländern genügt für diese Ausbildung übrigens ein Bachelorabschluss, was im Hinblick auf die Qualitätssicherung und den Facharztstandard als kritisch zu betrachten ist und einer der vielen Gründe für die Reform des Psychotherapeutengesetzes war.

Reform der Psychotherapiewelt?

An dieser Stelle sei angemerkt: Ab 2020 ändert sich wieder einiges an den Begrifflichkeiten, da eine Reform des Psychotherapeutengesetzes in Kraft tritt. Allerdings betreffen diese Änderungen lediglich die Zukunft ab ca. 2025 und sind jetzt im Jahr 2020 noch nicht von Relevanz (außer für Menschen, die jetzt gerade Abitur machen, natürlich).

Die Reform ersetzt die sich an das Psychologiestudium anschließende Ausbildung durch ein Direktstudium, das man nach dem Abitur beginnt – so wie ein Medizinstudium. Gemäß dem Gesetz soll man danns schon nach dem Masterabschluss schon die Approbation erhalten, muss dann aber, ähnlich wie bisher, noch eine vertiefende „Facharzt“ausbildung in einem der Verfahren, z. B. VT, dranhängen. Wichtig außerdem: Den Beruf des Kinder- und Jugendlichenpsychotherapeuten, den ich im vorherigen Abschnitt beschrieben habe, wird es dann nicht mehr geben, weil beide Berufe zu einem zusammengefasst werden, der dann nur noch „Psychotherapeut“ heißen soll. Mit anderen Worten: Ab 2025 wird es Psychotherapeuten geben, die eben nicht auch Psychologen sind, sondern „nur“ Psychotherapeuten. Alle Kolleginnen und Kollegen, die vor dieser Reform des Psychotherapeutengesetzes ihre Ausbildungen abgeschlossen haben, behalten natürlich ihre Titel.

Psychiater & Facharzt für psychosomatische Medizin

Psychiater sind Fachärzte, d.h. sie haben Medizin studiert und dann eine Facharztausbildung absolviert, die auch ungefähr drei bis fünf Jahre dauert. Der offizielle Titel lautet daher auch „Facharzt für Psychiatrie“ bzw. für Patienten unter 18 „Facharzt für Kinder- und Jugendlichenpsychiatrie“. Oft findet sich auch die Facharztbezeichnung „Neurologie und Psychiatrie“ sowie „Psychiatrie und Psychotherapie“. Psychiater behandeln, weil sie oft keine oder nur eine oberflächliche psychotherapeutische Ausbildung haben, psychische Störungen vorrangig mit anderen Mitteln, v. a. . Medikamenten, aber auch anderen Verfahren wie Tiefenhirnstimulation, Elektrokrampftherapie, transkranieller Magnetstimulation etc. Im Gegensatz zu Psychologischen Psychotherapeuten dürfen sie diese Heilmittel auch verschreiben. Sie arbeiten in Kliniken (Psychiatrien) oder in eigenen Praxen. Psychiater können zu ihrer Berufsbezeichnung auch den Zusatz „Psychotherapie“ erwerben, wenn sie sich entsprechend fortbilden. In psychiatrischer Behandlung befinden sich meist Patienten mit eher schweren psychischen Erkrankungen oder solchen, die rein psychotherapeutisch gar nicht oder nur schlecht zu behandeln sind (z.B. schwere Depressionen mit vorrangig biologischer Ursache oder Psychosen wie die Schizophrenie).

Der Vollständigkeit halber sei an dieser Stelle auch noch der „Facharzt für psychosomatische Medizin“ genannt, der für einige Jahre auch „Facharzt für psychotherapeutische Medizin“ hieß. Diese Sorte von Facharzt ist noch mehr als der Facharzt für Psychiatrie mit dem Psychologischen Psychotherapeuten zu vergleichen, da die Behandlungform der Wahl vorrangig tatsächlich die Psychotherapie ist.

Von Heilpraktikern und  & „Psychologischen Beratern“

Der Begriff „Psychotherapeut“ ist als akademischer Heilberuf (genau wie „Arzt“ und „Apotheker“) geschützt, d.h. er darf nur mit der entsprechenden Ausbildung und einem vorher absolvierten wissenschaftlichen Hochschulstudium (Psychologie oder Medizin) getragen werden, ansonsten macht man sich strafbar. Dies soll im Grunde dabei helfen, die Menschen vor unseriösen Behandlern mit geringfügiger bis fehlender Ausbildung zu schützen. Leider jedoch ist es nicht verboten, auf sein Praxisschild „Psychotherapie“ zu schreiben. Heilpraktiker (die ich an dieser Stelle natürlich weder diffamieren noch als grundsätzlich unseriös bezeichnen möchte) können aufgrund des fehlenden Studiums nicht den Titel des Psychotherapeuten (und eben auch keine Approbation) erlangen, sondern nur den Zusatz „Psychotherapie HGP“, wobei HPG für das Heilpraktikergesetzt steht. Auch hier ist aus meiner Sicht häufig die Qualität gegenüber der Behandlung bei Psychologischen oder Ärztlichen Psychotherapeuten als fraglich einzustufen, und allzu häufig finden sich eher esoterische statt wissenschaftlich fundierte und oft wenig verantwortungsvoll angebotene „Heilbehandlungen“.  Nicht selten finden sich in diesem Kontext die Bezeichnungen „Heilpraktiker Psychotherapie“ oder „Psychotherapeutischer Heilpraktiker“. Was viele Patienten nicht wissen, ist, dass der Beruf des Heilpraktikers an sich nur recht wenigen gesetzlichen Regularien unterliegt (es gibt, anders bei als bei Psychotherapeuten und Ärzten, zum Beispiel keine Berufsordnung) – und Heilpraktiker, im Gegensatz zu Psychotherapeuten und Ärzten, über keine Approbation, sondern lediglich über eine Erlaubnis zur Ausübung der Heilkunde verfügen. Es gibt zwar eine relativ umfangreiche und keinesweg einfache Prüfung, die man bestehen muss, um sich Heilpraktiker nennen zu dürfen, aber es gibt keine staatlich geregelte und somit keine einheitliche Ausbildung zum Heilpraktiker, so dass jedem selbst überlassen ist, wie er sich den Prüfungsstoff aneignet.

Bevor 1999 das Psychotherapeutengesetzt in Kraft trat und all das regelte, was ich hier beschreibe, war eine solche Erlaubnis als Heilpraktiker (traurigerweise) die einzige Möglichkeit für Psychologen, psychotherapeutisch tätig zu werden. Aber auch heute noch nutzen manche Psychologen dieses „Schlupfloch“, um die lange und teure Ausbildung zum Psychotherapeuten zu umgehen und Patienten (dann i. d. R. auf Selbstzahlerbasis) behandeln zu können.

Vorsicht ist auch bei der Berufsbezeichnung „Psychologischer Berater“ geboten, da es sich auch hier nicht um echte Psychologen handelt. Eine solche Qualifikation kann man bei diversen Heilpraktikerschulen in einigen Monaten erwerben und ist nicht im Entferntesten mit einem Studium in Psychologie zu vergleichen, wenngleich man hierdurch sicherlich besser auf eine beratende Tätigkeit vorbereitet wird, als wenn man einfach so loslegt. Dennoch würde ich, wenn man nach psychologischer Beratung sucht (die im Gegensatz zur Psychotherapie leider keine Leistung der Krankenkassen ist), immer darauf achten, dass die betreffende Person, an die ich mich wende, auch tatsächlich einen Universitätsabschluss in Psychologie (Master oder Diplom oder zumindest einen Bachelor) vorweisen kann.

Und was sagt nun ein Doktortitel aus?

Weil dieser Artikel sonst viel zu lang wäre, das Thema „Doktortitel“ bei der Orientierung im Wirrwarr der Psych-Berufe aber nicht fehlen darf, habe ich es einfach in einen zweiten Artikel „ausgelagert“, den Sie hier finden. Viel Spaß beim Weiterlesen!

© Dr. Christian Rupp 2020

Intelligenz – Teil 6: „The Bell Curve“ & das dunkelste Kapitel der Psychologie

1994 veröffentlichten die beiden US-Amerikaner Richard Herrnstein und Charles Murray ein Buch namens „The Bell Curve: Intelligence and Class Structure in American Life“, wobei es sich bei der „bell curve“ natürlich um eine Anspielung an die Gauß’sche Glockenkurve handelt, der die IQ-Werte in der Population zumindest annähernd folgen (siehe auch hier). Dieses Buch hat für eine breite Kontroverse und heftige Kritik gesorgt, die man heutzutage wahrscheinlich als shit storm bezeichnen würde. Und das nicht ohne Grund, ziehen die Autoren doch auf Basis wackliger Prämissen Schlussfolgerungen, die schon im Nationalsozialismus en vogue waren.

Ethnische Unterschiede bezüglich der allgemeinen Intelligenz

Der wohl am kritischsten zu betrachtende Aspekt in der Darstellung von Herrnstein und Murray ist die Art und Weise, wie sie auf ethnische Unterschiede hinsichtlich des allgemeinen Intelligenzquotienten verweisen. So gelangen sie auf Basis der gesichteten Studienlage zu dem Schluss, dass in den USA Menschen asiatischer Herkunft in klassischen Intelligenztests wie den Wechsler-Tests durchschnittlich fünf IQ-Punkte mehr erzielen als „weiße“ US-Amerikaner, während Menschen afroamerikanischer Abstammung im Schnitt 15-18 Punkte (d.h. eine ganze Standardabweichung) weniger als „weiße“ Amerikaner erlangen. Nun kann man sich vorstellen, dass diese Befunde vor dem Hintergrund der Art und Weise, wie Afroamerikaner in der Vergangenheit in den USA behandelt wurden, gewaltigen sozialpolitischen Sprengstoff lieferten. Zudem weisen die Autoren darauf hin, dass der IQ von Einwandern zum Zeitpunkt der Immigration im Durchschnitt bei 95 und somit unterhalb des Populationsmittelwerts von 100 liege.

Sozialpolitische Schlussfolgerungen: Afro-Amerikaner und Immigranten loswerden

Nun, diese gefundenen Unterschiede sind zunächst einmal nicht so einfach wegzudiskutieren (worauf sie wahrscheinlich zurückzuführen sind, werde ich später noch beschreiben!), aber das Skandalöse an dem Buch „The Bell Curve“ ist etwas anderes: die sozialpolitischen Schlussfolgerungen und Forderungen, die Herrnstein und Murray daraus ableiten. Insgesamt zielt ihre Argumentation darauf ab, deutlich zu machen, dass durch eine Reihe von Faktoren die mittlere Intelligenz der US-Bürger heruntergedrückt werde und die Gesellschaft somit quasi zugrunde gehe. Hierfür seien eine Reihe von Faktoren verantwortlich. Neben dem nicht geringer werdenden Strom von Einwanderern, die mit ihrer geringeren Intelligenz den Durchschnitt „drücken“ (ebenso wie die afroamerikanische Bevölkerung), liege eine weitere Ursache in der Tatsache, dass Mütter mit unterdurchschnittlichem IQ mehr Kinder bekämen als solche mit durchschnittlichem IQ (was ein korrekter Befund ist). Da Intelligenz größtenteils erblich sei, vermehre sich somit die „dumme“ Bevölkerung immer mehr, während die „schlaue“ immer weniger werde. Aufgrund der angeblich hohen Heritabilität von Intelligenz seien ferner sämtliche großangelegte Fördermaßnahmen mit dem Ziel, Intelligenzunterschiede auszugleichen, völlige Fehlinvestitionen. Und es geht noch weiter: Antidiskriminierungsmaßnahmen, die dazu dienen sollen, Chancengleichheit in der Bevölkerung herzustellen (indem gezielt traditionell benachteiligte Gruppen wie Afroamerikaner gefördert werden), seien nicht nur unnütz, sondern auch ungerecht, da so z.B. Angehörige dieser Gruppen Studienplätze oder Jobs erhielten, für die sie aufgrund ihrer geringen Intelligenz gar nicht qualifiziert seien. Dies wiederum führe nur zu sozialen Spannungen und wachsendem Hass der eigentlich benachteiligten, „weißen“ Bevölkerung auf die afroamerikanische. Außerdem trüge diese Art von Fördermaßnahmen zur Verdummung von Schulen und Universitäten bei. Man solle, so Herrnstein und Murray, lieber die Ungleichbehandlung fortführen, da diese schlichtweg der Realität entspreche. Geld solle man lieber in die Förderung der Begabten (= hoch Intelligenten) stecken, da diese ohnehin bald in der absoluten Minderheit seien. Falls Ihnen diese Argumentationslinie bekannt vorkommt, wird das sehr wahrscheinlich daran liegen, dass ein ehemaliger deutscher Politiker namens Thilo Sarrazin in seinem Buch „Deutschland schafft sich ab“ vor einigen Jahren fast genau die gleichen Thesen aufgegriffen und auf die Einwanderungssituation in Deutschland angewendet hat.

Die Kritik

Die Kritik an „The Bell Curve“ ist allem voran eine Kritik an den von Herrnstein und Murray vorausgesetzten Prämissen. Denn ein Grundkonzept der Philosophie lautet nun einmal, dass ein Argument nur dann Gültigkeit besitzt, wenn die Wahrheit der Prämissen zwangsläufig zur Wahrheit der Schlussfolgerung (Konklusion) führt. Die wichtigsten nicht korrekten Prämissen sind, wie auch bereits von Stephen Jay Gould beschrieben, im Folgenden dargestellt.

Überschätzte Heritabilität

Einer der größten Schwachpunkte an der oben beschriebenen grotesken Argumentation ist in der Tat, dass Intelligenz auf Basis des heutigen Wissensstandes bei weitem nicht so stark erblich bedingt ist wie lange angenommen (was Sie hier nachlesen können). Und selbst wenn dies so wäre, wäre die Schlussfolgerung, die gemessenen IQ-Unterschiede zwischen den verschiedenen Bevölkerungsgruppen seien im unterschiedlichen genetischen Material der Gruppen begründet, immer noch falsch, denn: Die Gruppen unterscheiden sich ganz offenbar auch stark hinsichtlich ihrer Umweltbedingungen (sozioökonomischer Status etc.), sodass man selbst im Sinne der klassischen Verhaltensgenetik folgern muss, dass die Ursache für die Unterschiede unklar ist. Heutzutage gibt es viele Belege dafür, dass die gemessenen IQ-Unterschiede eher nicht auf genetische Unterschiede zurückzuführen sind, sondern sehr viel stärker durch Umweltfaktoren zu erklären sind, vor allem durch den z.B. in der afroamerikanischen Bevölkerung im Durchschnitt deutlich geringeren sozioökonomischen Status, den damit verbundenen schlechteren Zugang zu (in den USA meist sehr teuren) Bildungsangeboten sowie durch diverse psychologische Effekte wie die sich selbsterfüllende Prophezeiung und geringe Leistungserwartungen von Lehrern an afroamerikanische Kinder (die oft von Beginn an mit dem Vorurteil konfrontiert werden, dass sie weniger leistungsfähig sind als „weiße“ Kinder). Hinzu kommen wahrscheinlich Effekte durch schlechtere Englischkenntnisse, die zur Bearbeitung der Intelligenztests erforderlich sind, sowie möglicherweise kulturelle Unterschiede (siehe weiter unten).

Annahme eines für alle Menschen geltenden g-Faktors

Herrnstein und Murray gründen ihre Argumentation unter anderem auf die Prämisse, dass es einen für alle Menschen geltenden Generalfaktor der Intelligenz (g-Faktor) gibt, der im Wesentlichen auch von allen gängigen Intelligenztests gemessen wird. Beide Prämissen sind auf Basis des aktuellen Standes der Wissenschaft nur schwer haltbar, wie Sie auch hier nachlesen können.

Intelligenztests sind für alle ethnischen Gruppen gleich schwierig

Auch diese wichtige Prämisse wird zwar kontrovers diskutiert, ist aber durchaus als heikel einzustufen. Zum einen gibt es Hinweise darauf, dass Menschen in westlich geprägten Kulturen vertrauter sind mit typischen Intelligenztestaufgaben, sodass Menschen aus anderen Kulturen eine Benachteiligung bei der Aufgabenbearbeitung erfahren. Ein sehr pragmatisches Beispiel hierfür sind Untertests zur kristallinen Intelligenz, in denen allgemeines Wissen oder Wortschatz dadurch erfragt wird, dass den getesteten Personen Bilder der jeweiligen Objekte gezeigt werden (wie z.B. im WIE). Hier liegt es auf der Hand, dass die Bilder (z.B. Autos, Armbanduhren, Häuser) stark von derjenigen Kultur geprägt sind, in der der Test entwickelt wurde – und dass Menschen aus anderen Kulturkreisen hiermit weitaus weniger vertraut sein mögen. Verknüpft damit ist der zweite Aspekt, der beinhaltet, dass das Verständnis von Intelligenz, auf dem etablierte Intelligenztests beruhen, stark durch die westliche Kultur geprägt ist, die Intelligenz weitgehend als Ausmaß der Effizienz der Informationsverarbeitung sieht. Wie Sie hier nachlesen können, hängt die Definition von „Intelligenz“ jedoch stark vom kulturellen Umfeld ab, sodass eine Benachteiligung dadurch entsteht, dass eines von vielen verschiedenen Intelligenzkonzepten gleichsam auf alle Menschen angewendet wird. Ein ganz zentrales Element, das eine Benachteiligung nach sich zieht, sind zudem die ungleich guten Sprachkenntnisse der getesteten Menschen, also z.B. bei Einwanderern in die USA die Englischkenntnisse. Es erscheint relativ logisch, dass bei mangelndem sprachlichen Verständnis der Aufgaben (und das ist bei jedem Intelligenztest erforderlich) schlechtere Testergebnisse resultieren, weil die Voraussetzung dafür, dass Intelligenz überhaupt gemessen werden kann, gar nicht erfüllt ist.

Fehler in der Analyse der zugrunde gelegten Studien

Zusätzlich zu den bereits genannten Punkten muss man den Autoren von „The Bell Curve“ außerdem noch eine Reihe methodischer und statistischer Fehler bei der Analyse der herangezogenen Studien vorwerfen. Zum einen wäre da der wirklich sehr grobe Schnitzer, einen Korrelationszusammenhang, der grundsätzlich ungerichtet ist, auf kausale Weise zu interpretieren. Gemeint ist hier der Zusammenhang zwischen dem sozioökonomischen Status und Intelligenz, wobei Herrnstein und Murray verzweifelt versuchen, scheinbar zu beweisen, dass ein niedriger IQ die Ursache eines niedrigen sozioökonomischen Status ist und nicht umgekehrt. Was hierbei jedoch Ursache und was Wirkung ist, ist nicht eindeutig geklärt, und das Allerwahrscheinlichste und zugleich Logischste ist, dass beide Faktoren sich im Laufe eines Menschenlebens gegenseitig beeinflussen: Intelligenz ist förderlich dabei, einen hohen Bildungsstand zu erreichen und somit das Armutsrisiko zu reduzieren, aber ebenso beeinflussen der sozioökonomischen Status und die damit verbundenen Förderbedingungen in der Ursprungsfamilie maßgeblich, wie sich die Intelligenz eines Menschen entwickelt. Meiner Meinung nach muss man sogar sagen, dass es letztlich unmöglich ist, diese beiden Variablen zu trennen, weil sie derart stark verflochten und voneinander abhängig sind. Und da wir es hier sowohl auf Seiten der Intelligenz als auch auf Seiten des sozioökonomischen Status mit zahlreichen anderen Variablen zu tun haben, die mit beidem zusammenhängen, aber so gut wie nie in Studien berücksichtigt und kontrolliert wurden, werden vernünftige Schlussfolgerungen noch zusätzlich erschwert.

Zweitens kann man Herrnstein und Murray für die Auswahl der zugrunde gelegten Originalarbeiten kritisieren: So beziehen sie sich auf mehrere Studien, die methodisch mehr als zweifelhaft sind (z.B. weil lediglich IQ-Unterschiede zwischen Gruppen, aber keine Gruppenmittelwerte berichtet werden oder weil die gemessenen niedrigeren IQ-Werte von südafrikanischen Kindern offensichtlich auf kaum vorhandene Englischkenntnisse zurückgehen). Drittens muss man den beiden Autoren vorhalten, dass sie bei der Analyse der Studien selektiv solche aussortierten, die nicht ins Bild passten – z.B. Daten von südafrikanischen (schwarzen) Schülern, die in einem Intelligenztest im Durchschnitt besser abschnitten als weiße Schüler. Somit ist die Analyse von Herrnstein und Murray alles andere als ausgewogen.

Eugenik – künstliche Selektion zur Rettung der Menschheit

Die Eugenik ist zweifelsohne das dunkelste und grausamste Kapitel der Psychologie, das traurigerweise kaum Inhalt der akademischen Lehrpläne in diesem Fach ist. Gemeint ist mit diesem Begriff eine Form der künstlichen Selektion der Art, dass die Fortpflanzung dahingehend beeinflusst wird, dass Nachkommen mit gewünschten Eigenschaften (z.B. hoher Intelligenz) entstehen – entweder durch Förderung der Fortpflanzung „wertvoller“ Menschen (positive Eugenik) oder durch die Hinderung „minderwertiger“ Menschen daran, sich fortzupflanzen (negative Eugenik). Ein leidenschaftlicher Verfechter dieser Konzepte war in der zweiten Hälfte des 19. Jahrhunderts Sir Francis Galton, der, begeistert vom Werk „Die Entstehung der Arten“ seines Cousins Charles Darwin, die These aufstellte, dass die natürliche Selektion des Menschen dadurch behindert werde, dass die Gesellschaft ihre schwachen Mitglieder schütze. Daher, so Galton, sei eine künstliche Selektion im Sinne der Eugenik nötig, weil sich sonst die weniger intelligenten Menschen stärker vermehren und so zum Niedergang der menschlichen Rasse führen würden (man merkt: Sowohl die Ideen von Herrnstein und Murray als auch die Thilo Sarrazins sind schon recht alt). Niedrige Intelligenz war bereits damals mit der Einwanderungsgesellschaft und der afroamerikanischen Bevölkerung assoziiert, und Galton war fest davon überzeugt, dass Intelligenz erblich bedingt sei. Daher lag die Schlussfolgerung nahe, die Selektion (und so die „Rettung der Menschheit“) dadurch voranzutreiben, dass man jene „minderintelligenten“ Gruppen von der Fortpflanzung abhalten möge.

Konkret war die politisch bald durchgesetzte Folgerung hieraus die Sterilisation entsprechender Personengruppen. Diese bezog sich allerdings nicht auf alle oben genannten Bevölkerungsgruppen, sondern laut dem US-amerikanischen Model Eugenic Sterilization Law (1922) u.a. auf „Minderbegabte“, „Wahnsinnige“, Blinde, Behinderte, Kriminelle, Epileptiker, Obdachlose und Waisenkinder. Und man sollte nicht davon ausgehen, dass diese nicht durchgeführt wurde: So schätzte das Journal of the American Medical Association, dass allein in den USA zwischen 1941 und 1942 über 42000 Personen zwangssterilisiert wurden. Aber damit nicht genug: Neben den USA etablierte eine Fülle weiterer Länder in der Folge eigene Eugenik-Programme (sowohl positive als auch negative), darunter auch Schweden, Kanada, Australien, Norwegen, Finnland und die Schweiz. Trauriger Spitzenreiter war in der Zeit des Nationalsozialismus Deutschland, wo bis zum Ende des 2. Weltkriegs mehr als eine halbe Million Menschen wegen „Verdachts auf Erbdefekte“ oder „Gefahr der Rassenverunreinigung“ zwangssterilisiert wurden – worunter neben geistig und körperlich behinderten Menschen auch „Asoziale“ wie Sinti, Roma und Alkoholiker sowie Homosexuelle (hier entzieht sich mir selbst der vermeintliche Sinn), Prostituierte und Fremdrassige (v.a. Menschen afrikanischer und arabischer Abstammung) fielen. Dies gipfelte schließlich in den rund 100.000 Euthanasiemorden, die die Nazis im Rahmen der „Aktion T4“ an behinderten Menschen verübten. Ein Beispiel für positive Eugenik war zudem der vom NS-Regime ins Leben gerufene Lebensborn, der zum Ziel hatte, die Geburtenrate „reinrassig-arischer“ Kinder zu steigern.

Das einzig Gute an alldem war (wenn man in diesem Zusammenhang überhaupt das Wort „gut“ verwenden darf), dass nach Ende des 2. Weltkriegs das internationale Ansehen der Eugenik drastisch abnahm, weil kaum ein Land mit den Gräueltaten Deutschlands in Verbindung gebracht werden wollte. Die Eugenikprogramme der meisten Länder wurden eingestellt, und 1948 verabschiedeten die Vereinten Nationen eine Resolution, gemäß derer es allen Männern und Frauen unabhängig von ihrer Nationalität, Ethnie, etc. erlaubt sein sollte, zu heiraten und eine Familie zu gründen.

Eine Warnung: Damit Deutschland sich nicht abschafft

Es wäre falsch, zu sagen, dass das Buch von Herrnstein und Murray direkt zur Eugenik aufruft. Dennoch finden sich in der Argumentationslinie und den gezogenen Schlussfolgerungen ganz klar Parallelen zu den Konzepten und Praktiken der Eugenik (keine Förderung der Schwachen, Bewahrung der Menschheit vor der Überbevölkerung durch die „Minderintelligenten“), die von Thilo Sarrazin gleichermaßen für Deutschland übernommen wurden. Auch nicht gerade ein gutes Licht auf „The Bell Curve“ wirft die Tatsache, dass Herrnstein und Murray sich einer großen Zahl von Originalarbeiten Richard Lynns bedienen, der nicht nur als bekannter Intelligenzforscher, sondern auch als bekennender Verfechter der Eugenik bekannt ist und z.B. befürwortet, Embryonen bei der künstlichen Befruchtung auf genetische Eigenschaften hin zu untersuchen und nur die „besten“ zu verwenden.

Auffällig ist bei Lynn, dass er kein Demagoge ist, der die Gesellschaft aufhetzen will. Er ist Wissenschaftler und hat größtenteils die unbegrenzte Nutzung wissenschaftlich angesammelten Wissens als Ziel vor Augen. Diese mechanistische Denkweise ist allerdings eine, die meiner Ansicht nach niemals Macht erlangen sollte. Denn was Lynn völlig außer Acht lässt, sind all die ethischen Probleme und Menschenrechtskontroversen, die dies mit sich führen würde. Aber was ist die Alternative? Politiker wie Thilo Sarrazin, die mit menschenverachtendem Vokabular zur „Eugenik 2.0“ aufrufen? Bitte nicht. Was bleibt, ist die Hoffnung in die wirklich klugen Köpfe unserer Gesellschaft, die in der Lage sind, Weltanschauung und wissenschaftliche Befunde auf konstruktive Art und Weise miteinander zu verbinden, anstatt immer neue Katastrophen herbeizuschwören und noch katastrophalere Lösungen vorzuschlagen.

 

Intelligenz – Teil 5: Ist unser IQ ausschließlich genetisch bedingt?

Vielen Lesern mag diese Frage allein schon seltsam vorkommen, herrscht doch in vielen Bereichen unserer Gesellschaft doch die Meinung vor, dass Menschen hinsichtlich ihrer Fähigkeiten stark formbar sind. Schließlich schicken wir unsere Kinder in die Schule, regen sie bei schlechten Noten an, sich anzustrengen und besorgen ihnen eine nette Nachhilfelehrerin. Die in der Überschrift gestellte Frage ist jedoch berechtigt, herrschte (und herrscht oft heute noch) in der Psychologie doch die Ansicht vor, dass die allgemeine Intelligenz des Menschen ein Merkmal darstellt, das zu einem vergleichsweise großen Anteil vererbt wird, d.h. genetisch determiniert ist. Da man in der Psychologie ebenso wie in der gesamten Wissenschaft ziemlich sicher ist, dass kaum ein menschliches Merkmal (mit Ausnahme von Dingen wie Augenfarbe und Blutgruppe) zu 100% genetisch bestimmt ist, begann man vor einigen Jahrzehnten, sich der Frage nach dem Anteil zu widmen, der auf genetische einerseits und Umwelteinflüsse andererseits zurückzuführen ist. Der Wissenschaftszweig, der sich hieraus entwickelte, nennt sich Verhaltensgenetik.

Das Konzept der Heritabilität

Den Grad der Erblichkeit eines Merkmals wie Intelligenz vernünftig zu berechnen, ist alles andere als einfach. In der Regel wird als Anhaltspunkt die so genannte Heritabilität berechnet, welche zweifelsohne zu den Messgrößen gehört, die am häufigsten falsch und vor allem überinterpretiert werden. Meistens wird die Heritabilität auf Basis von Zwillingsstudien berechnet. Das sind Studien, in denen eineiige (die zu 100% dieselben Gene besitzen) oder aber zweieiige Zwillinge (die durchschnittlich, aber nicht immer genau, 50% der Gene teilen – genau wie „normale“ Geschwister) dahingehend untersucht werden, inwieweit jedes der untersuchten Zwillingspaare hinsichtlich eines bestimmten Merkmals übereinstimmt. In unserem Fall bedeutet das: Bei beiden Zwillingen wird der IQ gemessen, und dann wird über die gesamte Stichprobe von Zwillingspaaren die Korrelation berechnet, sodass man ein Maß dafür erhält, wie groß über alle Zwillingspaare hinweg die durchschnittliche Übereinstimmung zwischen Zwilling A und Zwilling B ist. Wenn ein Merkmal stark genetisch bedingt ist, würde man erwarten, dass die Korrelation bezüglich dieses Merkmals bei eineiigen Zwillingen sehr viel größer ausfällt als bei zweieiigen. Diese Korrelation wird nun für eineiige und zweieiige Zwillinge separat berechnet, und die Heritabilität stellt ein Maß dar, das diese beiden Korrelationen zueinander ins Verhältnis setzt. Daher variiert auch die Heritabilität zwischen 0% und 100%, wobei der errechnete Prozentsatz, genau gesagt, den Anteil an der Gesamtvarianz eines bestimmten messbaren Merkmals (wie Intelligenz) in einer Population wiedergibt, der auf genetische Unterschiede zurückgeführt werden kann. Mit anderen Worten: Eine Heritabilität von 50% würde z.B. bedeuten, dass 50% der Varianz (also der Streuung) der Intelligenzwerte in der gesamten Population (wofür die Stichprobe stellvertretend ist) auf genetische Unterschiede der Menschen zurückgeführt werden kann. Oder noch anders ausgedrückt: Es bedeutet, dass 50% der IQ-Unterschiede innerhalb der gemessenen Gruppe mit den genetischen Unterschiedenen der Gruppenmitglieder (linear) zusammenhängen. Für das Merkmal Intelligenz wurden so in der Vergangenheit meist Heritabilitätswerte zwischen 70 und 80% berichtet, was ziemlich hohe Werte sind.

Kritik am Konzept der Heritabilität

Keine Aussagen über einzelne Personen

Der wichtigste Aspekt ist hierbei, dass die Heritabilität sich immer nur auf die Population oder, genau genommen, auf die Stichprobe von Individuen bezieht, bei denen das Merkmal erhoben wurde. Die Prozentzahl kann somit nicht herangezogen werden, um Aussagen über eine einzelne Person zu treffen: Die Aussage „Bei jeder einzelnen Person ist die Intelligenz zu 80% genetisch bedingt“ ist daher nicht korrekt.

Mutmaßung statt Messung und irreführende Prozentzahlen

Außerdem ist es wichtig, anzumerken, dass bei alledem der Grad der genetischen Übereinstimmung einfach auf einen bestimmten Wert festgelegt wird. Das ist bei eineiigen Zwillingen (da sind die 100% unumstößlich) weit weniger problematisch als bei zweieiigen: Da nämlich ist der durchschnittliche Wert 50%, aber dieser kann erheblich variieren. Es würde also mehr Sinn machen, die tatsächliche Übereinstimmung zu messen anstatt sie zu schätzen – das allerdings würde den Aufwand einer solchen ohnehin komplexen Studie ins nahezu Unermessliche steigern. Übrigens: Die Zahl 50% ist hochgradig irreführend, weil alle Menschen (egal welcher ethnischer Abstammung) 100% aller Gene gemeinsam haben. Die Unterschiede liegen in den Genvarianten, den Allelen – und selbst diese sind bei allen Menschen zu 99,9% gleich. Die gesamte Varianz des menschlichen Erscheinungsbildes spielt sich also in diesen 0,1% ab – und wenn es heißt, zweieiige Zwillinge hätten 50% ihrer Gene gemeinsam, so bezieht sich das lediglich auf 50% dieser 0,1% der Allele. Korrekt wäre also eigentlich die Aussage: Zweieiige Zwillinge teilen 99,95% ihrer Allele, und eineiige 100%.

Aussagen sind zeitlich beschränkt

Der zweite Kritikpunkt betrifft die Tatsache, dass die Schätzung der Heritabilität immer nur eine Momentaufnahme darstellt, d.h. immer nur die Rolle des aktuell aktivierten genetischen Materials wiederspiegelt. Wie man aber inzwischen weiß, werden die unterschiedlichen Gene im Laufe eines menschlichen Lebens ziemlich häufig an- und wieder abgeschaltet, sodass die Heritabilität keine Schätzung über zum Zeitpunkt der Messung nicht aktiviertes genetisches Potenzial erlaubt.

Nicht mehr als ein Verhältnismaß

Das wohl wichtigste Argument gegen die Heritabilität, welches deren Interpretierbarkeit stark eingrenzt, ist die Tatsache, dass es sich hierbei, wenn man die Formel einmal übersetzt, um nicht mehr als ein Verhältnismaß handelt, das die genetische Varianz in einer Stichprobe ins Verhältnis setzt zur Umweltvarianz (also der Unterschiedlichkeit der Umweltbedingungen) in derselben Stichprobe. Das bedeutet, die berechnete Heritabilität ist von beidem abhängig. Das scheint trivial, ist aber von großer Bedeutung: Wenn nämlich aus Gründen der mangelnden Repräsentativität der Stichprobe z.B. die Umweltvarianz sehr gering ist (weil sich in der Stichprobe z.B. nur nordamerikanische Männer aus der Mittelschicht befinden, die alle unter ähnlichen Umweltbedingungen leben), dann wird die Heritabilität zwangsläufig hoch ausfallen, weil die genetische Varianz in der Regel größer ist. Und in der Tat ist es so, dass viele der Studien, die zur Berechnung der Heritabilität durchgeführt wurden, genau diesen Schwachpunkt haben, was den Schluss nahelegt, dass die Heritabilität durch diese deutlich überschätzt wird – weil in den Stichproben gar nicht genug Umweltvarianz vorliegt, um dieses Maß sinnvoll zu deuten. Tatsächlich führt dieser Umstand oft zu seltsamen Phänomen und mitunter auch zu bildungspolitischen Fehlentscheidungen. So kam es z.B. bereits vor, dass Regierungen durch diverse Maßnahmen die Chancengleichheit von Kindern verbesserten und somit quasi die Umweltvarianz reduzierten, weil sich die Bedingungen, unter denen die Kinder lebten, dadurch ähnlicher wurden. Wenn dann z.B. durch Schultests der Bildungserfolg (der nun als weiteres Merkmal analog zur Intelligenz zu sehen ist) der Kinder gemessen und damit die „Heritabilität des Bildungserfolgs“ berechnet wird, kommt natürlich ein hoher Wert dabei heraus – der dann von (dummen) Politikern dahingehend fehlgedeutet wird, dass das Schaffen von Chancengleichheit völliger Quatsch ist, da der Bildungserfolg ja offenbar doch nur von der genetischen Ausstattung der Kinder abhängt. Ein Beispiel für einen grandiosen Fehlschluss.

Weitere Kritik an der Verhaltensgenetik

Neben diesen eklatanten Nachteilen des Konstrukts „Heritabilität“ gibt es diverse weitere Kritikpunkte an der klassischen Verhaltensgenetik. Diese Punkte betreffen vor allem die eher steinzeitliche Auffassung von Genetik und die ziemlich stiefmütterliche Behandlung des Umweltfaktors.

Konzeption von „Genetik“

Wie schon beschrieben, wird in der klassischen Verhaltensgenetik der Grad der genetischen Übereinstimmung zwischen Menschen nicht gemessen bzw. erfasst, sondern aufgrund bestimmter Annahmen geschätzt (z.B. auf 50%). Das allein ist bereits wissenschaftlich ziemlich unbefriedigend. Hinzu kommt, dass man inzwischen (z.B. in der molekularen Verhaltensgenetik) sehr viel weiter ist und eine Fülle verschiedener Arten von „Genvarianz“ unterscheidet – unter anderem die Varianz, die dadurch entsteht, dass unterschiedliche Allele an weit voneinander entfernten Orten im Genom (d.h. der Gesamtheit aller Gene) miteinander interagieren. Im Rahmen von so genannten Kopplungs- und Assoziationsstudien wird zudem durch den Scan des menschlichen Genoms untersucht, welche bestimmten Allele in Zusammenhang mit bestimmten Merkmalen wie z.B. psychischen Störungen stehen.

Konzeption von „Umwelt“

Man muss wohl zugeben, dass der Begriff „Umwelt“ so ziemlich einer der schwammigsten in der gesamten Psychologie ist. Gemeint ist hiermit die Summe an externen Faktoren, die einen Menschen in seiner Entwicklung von Geburt an beeinflussen – d.h. ungefähr alles von Ernährung und Klimabedingungen über Einkommen und Bildungsniveau der Eltern (oft zusammengefasst zum sozioökonomischen Status) bis hin zum elterlichen Erziehungsstil, den zur Verfügung gestellten Förderbedingungen und der Art der Eltern-Kind-Bindung. Das Problem hieran: Die Gleichheit oder Unterschiedlichkeit der Umwelt wurde und wird in der klassischen Verhaltensgenetik nie ausreichend präzise erfasst. Stattdessen verlässt man sich auch hier viel zu oft auf Daumenregeln, wie z.B. in den auch sehr beliebten Adoptionsstudien. Diese wurden lange als die beste Art von Studien gesehen, um den Einfluss von Umwelt und Genetik auf ein bestimmtes Merkmal voneinander zu trennen. Untersucht wurden hierbei eineiige Zwillingspaare (die also genetisch identisch ausgestattet sind), die jedoch von jeweils unterschiedlichen Familien adoptiert wurden. Die Annahme, die man hierbei meist getroffen hat, ist, dass die Umwelt der beiden Zwillinge im Gegensatz zum genetischen Faktor somit unterschiedlich ist. Sehr viele Psychologen haben in der Vergangenheit immer wieder betont, dass später gefundene Übereinstimmungen der Zwillinge, z.B. bzgl. des IQs, somit auf die gemeinsamen Gene zurückgeführt werden können. Dieser Schluss ist jedoch falsch: In Wirklichkeit ist es umgekehrt, weil vielmehr die gefundenen Unterschiede interessant sind – denn diese müssen zwangsläufig auf die Umwelt zurückzuführen sein. Die Schlussfolgerung ist aber aus noch einem zweiten Grund nicht korrekt: Übereinstimmungen zwischen solchen getrennt aufgewachsenen Zwillingen können ebenso auch auf die Umweltbedingungen zurückzuführen sein, denn diese sind in der Tat bei weitem nicht so unterschiedlich wie oft vermutet. Dies geht unter anderem zurück auf die bei Adoptionen weit verbreitete Praktik der selektiven Platzierung, die beinhaltet, dass die zuständigen Behörden darauf achten, dass die Adoptivfamilie der biologischen Familie des Kindes möglichst ähnlich ist. Untermauert wird diese bedeutende Rolle der Umwelt ferner durch eine Studie von Bronfenbrenner (1975), die zeigen konnte, dass die Übereinstimmungsrate (zu verstehen wie eine Korrelation) zwischen den IQ-Werten eineiiger Zwillinge stolze 0,80 betrug, wenn die Umwelten der getrennt aufgewachsenen Zwillinge sich stark ähnelten. War diese Ähnlichkeit jedoch nicht gegeben, lag die Übereinstimmung bei dem sehr viel niedrigeren Wert von 0,28. Insgesamt lässt sich hiermit also festhalten, dass durch die in der klassischen Verhaltensgenetik etablierten Methoden die Unterschiedlichkeit der Umwelt (also die Umweltvarianz) systematisch und erheblich unterschätzt wurde. So liegen z.B. sehr robuste Befunde dafür vor, dass gute Ernährung und insbesondere das Stillen sich positiv auf die spätere Intelligenz auswirken (die Unterschiede liegen im Bereich von 2 – 4 IQ-Punkten), während der mütterliche Alkohol- und Tabakkonsum sich negativ auswirken und im Falle von Alkoholkonsum (bei dem die Menge übrigens keine Rolle spielt!) sogar ein fetales Alkoholsyndrom (FAS) resultieren kann.

Gen-Umwelt-Interaktion

Das stärkste Argument gegen die klassischen Verhaltensgenetik kommt zum Schluss. Nämlich die Tatsache, dass es unangemessen ist, von einem additiven Verhältnis von Genetik und Umwelt auszugehen – was die klassischen Verhaltensgenetik jedoch tut und was sich auch in Maßen wie der Heritabilität wiederspiegelt. Denn nur wenn man davon ausgeht, dass Umwelt und Genetik eine Summe bilden, macht es Sinn, ein Verhältnis zu bilden, das eine Aussage darüber trifft, wie viel Prozent eines Merkmals auf Gene und wie viel auf Umwelt zurückzuführen sind. Inzwischen weiß man allerdings, dass diese Ansicht grundlegend falsch ist, sodass die additive Sicht inzwischen durch das Konzept der Gen-Umwelt-Interaktion ersetzt wurde. Gemeint ist hiermit, dass Gen- und Umweltfaktoren nicht einfach immer mit dem gleichen Gewicht aufeinander treffen, sondern dass bestimmte Umweltfaktoren je nach genetischer Ausstattung unterschiedlich wirksam sein können – ebenso wie dass bestimmte genetische Anlagen einer „Aktivierung“ aus der Umwelt bedürfen, ohne die sie nicht wirksam werden können. Mit anderen Worten: Umwelt und Genetik sind voneinander abhängig und greifen wie Zahnräder ineinander. So gibt es z.B. aus dem Bereich der Intelligenzforschung sehr überzeugende Befunde, dass gute genetische Anlagen nur dann zu einer hohen Intelligenz in einem späteren Alter führen, wenn das Kind in einer Umwelt aufwächst, in der seine Fähigkeiten gefördert werden. Ebenso für die Bedeutung der Umwelt spricht, dass sich die Befunde mehren, dass vernünftig konzipierte Intelligenztrainings eine nachweisbare (wenn auch nicht exorbitant große) Wirkung zeigen. Was genau man sich unter einer Gen-Umwelt-Interaktion vorstellen kann, habe ich übrigens auch in einer meiner hochgeladenen Präsentationen erklärt – am Beispiel von Depressionen. Die Präsentation finden Sie hier.

Insgesamt legt all dies das Fazit nahe, dass durch unsere genetische Ausstattung offenbar zwar ein gewisser Rahmen abgesteckt wird, innerhalb dessen sich unsere letztliche Intelligenz später einmal bewegt – aber dass die Umwelt auf das endgültige „Ergebnis“ einen sehr viel größeren Einfluss hat als lange angenommen. Dass jedoch die Bedeutung der Umwelt lange unterschätzt, ignoriert und als unwissenschaftlich abgewertet wurde, hatte erhebliche soziale und politische Konsequenzen, was uns zu einem sehr dunklen Kapitel der klassischen Verhaltensgenetik – und somit der Psychologie – bringt. Dieses wird Teil des nächsten und letzten Artikels der Intelligenz-Reihe sein, der mir aufgrund seiner gesellschaftlichen Bedeutung so sehr am Herzen liegt wie nur wenige andere.

 © Christian Rupp 2014

Intelligenz – Teil 4: Was messen IQ-Tests und worin besteht ihre Berechtigung?

Nachdem es in Teil 3 darum ging, wie sich der so genannte „IQ“ berechnet und wie er zu interpretieren ist, widmet dieser Artikel sich der Frage: Wie lässt sich Intelligenz messen? Und messen Intelligenztests tatsächlich Intelligenz?

Die verschiedenen Arten von Intelligenztests lassen sich ganz grob in zwei Gruppen einteilen. Anhand ihrer Verbreitung und Etabliertheit habe ich diese zwei Kategorien einmal „untypisch“ und „typisch“ getauft.

„Untypische“ Vertreter

In diese Kategorie fallen zu allererst einmal die so genannten elementaren kognitiven Aufgaben (kurz EKAs). Hierbei handelt es sich um eine Reihe relativ einfacher Aufgaben, z.B. die Identifikation von präsentierten Reizen (Kreis oder Quadrat?), die Unterscheidung von Reizen (Welcher der zwei Töne ist höher?) oder die Erinnerungsleistung in Kurzzeitgedächtnisaufgaben (z.B. maximale Zahl von Zahlen, die jemand, unmittelbar nachdem er sie gehört hat, in derselben Reihenfolge wiedergeben kann). Die Variablen, die hier als Maß für Intelligenz herangezogen werden, sind unter anderem die Reaktionszeit, die so genannte inspection time (Zeit, die jemand benötigt, um z.B. zu sagen, welche von zwei Linien länger ist) oder aber auch mit dem EEG gemessene ereigniskorrelierte Potenziale, wobei die Dauer bis zum Auftreten des Pozentials im EEG (die so genannte Latenz) als Maß für die Verarbeitungsgeschwindigkeit herangezogen wird, die wiederum Intelligenz widerspiegeln soll. Zur Validität der EKAs (also der Frage, in wiefern diese tatsächlich Intelligenz messen), liegen divergierende Befunde vor. Untersucht wurde diese Fragestellung, indem der lineare Zusammenhang (die Korrelation) zwischen der Leistung in EKAs und der Leistung in „typischen“ Intelligenztests berechnet wurde. Diese Korrelation allerdings schwankt in den verschiedenen Studien zwischen 0,35 und 0,70 – mit anderen Worten: Der Zusammenhang ist nicht bombig, und es ist wenig naheliegend, die Leistung in EKAs als alleinigen Indikator für Intelligenz zu betrachten. Ähnliches gilt für die Gehirngröße (gemessen z.B. per MRT bei lebenden oder aber direkt am Objekt  bei toten Menschen), die laut einer Metaanalyse von McDaniel (2005) eine Korrelation von 0,33 mit der Leistung in typischen Intelligenztests aufweist. Dass hier kein so besonders großer Zusammenhang besteht, ist wenig verwunderlich, wenn man bedenkt, dass die Art der synaptischen Vernetzung in unserem Gehirn sehr viel wichtiger für die reibungslose Verarbeitung von Informationen ist als dessen einfaches Volumen.

Zweitens wären da eine Reihe von Tests, die offenkundig „typischen“ Vertretern ähneln, sich aber dadurch von diesen unterscheiden, dass sie den Generalfaktor g ablehnen, d.h. nicht von einem, allen Facetten übergeordneten allgemeinen Intelligenzfaktor ausgehen, sondern von mehreren voneinander unabhängigen Faktoren. In der Tat stellen die von diesen Tests postulierten Faktoren meist elementare kognitive Funktionen (ähnlich den EKAs) dar – und keine Intelligenzkomponenten, wie in den in Teil 2 beschriebenen Modellen aufgeführt. In diese Kategorie fallen z.B. das Cognitive Assessment System (CAS) und die Kaufman-Tests (z.B. das „K-ABC“). Während das CAS u.a. die Faktoren Planung (Strategien zur Problemlösung entwickeln) und Simultanität (getrennte Objekte zu etwas Ganzem integrieren) erfasst, unterscheidet das K-ABC zwischen erworbenen Fertigkeiten (Rechnen und Schreiben), simultaner Verarbeitung (Matrizen-Aufgaben der Sorte „Welches Bild ergänzt das Muster?“) und sequenzieller Verarbeitung (z.B. Zahlen nachsprechen). Wichtig beim K-ABC: Nur diese letzten zwei Faktoren sollen die kognitive Leistungsfähigkeit widerspiegeln; erworbene Fähigkeiten werden isoliert hiervon betrachtet.

„Typische“ Vertreter

Zu den typischen Vertretern gehören alle psychometrischen Tests, d.h. solche, die in der Regel auf einem bestimmten Intelligenzmodell (siehe Teil 2) basieren, eine Reihe verschiedener Aufgabentypen beinhalten, die normiert sind (damit die Leistung der getesten Person mit der von hinsichtlich Alter und Geschlecht ähnlichen Personen verglichen werden kann) und (das ist zentral) deren Gütekriterien (Objektivität, Reliabilität, Validität) überprüft wurden und als gesichert gelten.

Die meisten dieser Tests basieren auf Modellen, die einen g-Faktor annehmen, und ermöglichen daher auch die Berechnung eines allgemeinen Intelligenzquotienten. Ein Beispiel hierfür sind die Wechsler-Intelligenztests, z.B. der WIE (Wechsler-Intelligenztest für Erwachsene) oder der HAWIK-IV (Hamburg-Wechsler-Intelligenztest für Kinder, 4. Auflage). In den Wechsler-Tests gibt es u.a. die typischen Aufgabenbereiche Allgemeines Wissen, Finden von Gemeinsamkeiten, Matrizen ergänzen, Mosaike legen, Zahlen nachsprechen (vorwärts und rückwärts) und Kopfrechnen. Während die Wechsler-Tests sowohl die Berechnung der allgemeinen Intelligenz als auch verschiedener Unterfacetten ermöglichen, erlauben die so genannten Raven-Tests, die ausschließlich aus Matrizenaufgaben bestehen, nur die Berechnung eines allgemeinen IQs. Der Intelligenzstruktur-Tests (IST-2000-R), der auf dem Modell von Thurstone basiert, ermöglicht hingegen nur die Berechnung von IQ-Werten für die Bereiche schlussfolgerndes Denken (verbal, figural und numerisch) und Merkfähigkeit (verbal und figural). Zusätzlich gibt es einen Wissenstest, der aber nicht obligatorisch ist und am ehesten kristalline Intelligenz widerspiegelt.

Wozu das ganze? Der Sinn der Intelligenzmessung.

Nun kann man sich fragen, was es einem bringt, die Intelligenz einen Menschen (bzw. das, was diese ganzen Tests vorgeben, zu messen) zu erfassen. Die selbstwertregulierende Funktion liegt auf der Hand (es ist natürlich schön, von sich sagen zu können, dass man intelligenter als 99% der restlichen Menschheit ist), aber das ist zum Glück nicht alles.

Diagnostik von Intelligenzminderung & Hochbegabung

In der Tat sind Intelligenztests ein extrem wichtiges diagnostisches Instrument, das in vielen Bereichen zum Einsatz kommt. Im Bereich der pädagogischen Psychologie sind da z.B. die Diagnostik von Teilleistungsstörungen wie Lesestörungen, Rechtschreibstörungen und Dyskalkulie (Rechenstörung) zu nennen, zu deren Diagnose nämlich die Leistung im jeweils beeinträchtigten Bereich mindestens zwei Standardabweichungen (also deutlich) unterhalb der allgemeinen Intelligenz liegen müssen (um auszuschließen, dass es sich um eine generelle Intelligenzminderung oder gar eine geistige Behinderung handelt). Aber auch am anderen Ende der Skala ergibt sich ein wichtiges Anwendungsfeld: die Hochbegabtendiagnostik. Die ist deshalb so wichtig, weil es bei solchen Kindern von großer Bedeutung ist, diese hohe Intelligenz zu fördern, um Unterforderungserleben zu verhindern, das sonst leicht zu Problemen führen kann (z.B. weil das Kind den Unterricht stört oder sich zurückzieht). Vielleicht denken Sie hierbei auch gleichzeitig an die Diagnose einer ADHS. Das ist völlig richtig, denn auch zu dieser Diagnose muss eine Hochbegabung (genauso wie eine geistige Behinderung) als Ursache des unangepassten Verhaltens des Kindes ausgeschlossen werden.

Bewerberauswahl und Vorhersage des Schulerfolgs

Die weiteren Anwendungsgebiete von Intelligenztests ergeben sich aus der breitgefächerten prädiktiven Validität von Intelligenztests, d.h. aus der Tatsache, dass sich durch die Intelligenzleistung zu einem bestimmten Zeitpunkt bestimmte andere Variablen ziemlich gut vorhersagen lassen. So zeigte z.B. eine Metaanalyse von Schmidt und Hunter aus dem Jahr 1998, dass die allgemeine Intelligenz zu 0,54 mit dem späteren Arbeitserfolg bzw. der beruflichen Leistung korrelierte – damit sind Intelligenztests diejenige Methode mit der besten Vorhersagekraft für Berufserfolg. Trotz dieser Erkenntnis bevorzugen die meisten Unternehmen bei der Bewerberauswahl jedoch die sehr viel teureren Assessment-Center, wobei die Argumente hierfür denkbar schwach sind: Die Leistung in diesen korreliert nämlich im Mittel nur zu 0,37 mit späterem Berufserfolg. Ähnliche Korrelationen ergeben sich für die Beziehung von Intelligenz und Schulerfolg, gemessen z.B. durch die Schulnote. Diese schwanken nach Deary und Kollegen (2007) zwischen 0,43 im Fach Kunst und 0,77 im Fach Mathematik (und das ist in der Psychologie eine wirklich verdammt hohe Korrelation). Als Anwendungsfeld ergibt sich hierbei z.B. die Verteilung von Kindern auf verschiedene Schulformen, um eine jeweils optimale Förderung zu ermöglichen.

Von Haftstrafen bis Krebs

Die Vorhersagekraft der allgemeinen Intelligenz ist jedoch noch sehr viel größer. Eine große Zahl von Längsschnittstudien (d.h. solchen, die z.B. in der Kindheit den IQ messen und dann über die folgenden 20 Jahre weitere Variablen erfassen) wurde zu diesem Thema durchgeführt und führte zu verblüffenden Ergebnissen. So zeigte sich, dass mit steigendem IQ das Risiko für Arbeitslosigkeit und Armut abnimmt, ebenso wie für Scheidungen und Haftstrafen. Zudem ergab sich, dass sogar Krebsdiagnosen umso unwahrscheinlicher sind, je intelligenter der Mensch ist. Bei vielen dieser Zusammenhänge gibt es sehr wahrscheinlich so genannte vermittelnde Variablen, d.h. solche, die den Zusammenhang zwischen IQ und der jeweils anderen Variable erklären. So ist der Zusammenhang mit Arbeitslosigkeit und Armut sicherlich darauf zurückzuführen, dass ein höherer IQ höhere Bildungsabschlüsse ermöglicht, die dann wiederum das Risiko für Arbeitslosigkeit und Verarmung reduzieren. Ähnliches gilt für den Fall der Krebsdiagnosen: Menschen mit höherem IQ haben in der Regel einen gesünderen Lebensstil (trinken z.B. weniger Alkohol und rauchen nicht), was dann wiederum das Krebsrisiko niedrig hält.

Messen Intelligenztests wirklich Intelligenz?

Hier bewegen wir uns auf die Frage nach der Validität dieser Tests zu. Um die Frage aus der Überschrift zu beantworten, müssen wir jedoch verschiedene Aspekte des Konstrukts „Validität“ auseinander halten. Zunächst kann man davon ausgehen, dass bei Intelligenztests im Allgemeinen die Augenscheinvalidität (auch Inhaltsvalidität genannt) gegeben ist. Diese bezieht sich allerdings nur auf die einzelnen Untertests und meint nicht mehr, als dass die Aufgaben offenbar das erfassen, was sie vorgeben zu erfassen – z.B. dass man bei Rechenaufgaben rechnen muss, dass Wortschatzaufgaben die Größe des Wortschatzes erfassen, etc. Allerdings muss man zugeben, dass diese Inhaltsvalidität bei komplexeren Aufgaben wie Matrizenergänzungen durchaus nicht so einfach zu beurteilen ist, weil die Frage nach den Prozessen, die zur Lösung der Aufgaben bewältigt werden müssen, so groß ist, dass sie ein eigenes Forschungsfeld darstellt.

Wenn man jedoch den gesamten Test heranzieht und sich fragt, ob dieser das Konstrukt „Intelligenz“ misst, ist die Antwort schon weniger eindeutig. Dafür, dass zumindest die meisten Intelligenztests annähernd dasselbe messen, sprechen die ziemlich hohen Korrelationen zwischen den Ergebnissen derselben Person in verschiedenen Intelligenztests. Dies bezeichnet man auch als diagnostische Validität. Und dafür, dass mit diesen Tests offenbar etwas gemessen wird, das Auswirkungen auf extrem viele andere Lebensbereiche (Berufserfolg, Gesundheit, etc.) hat, liegen ebenfalls zahlreiche Belege vor (prädiktive Validität). Mit anderen Worten: Irgendetwas muss ganz offensichtlich dran sein an diesem Konstrukt.

Es gibt aber natürlich auch jede Menge Kritik an der gesamten Intelligenzmessung. An dieser Stelle sei noch einmal deutlich betont, dass es sich, wie in Teil 1 beschrieben, bei Intelligenz lediglich um ein Konstrukt handelt – und nicht um eine vom Himmel gefallene und unumstößlich definierte Begebenheit. So wird von Kritikern z.B. eingeworfen, dass klassische Intelligenztests viele Aspekte gar nicht berücksichtigen, z.B. sozio-emotionale Kompetenzen. Zudem wird häufig angemerkt, dass Intelligenz auch die Aneignung von Fertigkeiten und Wissen im kulturellen Kontext bedeutet – was die Tests allesamt nicht erfassen.

Letztendlich handelt es sich bei der Frage, was Intelligenztests messen, also um eine, die die Wissenschaft nie endgültig wird beantworten können, weil dies unmöglich ist. Man kann als Fazit allerdings zweierlei festhalten: Dass Intelligenztests das messen, was sie vorgeben zu messen, scheint auf Basis der Befunde zur Inhalts-, diagnostischen und prädiktiven Validität sehr wahrscheinlich – ebenso wie dass dieses Konstrukt, wie auch immer man es nennen mag, offenbar große Auswirkungen auf unser Leben hat. Ob diese Tests aber tatsächlich Intelligenz messen, lässt sich nicht beantworten, da es sich hierbei um ein höchst unterschiedlich definiertes Konstrukt handelt.

Bleibt der IQ immer gleich? Die Frage nach der Stabilität.

Auch diese Frage hat wiederum zwei Facetten. Die erste ist die Frage, ob Intelligenztests zuverlässig messen, d.h. reliabel sind. Im Wesentlichen ist hiermit die Frage verknüpft, wie genau Intelligenztests messen. Nun, ein psychometrischer Test misst nicht so genau wie eine Waage, das ist klar. Aber die meisten Intelligenztests haben Reliabilitäten von über 0,90, was ziemlich gut ist. Am geläufigsten ist hierbei die so genannte Retest-Reliabilität, d.h. die Frage nach der Übereinstimmung der Testergebnisse, wenn Personen denselben Test zweimal hintereinander bearbeiten. Hierbei muss das Zeitintervall natürlich groß genug sein, um auszuschließen, dass die Person die richtigen Lösungen bei der Bearbeitung lediglich erinnert. Der zeitliche Abstand darf aber auch nicht zu lang sein, da es sonst möglich ist, dass eine große Abweichung der Testwerte darauf zurückgeht, dass die tatsächliche Intelligenzleistung der Person sich verändert hat (was besonders bei Kindern der Fall ist, die einen schnellen Zuwachs verzeichnen).

Die zweite Frage ist die, ob die Intelligenzleistung selbst stabil ist. Hier bietet die Forschungslage erfreulicherweise einen relativ eindeutigen Befund: Obwohl IQ-Werte auch tagesformabhängig sind (logisch, da man sich nicht immer gleich gut konzentrieren kann), sind die Fluktuationen ziemlich gering, und Intelligenz erweist sich insgesamt als ziemlich stabile Eigenschaft. Stabil meint hierbei allerdings nicht, dass immer gleich viele Punkte im selben Test erreicht werden, sondern dass eine Person im Vergleich zur alters- und geschlechtsspezifischen Normstichprobe gleich gut bleibt. Als Beispiel: Natürlich wird ein zehnjähriges Kind im HAWIK mehr Punkte erzielen als mit sechs Jahren, aber es behält trotzdem denselben IQ, weil es bei den beiden Messungen mit unterschiedlichen Normstichproben verglichen wird. Verschiedene Untersuchungen zeigen sogar eine erstaunliche Stabilität des IQ über sehr lange Zeitspannen: So ergab sich in einer Studie von Deary und Kollegen (2000) eine beachtliche Korrelation von 0,77 zwischen den IQ-Werten einer Stichprobe, die zum ersten Mal 1932 und zum zweiten Mal 1995 an demselben Test teilgenommen hatte.

Interessant ist diesbezüglich übrigens der sehr unterschiedliche Verlauf von fluider und kristalliner Intelligenz über die Lebensspanne. Studien aus diesem Bereich zeigen, dass, während die kristalline Intelligenz (im Wesentliches also erworbenes Wissen) im Laufe des Lebens zunimmt bzw. stagniert, die fluide Intelligenz (logisches Denken etc.) abnimmt. Neuere Untersuchungen zeigen jedoch, dass der Rückgang der fluiden Intelligenz auf etwas anderes zurückzuführen ist – nämlich auf die mit dem Alter geringer werdende Erfahrung mit den Aufgabenformaten typischer Intelligenztests, die stark an die von Schulaufgaben angelehnt sind. Insgesamt kann man also sagen: Intelligenz ist ziemlich stabil, aber eben nicht perfekt stabil. Und das liegt maßgeblich daran, dass wir entgegen der weitläufigen Meinung nicht mit einem festgelegten IQ geboren werden – was Thema des fünften Teils der Intelligenz-Reihe sein wird.

 © Christian Rupp 2014

Homöopathie & Co.: Von Placebo, Nocebo und einem paradoxen Dilemma

Vorab: Was ist eigentlich Homöopathie?

Diese Frage ist deshalb ganz zentral, weil im Volksmund häufig eine ganz bestimmte Verwechslung vorgenommen wird: nämlich die von homöopathischen und pflanzlichen Mitteln. Denn diese beiden Kategorien sind keineswegs dasselbe! Weder sind alle pflanzlichen Mittel homöopathisch, noch sind alle homöopathischen Mittel pflanzlich. Ein Beispiel für ein nicht-homöopathisches, aber pflanzliches Mittel ist z.B. Johanniskraut, dessen Wirksamkeit in Bezug auf Depressionen als gut belegt gilt, wenngleich der Effekt nicht so groß ist wie der klassischer Antidepressiva. Zudem ist Johanniskraut ein sehr gutes Beispiel dafür, dass auch pflanzliche Medikamente erhebliche Nebenwirkungen haben können – aber das nur nebenbei. Derweil enthalten homöopathische Mittel oft keinerlei pflanzliche Substanzen, sondern anorganische chemische Stoffe, wie z.B. Quecksilber.

Aber was ist nun der Unterschied? Im Wesentlichen liegt dieser in der Wirkstoffkonzentration. Überspitzt gesagt ist es nämlich so, dass pflanzliche Medikamente Wirkstoffe enthalten, homöopathische hingegen nicht. Warum das so ist? Das liegt in der Herstellung und den meiner Meinung nach als esoterisch zu bezeichnenden Annahmen bezüglich der Wirkung. Denn homöopathische Mittel beruhen auf dem Prinzip der extremen Verdünnung, die ein Verhältnis von bis zu 1 : 50000 annehmen kann (wobei der Wirkstoff entweder in Wasser oder Alkohol gelöst wird). Das Ergebnis dessen ist, dass in einem 50ml-Fläschchen rein rechnerisch oft kein einziges Wirkstoffmolekül mehr enthalten ist. Nun kann man sich zurecht fragen, wie dann noch eine Wirkung eintreten soll. Die Antwort der Homöopathen lautet in etwa so: Dadurch dass die Lösung zusätzlich auf eine ganz bestimmte Weise geschüttelt wird („Dilutation“), überträgt sich die Wirkung auf die Wasser- oder Alkoholmoleküle. Ferner sei es so, dass sich die Wirkung durch die Verdünnung nicht verringere, sondern gar vergrößere („Potenzierung“). Wie genau das geschehen soll, lassen sie derweil offen. Die wissenschaftliche Forschung hat derweil ein paar andere Antworten parat.

Homöopathie trifft auf wissenschaftliche Realität

Der durch zahlreiche Studien belegte wissenschaftliche Konsens bezüglich homöopathischer Medikamente ist der, dass sie zwar wirksam sind, aber eben nicht wirksamer als eine Zuckerpille, die das häufigste Beispiel für eine so genannte Placebo-Behandlung darstellt. Dieser Befund gilt für alle Formen von Erkrankungen, die bisher in solchen Studien betrachtet wurden. Untersucht werden Fragestellungen der Wirksamkeit von Medikamenten in der Regel in randomisierten kontrollierten Studien, in denen verschiedene Behandlungsgruppen miteinander verglichen werden, die jeweils mit nur einem Präparat über eine gewisse Zeit behandelt werden. So könnte man sich z.B. eine Studie vorstellen, in der vier Bedingungen miteinander verglichen werden: ein Medikament mit klassischem Wirkstoff, ein homöopathisches Mittel, eine Zuckerpille (Placebo) – und eine Gruppe von Patienten, die gar keine Behandlung erfährt. Das Ergebnis in einer solchen Studie sieht typischerweise so aus (Beispiel: Reduktion von Schmerzen bei Arthritis): Das klassische Medikament führt zu einer deutlichen Abnahme der Schmerzen, die Patienten ohne Behandlung verändern sich kaum hinsichtlich ihres Schmerzniveaus. Die Schmerzen in der homöopathisch behandelten Gruppen lassen auch signifikant nach (d.h. die Reduktion kann nicht auf einen Zufall zurückgeführt werden) – aber, und das ist das Wichtige: Die Schmerzen in der Placebo-Gruppe reduzieren sich ebenfalls signifikant um einen ähnlichen Betrag. Wie kann das sein?

Von Placebo- und Nocebo-Effekten

Die Antwort lautet „Placeboeffekt“. Abgeleitet von dem lateinischen Verb „placere“ (= „gefallen“) beschreibt dieser in der Psychologie sehr gut erforschte Effekt das Phänomen, das bloße Wirkungserwartungen schon Berge versetzen können. So weiß man sowohl aus der Forschung zur Wirksamkeit von Medikamenten als auch von Psychotherapie, dass am Ende eine stärkere Wirkung resultiert, wenn der Patient auch eine Verbesserung erwartet. Oder mit anderen Worten: an eine Besserung glaubt. Hierzu müssen diese Wirkungserwartungen allerdings in ausreichendem Maße ausgelöst werden (z.B. indem der Patient eine nach echter Tablette aussehende Pille schluckt), aber das genügt dann auch schon. Da man sich dieses Effekts bewusst ist, ist das, was Heilmethoden liefern müssen, um zugelassen zu werden, der Nachweis einer Wirkung, die über eben diesen Placeboeffekt hinausgeht. Und genau dieser fehlt bei homöopathischen Mitteln leider – sie zeigen keine größere Wirkung als eine Zuckerpille, von der Patienten denken, es sei eine „echte“ Pille.

Es gibt allerdings auch den bösen Zwillingsbruder des Placeboeffekts – genannt Nocebo-Effekt. Er beschreibt das Phänomen, dass negative Wirkungserwartungen auch einen negativen Effekt auf die tatsächliche Wirkung haben. Konkret bedeutet das: Sagt man Patienten, die eine echte Pille einnehmen, es handle sich hierbei um eine Zuckerpille ohne Wirkstoff, dann lässt sich tatsächlich eine geringere objektive Wirkung nachweisen als bei Patienten, die eine echte Pille einnehmen und dies auch wissen. Was man hieran also erkennt, ist: Jede Form von Therapie, sei es ein Medikament, ein wissenschaftlich fundiertes psychotherapeutisches Verfahren – oder aber homöopathische Globuli, Reiki und Akupunktur – sind von solchen Erwartungseffekten betroffen. Bedeutet das also, dass es eigentlich egal ist, welche Behandlungsform wir wählen, Hauptsache der Patient glaubt an ihre Wirkung?

Das paradoxe Dilemma

Zunächst einmal: Nein. Denn der zentrale Unterschied liegt nun einmal darin, dass sich wissenschaftlich fundierte Behandlungsmethoden, wie oben beschrieben, eben genau dadurch auszeichnen, dass sie wirksamer sind als eine entsprechende Placebo-Behandlung. Dennoch ist es natürlich, wie bereits dargelegt, unverkennbar, dass die Erwartung des Patienten an die Wirksamkeit und die Wirkweise einer Behandlung großen Einfluss auf seine Genesung oder Nicht-Genesung haben kann. Die bedeutsame Rolle dessen, dass derartige Erwartungen durch eine glaubwürdige „Coverstory“ aber überhaupt erst erzeugt werden müssen, wird an dem Dilemma deutlich, dass ein Placebo zwar ohne Wirkstoff (bzw. als wirksam erachtete Elemente) wirkt – aber eben auch mehr als nichts ist (und somit klar von dem Effekt abzugrenzen ist, dass mit der Zeit „von selbst“ eine Besserung eintritt). Daher macht es z.B. im Kontext einer Psychotherapie Sinn, dem Patienten ein Störungs- sowie ein Veränderungsmodell zu vermitteln, welches er nachvollziehen und mit dem er sich zudem identifizieren kann – in anderen Worten: ein Modell, an das er glauben kann – um sich den Placeboeffekt zunutze zu machen.

Erwartungseffekte in der Psychotherapie

Zumindest in Bezug auf die Wirkung von Psychotherapie lässt sich der Befund, dass Wirkungserwartungen und die Passung zwischen dem subjektiven Patientenmodell und dem Veränderungsmodell der Therapie den Therapieerfolg maßgeblich bestimmen, durchaus mit dem aktuellen Forschungsstand der Psychotherapieforschung vereinbaren. Letzterer nämlich lässt sich am ehesten dadurch zusammenfassen, dass die Wirksamkeitsunterschiede zwischen den verschiedenen Therapieformen bestenfalls gering ausfallen (siehe auch mein Artikel zum Dodo-Bird-Verdict). Allerdings haftet dieser Forschung meiner Meinung eine reduzierte Aussagekraft an, da ihre externe Validität sowohl im Hinblick auf die Repräsentativität der Patienten (Patienten in klinischen Studien sind eher untypisch für die große Masse der Patienten in der Bevölkerung) als auch bezüglich der schulenspezifischen Reinheit der Therapie (die dem in der Praxis üblichen eklektischen Mix sehr fern ist) stark hinterfragt werden muss. Zudem ist die viel interessantere Frage, der sich die klinisch-psychologische Forschung zum Glück inzwischen vermehrt widmet, die nach den Prozessen bzw. Mediatoren, über die Psychotherapie wirkt. Ein sehr heißer Kandidat hierfür ist z.B. schulenübergreifend die therapeutische Beziehung, auch working alliance genannt. Zwar wurden in diesem Sinne bereits (z.B. von Klaus Grawe, der leider verstorben ist) integrative Ansätze zu Wirkmechanismen von Psychotherapie vorgeschlagen, jedoch herrschen in den Köpfen der meisten Forscher und Praktiker noch immer kategoriale Denkweisen vor.

Hierbei handelt es sich allerdings um ein mir weitgehend unverständliches Phänomen, da die Quintessenz, die ich aus meinem Studium in klinischer Psychologie mitnehme, die ist, dass im Grunde, wenn man einmal die Dinge zu Ende denkt, alle psychotherapeutischen Verfahren weitgehend dasselbe beinhalten und lediglich unterschiedliche Begriffe verwenden oder Perspektiven einnehmen. Und ich könnte mir in der Tat sehr gut vorstellen, dass es letztlich hauptsächlich darauf ankommt, ob der Patient diese Begriffe und Perspektiven für sich annehmen kann – sodass etwaige Wirksamkeitsunterschiede zwischen verschiedenen Therapieverfahren am Ende vielleicht genau darauf zurückzuführen sein könnten. Ich weiß nicht, ob Erwartungseffekte in der Psychotherapie bereits dahingehend untersucht wurden, ob eine generelle Wirkungserwartung bzw. ein allgemeiner Glaube an Psychotherapie eine notwendige Bedingung für Veränderung darstellen; so ließe sich in der Tat eventuell Licht ins Dunkel der Frage bringen, ob etwaige weitere Wirkmechanismen der Therapie im Sinne eines Interaktionseffekts erst dann wirksam werden, wenn diese notwendige Bedingung erfüllt ist.

Egal warum – Hauptsache, es wirkt?

Doch rechtfertigt dies die (oft in Bezug auf Homöopathie gehörte) Aussage: „Egal warum es wirkt – Hauptsache, es wirkt“? In Bezug auf psychotherapeutische Verfahren und Medikamente, deren Überlegenheit gegenüber einem Placebo belegt wurde, würde ich ganz klar sagen: Ja – aber mit dem Zusatz, dass es aber durchaus wünschenswert wäre, den Wirkmechanismus genauer zu kennen. Hinsichtlich Medikamenten und Therapien, für die diese Überlegenheit nicht gilt (z.B. Homöopathie), würde ich hingegen sagen: Bevor man hierfür Geld ausgibt, sollte man lieber die günstigere Zuckerpille schlucken – wenngleich die schwierige Crux natürlich gerade darin besteht, bei einer solchen Zuckerpille die notwendigen Wirkungserwartungen auszulösen. Dennoch wäre meine persönliche Empfehlung, dass man bei Zugrundelegung der Nicht-Überlegenheit homöopathischer Mittel gegenüber einem Placebo, deren fragwürdiger Herstellungsweise – und dem oft exorbitant hohen Preis – eher die Finger davon lassen sollte. Ein Ratschlag, den ich auch einigen deutschen Krankenkassen geben würde, von denen, wie ich vor Kurzem voller Entsetzen feststellen musste, eine große Zahl die Kosten für homöopathische Mittel übernimmt, während bei anderen Behandlungsformen, deren Wirksamkeit weitaus besser belegt ist, gerne gegeizt wird. Geht es djedoch nicht um die Frage des Geldes (angenommen, der Referenzwert ist der Preis einer Zuckerpille), sehe ich derweil keinerlei Nachteil darin, den Placeboeffekt voll auszunutzen. Nur leider ist es in der Regel so, dass am anderen Ende des Verkaufstisches, der Massageliege oder des Akupunkturnadelkissens meist kein altruistischer Kommunist steht, sondern in der Regel eine Person, die Geld verdienen möchte.

© Christian Rupp 2014

Warum werden Menschen abhängig? – Die psychosoziale Seite.

In diesem zweiten Teil soll es um die Frage gehen, welche psychischen und sozialen Faktoren die Entwicklung einer Abhängigkeitserkrankung bedingen. Hierzu habe ich vier Aspekte herausgegriffen, die mir als die wichtigsten erscheinen.

Veränderte Selbstwahrnehmung

Zu diesem Punkt liegen verschiedene Theorien vor, deren Gemeinsamkeit darin besteht, dass sie davon ausgehen, dass Alkoholkonsum zu einer veränderten Wahrnehmung der eigenen Person führt und so z.B. bei sozial ängstlichen Personen bewirkt, dass diese sich weniger schüchtern und offener in soziale Interaktionen begeben.

So postuliert z.B. die Self Awareness-Theorie, dass Alkohol die selbstbezogene Aufmerksamkeit verändert. Generell gilt: Je höher die selbstbezogene Aufmerksamkeit, desto besser stimmen externe und interne Verhaltensstandards überein, d.h. umso mehr orientiert sich das eigene Verhalten an gesellschaftlichen Normen. Unter Alkoholeinfluss reduziert sich laut dieser Theorie die Aufmerksamkeit auf die eigene Person, und in der Folge verhalten sich Menschen eher entgegen jener Normen – d.h. sie tun Dinge, die ihnen unter intakter Selbstaufmerksamkeit viel zu peinlich wären (auf dem Tisch tanzen, den Chef auf einer Betriebsfeier anbaggern, etc.). Zu dieser Theorie ist die empirische Befundlage leider sehr mager, sodass sie nicht als bestätigt angesehen werden kann.

Die Alcohol-Myopia-Theory besagt derweil, dass Alkohol dazu führt, dass bei der Entscheidung, welchem von zwei Handlungsimpulsen aus der Umwelt man folgt (z.B. auf der Betriebsfeier eher hemmungslos abtanzen oder sich aufgrund der Anwesenheit des Chefs eher zurückzuhalten)  immer derjenige gewählt wird, der weniger kognitive Verarbeitung erfordert und der am meisten hervorsticht. In diesem Beispiel wäre der dominierende Impuls „Party“, und die Verarbeitung des weniger hervorstechenden Aspekts „Chef ist anwesend“ würde aufgrund des Alkoholkonsums unterdrückt, sodass der erste Impuls das Verhalten steuert und man beispielsweise wild auf dem Tisch tanzt. Für diese Theorie liegen tatsächliche einige Belege vor.

Das Appraisal-Disruption-Modell besagt etwas sehr Ähnliches. Es geht davon aus, dass Alkohol verhindert, dass bei der Wahrnehmung eines bestimmtes Reizes in der Umwelt (z.B. „Chef da drüben“) die damit assoziierten Aspekte im Gedächtnis („nicht blamieren“) aktiviert werden, was aber für eine adäquate Bewertung des Reizes und somit angemessenes Verhalten unerlässlich ist. Die Theorie sagt somit aber vorher, dass Alkohol sich nur dann auf Selbstwahrnehmung und Sozialverhalten auswirken sollte, wenn er konsumiert wird, bevor man mit dem zu bewertenden Reiz konfrontiert wird (da er sich nur dann auf die Aktivierung im Gedächtnis auswirken kann) – eine Vorhersage, die bislang nicht bestätigt wurde.

Insgesamt kann man die Forschungsergebnisse zum Aspekt der veränderten Selbstwahrnehmung so zusammenfassen: Als bestätigt gilt, dass Alkoholkonsum die Selbstwahrnehmung verbessert, was man z.B. daran erkennt, dass sich Probanden nach dem Konsum von Alkohol positivere Eigenschaften zuschreiben (gemessen mit dem so genannten Impliziten Assoziationstest). Weiterhin wurde die Frage untersucht, ob sich durch Alkoholkonsum tatsächlich die soziale Ängstlichkeit reduziert. Hier konnte gezeigt werden, dass sozial ängstliche Probanden nach Alkoholkonsum und der Ankündigung, z.B. vor anderen eine Rede halten zu müssen, zwar subjektiv weniger Angst und Stress angaben, dies aber nicht durch objektive physiologische Messwerte, die mit Angstreaktionen einhergehen (Herzrate, Hautleitfähigkeit…) widergespiegelt wurde. Insgesamt ist aber gerade aufgrund der subjektiv wahrgenommenen Angstreduktion davon auszugehen, dass die leichter fallende Interaktion mit anderen bei sehr schüchternen Personen einen wesentlichen Beitrag dazu leistet, dass sich eine Abhängigkeit entwickelt – was dazu passt, dass sich bei Patienten mit einer sozialen Phobie häufig sekundär eine Alkoholabhängigkeit entwickelt.

Suchtbezogene Grundannahmen

Dieser Aspekt beruht auf der kognitiven Theorie bzw. der kognitiven Therapie nach Aaron Beck, der als Kern der Abhängigkeit bestimmte kognitive Strukturen (Überzeugungen, Grundannahmen) ansieht, die sich aus den Erfahrungen des Individuums in der Vergangenheit gebildet haben. Suchtbezogene Grundannahmen haben gemeinsam, dass die allesamt die Vorteile des Alkoholkonsums betonen. So könnten typische Annahmen z.B. lauten: „Ohne Alkohol kann ich keinen Spaß haben“, „Ohne Alkohol kann ich nicht entspannen“, „Ohne Alkohol wirke ich nicht attraktiv“, „Nur mit Alkohol kann ich mich ohne Angst mit Fremden unterhalten“ oder „Nur mit Alkohol komme ich auf richtig gute Ideen“. Wie man sieht, können diese Annahmen vielfältig sein und natürlich auch die Aspekte der oben beschriebenen veränderten Selbstwahrnehmung beinhalten.

Das Modell nach Beck sieht nun vor, dass diese Grundannahmen in Risikosituationen (wie z.B. einer generell schlechten Stimmung) aktiviert werden, was dann bestimmte automatische Gedanken auslöst (z.B.: „Geh los und trink was“). Dies erzeugt dann starkes Verlangen nach der Substanz (hier Alkohol), was schließlich zu einem erlaubniserteilenden Gedanken führt („Mir bleibt nichts anderes übrig als zu trinken, weil niemand da ist, mit dem ich reden könnte“) – und letztlich zum erneuten Alkoholkonsum.  In der Therapie bestünde daher ein wichtiger Ansatz darin, diese Grundannahmen durch Techniken der kognitiven Therapie zu verändern.

Abstinenz-Verletzungssyndrom

Dieser recht unschöne Begriff bezeichnet ein Phänomen, das bei abhängigen Patienten häufig nach einem Rückfall auftritt, nachdem sie es bereits einige Zeit geschafft haben, abstinent zu sein, also nichts von der Substanz zu konsumieren.  Das Abstinenz-Verletzungssyndrom (kurz AVS) ist gekennzeichnet durch starke Resignation und Minderwertigkeitsgefühle auf Seiten des Patienten, der den Rückfall als Beleg für die eigene Schwäche wertet – sowie dafür, ein Versager zu sein. Typische Gedanken, die Patienten in solchen Situationen häufig kommen, sind: „Ich bekomme es einfach nicht hin, mit dem Trinken aufzuhören“, „Dass ich einen Rückfall hatte, zeigt, dass ich dafür einfach zu schwach bin“ und „Im Prinzip kann ich gleich aufhören, es weiter zu versuchen und wieder trinken wie bisher“. Daraus erklärt sich die große Gefahr, die das AVS birgt – nämlich wieder komplett in das alte Trinkverhalten zurückzuverfallen, „weil man es ja eh nicht schafft, ganz aufzuhören“. In der Therapie ist es daher enorm wichtig, zwischen einem einmaligen Rückfall (im Englischen „lapse“) und einem wirklichen Rückfall in das alte Trinkmuster (im Englischen „relapse“) zu unterscheiden und dem Patienten klar zu machen, dass es gerade wichtig ist, nach einem lapse nicht in einen relapse zu verfallen. Tatsächlich brauchen die meisten Patienten 4-5 Anläufe, bis es dauerhaft mit der Abstinenz klappt – eine Erkenntnis, die für Patienten sehr entlastend sein kann.

Veränderungen in der Familie

Zuletzt möchte ich noch auf einige soziale Aspekte eingehen, die die mit einer Abhängigkeitserkrankung einhergehenden Veränderungen in der Familie des Patienten betreffen. So kommt es infolge der Abhängigkeit häufig dazu, dass sich die Familie nach außen hin abschottet – in der Regel aus Scham und der Angst, von Verwandten, Freunden und Bekannten abgewertet zu werden. Die dadurch weniger werdenden sozialen Kontakte brechen somit als wichtige Ressource weg, was der Patient typischerweise durch gesteigerten Konsum kompensiert.

Hinzu kommt, dass in den betroffenen Familien das Thema „Abhängigkeit“ oft lange Zeit vermieden und mit aller Mühe versucht wird, es z.B. vor Partner oder Kindern zu verheimlichen. Selbst wenn jeder Bescheid weiß, wird das Thema oft lieber totgeschwiegen als offen angesprochen, meist aus Unsicherheit und Hilflosigkeit der Familienmitglieder. Zudem kommt es häufig vor, dass z.B. Partner dem Abhängigen sogar entgegenkommen, indem sie beispielsweise Alkohol besorgen – natürlich in dem Bestreben, dem geliebten Partner in seinen Qualen behilflich zu sein. Hierdurch passiert natürlich langfristig das Gegenteil: Die Abhängigkeit wird aufrecht erhalten, und die Lage spitzt sich zu.

Letztlich kommt es in solchen Familien auch oft zu gravierenden Veränderungen der Rollenverteilung, z.B. wenn ein älteres Kind die Mutterrolle für jüngere Geschwister übernimmt, weil die alkoholabhängige Mutter nicht mehr in der Lage ist, für ihre Kinder zu sorgen. Solche Veränderungen halten nicht nur die Abhängigkeitserkrankung aufrecht, sondern sind außerdem hochgradig ungünstig für die Entwicklung der betroffenen Kinder. Deshalb gehört zu einer allumfassenden Therapie von Abhängigkeitserkrankungen immer auch der Einbezug der Familienmitglieder und die genaue Betrachtung der sozialen Bedingungen, in denen sich der Patient befindet.

Fazit

Wie ich in diesem und dem vorherigen Artikel hoffentlich habe zeigen können, sind die Ursachen dafür, warum Menschen eine Abhängigkeit entwickeln, sehr vielfältig – und nur durch die Berücksichtigung sowohl biologischer als auch psychischer und sozialer Aspekte lässt sich diese sehr ernste Erkrankung überhaupt verstehen.

© Christian Rupp 2013

Warum werden Menschen abhängig? – Die biologische Seite.

Abhängigkeitserkrankungen („Süchte“) stellen eine schwerwiegende, sehr qualvolle und gesellschaftlich extrem stigmatisierte Gruppe von psychischen Störungen dar. Und sie sind alles andere als selten: So leiden pro Jahr z.B. ca. 3% der Bevölkerung an einer Alkoholabhängigkeit und 0,5% bis 1% an einer Drogen – oder Medikamentenabhängigkeit (Nikotinabhängigkeit außen vor gelassen).

Im Hinblick auf illegale Drogen sind hierbei vor allem die sedierend wirkenden Opioide (in der Regel das aus Schlafmohn gewonnene Heroin), das stimulierend wirkende Kokain (aus den Blättern des Coca-Strauchs gewonnen, entweder als Koks in Pulverform geschnupft oder als Crack geraucht) sowie die ebenfalls stimulierenden Amphetamine (im Wesentlichen synthetisches Kokain, hierunter fällt auch Methylamphetamin, bekannt als „Crystal Meth“) und das sedierend wirkende Cannabis (in Form von Haschisch oder Marihuana) zu nennen. Nicht zu vernachlässigen sind auch Medikamentenabhängigkeiten, insbesondere von Benzodiazepinen, die meist als Schlafmittel eingenommen werden und schon nach nur dreiwöchigem Gebrauch abhängig machen.

Hinzu kommen außerdem die so genannten nicht stoffgebundenen Abhängigkeiten, worunter vor allem das pathologische Glücksspiel („Spielsucht“) fällt, bezüglich dessen neuere Forschungsergebnisse darauf hindeuten, dass die Wirkung im Gehirn der von „echten“ Substanzen enorm ähnelt. Bezüglich aller Abhängigkeitserkrankungen gilt das Gegenteil dessen, was bei den meisten anderen psychischen Störungen gilt, nämlich dass Männer deutlich häufiger betroffen sind als Frauen.

Woran erkennt man eine Abhängigkeit?

Die Symptome einer Abhängigkeitserkrankung sind die folgenden:

  • Toleranzentwicklung (d.h., es muss mit der Zeit mehr von der Substanz konsumiert werden, um dieselbe Wirkung zu erzeugen)
  • Entzugserscheinungen (Bei nicht erfolgtem Konsum kommt es zu Entzugssymptomen wie Übelkeit, Schmerzen, Unruhe oder auch Halluzinationen und epileptischen Anfällen)
  • Die Substanz wird häufiger oder in größeren Mengen konsumiert als beabsichtigt
  • Es besteht der anhaltende Wunsch, den Konsum zu reduzieren oder zu kontrollieren; bisherige Versuche sind aber gescheitert
  • Der Betroffene verbringt sehr viel Zeit mit dem Konsum, der Beschaffung und der Erholung vom Konsum der Substanz
  • Der Betroffene setzt den Konsum trotz eines bestehenden körperlichen oder psychischen Problems fort
  • Der Betroffene vernachlässigt wichtige soziale, familiäre oder berufliche Pflichten aufgrund des Substanzkonsums

Im Folgenden werde ich nun verschiedene Faktoren beleuchten, die dafür verantwortlich sind, dass Menschen von Substanzen abhängig werden. Die dargestellten Ansätze dienen dabei vor allem dazu, die beiden bedeutendsten Symptome zu erklären: die Toleranzentwicklung und die Entzugssymptome. Ich orientiere mich bei der Darstellung am Beispiel der besonders relevanten Alkoholabhängigkeit – die meisten Prozesse haben jedoch eine ebenso große Bedeutung für andere Substanzen.

Metabolische Toleranz

Hiermit sind Anpassungsprozesse auf Ebene der Leber gemeint, wo der größte Anteil des Alkohols abgebaut (d.h. metabolisiert) wird. In der Tat passt sich die Leber bei fortwährendem starken Alkoholkonsum dadurch an, dass zusätzliche Enzyme zum Abbau des Alkohols gebildet werden. Bei sehr starkem Konsum wird zudem auch das Enzym MEOS gebildet, das neben Ethanol (was den Hauptbestandteil dessen ausmacht, was wir als „Alkohol“ bezeichnen) auch die noch wesentlich gefährlichere Substanz Methanol abbaut und dem eine wichtige Bedeutung hinsichtlich der sich auftürmenden Nachwirkungen (siehe unten) zukommt.

Insgesamt kommt es also durch die Anpassungsprozesse in der Leber zu einem immer schnelleren Abbau in der Leber und somit dazu, dass eine immer größere Menge Alkohol nötig ist, um die gewünschte Wirkung zu erzielen.

Warum einem von Alkohol übel wird

Dass einem nach starkem Alkoholkonsum übel wird, ist auf das Produkt der ersten Abbaustufe in der Leber zurückzuführen, das so genannte Acetaldehyd, das dann zu Essigsäure und schließlich zu Kohlendioxid und Wasser abgebaut wird. Vielen asiatisch stämmigen Menschen fehlt das Enzym zum weiteren Abbau von Acetaldehyd, was deren generelle Unverträglichkeit gegenüber Alkohol erklärt.

Pharmakologische Toleranz

Dieser Begriff beschreibt die andere Facette der Toleranz und bezieht sich auf Anpassungsprozesse im Gehirn. Jede Substanz wirkt durch die Interaktion mit jeweils einer bestimmten Sorte von Rezeptoren, die normalerweise auf körpereigene Neurotransmitter („Botenstoffe“) ausgerichtet sind, die bezüglich der chemischen Struktur eine große Ähnlichkeit mit der jeweiligen Substanz aufweisen. Alkohol z.B. erzeugt an den entsprechenden Rezeptoren genau die gleiche Wirkung wie der allgemein sedierend wirkende Neurotransmitter GABA (Gamma-Aminobuttersäure). Bei fortwährendem Alkoholkonsum kommt es nun zu zwei Phänomenen: Erstens finden Umbauprozesse auf Basis der Rezeptoren statt, die sowohl in ihrer Zahl zunehmen als auch weniger empfindlich für die mit ihnen interagierenden Stoffe werden. Dies hat ebenso zur Folge, dass eine höhere Dosis der Substanz erforderlich ist, um die gewohnte Wirkung zu erzielen. Die zweite Wirkung ist die, dass durch die Allgegenwärtigkeit des Alkohols im Nervensystems der natürliche Neurotransmitter GABA „überflüssig“ wird und folglich in geringeren Mengen produziert wird – ein Aspekt, der im übernächsten Abschnitt intensiver behandelt wird.

Warum Alkohol in geringen Dosen stimulierend wirkt

Wie auch der Neurotransmitter GABA wirkt Alkohol als solcher sedierend, d.h. dämpfend und beruhigend. Gleichzeitig wirkt er sich aber auch sekundär auf das dompaminerge Transmittersystem aus, das auch unter dem Namen „Belohnungssystem“ bekannt ist. Alkohol bewirkt eine Enthemmung dieses Systems und führt somit zu dessen Aktivierung; die Folge ist (wie immer, wenn das Dopaminsystem aktiviert wird) eine stimulierende, euphorisierende und enthemmende Wirkung. In geringen Dosen überwiegt diese stimulierende Wirkung. Ist eine gewisse Blutalkoholkonzentration (in der Regel über 1 Promille) jedoch überschritten, überwiegt die eigentliche Wirkung, und die Euphorie weicht einem gedämpften Bewusstseinszustand und einer zunehmenden Müdigkeit.

Craving

„Craving“ bezeichnet das starke Verlangen nach der Substanz und die Omnipräsenz der Substanz in den Gedanken der Person. Dieses starke Verlangen tritt auf, wenn die Substanz längere Zeit nicht konsumiert wurde und die Person dann mit Dingen in Kontakt kommt, die mit der Substanz assoziiert sind (z.B. Alkoholwerbung bei Alkoholabhängigen oder rauchende Zeitgenossen bei Nikotinabhängigen). Craving ist daher maßgeblich für gescheiterte Abstinenzversuche verantwortlich. Der Grund hierfür liegt sehr wahrscheinlich, wie im vorherigen Abschnitt beschrieben, auf Basis der Veränderungen im Nervensystem, präziser gesagt an der heruntergefahrenen Produktion der körpereigenen Neurotransmitter (im Falle von Alkohol ist dies GABA). Diese Reduktion der Produktion ist die automatische Folge bei jedem Substanzkonsum, ist also mit diesem assoziiert (lerntheoretisch spricht man von einem klassischen Konditionierungsprozess). Ebenso ist der Substanzkonsum aber mit anderen substanzbezogenen Reizen assoziiert, wie z.B. mit dem Bild einer Schnapsflasche oder dem Geruch von Wein.

Wenn die Person nun mit substanzbezogenen Reizen in der Umwelt in Kontakt kommt, kommt es im Sinne einer konditionierten Reaktion schon vorab zu einer Reduktion der Neurotransmittermenge. Dadurch dass somit zu wenig GABA vorhanden ist, der Alkohol als Ersatz aber noch fehlt, kommt es zu dem starken Verlangen nach eben diesem. In der Regel folgt hierauf der erneute Konsum, um dieses Verlangen zu „befriedigen“. Bleibt dieser aus, kommt es zu starken Entzugssymptomen aufgrund des Defizits an Neurotransmittern. Diese Entzugssymptome stellen typischerweise das Gegenteil der direkten Wirkung der Substanz dar – beim generell sedierend wirkenden Alkohol sind die Folgen z.B. eine ausgeprägte Unruhe, ein hoher Puls und starkes Schwitzen. Aufgrund dieser Gegensätzlichkeit wird die Theorie, auf der diese Erklärung beruht, auch als opponent process theory bezeichnet.

Die tödliche Dosis Heroin

Die opponent process theory bietet auch eine Erklärung dafür, warum ein und dieselbe Dosis z.B. bei Heroin je nach Ort des Konsums entweder normal oder tödlich wirken kann. Der typische Ort des Konsums ist mit dem Konsum selbst assoziiert, und somit bewirkt schon das Eintreffen an dem jeweiligen Ort eine Reduktion der körpereigenen Transmittermenge (bei Heroin generell auch GABA), sodass der Körper auf die Aufnahme des Heroins vorbereitet wird. Wird die gleiche Dosis Heroin jetzt plötzlich an einem ungewohnten Ort konsumiert, fehlt dieser konditionierte Reiz, und es kommt nicht vorab zu einer Reduktion der körpereigenen GABA-Produktion. Folglich ist der Körper nicht auf die Substanz vorbereitet, und die gleiche Dosis wie zuvor kann in diesem Fall „zu viel“ sein und tödlich wirken. Ein anderer Grund ist derweil der, dass Heroin eine sehr unterschiedliche Zusammensetzung haben und mal mehr, mal weniger gepuncht sein kann, was auch eine unterschiedliche Wirkung derselben Dosis erklärt.

Sich auftürmende Nachwirkungen

Dieser Aspekt der Abhängigkeit ist womöglich derjenige, der am eigängigsten und daher am besten verständlich ist. Was vielen Menschen nicht unbedingt bewusst ist, ist, dass der erwünschten positiven (in geringen Dosen stimulierenden und in höheren Dosen sedierenden) Wirkung des Alkohols eine deutlich länger andauernde negative Wirkung gegenübersteht, die jedoch schwächer ausgeprägt ist als die unmittelbare Wirkung. Hierzu gehören ein generelles Unlustgefühl, Reizbarkeit und depressiver Verstimmung. Diese sind noch abzugrenzen von den Kopfschmerzen im Rahmen des „Katers am nächsten Morgen“, die schon früher vorüber sind. Diese negativen Folgewirkungen sind auch zu unterscheiden von Entzugserscheinungen, da sie im Gegensatz zu diesen nicht nur bei Menschen mit einer Abhängigkeit, sondern bei allen Konsumenten auftreten.

Warum kommt es zu diesen Folgeerscheinungen? Dies liegt wiederum stark an biologischen Abbauprozessen. Wie oben bereits erwähnt, wird Alkohol zunächst zu Acetaldehyd abgebaut. In Verbindung mit dem Hormon und Neurotransmitter Adrenalin bilden sich hieraus die Substanzen TIQ und THBC, zu deren Bildung außerdem das Enzym MEOS beiträgt, das bei sehr langem und intensivem Konsum entsteht. Die Substanzen TIQ und THBC beeinträchtigen nun wiederum das körpereigene Endorphinsystem und das Dopaminsystem („Belohnungssystem“), was für die oben beschriebenen Symptome verantwortlich ist.

Der Bezug zur Abhängigkeit ist nun der, dass die Betroffenen dazu neigen, diese negativen Folgewirkungen nicht „auszusitzen“ und zu warten, bis sie vorüber sind, sondern stattdessen erneut trinken, um diese zu kompensieren. Die Folge ist die, dass die negativen Nachwirkungen sich von Mal zu Mal auftürmen, weil die relevanten Stoffe im Körper (vor allem TIQ und THBC) nie richtig abgebaut werden können. Dies führt dazu, dass nach einiger Zeit die gleiche Menge Alkohol gerade einmal ausreicht, um wieder einen Normalzustand herbeizuführen – um die gleiche positive Wirkung wie zu Beginn hervorzurufen, muss hingegen dann schon die doppelte Menge Alkohol konsumiert werden. Somit bietet diese Perspektive eine weitere Erklärung für die Entwicklung einer Toleranz gegenüber der Substanz.

© Christian Rupp 2013

Wirken alle Formen von Psychotherapie eigentlich gleich gut? Das Dodo-Bird-Verdict.

Zu dem folgenden Artikel wurde ich inspiriert durch einen am 3. Juni diesen Jahres in der taz veröffentlichten Zeitungsartikel zum Thema Psychotherapie. Eigentlich handelte er von den zahlreichen Hindernissen, die Patienten, die eine Psychotherapie in Anspruch nehmen möchten, in Deutschland überwinden müssen (aufgrund der chronischen Unterversorgung). Mitten im letzten Abschnitt fand sich aber dann eine These, die so, wie sie dort dargestellt wurde, definitiv nicht zutrifft. Diese lautete:

„Das am besten belegte Ergebnis der Psychotherapieforschung, auch als ‚Dodo Bird effect‘ bekannt, ist nämlich, dass alle Therapien gleich gut wirken. Eine Überbetonung der Methode ist sogar eher kontraproduktiv.“

Zunächst einmal: Der Name „Dodo-Bird-Effect“, in der Forschung meist als „Dodo-Bird-Verdict“ bezeichnet, ist, so seltsam er klingen mag, tatsächlich noch das Korrekteste in diesen ganzen zwei Sätzen. Der Begriff, der ursprünglich als Satire gemeint war, hat tatsächlich seinen Ursprung bei „Alice im Wunderland“, wo in einer Geschichte ein Dodo den Vorschlag macht, ein Rennen zu veranstalten, bei dem am Ende alle gewinnen, weil es kein Ziel gibt und auch die Zeit nicht gemessen wird. In der Psychotherapieforschung bezeichnet die Metapher derweil tatsächlich die These, dass alle Formen von Psychotherapie (eine Beschreibung der wichtigsten finden Sie hier) eigentlich gleich wirksam sind und es deshalb nicht auf spezifische Therapieinhalte (so genannte Interventionen) wie z.B. Konfrontationsübungen, kognitive Umstrukturierung (Veränderung von Denkmechanismen) oder ein Training sozialer Kompetenzen ankommt, sondern Psychotherapie ausschließlich über so genannte „unspezifische“ Faktoren wirkt. Zu letzteren zählen vor allem die Qualität der therapeutischen Beziehung und das Ausmaß, in dem der Therapeut dem Patienten gegenüber empathisch ist, eine akzeptierende Haltung einnimmt und ihn  allgemein unterstützt.

Belege dafür

Dass eine nicht unwesentliche Zahl von Therapieforschern und praktisch tätigen Therapeuten die Sichtweise des Dodo-Bird-Verdict teilt, kommt nicht von ungefähr. Vermeintliche Belege hierfür stammen aus den Untersuchungen von Luborsky und Kollegen aus den Jahren 1975 und 2002. In beiden Artikeln trägt die Forschergruppe eine große Zahl von Studien zusammen, die systematisch jeweils zwei Therapieformen miteinander verglichen haben, z.B. kognitive Verhaltenstherapie und tiefenpsychologisch fundierte Psychotherapie. In solchen Studien wird dann der Unterschied der Wirksamkeit meist in der Einheit „Cohen’s d“ (einem statistischen Effektstärkenmaß) angegeben. Zur Orientierung: Hierbei spiegeln d-Werte von 0,2 einen kleinen, solche von 0,5 einen mittleren und von 0,8 einen großen Unterschied wider. Schon 1975 konnte die Forschergruppe um Luborsky durch das Zusammentragen solcher Studien zeigen, dass bei den meisten dieser Studien nur sehr kleine und zudem statistisch nicht signifikante Unterschiede zwischen verschiedenen Therapieformen resultieren. 2002 berechnete dieselbe Forschergruppe dann im Rahmen einer Metaanalyse den mittleren Unterschied über sämtliche solche direkten Vergleichsstudien hinweg und kam auf einen Wert von 0,2. Die Schlussfolgerung war: Die Unterschiede zwischen verschiedenen Therapieformen sind so gering, dass sie zu vernachlässigen sind.

Kritik an den Luborsky-Studien

Allerdings kann man an sehr vielen Punkten Kritik an der Vorgehensweise dieser Forschergruppe üben. Die wesentlichsten Punkte seien hier kurz genannt:

  • Die Autoren differenzierten die Ergebnisse nicht nach der jeweiligen Störung, die behandelt wurde, sondern mittelten über alle Störungen hinweg.
  • Unterschiede innerhalb einer Therapieform (z.B. der tiefenpsychologisch fundierten Psychotherapie) wurden ignoriert.
  • Es wurden viele Studien eingeschlossen, die die Therapieformen nicht an klinisch kranken Probanden verglichen, sondern an gesunden Probanden mit leichten psychischen Auffälligkeiten (so genannte Analogstichproben) – dies mindert die Aussagekraft.
  • Die Autoren schlossen viele Studien mit kleinen Stichprobenumfängen ein, was es aus statistischen Gründen stark erschwert, etwaige Unterschiede zwischen den Therapieformen überhaupt signifikant nachweisen zu können.
  • Durch die Einschränkung auf Studien, die zwei Therapieformen direkt miteinander verglichen haben, bleiben viele wichtige Befunde aus randomisierten kontrollierten Studien unberücksichtigt.

Belege dagegen

Spezifische Interventionen wirken über unspezifische Wirkfaktoren hinaus

Die Psychotherapieforschung hat zwei wesentliche Befunde vorzuweisen (die aber nicht mit der im taz-Artikel aufgestellten Behauptung übereinstimmen): Erstens, dass die oben beschriebenen unspezifischen Wirkfaktoren (vor allem die Qualität des therapeutischen Arbeitsbündnisses bzw. der therapeutischen Beziehung sowie Empathie & Akzeptanz auf Seiten des Therapeuten) tatsächlich stark mit dem Erfolg der Therapie zusammenhängen. Der Effekt dieser Faktoren auf den Therapieerfolg liegt, statistisch ausgedrückt, immerhin bei einem d-Wert von 0,5 (mittlerer Effekt), wie sich aus einer Vielzahl von Studien ergeben hat. Vor allem sind dies randomisierte kontrollierte Studien mit einer Placebo-Kontrollgruppe, wo die Behandlung in der Placebo-Gruppe eben ausschließlich darin besteht, dass der Therapeut diese unspezifischen Wirkfaktoren umsetzt. Diese Placebo-Behandlung zeigt gegenüber Kontrollgruppen ohne jegliche Behandlung bereits gute Therapieeffekte, aber: Sie sind gleichzeitig meist der Experimentalgruppe, die die Behandlung mit der spezifischen Intervention erhält, unterlegen. Um das ganze mit Leben zu füllen, soll ein kleines Beispiel herhalten: So könnte man z.B. bei Angststörungen drei Therapiebedingungen vergleichen: Eine Gruppe erhält gar keine Behandlung, die zweite eine Placebo-Behandlung (empathischer, aktiv zuhörender Therapeut, Vermittlung von Informationen über Angst, allgemeine Unterstützung) und die dritte eine Konfrontationstherapie (spezifische Intervention zusätzlich zu den auch hier vorhandenen unspezifischen Faktoren). Der Vergleich mit der Gruppe ohne Behandlung ergibt den Effekt wieder in der Einheit „Cohen’s d“: Es ergibt sich z.B. ein Effekt von 0,5 für die Placebogruppe, aber einer von 1,2 für die Konfrontationsgruppe (was durchaus realistische Zahlen sind). Fazit hier wäre (und dies entspricht der Realität): Unspezifische Faktoren verbessern die Angst, aber spezifische Interventionen verbessern sie mehr.

Wenn man nicht nur direkte Vergleiche betrachtet…

Und wenn man eben solche Studienergebnisse mit betrachtet und sich nicht auf direkte Vergleichsstudien einengt, dann ergeben sich durchaus betachtliche Unterschiede zwischen Therapieformen. So konnte z.B. in einer Metaanalyse von Hoffman und Smits (2008) gezeigt werden, dass bei der posttraumatischen Belastungsstörung eine traumafokussierte Psychotherapie (ebenso wie Eye Movement Desensitisation and Reprocessing, kurz EMDR) einer nicht-traumafokussierten Psychotherapie, die auf die Konfrontation mit dem Trauma verzichtet, deutlich überlegen ist. Anders als in den Luborsky-Studien beruhte dieses Ergebnis derweil nicht auf dem gemittelten Unterschied zahlreicher direkter Vergleichsstudien, sondern auf einer großen Zahl von pro Therapieform zusammengetragenen einzelnen randomisierten kontrollierten Studien.

Auf die Störung kommt es an

Dieser Aspekt ist der wohl wichtigste und für die Praxis relevanteste. Ob Therapieformen gleich gut wirken oder nicht, hängt ganz maßgeblich davon ab, welche Störung wir betrachten. Dies konnte sehr eindrucksvoll von Tolin (2010) gezeigt werden, der interessanterweise die gleiche Methode wie die Gruppe um Luborsky verwendete, sich also nur auf direkte Vergleiche beschränkte, und zwar auf direkte Vergleiche jeweils zwischen kognitiver Verhaltenstherapie (KVT) und anderen Therapieformen. Gemittelt kommt Tolin auch auf einen gemittelten Unterschied von 0,2. Aber: Der Unterschied ist für verschiedene Störungen unterschiedlich hoch (auch wieder gemessen in d-Einheiten). Während die Art der Therapie z.B. bei Essstörungen und Substanzabhängigkeiten tatsächlich kaum eine Rolle spielt (d=0,15 bzw. 0), liegt der gemittelte Unterschied bei der Depression im mittleren Bereich von 0,2, während er bei Persönlichkeits- und Angststörungen deutlich höher ausfällt, nämlich bei 0,34 bzw. 0,43 liegt. Letzteres Ergebnis stützt den Befund aus Therapiestudien, dass bei Angststörungen generell Therapien mit Konfrontationselementen solchen ohne bezüglich der Wirksamkeit überlegen sind. Die Ergebnisse sind also insgesamt so zu verstehen, dass andere Therapieformen der KVT entweder ebenbürtig (d=0) oder unterlegen (d>0) sind.

Die Unterschiede zeigen sich in der langfristigen Wirkung

Ein weiteres Ergebnis der Metaanalyse von Tolin betrifft die Unterschiede in der langfristigen Wirkung. Der gemittelte Unterschied von 0,2 bezieht sich lediglich auf den Vergleich der Symptomverbesserung direkt im Anschluss an die Therapie („post-treatment„). Legt man hingegen die Messungen der Symptomschwere 6 bzw. 12 Monate nach Ende der Therapie zugrunde (so genannte follow-up-Messungen), so ergeben sich über alle Störungen hinweg gemittelte Unterschiede von 0,47 bzw. 0,34. Hieraus kann man den wichtigen Schluss ziehen, dass sich die Unterschiede in der Wirkung verschiedener Psychotherapieformen vor allem auf die nachhaltige Wirkung beziehen, wo gemäß der Metaanalyse von Tolin die KVT nachweislich besser abschneidet als andere Verfahren.

Spezifische Psychotherapie wirkt nicht bei jedem Problem gleich

Anhänger des Dodo-Bird-Verdicts führen, wie oben beschrieben, das Argument an, dass Psychotherapie alleinig über unspezifische Wirkfaktoren wirkt. Dass das nicht stimmt, belegen zwar bereits sämtliche randomisierten kontrollierten Studien mit einer Placebo-Kontrollgruppe (siehe oben), es spricht aber noch ein anderer konsistenter Befund dagegen: Nämlich der, dass eine Psychotherapie im intendierten Störungsbereich stärkere Effekte erzielt als in anderen. Konkret bedeutet dies, dass sich z.B. ein depressionsspezifisches Therapieelement stärker auf Depressivität als beispielsweise auf Angst auswirkt, was nicht so sein sollte, wenn laut Dodo-Bird-Anhängern jede Therapie gleich gut bei allem wirkt.

Fazit

Pauschal zu sagen, dass alle Therapieformen gleich wirken, ist gemäß der Befundlage nicht möglich. Es gibt unspezifische Wirkfaktoren, die nahezu bei jeder Therapieform gleich sind und die auch bereits einen nicht zu vernachlässigenden Effekt bewirken. Aber: Spezische Interventionen sind diesen bei vielen Störungen und vor allem bezüglich der Nachhaltigkeit der Wirkung überlegen, was erklärt, dass eben nicht alle Psychotherapieformen als gleich gut einzustufen sind. Und übrigens: Für den zweiten Teil der Aussage aus dem taz-Artikel („Eine Überbetonung der Methode ist sogar eher kontraproduktiv.„) liegen noch viel weniger Belege vor. Mit anderen Worten: Auch bei der taz ist man vor nachlässiger Rechercheleistung nicht sicher.

© Christian Rupp 2013

Klinische Psychologie, Psychotherapie, Psychoanalyse: Wo gehört Freud nun hin?

Klinische Psychologie

Die Klinische Psychologie als Teilgebiet der Psychologie befasst sich (ebenso wie ihr medizinisches Pendant, die Psychiatrie) mit psychischen Störungen, aber auch mit den psychischen Einflüssen bei auf den ersten Blick rein körperlich bedingten Krankheiten, wie z.B. Kopf- und Rückenschmerzen oder dem Reizdarmsyndrom (wo psychischen und Verhaltensfaktoren eine große Bedeutung zukommt). Diese Richtung ist ganz eng verwandt mit dem medizinischen Fach der Psychosomatik, das sich ebenfalls dem Einfluss psychischer Faktoren auf körperliche Symptome widmet und Körper und Psyche schon lange nicht mehr als getrennte Einheiten, sondern als Bestandteile eines untrennbar miteinander verwobenen Systems betrachtet.

Die Klinische Psychologie ist somit eines der großen Anwendungsfächer im Psychologiestudium. Dass es nur eines von mehreren ist, möchte ich an dieser Stelle noch einmal ganz deutlich machen, denn in der Laiengesellschaft wird „Psychologie“ oftmals mit „Klinischer Psychologie“ gleichgesetzt bzw. auf diese reduziert. Konkret werden in der Klinischen Psychologie vor allem die Ursachen von psychischen Störungen erforscht und in Bezug auf die verschiedenen Störungen spezifische Modelle für deren Entstehung entwickelt. So werden z.B. in Längsschnittstudien (die die Versuchsteilnehmer über Jahre begleiten) Risikofaktoren (z.B. bestimmte Erlebnisse in der Kindheit, der Erziehungsstil der Eltern, kindliche Verhaltensstörungen, etc.) und Auslösefaktoren (z.B. stressreiche Lebensereignisse) für psychische Störungen erforscht. Ferner wird auch an großen Bevölkerungsstichproben die Häufigkeit psychischer Störungen und deren Verlauf (z.B. episodenweise oder chronisch) untersucht –  zusammengefasst wird dieser Bereich unter dem Begriff „Epidemiologie“. Ein weiteres Gebiet ist außerdem die Experimentelle Psychopathologie, die systematisch mit Hilfe typischer experimenteller Manipulationen Begleiterscheinungen (Korrelate) psychischer Störungen untersucht. Hierzu gehören z.B. die Befunde, dass schizophrene Patienten Beeinträchtigungen bei unbewussten, motorischen Lernprozessen (implizitem Sequenzlernen) aufweisen und ADHS-Patienten sich hinsichtlich bestimmter ereigniskorrelierter Potenziale wie der „P300“ von gesunden Menschen unterscheiden. Befunde der experimentellen Psychopathologie tragen so auch dazu bei, die Ursachen psychischer Störungen besser zu verstehen, da sie Einsicht in Fehlfunktionen der Informationsverarbeitung und somit in „schief laufende“ Gehirnprozesse ermöglichen.

Psychotherapie

Kognitive Verhaltenstherapie

Das für die Praxis relevanteste und wahrscheinlich inzwischen größte Teilgebiet der Klinischen Psychologie ist das der Psychotherapie. Hier werden einerseits, aus den Störungsmodellen abgeleitet, Psychotherapieverfahren (auch Interventionen genannt) entwickelt und andererseits diese im Rahmen kontrollierter Studien auf ihre Wirksamkeit überprüft (daher der Name Psychotherapieforschung). Die Formen von Psychotherapie, die sich aus der wissenschaftlichen Psychologie entwickelt haben und deren Wirksamkeit intensiv erforscht und belegt ist, werden heutzutage unter dem Sammelbegriff „Kognitive Verhaltenstherapie“ (kurz KVT) zusammengefasst, die im deutschen Gesundheitssystem derweil nur als „Verhaltenstherapie“ bezeichnet wird. Hierbei handelt es sich um eine sehr vielfältige Gruppe von erfolgreichen Verfahren, die darauf abzielen, psychische Störungen sowohl durch die Veränderung des Verhaltens, als auch durch die Veränderung kognitiver Strukturen (z.B. festgefahrener Gedankenmuster) zu behandeln. Die KVT ist dabei ein Therapieverfahren, das sich als Methode sowohl des therapeutischen Gesprächs als auch vieler Aktivitäten und Trainings zum Aufbau von Verhaltensweisen bedient, z.B. des Trainings sozialer Kompetenzen. Emotionen, wie z.B. die Traurigkeit oder Niedergeschlagenheit, die die Depression kennzeichnen, werden hierbei entweder als Konsequenz von Verhalten und Gedanken angesehen und indirekt beeinflusst oder aber in neueren Ansätzen auch direkt angegangen. So basiert die Emotionsfokussierte Therapie nach Greenberg z.B. unter anderem darauf, dass Emotionen intensiv durchlebt werden müssen, um sie zu bewältigen – ein Ansatz, den die Kognitive Verhaltenstherapie zuvor nur aus der Expositions- bzw. Konfrontationstherapie für Angststörungen kannte.

Gesprächspsychotherapie & Gestalttherapie

Neben der kognitiven Verhaltenstherapie gibt es eine zweite Richtung von Psychotherapie, die tatsächlich aus der Psychologie stammt, und das ist die humanistische Psychotherapie (auch klientenzentrierte oder Gesprächspsychotherapie genannt), die sich ausschließlich des Gesprächs bedient und dabei die Leitung des Gesprächs meist dem Patienten überlässt. Begründer dieser Therapierichtung war Carl Rogers, der als die drei Hauptwirkungsmechnismen der Therapie die empathische Grundhaltung und die bedingungslose Wertschätzung des Therapeuten dem Patienten (Rogers nennt ihn Klienten) gegenüber sowie die Echtheit des Therapeuten selbst beschreibt. Letzteres meint, dass der Therapeut sich dem Patienten gegenüber nicht verstellen, sondern authentisch verhalten soll. Ziel des Therapeuten ist es hierbei, dem Patienten keine Ratschläge zu geben, sondern die Voraussetzungen dafür zu schaffen, dass der Patient sein Problem selbst lösen kann. Eine Weiterentwicklung der Gesprächspsychotherapie nach Rogers ist übrigens die Gestalttherapie nach Perls, die sich allerdings in vielen Punkten von Rogers‘ Vorgehen unterscheidet, z.B. darin, dass der Therapeut sehr viel mehr das Gespräch lenkt und auch konfrontativer vorgeht.

Obwohl die von Rogers vorgeschlagene Art der Psychotherapie nachgewiesenermaßen bereits beträchtliche Verbesserungen bewirken kann, ist sie insgesamt nicht so wirksam wie die Kognitive Verhaltenstherapie, in der aber grundsätzlich die Prinzipien der Gesprächsführung nach Rogers nach wie vor eine bedeutende Rolle spielen. An der Uni Münster z.B., wo ich studiere, gehört das praktische Erlernen dieser Gesprächsführungskompetenzen auch fest zum Psychologiestudium dazu, weshalb das Führen konstruktiver Gespräche und auch der Umgang mit schwierigen Gesprächssituationen im Prinzip auch eine Fähigkeit ist, die nahezu jeden Psychologen auszeichnen dürfte.

Psychoanalyse

Wie Sie vielleicht gemerkt haben, ist der Name „Freud“ bisher nicht gefallen. Das liegt daran, dass ich bisher bewusst nur Psychotherapieformen beschrieben habe, die aus der Psychologie heraus entstanden sind. Freud derweil war Arzt, kein Psychologe, und daher auch keinesfalls der Begründer oder Vater der Psychologie. Er war dafür aber der Begründer der Psychoanalyse, der allerersten Form von Psychotherapie, die er vor über 100 Jahren entwickelte. Während man in der Gesprächspsychotherapie oder der Kognitiven Verhaltenstherapie als Patient dem Therapeuten gegenüber sitzt, legte Freud (und hier kehren wir zu dem Cliché schlechthin zurück) seine Patienten tatsächlich auf die Couch. Das hatte vor allem den Grund, dass Freud sich stark an der Hypnose orientierte, die damals schon bekannt und verbreitet war. Die klassische Psychoanalyse dauert sehr lange (mehrere Jahre bei mehreren Sitzungen pro Woche) und spült dem Therapeuten daher viel Geld in die Kasse. Während der Therapiesitzung liegt der Patient, während der Therapeut außerhalb des Sichtfeldes des Patienten sitzt und eine neutrale Person darstellt, die (ganz im Gegensatz zu Rogers Idee der Echtheit) nichts von sich selbst preisgibt. Während Patient und Therapeut sich in der KVT oder der Gesprächspsychotherapie auf Augenhöhe begegnen, steht der Psychoanalytiker hierarchisch über dem Patienten und hat die absolute Deutungshoheit über das, was der Patient sagt. Es handelt sich insgesamt um eine höchst unnatürliche Gesprächssituation, bei der der Therapeut das tut, was Psychologiestudierenden immer fälschlicherweise vorgeworfen wird: Er analysiert den Patienten bis in die tiefsten Tiefen und stellt dann irgendwann fest, was für ein Konflikt vorliegt.

Intrapsychische Konflikte und ganz viel Sex

Denn die Psychoanalyse erklärt psychische Störungen (ganz grob gesagt) durch intrapsychische Konflikte mit Ursache in der Kindheit, die dadurch geprägt sind, dass ein Bedürfnis oder Trieb (meist sexueller oder aggressiver Art), gesteuert vom so genannten Es, mit einer gesellschaftlichen Norm, repräsentiert durch das Über-ich, nicht vereinbar war oder ist. In der Gegenwart muss die aus diesem Konflikt resultierende Spannung durch irgendwelche ungünstigen Methoden abgewehrt werden, wodurch dann die Störung entsteht, die Freud als Neurose bezeichnet. Als Beispiel soll die Geschichte des „kleinen Hans“ dienen, einer Fallbeschreibung Freuds vom einem kleinen Jungen mit der Angst vor Pferden. Laut Freud hatte der Junge den so genannten Ödipus-Konflikt nicht gelöst, der darin besteht, dass angeblich alle Jungen zwischen 4 und 6 Jahren sexuelles Verlangen (Es) nach ihrer Mutter verspüren, woraufhin sie aber, weil sie wissen, dass ihr Vater als Konkurrent stärker ist und das ganze auch irgendwie nicht so sein sollte (Über-Ich), Angst davor entwickeln, dass der Vater sie kastrieren wird (Kastrationsangst; hier erscheint mir die kleine Anmerkung nützlich, dass sich bei Freud eigentlich grundsätzlich alles um Sex dreht). Laut Freud entsteht das Symptom (die Angst vor Pferden) nun durch eine Verschiebung (einen von vielen verschiedenen Abwehrmechanismen) der Angst, die eigentlich auf den Vater gerichtet ist, auf Pferde. In der Fallbeschreibung wird übrigens auch kurz erwähnt, dass der kleine Hans kurz zuvor von einem Pferd getreten worden war. Aber warum sollte das schon relevant sein? Wäre ja eine viel zu naheliegende Erklärung.

Besserung ist nicht das Ziel

Sie können meinem Sarkasmus entnehmen, dass ich von dieser Therapieform nicht viel bis gar nichts halte, da sie sehr weitreichende und oft abstruse Annahmen macht, die durch keinerlei Befunde der Psychologie gestützt werden. Denn der Psychoanalyse mangelt es im Gegensatz zur Psychologie stark an Wissenschaftlichkeit: Ihr fehlt vor allem das Kriterium der Falsifizierbarkeit, was bedeutet, dass sie keine eindeutigen Aussagen liefert, die man derart überprüfen könnte, dass man je nach Ergebnis die Theorie entweder bestätigen oder verwerfen könnte. Mit anderen Worten. Zudem besitzt die Psychoanalyse die Fähigkeit, psychische Störungen zu verschlimmern, anstatt sie zu heilen. Wie schon der Psychologe Eysenck im Jahr 1952 in einer auf Krankenversicherungsdaten basierenden, zusammenfassenden Studie eindrucksvoll darlegt, liegt der Heilingserfolg der Psychoanalyse nahe 0 bzw. übersteigt nicht das, was durch Zufall zu erwarten wäre. Dies gab die Initialzündung dafür, dass vor ca. 60 Jahren immer mehr Psychotherapien tatsächlich innerhalb der wissenschaftlichen Psychologie entwickelt wurden und der Psychoanalyse zunehmend Konkurrenz machten. Der riesige Vorteil dieser neuen Verfahren war der, dass diese stets auf wissenschaftlichen Theorien basierten und die Wirksamkeitsüberprüfung im Selbstverständnis der Psychologen bereits fest verankert war. Seit damals hat sich die Psychoanalyse ziemlich stark gegen weitere Wirksamkeitsforschung gewehrt (wen wundert’s?), was aber auch auf einen wichtigen konzeptuellen Unterschied zu anderen Psychotherapieformen zurückzuführen ist: Anders als die Kognitive Verhaltenstherapie oder die Gesprächspsychotherapie verfolgt die Psychoanalyse auch gar nicht das Ziel, dass es dem Patienten am Ende besser geht, also sich die Symotome reduzieren. Das Ziel besteht darin, dem Patienten Einsicht in seine (vermeintlichen) intrapsychischen Konflikte zu geben, damit dieser sich selbst „besser verstehen“ kann. Die Annahme ist, dass dies hinreichend zur Verbesserung ist. Die Realität sieht so aus, dass Patienten meist nach mehreren Jahren Analyse keinen Schritt weiter, sondern eher noch mehr belastet sind durch die Kenntnis über all die (angeblichen) ungelösten Konflikte, die sie mit sich herumtragen. An dieser Stelle sei der Unterschied zur KVT und zur Gesprächspsychotherapie noch einmal ganz deutlich gemacht: Diese Verfahren analysieren das Verhalten und Erleben des Patienten auch, aber auf andere Weise, als die Psychoanalyse es tut. Zum einen wird auf so bizarre Elemente wie den Ödipuskomplex, Kastrationsangst und intrapsychische Konflikte verzichtet, zum anderen orientiert sich die Analyse (von typischen, eingefahrenen Verhaltens- sowie Denkmustern) immer daran, was man in der Folge auch therapeutisch verändern kann, um eben nicht ewig auf der meist lange zurückliegenden Ursache der Störung herumzureiten, sondern nach vorne zu blicken und die Aufrechterhaltung der Störung zu durchbrechen.

Weiterentwicklung: Tiefenpsychologisch fundierte Psychotherapie

Dass die Psychoanalyse, unter dem Label „Analytische Psychotherapie“, in Deutschland zu den Psychotherapieverfahren gehört, die von den Krankenkassen übernommen werden, liegt übrigens nicht etwa an ihrer wissenschaftlichen Basiertheit, sondern vor allem an der großen Lobby, die diese Richtung in Deutschland lange Zeit hatte. Die klassische Psychoanalyse ist heute nur noch sehr selten anzutreffen und ist hauptsächlich unter Ärzten (also hauptsächlich Psychiatern) noch relativ weit verbreitet, eben weil Freud selbst auch Arzt war. „Psychoanalyse“ muss allerdings nicht zwangsweise bedeuten, dass die Lehre von Freud angewandt wird. Freud hatte viele Schüler, die im Laufe ihres Lebens ihre eigenen psychoanalytischen Theorien entwickelt und sich dabei größtenteils deutlich von Freuds Lehre distanziert haben – hierzu zählen z.B. Alfred Adler und Carl Gustav Jung. Abgesehen hiervon gibt es aber auch sehr moderne Weiterentwicklungen der Psychoanalyse, die unter dem Sammelbegriff der „Psychodynamischen Psychotherapie“ oder der „Tiefenpsychologisch fundierten Therapie“ (das ist der offizielle Name der Therapieform im deutschen Gesundheitssystem, die neben der Verhaltenstherapie und der Analytischen Psychotherapie von den Krankenkassen übernommen wird) zusammengefasst werden. Diese haben oft nur noch sehr rudimentäre Ähnlichkeit mit Freuds Ideen und sehen auch eine ganz andere, von mehr Empathie und Gleichberechtigung geprägte Interaktion zwischen Therapeut und Patient vor (unter anderem sitzt der Patient dem Therapeuten gegenüber und liegt nicht). Die Gemeinsamkeit beschränkt sich meist auf die Annahme von ungelösten Konflikten, die ihren Ursprung in der Kindheit haben. Im Gegensatz zur Psychoanalyse begnügt man sich aber nicht nur mit der Einsicht des Patienten, sondern strebt auch eine Veränderung an. In diesem Sinne sind viele moderne psychodynamische Therapieformen der KVT oder der Gesprächspsychotherapie zumindest oberflächlich gesehen recht ähnlich. Eine weitere Errungenschaft dieser weiterentwickelten Therapieform ist die Psychotherapieforschung, die die Wirksamkeit zumindest einiger dieser neuen Verfahren inzwischen belegt hat, was tvor allem auf einige manualisierte, psychodynamische Kurzzeittherapien zutrifft.

Die Begriffe noch einmal im Überblick

Um noch einmal die Begrifflichkeiten zusammenzufassen: Klinische Psychologen sind solche, die sich im Studium und in der darauf folgenden Berufstätigkeit auf psychische Störungen spezialisiert haben. Sie sind in der Regel Experten für das Erscheinungsbild und die Diagnostik psychischer Störungen und kennen sich mit den Ursachen aus. Auch von Psychotherapie haben sie normalerweise eine Menge Ahnung, dürfen diese aber nur im Rahmen einer postgradualen (d.h. nach dem Master- oder Diplomabschluss ansetzenden) Ausbildung zum Psychologischen Psychotherapeuten oder eben nach deren erfolgreichem Abschluss ausüben, d.h. nach Erteilung der Heilbefugnis (Approbation). Die meisten Klinischen Psychologen sind auch Psychotherapeuten, sodass sich eine große Überlappung ergibt. Psychotherapeuten können derweil entweder kognitiv-verhaltenstherapeutisch, psychoanalytisch, humanistisch oder systemisch (eine weitere, vor allem in der Kinder- und Familientherapie anzutreffende Richtung, auf deren Darstellung ich hier aus Sparsamkeitsgründen verzichtet habe) orientiert sein. Psychiater, die psychotherapeutisch tätig sind, haben derweil meist eine psychodynamische Orientierung.

Übrigens

Als Begründer der Psychologie als experimentell orientierte, empirische Wissenschaft wird Wilhelm Wundt (1832-1920) angesehen, der 1879 das erste „Institut für Experimentelle Psychologie“ gründete, was oftmals als Geburtsstunde der Psychologie betrachtet wird. Wundt war sowohl durch die Physiologie als auch durch die Philosophie geprägt – was erklärt, dass die Psychologie bis heute mit beidem verwandt ist. Sigmund Freuds Verdienste habe ich derweil oben in Auszügen beschrieben. Was viele über ihn allerdings nicht wissen, ist, dass Freud stark kokainabhängig und ein extremer Kettenraucher war. Während er es zu Lebzeiten schaffte, vom Kokain loszukommen, blieb er bis zu seinem Tod stark nikotinabhängig und erkrankte vermutlich infolge dessen schwer an Kieferkrebs. Von dieser extrem qualvollen Erkrankung gezeichnet, setzte er 1939 im Londoner Exil (Freud war, obwohl atheistischer Religionskritiker, jüdischer Abstammung) seinem Leben ein Ende. So kann es eben leider auch enden. Und so endet auch die vierteilige Reihe von Artikeln darüber, was Psychologie ist und was nicht.

Jenseits psychischer Störungen: Wo Psychologen sich sonst noch überall auskennen

Im vorherigen Artikel habe ich dargestellt, warum Psychologen ebenso wie Physiker, Chemiker, Biologen oder Soziologen Ahnung davon haben, wie man (Natur-)Wissenschaft betreibt und daraus abgeleitetes Wissen dahingehend beurteilen kann, ob es vertrauenswürdig ist oder nicht. In diesem Artikel soll es nun darum gehen, wovon Psychologen neben ihrer wissenschaftlichen Kompetenz sonst noch so Ahnung haben und in welche beruflichen Bereiche verschiedene Schwerpunktsetzungen und Spezialisierungen führen können. Dabei nutze ich diesen Artikel ganz bewusst, um all die Bereiche vorzustellen, die nichts direkt mit psychischen Störungen zu tun haben (was ja leider die verbreitete Auffassung über den Inhalt des Psychologiestudiums ist). Die Klinische Psychologie werde ich daher gesondert im nächsten Artikel vorstellen und diese Gelegenheit nutzen, um endlich das größte Irrtum überhaupt aufzuklären. Aber nun zurück zu den vielen anderen Unterbereichen der Psychologie, bei deren Darstellung ich mich in etwa an die Reihenfolge im Studium halten und mich von den Grundlagen- zu den Anwendungsfächern bewegen werde.

Allgemeine Psychologie & Kognitive Neurowissenschaft

Dieses Grundlagenfach mit dem Doppelnamen, unter das ich die Fächer „Biologische Psychologie“ und „Physiologie“ einmal subsumieren möchte, betrachtet den Menschen als Wesen, das Informationen aus seiner Umwelt verarbeitet und interessiert sich im Groben für die Art und Weise, wie diese Informationsverarbeitungsprozesse im Gehirn ablaufen. Daher gehört hierzu als Thema zu allererst die Wahrnehmung – von unseren Sinnesorganen bis zu den höchsten Verarbeitungsstufen im Gehirn. Dabei stößt man dann z.B. auf Gehirnareale, die auf die Verarbeitung von Gesichtern oder Schachmustern spezialisiert sind oder erfährt etwas über spezielle, auf Hirnschäden zurückgehende Störungen der Wahrnehmung, wie z.B. die Prosopagnosie – die Unfähigkeit, Gesichter wahrzunehmen und zu unterscheiden (wobei die visuelle Verarbeitung ansonsten völlig intakt ist). Eine weitere wichtige Sparte in diesem Fach ist das Gedächtnis. So lernt man im Studium beispielsweise Modelle über den Aufbau und die Funktionsweisen der verschiedenen Teile unseres Gedächtnisses (u.a. Arbeitsgedächtnis & Langzeitgedächtnis) kennen, ebenso wie natürlich die dazu gehörigen Forschungsmethoden und Störungen des Gedächtnisses (Amnesien und Demenzen). Eine Studie, die sich mit den dem Gedächtnis zugrunde liegenden Prozessen im Gehirn beschäftigt, habe ich im vorletzten Artikel beschrieben. Des Weiteren gehören zu diesem Fach die Themen Aufmerksamkeit, Denken & Problemlösen, Emotion & Motivation und Sprache. Ja, Psychologen beschäftigen sich auch intensiv mit der menschlichen Sprache, was kaum jemand weiß. Dabei sind die Fragen danach, wie wir im Gehirn Sprache verarbeiten (sowohl verstehen als auch selbst produzieren) ein ziemlich altes und sehr etabliertes Forschungsgebiet der Psychologie. Und auch hierzu gehört natürlich die Kenntnis über Störungen der Sprache (genannt Aphasien), die z.B. nach Schlaganfällen auftreten können.

Insgesamt erklärt sich aus der Existenz dieses Faches, warum alle Psychologen in ihrem Studium eine Menge von Dingen lernen müssen, die z.B. Medizinstudierenden auch begegnen. So kommt keiner durchs Psychologiestudium, ohne ziemlich genau den Aufbau des Gehirns und die Funktion verschiedener Gehirnareale, den Aufbau des gesamten Nervensystems, die Funktionsweise seiner Nervenzellen, die Eigenschaften von Hormonen und Neurotransmittern und die Funktionsweise von Untersuchungsverfahren für das Gehirn (EEG, MEG, PET, fMRT, etc.) zu kennen. Da man die Wege der Wahrnehmung kennen muss, gehört auch die Kenntnis des Aufbaus unserer Sinnesorgane (Augen, Ohren inkl. Gleichgewichtsorgan, Nase, Zunge, Berührungs- und Schmerzwahrnehmung) dazu. Wenn man sich auf diesem Gebiet spezialisiert, landet man als Psychologe entweder in der Wissenschaft und forscht zu einem der beschriebenen Themen, oder aber man ergreift das praktische Berufsfeld des Neuropsychologen, dessen Tätigkeit die präzise Diagnostik und darauf folgende Therapie von neurologisch bedingten Störungen in den oben beschriebenen Bereichen ist, wie sie z.B. nach einem Schlaganfall auftreten.

Entwicklungspsychologie

In diesem Fach lernt man im Wesentlichen, wie die normale psychische Entwicklung bei Kindern ablaufen sollte und ab wann etwas als nicht mehr normal anzusehen ist. Hierzu gehören z.B. die sprachliche Entwicklung, die kognitive und Intelligenzentwicklung, die emotionale Entwicklung und auch die Entwicklung motorischer Fähigkeiten. Ein zentraler, für die Praxis relevanter Punkt ist hierbei das Erkennen von Entwicklungsverzögerungen, die beispielsweise auf eine geistige Behinderung oder eine tiefgreifende Entwicklungsstörung hinweisen können. Die Entwicklungspsychologie hat aber auch sehr interessante Experimente zu bieten, die uns eine Einsicht darin gewähren, wie kleine Menschen die Welt um sich herum so wahrnehmen. Bekannt geworden ist vor allem der „Spiegeltest“, bei dem man schaut, wie ein Kind auf sein Spiegelbild reagiert, d.h. ob es erkennt, dass es sich selbst betrachtet. Dieses Erkennen setzt das Vorhandenensein eines Selbstkonzeptes voraus, d.h. eines „Ich-Bewusstseins“. Dieses weisen Kinder in der Regel im Verlauf des zweiten Lebensjahres auf, was man im Spiegeltest z.B. damit nachweisen kann, dass das Kind sich einen roten Punkt, den man ihm auf die Stirn geklebt hat, selbst wieder abnimmt. Das Fehlen dieses Selbstkonzeptes wird übrigens auch als eine Ursache für das Phänomen diskutiert, dass wir uns an unsere ersten 2 Lebensjahre in der Regel nicht erinnern können – weil vorher Erinnerungen nicht in Bezug auf das Selbst abgespeichert werden können (was wiederum nötig ist, um sie später im Leben noch abrufen zu können).

Zeitlich nach dem Selbstkonzept entwickelt sich derweil erst die Theory of Mind, die, kurz gesagt, die Fähigkeit beschreibt, anderen Menschen Gedanken, Absichten, etc. zuzuschreiben und hierauf zu reagieren (eine Fähigkeit, die bei z.B. bei Autismus eingeschränkt ist). Der bekannteste wissenschaftliche Vertreter der Entwicklungspsychologie ist sicherlich bis heute Jean Piaget, dessen Befunde zur kognitiven Entwicklung von Kindern großen Einfluss auf die Pädagogik genommen haben. Allerdings deutet inzwischen eine Vielzahl von neueren Forschungsergebnissen darauf hin, dass Piaget, ganz grob gesagt, die kognitiven Fähigkeiten von Kleinkindern stark unterschätzt hat. Psychologen, die sich heutzutage in der Entwicklungspsychologie spezialisieren, sind entweder auch in der Forschung tätig oder üben ähnliche diagnostische Tätigkeiten wie Neuropsychologen aus, nur eben mit Kindern. Das Fach ist zudem mit der Pädagogischen Psychologie verwandt (siehe weiter unten).

Sozialpsychologie

Wie schon im vorletzten Artikel vorgestellt, beschäftigt sich die Sozialpsychologie damit, wie das menschliche Verhalten und Erleben durch das Verhalten anderer Menschen, oder, allgemeiner gesagt, durch soziale Situationen beeinflusst wird. Aus der Sozialpsychologie stammt z.B. viel Forschung dazu, wie sich Menschen in Gruppen verhalten und wie insbesondere immenser sozialer Druck (z.B. durch Befehle in einem autoritären System) das Verhalten von Menschen auch gegen deren eigene Überzeugungen oder Persönlichkeitseigenschaften steuern können. So waren nach dem zweiten Weltkrieg viele Studien davon geprägt, dass man verstehen wollte, wie es in Deutschland zu einer so verheerenden Kastastrophe wie dem Emporkommen der Nazis und der Shoa kommen konnte. Viele dieser Experimente haben auch in der Laiengesellschaft große Berühmtheit erlangt, darunter z.B. das Stanford-Gefängnisexperiment von Zimbardo aus dem Jahr 1971.

Zimbardo untersuchte unter realistischen Bedingungen, wie Probanden, denen zufällig entweder die Rolle eines Insassen oder eines Gefängniswärters zugewiesen wurde, sich über die Zeit hinweg verhielten, wenn sie selbst während des gesamten Experiments anonym handelten. Das Experiment lieferte jedoch so massive Einblicke in die Grausamkeiten menschlichen Verhaltens (Gewaltexzesse, Folter…), dass es vorzeitig abgebrochen wurde. Es hat jedoch gezeigt, wie groß der Einfluss von Regeln und Vorschriften sowie von Anonymität (bzw. Deindividuierung) und der Übernahme einer Rolle (Insasse vs. Gefängniswärter) auf zwischenmenschliches Verhalten ist. Die gewaltsamen Exkalation des Experiments hat nicht zuletzt auch dazu beigetragen, dass die Ethikrichtlinien für psychologische Forschung sehr viel strenger geworden sind. Heutzutage ist es selbstverständlich, dass die Teilnehmer an einem psychologischen Experiment vor ihrer Zustimmung zur Teilnahme über das informiert werden, was passieren wird (informed consent), dass ihnen kein Schaden zukommt und dass sie jederzeit aus dem Experiment aussteigen können. Sozialpsychologen sind typischerweise Wissenschaftler, eine praktische Berufsrichtung gibt es nicht direkt. Allerdings werden sehr viele sozialpsychologische Ergebnisse in der Organisationspsychologie, einem primär anwendungsorienerten Fach, das ich gleich noch vorstellen werde, verwendet.

Differentielle Psychologie bzw. Persönlichkeitspsychologie

Im Gegensatz zur Sozialpsychologie versucht dieses Fach, das Verhalten von Personen nicht durch die soziale Situation zu erklären, sondern durch relativ stabile, der Person innewohnende Persönlichkeits- oder Charaktereigenschaften (auf Englisch traits). Sie untersucht daher zum einen, in welchen Eigenschaften sich Personen unterscheiden (das meint differentielle Psychologie), und zum anderen, welcher Art der Zusammenhang zwischen Persönlichkeitseigenschaften und tatsächlichem Verhalten ist. Zum ersten Thema ist der wohl bekannteste, auf Faktorenanalysen beruhende Befund der „Big 5“ zu nennen  –  fünf globaler Eigenschaften, unter denen sich sämtliche Charaktereigenschaften, die wir im Alltag zur Beschreibung einer Person verwenden, zusammenfassen lassen. Eine Beschreibung der Big 5 finden Sie hier. Zum zweiten Thema lässt sich sagen, dass Persönlichkeitseigenschaften zwar nicht irrelevant in der Vorhersage von Verhalten sind (dass ein introvertierter Mensch freitags abends eher nicht in die Disco gehen wird, leuchtet ein), jedoch keine so guten Vorhersagen liefern wie persönliche Motive, die manche ebenfalls zur Persönlichkeitspsychologie rechnen und andere eher zur Allgemeinen Psychologie. Eine weitere ganz zentrale Domäne der Differentiellen Psychologie (und wahrscheinlich die am besten erforschte) ist außerdem die Intelligenz, inklusive ihrer Unterformen und Facetten. Die Erkenntnisse der Persönlichkeitspsychologie werden sowohl in der Arbeits- und Organisationspsychologie (z.B. als Variablen zur Beurteilung der Passung zwischen Bewerber und Arbeitsplatz) als auch in der klinischen Psychologie und Psychotherapie (z.B. als relevanter Faktor in Bezug auf die Entstehung einer psychischen Störung) sowie in der forensischen Psychologie (Warum werden Menschen kriminell?) genutzt.

Psychologische Diagnostik

In diesem Fach lernt man nicht primär, psychische Störungen zu diagnostizieren, sondern es geht darum, wie sich verschiedene Merkmale einer Person durch Tests, Fragebögen, Verhaltensbeobachtung, zielorientierte Gesprächsführung etc. erfassen bzw. möglichst verlässlich und präzise messen lassen. Die wichtigsten Mermale hierbei sind die allgemeine Intelligenz (auch bezeichnet als kognitive Leistungsfähigkeit) sowie ihre verschiedenenen Unterfacetten und die Persönlichkeitsstruktur einer Person (Charaktereigenschaften, Einstellungen, Motive, etc.). Darüber hinaus gibt es natürlich Tests, die weitere kognitive Leistungen wie Aufmerksamkeit und Konzentration messen, und klinische Fragebögen, die Symptome verschiedener psychischer Störungen erfassen. Zum Fach „Psychologische Diagnostik“ gehört auch die Testtheorie, die sich damit beschäftigt, wie man solche psychologische Tests konstruiert, die gültige Aussagen über eine Person liefern. Was man unter psychometrischen Gütekriterien versteht, die solche Tests erfüllen müssen, können sie hier nachlesen; was Beispiele für gute und schlechte Tests sind, finden Sie zudem hier bzw. hier erklärt. Die Kenntnis darüber, wie man solche Tests und Fragebögen konstruiert (was alles andere als trivial ist), erachte ich neben den grundlegenden wissenschaftlichen und statistischen Kenntnissen als eine der wertvollsten, die man sich im Psychologiestudium aneignet.

Im Rahmen der psychologischen Diagnostik gibt es eine Menge von beruflichen Anwendungsfeldern. So kommen diagnostische Verfahren z.B. in der Auswahl von Bewerbern zum Einsatz, oft im Rahmen von Assessment Centern. Ebenso ist psychologische Diagnostik z.B. bei der Agentur für Arbeit oder bei Berufsförderungswerken gefragt, um zu entscheiden, ob z.B. jemand für eine bestimmte Umschulung geeignet ist. Ebenso ergänzen standardisierte klinisch-diagnostische Verfahren die Diagnostik in der Psychotherapie. Ein wichtiges Anwendungsfeld der psychologischen Diagnostik ist zudem die Verkehrspsychologie: Im Rahmen der medizinisch-psychologischen Untersuchung (kurz MPU, auch bekannt als „Idiotentest“) spielen die diagnostischen Kompetenzen von Psychologen eine entscheidende Rolle dabei, z.B. zu beurteilen, ob auffällig gewordenen Verkehrsteilnehmern die Fahrerlaubnis wieder erteilt werden sollte oder nicht. Viele Psychologen sind zudem auch als Gutachter vor Gericht tätig, wobei die Themen sehr verschieden sein und von Sorgerechtsentscheidungen („Was entspricht dem Wohl des Kindes?“) über verkehrspsychologische Fragestellungen bis hin zur Glaubhaftigkeitseinschätzung von Zeugenaussagen reichen können. Bei solchen Fragenstellungen werden, um die diagnostischen Fragen zu beantworten, dann eher bestimmte diagnostische Gesprächsführungstechniken als Tests und Fragebögen zum Einsatz kommen, die ebenfalls Teil der Ausbildung in psychologischer Diagnostik sind und welche daher auch zum absoluten Standardrepertoire eines jeden Psychologen gehören.

Arbeits- & Organisationspsychologie

Dieses, neben der Klinischen Psychologie zweite große Anwendungsfach der Psychologie wendet psychologische Erkenntnisse in der Arbeitswelt an. Die Arbeitspsychologie fußt dabei eher auf der Allgemeinen Psychologie und ist konzeptuell mit den Ingenieurwissenschaften verwandt. So kümmern sich Arbeitspsychologen z.B. darum, Arbeitsabläufe in einer Fertigungshalle zu optimieren, Maschinen ergonomisch zu gestalten (also so, dass die Bedienbarkeit möglichst an den Menschen angepasst wird) oder Arbeitsabläufe durch Veränderungen an Menschen und Maschinen sicherer zu machen. Die Organisationspsychologie beschäftigt sich derweil hauptsächlich mit dem Personal (genannt human resources) in einer Organisation (meist einem Unternehmen) und basiert stark auf der Sozialpsychologie. Wichtige Felder innerhalb der Organisationspsychologie sind die Personalauswahl (wofür diagnostisch-psychologische Kenntnisse besonders wichtig sind, siehe oben) und die Personalentwicklung, die darauf abzielt, die Kompetenzen vorhandener Mitarbeiter durch Trainings- und Coachingmaßnahmen auszubauen, damit diese z.B. überzeugender auftreten oder besser mit Kunden interagieren können – ergo, um dem Unternehmen mehr Profit zu bringen. Zentral ist auch die Anwendung der sozialpsychologischen Befunde zur Gruppeninteraktion, da Teamarbeit in der freien Wirtschaft gerade absolut en vogue ist. Angegliedert an dieses Fach ist auch die Wirtschaftspsychologie, die sich z.B. mit Werbetechniken und den psychologischen Prozessen beschäftigt, die Phänome wie der Finanzkrise erklären können.

Pädagogische Psychologie

Auch wenn ich (Achtung Sarkasmus) im Studium nicht so richtig die Daseinsberechtigung dieses weiteren Anwendungsfaches verstanden habe, was ich größtenteils auf seine allumfassende Schwammigkeit zurückführe, möchte ich hier kurz beschreiben, worum es so in etwa geht. Die Pädagogische Psychologie (kurz PP) könnte man am ehesten als die empirische Mutter der Pädagogik bezeichnen – d.h., das, was angehende Lehrer in ihrem Studium lernen, basiert zu einem Großteil auf Befunden der PP. So werden z.B. die optimale Interaktion zwischen Lehrern und Lernenden oder die effektivste Art der Wissensvermittlung untersucht (ironischerweise genau das, was ich hier gerade tue). Daraus abgeleitet ist auch die Forschung zu den Merkmalen, die eine effektive Beratung kennzeichnen. Zudem ist ein weiterer Zweig der PP die Hochbegabungsforschung, die sich vor allem mit der Vorhersage und der Förderung von Hochbegabung beschäftigt. Die Anwendungsbereiche der PP sind vielfältig. Psychologen mit dieser Orientierung arbeiten z.B. in Erziehungs- oder Paarberatungsstellen, in der Hochbegabtenförderung oder in Schulen als Schulpsychologen, die meistens aber eine hoch undankbare Stellung zwischen Lehrern und Schülern einnehmen.

Soft-Skills: Gesprächsführung, soziale Kompetenzen & Co.

Wie in fast jedem Studium auch nimmt man aus dem Psychologiestudium eine Menge so genannter soft skills mit, also Fertigkeiten und Kompetenzen, die man mehr oder weniger automatisch mit auf den Weg bekommt. Dazu gehören bei Psychologen vor allem soziale Kompetenzen, sowohl eine effektive Teamarbeit betreffend als auch z.B. das selbstsichere Auftreten und Sprechen beim Halten einer Referatspräsentation vor anderen. Gesprächsführung ist, wie oben ja schon mehrfach angeklungen ist, wohl im Psychologiestudium die kennzeichnendste dieser Fertigkeiten, die je nach Uni unterschiedlich ausführlich vermittelt wird. Gemeint ist damit zum einen die diagnostische Gesprächsführung, mit der man möglichst viel über einen Menschen erfahren will, und zum anderen die therapeutische Gesprächsführung, die darauf abzielt, Veränderungsmotivation aufzubauen („Motivational Interviewing“), Dinge zu hinterfragen und Veränderungen einzuleiten. Diese Grundlagen schon im Studium zu erlernen, ist sinnvoll, da man, wenn man z.B. anschließend noch die Ausbildung zum Psychologischen Psychotherapeuten machen will, auch schon zu Beginn der Ausbildung relativ selbstständig Therapien durchführen muss. Und auch in anderen Bereichen wie der Beratung oder der Personalentwicklung ist Gesprächsführung das Werkzeug Nr 1. Letztlich ist diese, neben der wissenschaftlichen Kompetenz und dem breiten Fachwissen, diejenige Kompetenz, für an Psychologen in der Arbeitswelt am meisten geschätzt wird. Und auch wenn es sich trivial anhört („Gespräche führen kann doch jeder“), so ist es alles andere als das – was jeder schnell merkt, der es sich zu einfach vorstellt und dann vollends gegen die Wand fährt.

Und um zum Cliché des Analysierens zurückzukehren, ist zumindest mein Eindruck, dass man nach dem Studium einen anderen Blick auf Menschen hat. Man hinterfragt viel mehr, warum Menschen sich so verhalten, wie sie es tun, macht sich Gedanken über die bewussten oder unbewussten Ziele, die jene damit verfolgen, und fragt sich vielleicht auch, welche Erfahrungen in der Vergangenheit die Person zu dem gemacht haben, was sie heute ist. So kommt man z.B. eher als andere Menschen auf die Idee, dass ein angeberisches, egoistisches A*schloch vielleicht über eine narzisstische Persönlichkeitsstörung verfügt, die eigentlich auf einem furchtbar niedrigen Selbstwert fußt. Ob man denjenigen danach weniger hasst, ist die andere Frage. Als Psychologe muss man dann meiner Erfahrung nach in zweierlei Hinsicht aufpassen. Erstens muss man in der Lage sein, den „analytischen Blick“ ausschalten zu können, weil sich Freunde oder Familie sonst zurecht in die Ecke gedrängt fühlen werden. Zweitens muss man aufpassen, sich selbst nicht zu stark zu „analysieren“, da man unglaublich schnell auf Dinge stößt, die man vielleicht aufgrund seines Fachwissens als gefährlich einstuft. Meine Erfahrung ist, dass man darüber sehr schnell ins Grübeln kommt und man sich in der Folge schlecht fühlt, weshalb es wichtig ist, sich von solchen Gedanken auch wieder distanzieren zu können. Was ich hier mit „analysieren“ meine, ist übrigens nicht dasselbe, was Sigmund Freud hierunter verstanden hat. Darüber erfahren Sie mehr im nächsten Artikel.

Eine weitere wichtige Sache, die man im Psychologiestudium lernt, ist, mit der Situation umzugehen, dass man permanentem Leistungsdruck ausgesetzt ist, der einerseits aufgrund der extrem hohen Anforderungen und des massiven Lernaufwands (der meistens leider ein Auswendiglern-Aufwand ist) objektiv besteht, aber andererseits durch die Charakteristika der Menschen, die Psychologie studieren, noch verschlimmert wird. Stellen Sie sich vor, Sie sind in der Mehrzahl von Leuten umgeben, die ihr Abitur mit ca. 1,3 oder besser gemacht haben (oder im Masterstudium ihren Bachelor, was nochmal eine ganz andere Hausnummer ist). Im Normalfall sind das nicht die sympathischsten Menschen: Viele sind von ihrem Ehrgeiz leider so besessen, dass das inhaltliche Interesse am Fach in den Hintergrund rückt. Hauptsache top-Noten und Hauptsache besser als die anderen. Sie können sich vorstellen, was für Themen Sie in der Cafeteria erwarten, wenn man es nicht schafft, sich ein paar normale Freunde zu suchen. In der Folge und zum Abschluss ein kleiner typischer, von mir mit Sarkasmus und Zynismus gespickter Dialog, der einem dort begegnen könnte:

„Und, was hattest du für eine Note in Physiologie? Ich hatte ja eine 1,3.“ (Gedanklich: „Wehe, die blöde Kuh hat was Besseres!“)

„Ich hatte eine 1,0, dabei war ich mir totaaal sicher, dass ich durchgefallen bin, hihi!“ (Gedanklich: „Chakka!“)

„Hey cool, herzlichen Glückwunsch! Vielleicht sollte ich mal zur Klausureinsicht gehen, um zu gucken, ob die vielleicht was übersehen haben“ (Gedanklich: „Dass diese dumme Pute besser ist als ich, geht einfach mal GAR nicht. Ich hasse sie!“)

„Ja, mach das doch. Hast du denn eigentlich schon angefangen, für Entwicklungspsychologie zu lernen?“ (Gedanklich: „Hoffentlich bin ich ihr schon um Meilen voraus!“)

„Ja klar, bin schon längst fertig und muss nur nochmal wiederholen; jetzt erst anzufangen mit dem Auswendiglernen, wäre ja wohl von vornherein zum Scheitern verurteilt“ (Gedanklich: „Als ob ich der jetzt auch noch den Trumpf erlauben würde! Warum sollte ich ihr sagen, dass ich erst vorgestern angefangen habe?“)

„Achso, ja cool. Ich komme auch super voran“ (Gedanklich: „Mist, ich muss mich echt beeilen – Wie soll ich das bloß schaffen? Ich verkacke bestimmt und schreibe eine 2,0 oder so. Ich bin einfach zu dumm!“)

Ergebnis: Beide fühlen sich beschissen.

Wie Sie sehen: In dieser widrigen Umwelt muss man sich erst einmal zurechtfinden. Daher ist vielleicht das Wichtigste, das man im Psychologiestudium lernt, an sich selbst zu glauben. Aber der Fairness halber muss ich doch sagen, dass zum Glück nicht alle so drauf sind und ich in meinem Studium bisher auf viele sehr nette Leute gestoßen bin:-).

© Christian Rupp 2013