Psychologe, Psychiater, Psychotherapeut & Co. – Was ist der Unterschied?

Im Volksmund werden die „Psych“-Berufe ganz häufig synonym, oft völlig falsch und selten sachgemäß verwendet. Dabei lohnt es sich, gerade wenn man z. B. auf der Suche nach einem “Therapieplatz” ist, einmal die Unterschiede genauer zu betrachten. Was Sie sich gleich zu Anfang schon einmal merken können: Wenn Sie einen Therapieplatz suchen, dann müssen Sie sich auf die Suche nach einem Psychotherapeuten begeben und nicht nach einem Psychologen suchen, auch wenn die meisten Psychotherapeuten auch Psychologen sind. Zu genüge verwirrt? Fangen wir also mit den Definitionen an. Ich bitte um Nachsehen dafür, dass ich der besseren Lesbarkeit wegen an allen Stellen nur die männliche Form verwende.

Psychologe

Psychologe ist ein geschützter Titel, den man nach einem abgeschlossenen Hochschulstudium der Psychologie erwirbt. In der Vergangenheit lautete der Titel (und auch die Berufsbezeichnung) nach dem Abschluss dann „Diplom-Psychologe“ (kurz: „Dipl.-Psych.“). Das Diplom war bis vor gut 10 Jahren der Regelabschluss im Fach Psychologie, den man nach ca. 9-10 Semestern erreichte. Im Zuge der Bologna-Reform der Studienabschlüsse wurde das Diplom als Abschluss abgeschafft und durch einen Bachelor- und einen Masterabschluss ersetzt, die aufeinander aufbauen. Den Bachelorabschluss hat man, wenn man in der Tretmühle dieses anstrengenden Studiums nicht auf der Strecke bleibt, nach frühestens 6 Semestern geschafft und trägt dann den akademischen Titel „Bachelor of Science” (kurz “B. Sc.” oder “BSc”). Der Zusatz des Faches, in dem der Abschluss erworben wurde (Psychologie) ist hierbei (unsinnigerweise) nicht vorgesehen, sodass keiner erkennen kann, ob man den Abschluss in Psychologie, Physik, Chemie, Biologie oder vielleicht auch in BWL gemacht hat. Der BDP (Der Berufsverband für Psychologen in Deutschland) möchte derweil nicht, dass Bachelor-Absolventen sich schon „Psychologen“ nennen, und auch die meisten Jobs erfordern einen Masterabschluss.

Das Masterstudium kann jeder beginnen, der einen guten bis sehr guten Bachelorabschluss geschafft hat (der Rest hat mehr oder weniger Pech), und man muss sich auf einen Masterstudienplatz erneut bewerben. Das Masterstudium dauert in der Regel weitere 4 Semester, wenn man es in der Regelstudienzeit absolviert und nicht länger braucht. Manche Universitäten, wie die CAU Kiel, bieten hingegen einen Master mit nur zwei Semestern Dauer an; allerdings haben diese Universitäten auch jeweils achtsemestrige Bachelorstudiengänge, sodass es am Ende auf dieselbe Gesamtdauer von mindestens 10 Semestern hinausläuft. Das Masterstudium ist meist sehr schwerpunktspezifisch, häufig angebotene Schwerpunkte sind z.B. Klinische Psychologie, Personal- und Wirtschaftspsychologie und Neurowissenschaften. Nach dem Masterabschluss lautet der Titel „Master of Science“ (kurz: “M. Sc.” oder “MSc”), und man darf sich laut BDP nun auch Psychologe nennen, da der Masterabschluss dem alten Diplom in Psychologie gleichgesetzt wird. Um den damit erlangten Beruf deutlich zu machen, wird dann häufig die Bezeichnung “Psychologe M. Sc.” oder “Psychologe (M. Sc.)” gewählt. Analog zum “Dipl.-Psych” findet sich in der letzten Zeit aber immer häufiger auch die Bezeichnung “M.Sc. Psych.”.

Ja, Psychologen sind Naturwissenschaftler

Der Zusatz „of Science“ zeigt übrigens an, dass es sich bei Psychologie um ein (natur)wissenschaftliches Fach handelt und bei Weitem nicht um eine Geisteswissenschaft (mehr dazu hier). Das gesamte Psychologiestudium ist sehr reich an Wissenschaftsmethodik und –praxis, Statistik und viel auswendig zu lernendem Wissen. Für beide Abschlussarbeiten (Bachelor- und Masterarbeit) muss man in der Regel auch eine eigene empirische Studie durchführen und auswerten. Da die grundlegende Wissenschaftsmethodik in allen Naturwissenschaften, egal ob Psychologie, Biologie, Chemie oder Physik, weitgehend gleich ist, erreicht man durch ein Studium der Psychologie also zunächst einmal sehr viel wissenschaftliche Kompetenz. Das mag den Studierenden vielleicht anfangs zuwider sein, kann sich aber im gesamten weiteren Leben als sehr nützlich erweisen – z. B. wenn es bei so aktuellen und politischen Themen wie dem Klimawandel oder der Covid-19-Krise darum geht, die verschiedenen Aussagen auf ihre Qualität und Fundiertheit hin zu bewerten. Mit anderen Worten: Man ist den Menschen ohne diese wissenschaftliche Kompetenz um einiges Voraus, was zwar von Vorteil ist, aber auch zu Frustration führen kann.

Psychologen sind, was ich hier mal, auch wegen des klinischen Schwerpunkts dieses Blogs, mal hervorheben muss, nicht automatisch klinische Psychologen, auch wenn diese die größte Gruppe darstellen. Viele Psychologen sind an Universitäten und Forschungsinstituten als Wissenschaftler tätig (in allen Bereichen, die die Psychologie bietet, z.B. Sozialpsychologie, Neurowissenschaften, Entwicklungspsychologie, Persönlichkeitspsychologie…), andere arbeiten in der Wirtschaft, vor allem in Personalabteilungen (Personalauswahl und –entwicklung sind ganz große Bereiche für Psychologen), in Erziehungsberatungsstellen (hier führen Sie z. B. Entwicklungs- und Intelligenzdiagnostik durch), als Verkehrspsychologen bei der Medizinisch-Psychologischen Untersuchung (MPU) – oder freiberuflich in allen möglichen Funktionen.

(Psychologischer) Psychotherapeut

Als Psychologe kann man in der Regel nicht therapeutisch tätig sein, zumindest nicht, wenn man mit den gesetzlichen Krankenkassen und den privaten Krankenversicherungen und der Beihilfe abrechnen möchte. Deshalb ist die Berufsbezeichnung, nach der Sie suchen müssen, wenn Sie einen Therapieplatz suchen, die des Psychotherapeuten. Um, wenn man schon Psychologe ist, auch noch Psychotherapeut zu werden, muss man nach erfolgreich abgeschlossenem Psychologiestudium (M. Sc. oder Diplom) eine zwischen drei und fünf Jahren dauernde und 10.000 € bis 25.000 € teure Zusatzausbildung zum Psychologischen Psychotherapeuten absolvieren, die man mit der Facharztausbildung vergleichen kann, die Ärzte nach dem Abschluss ihres Medizinstudiums absolvieren, um z. B. Facharzt für Innere Medizin oder Gynäkologie zu werden. Dies ist zumindest aktuell noch so – wie weiter unten beschrieben, wird sich in den nächsten 10 Jahren hier ein bisschen was ändern.

Ausbildung, Approbation & Krankenkassenzulassung

Diese Ausbildung ist derzeit in fünf anerkannten Verfahren möglich: der (Kognitiven) Verhaltenstherapie (KVT oder VT), der analytischen Psychotherapie (AP), der tiefenpsychologisch fundierten Psychotherapie (TP), der Gesprächspsychotherapie und der systemischen Therapie (ST). In allen fünf Verfahren kann man als Psychologe eine Ausbildung zum Psychologischen Psychotherapeuten (oder kurz “Psychotherapeuten”) absolvieren, allerdings werden aufgrund der Beschlüsse des Gemeinsamen Bundesausschusses, der den Leistungskatalog der gesetzlichen Krankenkassen festlegt, nur für die VT, die TP, die AP und (ganz neu seit Sommer 2020!) die ST die Kosten von den Krankenversicherungen in Deutschland übernommen. Da die Wirksamkeit der TP und besonders der AP weitaus schlechter wissenschaftlich belegt (und wegen der größeren Sitzungskontingente die Kosten für das Gesundheitssystem deutlich höher) sind als die Gesprächspsychotherapie und die systemische Therapie, macht das zwar wenig Sinn im Sinne des Wirtschaftlichkeitsprinzips der Krankenkassen, aber leider ist es so.

Nach einer solchen postgradualen (das bedeutet: an ein Studium dran gehängten) Ausbildung erhält man als Psychologe die Approbation, d.h. die Zulassung zum Heilberuf des Psychotherapeuten bzw. die Befugnis zur Ausübung der psychotherapeutischen Heilkunde (hier findet sich ein Unterschied zu den Ärzten: Sie erhalten ihre Approbation bereits nach Abschluss des Studiums und nicht erst nach abgeschlossener Facharztausbildung). Man erhält mit der Approbation den Titel „Psychologischer Psychotherapeut“ und ist dann befugt, in Kliniken oder in eigener Praxis eigenverantwortlich Patienten behandeln. Dabei sind Psychologische Psychotherapeuten formal-rechtlich einem Facharzt gleichgestellt. Für die Behandlung von Privatpatienten genügen in der Regel die Approbation und ein Eintrag in das Arztregister der jeweiligen Kassenärztlichen Vereinigung; um hingegen gesetzlich Versicherte zu behandeln, benötigt man zusätzlich eine Kassenzulassung, die in den meisten Regionen nur von einem in den Ruhestand gehenden Psychotherapeuten erworben werden kann und meist mit 20.000 € bis 100.000 € bezahlt wird. Anders als Ärzte, die eine Praxis von ihrem Vorgänger übernehmen, erhält man dafür allerdings keinerlei Ausstattung oder einen Patientenstamm – man zahlt letzlich lediglich für die Erlaubnis, mit den Krankenkassen abrechnen zu dürfen (!).

Ärztliche Psychotherapeuten

Der Begriff „Psychologischer Psychotherapeut“ impliziert bereits, dass es auch noch andere gibt. Nämlich die „Ärztlichen Psychotherapeuten“, die aber weitaus seltener sind. Das sind Ärzte mit psychotherapeutischer Zusatzausbildung, die aber bei Weitem nicht so umfangreich ist wie die, die Psychologen nach ihrem Psychologiestudium absolvieren. Daher würde ich mit einem psychotherapeutischen Anliegen (Achtung: meine, wohlgemerkt jedoch von Erfahrung untermauerte Meinung) immer eher zu einem Psychologischen Psychotherapeuten gehen, da ich die Qualität der psychotherapeutischen Behandlung dort als gesicherter ansehe und Psychologische Psychotherapeuten auf diesem Gebiet im Allgemeinen kompeteter und eher auf dem neusten Stand sind – allein schon deshalb, weil sie mit dem Psychologiestudium eine ganz andere Grundlage haben und die psychotherapeutische Ausbildung viel umfangreicher ist als bei Ärzten.

Früher war nicht alles besser

Allerdings muss ich einschränkend ergänzen, dass die Qualität durch die oben beschriebene lange Ausbildung erst seit Inkrafttreten des Psychotherapeutengesetzes Ende der 1990er Jahre so richtig gesichert ist. Psychologen, die ohne eine solch umfangreiche Ausbildung schon vor diesem Gesetz schon psychotherapeutisch tätig waren, mussten hingegen entweder nur eine Schmalspurabusbildung von der Dauer eines Jahres absolvieren oder bekamen die Approbation und somit die Bezeichnung “Psychologischer Psychotherapeut” quasi geschenkt, ohne eine staatliche Prüfung abzulegen, wie es heute erforderlich ist. Die Kassenzulassung gab es Anfang der 2000er Jahre übrigens meistens direkt gratis mit dazu.

Wichtige Frage: Wie alt ist der Patient?

Psychologische und Ärztliche Psychotherapeuten besitzen eine Approbation (also die Befugnis zur Ausübung der Heilkunde), die altersunabhängig ist, dürfen sozialrechtlich (d.h. im System der gesetzlichen Krankenkassen) aber nur Erwachsene über 18 Jahren behandeln. Das bedeutet im Klartext: Ist der Jugendliche oder das Kind privatversichert (wofür nur die Approbation wichtig ist), kann es/er durch einen Psychologischen Psychotherapeuten behandelt werden – bei gesetzlicher Krankenversicherung muss die Behandlung durch einen Kinder- und Jugendlichenpsychotherapeuten (siehe nächster Abschnitt) erfolgen. Allerdings sollte man meiner Ansicht nach gerade bei Kindern immer eher einen Kinder- und Jugendlichenpsychotherapeuten aufsuchen, da Psychologische Psychotherapeuten meist über wenig bis keine Erfahrung in der Psychotherapie mit Kindern verfügen.

Kinder- und Jugendlichenpsychotherapeut

Diese Bandwurmberufsbezeichnung steht für die Gruppe von Psychotherapeuten, die Kinder und Jugendliche unter 21 Jahren behandeln darf, aber keine Erwachsenen. Anders als bei Psychologischen Psychotherapeuten, bei denen die Approbation altersungebunden ist, ist die von KJP wirklich auf Personen unter 21 Jahren beschränkt. Ansonsten ist alles identisch mit den Erwachsenen-Psychotherapeuten, außer dass neben Psychologie und Medizin auch ein Studium der Pädagogik, Sozialpädagogik oder der Heilpädagogik als Zugangsvoraussetzung für die Ausbildung anerkannt wird. In einigen Bundesländern genügt für diese Ausbildung übrigens ein Bachelorabschluss, was im Hinblick auf die Qualitätssicherung und den Facharztstandard als kritisch zu betrachten ist und einer der vielen Gründe für die Reform des Psychotherapeutengesetzes war.

Reform der Psychotherapiewelt?

An dieser Stelle sei angemerkt: Ab 2020 ändert sich wieder einiges an den Begrifflichkeiten, da eine Reform des Psychotherapeutengesetzes in Kraft tritt. Allerdings betreffen diese Änderungen lediglich die Zukunft ab ca. 2025 und sind jetzt im Jahr 2020 noch nicht von Relevanz (außer für Menschen, die jetzt gerade Abitur machen, natürlich).

Die Reform ersetzt die sich an das Psychologiestudium anschließende Ausbildung durch ein Direktstudium, das man nach dem Abitur beginnt – so wie ein Medizinstudium. In der Praxis wird es so sein, dass man ein breit gefächertes Bachelorstudium der Psychologie abschließt, sodass man sich nicht direkt zu Beginn des Studiums schon auf den späteren Psychotherapeutenberuf festlegen muss. Es folgt dann ein klinisch-psychologisches Masterstudium. Bis hierhin ist ehrlich gesagt alles genau so wie bisher – der wichtige Unterschied ist dieser: Gemäß dem Gesetz soll man dann aber schon nach dem Masterabschluss die Approbation erhalten (die man sonst erst nach der Ausbildung zum Psychotherapeuten erhielt), muss dann aber, ähnlich wie bisher, noch eine vertiefende “Facharzt”ausbildung in einem der Verfahren, z. B. VT, dranhängen. Wichtig außerdem: Den Beruf des Kinder- und Jugendlichenpsychotherapeuten, den ich im vorherigen Abschnitt beschrieben habe, wird es dann nicht mehr geben, weil beide Berufe zu einem zusammengefasst werden, der dann nur noch “Psychotherapeut” heißen soll. Man kann sich jetzt fragen, was so bewegend neu hieran sein soll. Tatsächlich im Grunde nicht viel – mit Ausnahme der Tatsache, dass sich die prekäre finanzielle Situation, in der sich bis dato die Betroffenen zwischen Masterabschluss und Approbation befanden (Arbeit unterhalb von Mindestlohnniveau, etc.) deutlich verbessern wird, weil die bereits nach dem Studium vergebene Approbation zu einer deutlich besseren Vergütung der Arbeit führt.

Psychiater & Facharzt für psychosomatische Medizin

Psychiater sind Fachärzte, d.h. sie haben Medizin studiert und dann eine Facharztausbildung absolviert, die auch ungefähr drei bis fünf Jahre dauert. Der offizielle Titel lautet daher auch „Facharzt für Psychiatrie“ bzw. für Patienten unter 18 „Facharzt für Kinder- und Jugendlichenpsychiatrie“. Oft findet sich auch die Facharztbezeichnung “Neurologie und Psychiatrie” sowie “Psychiatrie und Psychotherapie”. Psychiater behandeln, weil sie oft keine oder nur eine oberflächliche psychotherapeutische Ausbildung haben, psychische Störungen vorrangig mit anderen Mitteln, v. a. . Medikamenten, aber auch anderen Verfahren wie Tiefenhirnstimulation, Elektrokrampftherapie, transkranieller Magnetstimulation etc. Im Gegensatz zu Psychologischen Psychotherapeuten dürfen sie diese Heilmittel auch verschreiben. Sie arbeiten in Kliniken (Psychiatrien) oder in eigenen Praxen. Psychiater können zu ihrer Berufsbezeichnung auch den Zusatz „Psychotherapie“ erwerben, wenn sie sich entsprechend fortbilden. In psychiatrischer Behandlung befinden sich meist Patienten mit eher schweren psychischen Erkrankungen oder solchen, die rein psychotherapeutisch gar nicht oder nur schlecht zu behandeln sind (z.B. schwere Depressionen mit vorrangig biologischer Ursache oder Psychosen wie die Schizophrenie).

Der Vollständigkeit halber sei an dieser Stelle auch noch der “Facharzt für psychosomatische Medizin” genannt, der für einige Jahre auch “Facharzt für psychotherapeutische Medizin” hieß. Diese Sorte von Facharzt ist noch mehr als der Facharzt für Psychiatrie mit dem Psychologischen Psychotherapeuten zu vergleichen, da die Behandlungform der Wahl vorrangig tatsächlich die Psychotherapie ist.

Von Heilpraktikern und  & “Psychologischen Beratern”

Der Begriff „Psychotherapeut“ ist als akademischer Heilberuf (genau wie “Arzt” und “Apotheker”) geschützt, d.h. er darf nur mit der entsprechenden Ausbildung und einem vorher absolvierten wissenschaftlichen Hochschulstudium (Psychologie oder Medizin) getragen werden, ansonsten macht man sich strafbar. Dies soll im Grunde dabei helfen, die Menschen vor unseriösen Behandlern mit geringfügiger bis fehlender Ausbildung zu schützen. Leider jedoch ist es nicht verboten, auf sein Praxisschild “Psychotherapie” zu schreiben. Heilpraktiker (die ich an dieser Stelle natürlich weder diffamieren noch als grundsätzlich unseriös bezeichnen möchte) können aufgrund des fehlenden Studiums nicht den Titel des Psychotherapeuten (und eben auch keine Approbation) erlangen, sondern nur den Zusatz „Psychotherapie HGP“, wobei HPG für das Heilpraktikergesetzt steht. Auch hier ist aus meiner Sicht häufig die Qualität gegenüber der Behandlung bei Psychologischen oder Ärztlichen Psychotherapeuten als fraglich einzustufen, und allzu häufig finden sich eher esoterische statt wissenschaftlich fundierte und oft wenig verantwortungsvoll angebotene “Heilbehandlungen”.  Nicht selten finden sich in diesem Kontext die Bezeichnungen “Heilpraktiker Psychotherapie” oder “Psychotherapeutischer Heilpraktiker”. Was viele Patienten nicht wissen, ist, dass der Beruf des Heilpraktikers an sich nur recht wenigen gesetzlichen Regularien unterliegt (es gibt, anders bei als bei Psychotherapeuten und Ärzten, zum Beispiel keine Berufsordnung) – und Heilpraktiker, im Gegensatz zu Psychotherapeuten und Ärzten, über keine Approbation, sondern lediglich über eine Erlaubnis zur Ausübung der Heilkunde verfügen. Es gibt zwar eine relativ umfangreiche und keinesweg einfache Prüfung, die man bestehen muss, um sich Heilpraktiker nennen zu dürfen, aber es gibt keine staatlich geregelte und somit keine einheitliche Ausbildung zum Heilpraktiker, so dass jedem selbst überlassen ist, wie er sich den Prüfungsstoff aneignet.

Bevor 1999 das Psychotherapeutengesetzt in Kraft trat und all das regelte, was ich hier beschreibe, war eine solche Erlaubnis als Heilpraktiker (traurigerweise) die einzige Möglichkeit für Psychologen, psychotherapeutisch tätig zu werden. Aber auch heute noch nutzen manche Psychologen dieses “Schlupfloch”, um die lange und teure Ausbildung zum Psychotherapeuten zu umgehen und Patienten (dann i. d. R. auf Selbstzahlerbasis) behandeln zu können.

Vorsicht ist auch bei der Berufsbezeichnung “Psychologischer Berater” geboten, da es sich auch hier nicht um echte Psychologen handelt. Eine solche Qualifikation kann man bei diversen Heilpraktikerschulen in einigen Monaten erwerben und ist nicht im Entferntesten mit einem Studium in Psychologie zu vergleichen, wenngleich man hierdurch sicherlich besser auf eine beratende Tätigkeit vorbereitet wird, als wenn man einfach so loslegt. Dennoch würde ich, wenn man nach psychologischer Beratung sucht (die im Gegensatz zur Psychotherapie leider keine Leistung der Krankenkassen ist), immer darauf achten, dass die betreffende Person, an die ich mich wende, auch tatsächlich einen Universitätsabschluss in Psychologie (Master oder Diplom oder zumindest einen Bachelor) vorweisen kann.

Und was sagt nun ein Doktortitel aus?

Weil dieser Artikel sonst viel zu lang wäre, das Thema “Doktortitel” bei der Orientierung im Wirrwarr der Psych-Berufe aber nicht fehlen darf, habe ich es einfach in einen zweiten Artikel “ausgelagert”, den Sie hier finden. Viel Spaß beim Weiterlesen!

© Dr. Christian Rupp 2020

Intelligenz – Teil 3: Warum man nicht nur einen IQ hat und wir lange Zeit immer schlauer wurden

Vorab: Was ist eigentlich “der IQ”?

Der so genannte Intelligenzquotient, kurz IQ, ist im Grunde schon der Schlüssel zu der Art und Weise, wie er berechnet wird – und doch wird diese Tatsache im alltäglichen Sprachgebrauch viel zu selten berücksichtigt. Ursprünglich erfolgte die Berechnung dieses Maßes für menschliche Intelligenz allerdings auf etwas andere Weise als heute. Geprägt wurde der Begriff des Intelligenzquotienten nämlich durch den Psychologen William Stern, der den von Alfred Binet geprägten Begriff des Intelligenzalters aufgriff und weiterentwickelte. Das Intelligenzalter ergibt sich nach Binet, grob gesagt, durch die Summe der gelösten Aufgaben in einem Intelligenztest. Aufschluss über die kognitive Leistungsfähigkeit gibt dann der Vergleich von Intelligenzalter und tatsächlichem Lebensalter: Wenn ein 8-jähriges Kind z.B. deutlich mehr (d.h. schwierigere) Aufgaben löst, als andere 8-jährige Kinder es im Durchschnitt tun, dann könnte sein Intelligenzalter z.B. 9,5 Jahre betragen – mit anderen Worten: Dieses Kind wäre in seiner kognitiven Entwicklung schon überdurchschnittlich weit fortgeschritten. William Stern setzte schließlich diese beiden Größen (also das Lebensalter und das Intelligenzalter nach Binet) einfach ins Verhältnis (bildete also einen Quotienten), multiplizierte sie mit dem Faktor 100 – und schon war der IQ geboren. Für unser Beispiel-Kind ergäbe sich somit ein IQ von (9,5/8)*100 = 118,75 (bzw. 119, da es aufgrund der nicht perfekten Reliabilität von Intelligenztests unüblich ist, IQ-Werte mit Nachkommastellen anzugeben).

Heutzutage berechnet man den IQ nicht mehr auf diese Weise, wenngleich das Grundprinzip der Berechnung erhalten geblieben ist: Weiterhin werden zwei verschiedene Werte miteinander ins Verhältnis gesetzt, weshalb der Begriff “Quotient” auch heute noch gerechtfertigt ist. Dies ist mit einer ganz wichtigen Tatsache verbunden, die in der Öffentlichkeit und in den Medien leider so oft untergeht: Es gibt nicht den IQ, und es ist keineswegs so, dass ein Mensch genau einen IQ hat. Derartige Aussagen kann man guten Gewissens als Unsinn bezeichnen. In der Tat kann man einer jeden Person unzählige IQ-Werte zuweisen; aber um zu verstehen, warum das so ist, muss man sich vor Augen führen, wie der IQ berechnet wird.

Wie schon gesagt, basiert die IQ-Berechnung auf dem Bilden von Verhältnissen. Was wird nun ins Verhältnis gesetzt? Grob gesagt wird (egal mit welchem Intelligenztest) immer ein Rohwert zu einem bestimmten Mittelwert und einer Standardabweichung gesetzt. Der Rohwert meint meist die Anzahl der in einem Intelligenztest gelösten Aufgaben (was deshalb Sinn macht, weil fast alle diese Tests so aufgebaut sind, dass die Aufgaben im Verlauf immer schwieriger werden). Bei unserem Beispiel-Kind von oben könnten das z.B. 21 von 30 Aufgaben sein. So, dieser Rohwert sagt einem zunächst einmal gar nichts. Um an einen IQ-Wert zu gelangen, braucht man zusätzlich eine Normstichprobe, d.h. eine repräsentative Stichprobe anderer Menschen, mit der man das Kind nun vergleichen kann. Von dieser Normstichprobe braucht man zwei Informationen: den Mittelwert (d.h. die durchschnittliche Zahl der gelösten Aufgaben in dieser Gruppe von Menschen, hier z.B. 18,1) und die Standardabweichung (d.h. die “durchschnittliche” Abweichung von diesem Mittelwert, z.B. 2,7). Nun muss die Zahl der von unserem Beispiel-Kind gelösten Aufgaben ins Verhältnis zu dieser Normstichprobe gesetzt werden . Hierzu berechnet man zunächst die Differenz zwischen dem Rohwert des Kindes und dem Mittelwert der Normstichprobe: 21-18,1 = 2,9. Dies ist die also die “Abweichung” unseres Kindes vom Mittelwert der Normstichprobe – und diese muss man nun ins Verhältnis setzen zur “durchschnittlichen Abweichung” vom Mittelwert der Normstichprobe (also deren Standardabweichung); d.h. man rechnet: 2,9/2,6 = 1,12. Man sagt: Das Kind liegt etwas mehr als eine Standardabweichung über dem Mittelwert der Normstichprobe. Nun fehlt nur noch die Umrechung in IQ-Werte. Hierzu nutzt man die Tatsache, dass IQ-Werte eine Art Maßzahl sind – deren Mittelwert und deren Standardabweichung festgelegt sind. D.h., man kann sie nutzen, um die Ergebnisse unterschiedlichster Tests (die alle andere Skalierungen verwenden), in ein und derselben Metrik anzugeben. Der Mittelwert des IQ ist auf 100 festgelegt, und die Standardabweichung auf einen Wert von 15. Um unserem Kind nun einen IQ-Wert zuweisen zu können, muss man nur noch den Wert 1,12 mit 15 multiplizieren und 100 addieren – und es ergibt sich ein IQ von 116,8 (bzw. 117).

Und schon hat man das, was in der Praxis meist noch in viel gravierender Form auftritt: Die beiden IQ-Werte (119 und 117) sind nicht gleich. Während es in unserem konstruierten Fall natürlich daran liegt, dass ich bei der obigen Berechnung die Werte ins Blaue hinein erfunden habe, liegt es in der Realität an einem anderen Faktor – nämlich an der Frage, welche Normstichprobe ich heranziehe, um die Person, deren IQ ich messen will, mit ihr zu vergleichen. Im Allgemeinen sollte man hierzu immer diejenige Normstichprobe wählen, die der Person bezüglich Alter und Geschlecht am ähnlichsten und zudem möglichst aktuell ist. Es finden sich aber auch noch feiner aufgegliederte Normen, z.B. auch bezüglich des Bildungsstands oder der besuchten Schulform. Ein IQ-Wert bedeutet immer nur, wie gut oder schlecht die Leistungen einer Person im Vergleich mit einer ihr möglichst ähnlichen Gruppe von Menschen sind. Und das ist genau der Grund, aus dem man für ein und denselben Menschen unzählige IQ-Werte berechnen kann – und ein IQ-Wert völlig ohne Aussage ist, solange man nicht mit angibt, zu welcher Normstichprobe man die Person ins Verhältnis gesetzt hat: Wenn der IQ unseres Kindes aus dem Vergleich mit einer Stichprobe Fünfjähriger resultiert, würde man den IQ von 118 nicht als besonders hoch einstufen; stammt er jedoch aus einem Vergleich mit einer Gruppe 16-Jähriger, kann man sich ziemlich sicher sein, dass das Kind wohl hochbegabt ist. Das ganze noch einmal in Kürze: Wenn jemand Ihnen das nächste Mal erzählt, er habe einen IQ von 150 – dann fragen Sie ihn doch bitte, aus dem Vergleich mit welcher Normstichprobe dieses Ergebnis resultiert.

Wie ist Intelligenz in der Menschheit verbreitet?

Wie oben bereits erwähnt, handelt es sich bei IQ-Werten um eine standardisierte Skala, auf der sich durch einfache Umrechnung alle möglichen Werte abbilden lassen, solange man die zwei wichtigen Angaben vorliegen hat: den Mittelwert und die Standardabweichung der betreffenden Stichprobe. Wann immer ich im Rest dieses Artikels von IQ-Werten spreche, bitte ich, dieses zu berücksichtigen.

Wie man aus zahlreichen Untersuchungen an großen repräsentativen Stichproben weiß, folgen IQ-Werte in der menschlichen Bevölkerung ziemlich genau einer so genannten Gauss’schen Normalverteilung (auch Gauss’sche Glockenkurve oder einfach kurz Normalverteilung genannt). Bei diesem Begriff handelt es sich im Grunde um eine Art “Etikett”, da es eine besondere Form von Verteilung bezeichnet, der (statistische) Werte (wie eben IQ-Werte) folgen können. Eine Normalverteilung lässt sich anhand zweiter Werte genau beschreiben, und zwar wiederum anhand des Mittelwertes und der Standardabweichung, die maßgeblich die Form der Kurve beeinflussen. Was ich im vergangenen Abschnitt noch verschwiegen habe, ist der sehr wichtige Umstand, dass die Tatsache, dass IQ-Werte einer solchen Normalverteilung folgen, einen ganz entscheidenden Vorteil mit sich bringt: nämlich den, dass die Berechnungen und Umrechnungen, die ich oben dargestellt habe, dadurch überhaupt erst mathematisch zulässig sind. Würden IQ-Werte keiner Normalverteilung folgen, hätten wir es um einiges schwieriger. So jedoch lässt sich (wie oben schon erwähnt) guten Gewissens sagen: IQ-Werte haben in der menschlichen Bevölkerung einen Mittelwert von 100 und eine Standardabweichung von 15. Um das ganze einmal ein bisschen plakativer zu machen, habe ich einmal eine entsprechende Abbildung gebastelt.

Verteilung des IQ in der Bevölkerung
Verteilung des IQ in der Bevölkerung

Um diese Glockenkurve nun zu verstehen, ist es wichtig, dass man nicht versucht, die y-Achse zu interpretieren (weshalb ich sie auch weggelassen habe). Mathematisch betrachtet handelt es sich bei dieser Kurve um eine Dichte-Funktion, d.h. auf der y-Achse ist die schwer interpretierbare Dichte abgetragen. Man darf und kann diese Kurve daher nicht direkt so lesen, dass sie einem Aufschluss darüber gibt, wie vielen Prozent der Menschen welcher IQ-Wert zugordnet ist (das geht daher nicht, weil die Intelligenz hier mathematisch als stetiges Merkmal konzipiert ist – aber nun genug mit dem statistischen Wirrwarr).

Sinnvoll interpretierbar ist hingegen das Integral, also die Fläche unter der Glockenkurve. Mit deren Hilfe kann man zumindest Aussagen darüber treffen, wie viele IQ-Werte sich in einem bestimmten Bereich bewegen. So liegen z.B. im Bereich einer Standardabweichung unter- und überhalb vom Mittelwert von 100 (also zwischen den IQ-Werten von 85 und 115) rund 68% aller IQ-Werte, und somit auch aller Menschen. Zwischen 70 und 130 liegen derweil z.B. rund 95% aller Werte, d.h. es liegen nur 2,5% unter 70 und 2,5% über 130. Als Konvention hat sich daher eingebürgert, alle IQ-Werte zwischen 85 und 115 als “durchschnittlich” zu bezeichnen, Werte zwischen 70 und 85 als “niedrig” und Werte zwischen 115 und 130 als “hoch”. “Hochintelligent” ist daher streng genommen etwas anderes als “hochbegabt”, was sich als Begriff für IQ-Werte über 130 etabliert hat. Zur Erinnerung: Diese Menschen liegen bzgl. ihrer kognitiven Leistungen mehr als zwei Standardabweichungen über dem Mittelwert ihrer (hoffentlich) alters- und geschlechtsspezifischen Normstichprobe. Ähnliches gilt in umgekehrter Richtung für IQ-Werte unter 70. Hier bewegen wir uns (allerdings noch mit bedeutenden Abstufungen!) im Bereich der geistigen Behinderung (für deren Definition vorrangig der IQ herangezogen wird). Diese praktischen Prozentangaben haben einen weiteren Vorteil: Man kann jedem IQ-Wert einen Prozentrang zuweisen und somit z.B. Aussagen der Sorte “besser als 84% aller Mitglieder der Normstichprobe” (bei einem IQ von 115) treffen. Um zu der Anmerkung von vorhin zurückzukommen: Ein IQ von 150 würde bedeuten, dass 99,96% der Menschen in der Normstrichprobe (und somit gewissermaßen auch in der Bevölkerung, für die die Normstichprobe ja repräsentativ sein soll) einen niedrigeren Wert aufweisen: Und das ist, wie sie auch an der Abbildung sehen können, hochgradig unwahrscheinlich – mal davon abgesehen, dass kein Intelligenztest einen so hohen Wert vernünftig messen kann (Thema des nächsten Artikels).

Exkurs: Männer & Frauen

Ein ganz heikles Thema ist es natürlich, ob nun Männer oder Frauen im Durchschnitt intelligenter sind. Der mir bekannte aktuelle Forschungsstand hierzu ist der, dass es – bezüglich der allgemeinen Intelligenz – einen marginalen Unterschied dahingehend gibt, dass Männer ein paar wenige IQ-Punkte vorne liegen, gleichzeitig aber die Varianz bei Männern höher ist: Sowohl in den sehr hohen als auch in den sehr niedrigen IQ-Bereichen überwiegen Männer. Dazu sei noch gesagt, dass dieser Unterschied durch zwei Aspekte an Bedeutung verliert: Zum einen ist die Varianz innerhalb jeder der beiden Gruppen um ein Vielfaches größer als der Unterschied zwischen den Gruppen, und zum anderen ist es gut möglich, dass jener Unterschied dadurch zustande gekommen ist, dass viele Intelligenztests bestimmte Aufgaben in den Vordergrund stellen, die Männer bevorteilen. Denn was als gut gesichert gilt, ist, dass Männer und Frauen sich deutlich hinsichtlich ihrer kognitiven Stärken und Schwächen unterscheiden: Es gilt als sehr robuster Befund, dass Männer z.B. im Mittel besser im visuell-räumlichen Denken abschneiden als Frauen, die wiederum im Durchschnitt die Nase vorn haben, was die verbale Intelligenz betrifft.

Der Flynn-Effekt: Wird die Menschheit wirklich immer intelligenter?

Eine andere Fragestellung ist die, ob der durchschnittliche IQ der Menschheit tatsächlich zunimmt – ein Phänomen, das in Anlehnung an den neuseeländischen Politologen James R. Flynn als Flynn-Effekt bezeichnet wird. Dieser Fragestellung auf den Grund zu gehen, ist aufgrund der beschriebenen Berechnungsweise des IQ gar nicht so einfach – denn um herauszufinden, ob der IQ im Mittel steigt, darf man Menschen eben nicht mit aktuellen Normstichproben vergleichen, sondern muss ältere heranziehen: Nur so kommt man dem Flynn-Effekt auf die Schliche.

In der Tat haben groß angelegte Studien ergeben, dass der mittlere IQ in der westlichen Bevölkerung zwischen den 1930er und den 1990er Jahren um 0,2 – 0,5 Punkte pro Jahr gestiegen ist. Dieser Anstieg ergibt sich natürlich aus dem Vergleich mit den immer gleichen Normen aus den 1930er Jahren – anders wäre ein Anstieg ja gar nicht messbar. Dabei nahmen die Leistungen in nicht-sprachlichen Tests (die vor allem fluide Intelligenz messen) deutlich stärker zu als die in sprachlich basierten Tests (die vor allem kristalline Intelligenz messen). Für diesen Befund wurden diverse Erklärungshypothesen diskutiert, die im Folgenden kurz angeschnitten werden sollen.

Dauer des Schulbesuchs und Erfahrung mit typischen Intelligenztestaufgaben

In der Tat nahm die durchschnittliche Dauer des Schulbesuchs in dieser Zeit deutlich zu – was deshalb wichtig ist, weil somit auch die Erfahrung und die Geübtheit im systematischen Lösen von schulischen Aufgaben zunahm, die typischen Intelligenztests sehr ähnlich sind. Der Anteil dieser Faktoren am Flynn-Effekt ist jedoch eher als gering zu einzustufen.

Erziehungsstil

Weiterhin wurde in den Raum geworfen, dass der typische elterliche Erziehungsstil in dieser Zeitspanne natürlich auch einem erheblichen Wandel unterlegen war. Konkret wird von den Vetretern dieser Hypothese angeführt, dass von Eltern zunehmend Wert darauf gelegt wurde, ihre Kinder schon früh in ihrer kognitiven Entwicklung zu fördern. Dieser Trend fand aber nicht nur im familiären Rahmen, sondern auch in viel größerem Maße in den Medien (Beispiel “Sesamstraße”) und in der Politik statt. Die Befunde hierzu sind widersprüchlich. Während man weiß, dass große, national initiierte Bildungsprogramme eher keine Wirksamkeit bezüglich der Erhöhung des durchschnittlichen IQs vorweisen können, wirkt sich frühe Förderung auf der individuellen Ebene durchaus positiv auf die kognitive Entwicklung aus.

Weniger Fälle geistiger Behinderung

Zu bedenken ist sicherlich auch, dass aufgrund besserer medizinischer Versorgung die Zahl der mit geistigen Behinderungen geborenen Kinder in der beschriebenen Zeitspanne zurückgegangen ist. Einige Studien hierzu messen diesem Aspekt im Hinblick auf den Flynn-Effekt eine zentrale Bedeutung bei: Durch den überproportionalen Wegfall sehr niedriger IQ-Werte (<70) in der Bevölkerung stieg der durchschnittliche IQ im Mittel an.

Ernährung

Es ist gut belegt, dass bessere Ernährung (z.B. vitaminreiche Kost, weniger Schadstoffe, etc.) die geistige Entwicklung von Kindern positiv beeinflusst. Durch ungesunde Ernährung kann es z.B. zu Schilddrüsenunterfunktionen kommen (gekennzeichnet durch einen Mangel an Triiodthyroxin und Triiodthyronin), die dann wiederum eine Verzögerung der geistigen Entwicklung bedingen können, sodass der mittlere IQ infolgedessen gestiegen sein könnte.

Vermutlich ist es tatsächlich nicht einer dieser Faktoren, die den Flynn-Effekt erklären, sondern ihr Zusammenspiel. Interessanterweise ist es derweil übrigens so, dass der Anstieg des mittleren IQ seit Anfang der 1990er Jahre als “gestoppt” gilt, sodass man zumindest momentan sagen kann, dass der Flynn-Effekt der Vergangenheit angehört. Manche deuten dies als Beleg für die Richtigkeit der Ernährungshypothese (da die Nahrungsversorgung in der westlichen Gesellschaft gewissermaßen nicht noch viel besser werden kann), ich jedoch würde eher sagen, dass diese Tatsache der “Sättigung” in entsprechender Weise auf alle Erklärungsansätze zutrifft.

In diesem Artikel habe ich mehrfach schon das Thema der Intelligenzmessung gestreift. Ob, wie – und vor allem – wie genau man die Intelligenz eines Menschen tatsächlich messen kann, wird daher der Inhalt des nächsten Artikels sein.

© Christian Rupp 2014

Intelligenz – Teil 2: Die Sicht der wissenschaftlichen Psychologie

Nachdem ich im ersten Artikel zum Thema “Intelligenz” versucht habe, zu beschreiben, wie die Definition des Konstrukts “Intelligenz” von Kultur zu Kultur schwankt, soll es in diesem Beitrag nun darum gehen, wie die wissenschaftliche Psychologie die Intelligenz betrachtet und wie sehr auch unter den Experten auf diesem Gebiet die Meinungen hierüber auseinander gehen.

Die Intelligenzforschung nahm ihren Anfang in den ersten Jahrzehnten des 20. Jahrhunderts, initiiert durch Charles Spearman, den ersten Psychologen, der sich der Erforschung dieses Kontrukts widmete. Er war es auch, der das erste Intelligenzmodell formulierte, welches heutzutage unter dem Begriff der “Zweifaktorentheorie der Intelligenz” bekannt ist. Dieses Modell basiert, wie fast alle anderen Modelle, die im Übrigen grundsätzlich auf Spearmans Modell aufbauen, auf dem Prinzip der Faktorenanalyse, d.h. auf einem statistischen Verfahren, mit dessen Hilfe man anhand typischer Muster von häufig gemeinsam gelösten und gemeinsam nicht gelösten Aufgaben Rückschlüsse über die Formen von Intelligenz ziehen kann, die von einer Gruppe ähnlicher Aufgaben erfordert werden und somit unterschiedliche Subtypen von Intelligenz darstellen.

Nun hat die Faktorenanalyse aber den Nachteil, dass die Ergebnisse, die sie liefert (die so genannte Faktorstruktur) dem Wissenschaftler enorm viel Interpretationsspielraum lassen und man aus dem gleichen statistischen Ergebnis unterschiedliche Modelle über die Struktur der Intelligenz, d.h. ihre verschiedenen Unterformen, ableiten kann. Das Ergebnis sind unterschiedliche hierarchische Modelle, die die sich allem voran in einem ganz wesentlichen Punkt unterscheiden, und zwar der Frage, ob es einen allgemeinen, allen anderen intellektuellen Fähigkeiten übergeordneten, Generalfaktor der Intelligenz (auch g-Faktor oder einfach nur g genannt) gibt – oder ob die verschiedenen Formen der Intelligenz doch voneinander unabhängig sind. Dies hat für die Praxis sehr weitreichende Folgen, hängt es doch genau von dieser Frage ab, ob wir uns bei der Messung der Intelligenz auf einen einzelnen Wert beschränken können oder ob wir differenzierter vorgehen müssen. Auf der zweiten Ebene spaltet die allgemeine Intelligenz sich in einige wenige Unterfaktoren auf, die zumindest teilweise voneinander unabhängig sind, aber dennoch beide auch mit g zusammenhängen. Auf der dritten Ebene gliedern sich diese Unterfaktoren dann wiederum in spezifische intellektuelle Fähigkeiten wie z.B. Wortgewandtheit und logisches Schlussfolgern auf. Damit Ihnen die Vorstellung dieser (immer sehr ähnlich aufgebauten) hierarchischen Modelle etwas leichter fällt, habe ich in der unten stehenden Abbildung einmal selbst ein beispielhaftes Modell erstellt, von dem ich behaupten würde, dass es zwar vereinfacht ist, aber in vielerlei Hinsicht einen derzeit weit verbreiteten Konsens darstellt, nämlich die Annahme eines gewissen g-Faktors, eine Unterscheidung zwischen fluider und kristalliner Intelligenz auf der zweiten Ebene sowie einige typische, diesen beiden Faktoren wiederum unterordnete Subformen intellektueller/kognitiver Fähigkeiten. Worauf die einzelnen Komponenten dieses beispielhaften Modells jeweils zurückgehen, erfahren Sie in den nächsten Abschnitten.

Beispiel für ein hierarchisches Modell
Beispiel für ein hierarchisches Modell

 

Spearman: G thront über allem

Das von Spearman entwickelte Modell ist sowohl das allerälteste als auch dasjenige, das den Begriff des g-Faktors bzw. der “Allgemeinen Intelligenz” geprägt hat. Spearman interpretierte die aus der Faktorenanalyse resultierenden hohen Korrelationen (= statistische Zusammenhänge) zwischen den Lösungsmustern unterschiedlichster Aufgaben derart, dass es einen solchen Generalfaktor der Intelligenz geben müsse, da, grob gesagt, Personen, die in einem Aufgabenbereich (z.B. räumliches Denken) gut abschnitten, tendenziell auch in anderen Bereichen (z.B. Wortschatz und logisches Schlussfolgern) gute Ergebnisse erzielten. Dieser Generalfaktor, so Spearman, sei die Grundlage aller Leistungen in Intelligenztests, und er beschreibt ihn als die “Fähigkeit, Zusammenhänge wahrzunehmen und daraus Schlüsse zu ziehen” – kurz: als “mentale Energie”. G untergeordnet sind im Spearman-Modell nur die “spezifischen Fähigkeiten”, die mit s bezeichnet werden und sprachliche, mathematische und räumliche Intelligenz umfassen. D.h. es gibt im Gegensatz zum oben skizzierten Beispielmodell keinerlei mittlere Ebene.

Auf Spearmans Modell basieren mehrere Intelligenztests, die auch heute noch weit verbreitet sind. Man erkennt diese Tests daran, dass sie am Ende die Berechnung eines Intelligenzquotienten ermöglichen, der als Index für das Niveau der Allgemeinen Intelligenz herangezogen wird. Hierzu gehören z.B. alle Tests aus der Wechsler-Reihe (die aktuellsten sind der Wechsler Intelligenztest für Erwachsene, kurz WIE, und der Hamburg Wechsler Intelligenztest für Kinder in seiner 4. Ausgabe, kurz HAWIK-IV) sowie die Raven-Tests, die nur aus Matrizen-Aufgaben (“Welches Bild gehört in das leere Kästchen?”) bestehen und zum Ziel haben, unabhängig von Sprache und Kultur abstraktes, nicht angewandtes Denken zu erfassen.

Abgrenzung von Spearman: Thurstone & Cattell

Im Verlauf des 20. Jahrhunderts wurde dann von anderen Psychologen eine Fülle weiterer, meist auf Faktorenanalysen und ihrer Interpretation basierender Intelligenzmodelle entwickelt, die sich, wenn man einmal ehrlich ist, nicht wirklich exorbitant voneinander unterscheiden. Dies hat sicherlich auch damit zu tun, dass sie fast ausnahmslos in Abgrenzung vom Spearman-Modell enstanden sind und sich somit alle in irgendeiner Form hierauf beziehen. Der zweite Grund ist der, dass man in der Wissenschaft leider auch nicht ständig das Rad neu erfinden kann.

Das Primärfaktorenmodell nach Thurstone: Ebenbürtiges Nebeneinander?

Anders als Spearman betrachtete Louis Leon Thurstone die Intelligenz als eine Sammlung von sieben klar voneinander angrenzbaren, also unabhängigen Intelligenzarten. Diese sieben Primärfaktoren sind: Rechenfähigkeit, Auffassungsgeschwindigkeit, schlussfolgerndes Denken, räumliches Vorstellungsvermögen, assoziatives Gedächtnis, Sprachbeherrschung und Wortflüssigkeit. Widergespiegelt wird dies durch den bekannten Intelligenz-Struktur-Test, kurz IST-2000-R, in dem eben nicht ein IQ-Wert am Ende berechnet wird, sondern mehrere. Kritisch an diesem Modell ist anzumerken, dass Thurstone bei seinen Faktorenanalysen in den Augen einiger Wissenschaftler etwas “gepfuscht” hat, da er anstatt einer orthogonalen eine oblique Faktorenrotation verwendete – mit dem Ergebnis, dass seine sieben Primärfaktoren leider doch nicht völlig unabhängig voneinander sind. Thurstone räumte tatsächlich später ein, dass diese Kritik berechtigt sei, und erkannte einen gewissen g-Faktor als mögliche Ursache dieser Zusammenhänge an.

Die Zweikomponententheorie nach Cattell: Einführung einer mittleren Ebene

Raymond Bernard Cattell hingegen nahm von vornherein einen g-Faktor als oberste Instanz in seinem Intelligenzmodell an, war zugleich aber der erste, der eine mittlere Ebene (wie im obigen Beispielmodell gezeigt) einführte. Auf ihn geht die bis heute weit etablierte und bewährte Unterscheidung zwischen kristalliner (meist abgekürzt c) und fluider Intelligenz (meist abgekürzt f) zurück, in die sich im zufolge die Allgemeine Intelligenz aufspaltet. Unter der fluiden Intelligenz versteht Cattell eine generelle Denk- und Problemlösefähigkeit, die er als weitgehend unabhängig von kulturellen Einflüssen versteht und die eine wichtige Voraussetzung für den Erwerb neuer Informationen darstellt. Nach Cattell ist die fluide Intelligenz ein angeborenes Merkmal, die sich im Laufe des Lebens stabilisiert oder sogar gegen Ende stagniert. Gegenteilig hierzu verhält sich die bis zum Lebensende stetig anwachsende kristalline Intelligenz, die als kumulative Lebenserfahrung zu sehen ist. Dies deutet bereits darauf hin, dass diese sämtliches im Laufe des Lebens erworbenes Wissen, erworbene Fertigkeiten und Kompetenzen umfasst. Diese erachtet Cattell als stark von kulturellen Einflüssen geprägtes und maßgeblich von sprachlichen Fähigkeiten bestimmtes Konstrukt. Fluide und kristalline Intelligenz sind somit, wie es typisch für Elemente der mittleren Ebene ist, insofern nicht gänzlich unabhängig voneinander, als sie durch die “gemeinsame Mutter” g verbunden sind, und gleichzeitig ist ihr Zusammenhang hinreichend gering, um sie als zwei separate Unterfaktoren zu betrachten. Dabei wird übrigens durchaus angenommen, dass c und f auf vielfältige Weise interagieren: Zum Beispiel wird davon ausgegangen, dass eine gut ausgeprägte fluide Intelligenz den Erwerb von kritalliner Intelligenz in Form von Wissen und Fertigkeiten erleichtert. Cattells Modell ähnelt sehr stark dem von John B. Carroll. Da letzteres keinen meiner Meinung nach wesentlichen Unterschied aufweist, werde ich es an dieser Stelle nicht gesondert beschreiben.

Auch Cattells Theorie ist in die Entwicklung von Intelligenztests eingeflossen. So findet sich (wenn auch nicht explizit so bezeichnet) die Unterteilung in f und c auch im IST-2000-R wieder. Die Tests aus der Wechsler-Serie erfassen typischerweise leicht überwiegend kristalline Intelligenz, während die ebenfalls bereits erwähnten Raven-Tests, ebenso wie die so genannten Culture Fair Tests (kurz CFTs), hauptsächlich fluide Intelligenz messen, um ausdrücklich kulturelle Unterschiede außen vor zu lassen und diesem Sinne “fair” zu sein.

Nicht-hierarchische Modelle

Neben den hierarchischen Modellen gibt es auch noch ein paar Vertreter, die von verschiedenen Intelligenzformen ausgehen, die unabhängig und sozusagen “gleichberechtigt” nebeneinander stehen, ohne dass es einen übergeordneten g-Faktor oder untergeordnete Fähigkeiten gäbe. Im Grunde hätte ich an dieser Stelle auch das Primärfaktorenmodell von Thurstone anführen können; da Thurstone aber im Nachhinein einen g-Faktor doch mehr oder weniger eingeräumt hat, findet es sich bei den hierarchischen Modellen.

Mehrdimensionale Modelle: Inhalt, Prozess & Co.

Zu den im Vergleich zu den hierarchischen Modellen fast schon exotisch anmutenden mehrdimensionalen Modellen gehören das Würfelmodell nach Guilford und das Berliner Intelligenzstrukturmodell nach Jäger. Beiden Modellen gemeinsam ist, dass sich eine sehr große Menge unterschiedlicher “Intelligenzen” ergeben, und zwar als Produkt einiger weniger Faktoren, die unterschiedliche Ausprägungen aufweisen können. Dabei beruhen auch diese Modelle auf Faktorenanalysen und sind somit ein anschaulicher Beleg dafür, auf welch unterschiedliche Weise man die im Prinzip gleiche Datenlage interpretieren kann.

Im Würfelmodell ist es so, dass sich 150 verschiedene Intelligenzarten als Produkt drei verschiedener Faktoren mit wiederum verschiedenen Ausprägungen ergeben. Unter diesen drei Faktoren versteht Guilford den zu verarbeitenden Inhalt (z.B. akustische Reize), den nötigen Vorgang (z.B. Auswertung der akustischen Reize) und das Produkt (z.B. Herausstellung der Implikationen). Das klingt sehr abtrakt, komplex und schwer überprüfbar, was es auch tatsächlich ist. Ähnliches gilt für das Berliner Intelligenzstrukturmodell, bei dem es im Gegensatz zum Würfelmodell nur zwei Faktoren gibt. Zum einen führt Jäger den Faktor “Operationen” an, als dessen mögliche Ausprägungen er Merkfähigkeit, Bearbeitungsgeschwindigkeit, Einfallsreichtum und Verarbeitungskapazität anführt. Zum anderen gibt es den Faktor “Inhalte” mit drei Varianten, und zwar bildhaftem, verbalem und numerischem Material. Insgesamt ergeben sich hieraus also 3×4=12 verschiedene Intelligenzformen, abhängig von der Art des zu bearbeitenden Materials und der Art der geforderten mentalen Operation. Jägers Modell enthält daneben übrigens auch noch einen g-Faktor, der in gewisser Weise allen Faktoren und ihren Ausprägungen gleichsam zugrunde liegt.

Die praktische Anwendung dieser Form von Modellen ist schwieriger als bei den oben beschriebenen Modellen, da, wenn man die Modelle ernst nimmt, für alle möglichen Kombinationen von Faktorausprägungen eine geeignete Aufgabe finden muss. Zwar hat Guilford für den Großteil der in seinem Modell postulierten Intelligenzfacetten inzwischen Aufgabentypen vorgeschlagen, dass diese jedoch in einen standardisierten Intelligenztest übertragen wurden, ist mir nicht bekannt. Anders sieht es mit dem (ja doch deutlich sparsameren) Jäger-Modell aus, welches in Form des Berliner Intelligenzstruktur-Tests (kurz BIS) Anwendung findet.

Gardners Theorie der Multiplen Intelligenzen: Ein Plädoyer gegen G

In den 1980er Jahren veröffentlichte Howard Gardner seine Theorie der Multiplen Intelligenzen und wetterte gewaltig gegen das Konzept der Allgemeinen Intelligenz bzw. den g-Faktor. Er argumentierte, dass klassische Intelligenztests nicht imstande wären, die Fülle an kognitiven Fähigkeiten, über die ein Mensch verfügen kann, zu erfassen, und schlug ein Modell mit sieben voneinander unabhängigen und nicht durch einen übergeordneten g-Faktor bestimmten Intelligenzfacetten vor. An diesem, ebenfalls auf Faktorenanalysen basierenden Modell ist, neben der Tatsache, dass die Unabhängigkeit der Intelligenzfacetten nicht belegt ist, zu kritisieren, dass es eine große Überlappung mit dem (lange vorher veröffentlichten) Thurstone-Modell aufweist (allein schon, was die Zahl der Faktoren angeht). So finden sich bei Gardner u.a. auch die logisch-mathematische, die sprachliche und die bildlich-räumliche Intelligenz. Neu sind allerdings vier Faktoren, die eher den Fokus auf künstlerische und sozio-emotionale Fähigkeiten legen, nämlich die musikalisch-rhythmische, die körperlich-kinästhetische (Einsatz des eigenen Körpers), die interpersonale (Verstehen von und Umgang mit anderen Menschen) und die intrapersonale Intelligenz (Verständnis seinerselbst). Insbesondere die letzten beiden Intelligenzarten sind in der Psychologie inzwischen anerkannte Konstrukte, werden jedoch eher nicht direkt als Form von Intelligenz betrachtet, sondern unter dem Begriff “sozio-emotionale Kompetenz” zusammengefasst (im Volksmund und in Klatschzeitschriften erfreuen sich allerdings die Begriffe “emotionale Intelligenz” und “soziale Intelligenz” allerdings weiter Verbreitung) und als etwas erachtet, das in der Regel in der Kindheit und in der Interaktion mit anderen Menschen erworben wird und eher nicht angeboren ist. Zu diesem Konstrukt gehören z.B. u.a. die Fähigkeit, die Perspektive anderer einzunehmen (Theory of Mind), die Fähigkeit, die emotionale Lage anderer nachzuempfinden (Empathie), das Bewusstsein über eigene emotionale Vorgänge, Wege der Emotionsäußerung und das Bewusstsein über die Wirkung der eigenen Emotionen auf andere sowie die Fähigkeit zur Regulation der eigenen Emotionen.

Sternbergs Triarchisches Modell: Radikale Abkehr vom Hierarchie-Gedanken?

Das von Robert Sternberg postulierte Triarchische Modell, auch bekannt unter dem Namen Komponentenmodell, basiert auf der Informationsverarbeitungstheorie, die, grob gesagt, die menschliche Kognition als Informationsverarbeitungsprozess betrachtet, und gibt vor, eine radikale Abkehr von hierarchischen Strukturen und der Annahme voneinander abgrenzbarer Faktoren darzustellen. Es ist daher auch das einzige bekannte Intelligenzmodell, das nicht auf Faktorenanalysen beruht. Sternberg prägte hiermit auch eine neuartige Definition von Intelligenz und nannte als Teile der Definition die Elemente “Lernen aus Erfahrung”, “abstraktes Schlussfolgern”, “die Fähigkeit, sich einer sich ständig weiterentwickelnden und verändernden Umwelt anzupassen” und “die Motivation, überhaupt neues Wissen bzw. Fertigkeiten zu erlangen”. Die ersten beiden Aspekte überlappen stark mit der kristallinen und der fluiden Intelligenz, die beiden letzten hingegen sind in der Tat relativ neu und haben bisher kaum Eingang in die Messung von Intelligenz gefunden.

Die eigentliche Intelligenztheorie von Sternberg ist hingegen sehr komplex und meiner Ansicht alles andere als leicht verständlich. Ich wage auch, die kühne Behauptung aufzustellen, dass sich diese Theorie kaum prägnant zusammenfassen lässt, weil sie sich teilweise in Einzelheiten verliert. Daher möchte ich mich darauf beschränken, einige meiner Meinung nach wichtige Teilaspekte der Theorie herauszustellen. Zunächst wird, abgeleitet von der Informationsverarbeitungstheorie, die wichtige Unterscheidung getroffen zwischen der Art des ablaufenden kognitiven Prozesses, der Genauigkeit, mit dem dieser abläuft, und der Art der mentalen Repräsentation, die diesem Prozess zugrunde liegt (z.B. bildliches oder sprachliches Material). Insofern erinnert es es schon an dieser Stelle stark an die oben beschriebenen mehrdimensionalen Modelle. Dann verliert sich die Theorie (meiner Auffassung nach) in mehr und mehr Unter-Theorien, die einen eher geringen Erklärungswert haben und darüber hinaus mehr Ähnlichkeit mit den bereits beschriebenen Modellen haben, als man eigentlich aufgrund der revolutionären Aura der Theorie erwarten würde. Wirklich eingängig ist mir lediglich die “Komponenten-Subtheorie”, die drei Intelligenzkomponenten beschreibt und im Gegensatz zum Rest relativ anschaulich ist. Und zwar stellt Sternberg hier die analytische Intelligenz (abstrakte Denkprozesse, die einer Problemlösung vorausgehen), die praktische Intelligenz (Lösung von Problemen durch Anpassung an die Umwelt, Formung einer Umwelt oder Auswahl einer passenden Umwelt) und die kreative Intelligenz (Nutzen von Erfahrungen zur Lösung von Problemen) dar. Diese, so Sternberg, seien aber nicht in ein hierarchisches System eingebunden und stellten auch keinerlei Intelligenzfaktoren im klassischen Sinne dar – vielmehr seien sie eine Beschreibung dessen, was die Intelligenz leisten muss. Was genau er damit meint, und in wiefern dieser Gedanke sich wirklich von den beschriebenen hierarchischen oder mehrdimensionalen Modellen unterscheidet, bleibt zumindest mir unklar. Fest steht, dass Sternberg keinen g-Faktor anerkennt – doch dies allein ist, wie ich ausführlich dargestellt habe, nichts Revolutionäres.

Fazit

Was ich hoffe, vermittelt zu haben, ist, dass es derzeit kein allgemeingültiges und eindeutiges Verständnis dessen gibt, was “Intelligenz” ist, in wie vielen verschiedenen Formen sie vorliegt und ob es einen allem übergeordneten g-Faktor gibt. Wenn man sich die empirische Evidenz anschaut, muss man allerdings zugeben, dass die Existenz einer Allgemeinen Intelligenz bzw. eines solchen g-Faktors sehr wahrscheinlich ist, da sich die starken Zusammenhänge zwischen unterschiedlichsten Intelligenztestaufgaben nicht einfach so wegdiskutieren lassen. Weitere Evidenz für dieses Konstrukt der Allgemeinen Intelligenz findet sich übrigens auch aus der Anwendungsforschung, z.B. aus der Arbeits- und Organisationspsychologie, die ergeben hat, dass die Allgemeine Intelligenz mit Abstand der bester Prädiktor von Berufserfolg ist (Näheres dazu hier). Andererseits gibt es auch Belege, die deutlich zeigen, dass sich mit g auch nicht alles erklären lässt und eine Unterteilung auf unterer Ebene durchaus Sinn macht – so gilt die Unterscheidung zwischen kristalliner und fluider Intelligenz z.B. als gut belegt.

Für mich persönlich bedeutet dies, dass die “Wahrheit” (sollte es diese denn geben) am ehesten durch ein Modell abgebildet wird, das dem von Cattell bzw. Carroll ähnelt – vom Konzept also einem solchen, wie Sie es in der obigen Abbildung finden. Bedenken Sie aber, dass all diese Modelle im Wesentlichen unterschiedliche Interpretationen der weitgehend gleichen Sachlage sind und somit automatisch auch von der jeweiligen Ideologie geprägt sind, die ein Forscher vertritt (z.B. bzgl. der Frage, ob es einen g-Faktor geben darf). Und nicht zu vergessen ist auch, dass die Modelle sich, wenngleich sie sich alle natürlich als neuartig und daher wichtig darstellen, im Grunde nicht besonders stark unterscheiden – wenn man einmal genau nachdenkt.

Im nächsten Teil wird es um die Fragen gehen, was es mit dem Intelligenzquotienten auf sich hat, wie Intelligenz in der Bevölkerung verteilt ist und ob es stimmt, dass wir immer intelligenter werden.

© Christian Rupp 2014

Wirken alle Formen von Psychotherapie eigentlich gleich gut? Das Dodo-Bird-Verdict.

Zu dem folgenden Artikel wurde ich inspiriert durch einen am 3. Juni diesen Jahres in der taz veröffentlichten Zeitungsartikel zum Thema Psychotherapie. Eigentlich handelte er von den zahlreichen Hindernissen, die Patienten, die eine Psychotherapie in Anspruch nehmen möchten, in Deutschland überwinden müssen (aufgrund der chronischen Unterversorgung). Mitten im letzten Abschnitt fand sich aber dann eine These, die so, wie sie dort dargestellt wurde, definitiv nicht zutrifft. Diese lautete:

“Das am besten belegte Ergebnis der Psychotherapieforschung, auch als ‘Dodo Bird effect’ bekannt, ist nämlich, dass alle Therapien gleich gut wirken. Eine Überbetonung der Methode ist sogar eher kontraproduktiv.”

Zunächst einmal: Der Name “Dodo-Bird-Effect”, in der Forschung meist als “Dodo-Bird-Verdict” bezeichnet, ist, so seltsam er klingen mag, tatsächlich noch das Korrekteste in diesen ganzen zwei Sätzen. Der Begriff, der ursprünglich als Satire gemeint war, hat tatsächlich seinen Ursprung bei “Alice im Wunderland”, wo in einer Geschichte ein Dodo den Vorschlag macht, ein Rennen zu veranstalten, bei dem am Ende alle gewinnen, weil es kein Ziel gibt und auch die Zeit nicht gemessen wird. In der Psychotherapieforschung bezeichnet die Metapher derweil tatsächlich die These, dass alle Formen von Psychotherapie (eine Beschreibung der wichtigsten finden Sie hier) eigentlich gleich wirksam sind und es deshalb nicht auf spezifische Therapieinhalte (so genannte Interventionen) wie z.B. Konfrontationsübungen, kognitive Umstrukturierung (Veränderung von Denkmechanismen) oder ein Training sozialer Kompetenzen ankommt, sondern Psychotherapie ausschließlich über so genannte “unspezifische” Faktoren wirkt. Zu letzteren zählen vor allem die Qualität der therapeutischen Beziehung und das Ausmaß, in dem der Therapeut dem Patienten gegenüber empathisch ist, eine akzeptierende Haltung einnimmt und ihn  allgemein unterstützt.

Belege dafür

Dass eine nicht unwesentliche Zahl von Therapieforschern und praktisch tätigen Therapeuten die Sichtweise des Dodo-Bird-Verdict teilt, kommt nicht von ungefähr. Vermeintliche Belege hierfür stammen aus den Untersuchungen von Luborsky und Kollegen aus den Jahren 1975 und 2002. In beiden Artikeln trägt die Forschergruppe eine große Zahl von Studien zusammen, die systematisch jeweils zwei Therapieformen miteinander verglichen haben, z.B. kognitive Verhaltenstherapie und tiefenpsychologisch fundierte Psychotherapie. In solchen Studien wird dann der Unterschied der Wirksamkeit meist in der Einheit “Cohen’s d” (einem statistischen Effektstärkenmaß) angegeben. Zur Orientierung: Hierbei spiegeln d-Werte von 0,2 einen kleinen, solche von 0,5 einen mittleren und von 0,8 einen großen Unterschied wider. Schon 1975 konnte die Forschergruppe um Luborsky durch das Zusammentragen solcher Studien zeigen, dass bei den meisten dieser Studien nur sehr kleine und zudem statistisch nicht signifikante Unterschiede zwischen verschiedenen Therapieformen resultieren. 2002 berechnete dieselbe Forschergruppe dann im Rahmen einer Metaanalyse den mittleren Unterschied über sämtliche solche direkten Vergleichsstudien hinweg und kam auf einen Wert von 0,2. Die Schlussfolgerung war: Die Unterschiede zwischen verschiedenen Therapieformen sind so gering, dass sie zu vernachlässigen sind.

Kritik an den Luborsky-Studien

Allerdings kann man an sehr vielen Punkten Kritik an der Vorgehensweise dieser Forschergruppe üben. Die wesentlichsten Punkte seien hier kurz genannt:

  • Die Autoren differenzierten die Ergebnisse nicht nach der jeweiligen Störung, die behandelt wurde, sondern mittelten über alle Störungen hinweg.
  • Unterschiede innerhalb einer Therapieform (z.B. der tiefenpsychologisch fundierten Psychotherapie) wurden ignoriert.
  • Es wurden viele Studien eingeschlossen, die die Therapieformen nicht an klinisch kranken Probanden verglichen, sondern an gesunden Probanden mit leichten psychischen Auffälligkeiten (so genannte Analogstichproben) – dies mindert die Aussagekraft.
  • Die Autoren schlossen viele Studien mit kleinen Stichprobenumfängen ein, was es aus statistischen Gründen stark erschwert, etwaige Unterschiede zwischen den Therapieformen überhaupt signifikant nachweisen zu können.
  • Durch die Einschränkung auf Studien, die zwei Therapieformen direkt miteinander verglichen haben, bleiben viele wichtige Befunde aus randomisierten kontrollierten Studien unberücksichtigt.

Belege dagegen

Spezifische Interventionen wirken über unspezifische Wirkfaktoren hinaus

Die Psychotherapieforschung hat zwei wesentliche Befunde vorzuweisen (die aber nicht mit der im taz-Artikel aufgestellten Behauptung übereinstimmen): Erstens, dass die oben beschriebenen unspezifischen Wirkfaktoren (vor allem die Qualität des therapeutischen Arbeitsbündnisses bzw. der therapeutischen Beziehung sowie Empathie & Akzeptanz auf Seiten des Therapeuten) tatsächlich stark mit dem Erfolg der Therapie zusammenhängen. Der Effekt dieser Faktoren auf den Therapieerfolg liegt, statistisch ausgedrückt, immerhin bei einem d-Wert von 0,5 (mittlerer Effekt), wie sich aus einer Vielzahl von Studien ergeben hat. Vor allem sind dies randomisierte kontrollierte Studien mit einer Placebo-Kontrollgruppe, wo die Behandlung in der Placebo-Gruppe eben ausschließlich darin besteht, dass der Therapeut diese unspezifischen Wirkfaktoren umsetzt. Diese Placebo-Behandlung zeigt gegenüber Kontrollgruppen ohne jegliche Behandlung bereits gute Therapieeffekte, aber: Sie sind gleichzeitig meist der Experimentalgruppe, die die Behandlung mit der spezifischen Intervention erhält, unterlegen. Um das ganze mit Leben zu füllen, soll ein kleines Beispiel herhalten: So könnte man z.B. bei Angststörungen drei Therapiebedingungen vergleichen: Eine Gruppe erhält gar keine Behandlung, die zweite eine Placebo-Behandlung (empathischer, aktiv zuhörender Therapeut, Vermittlung von Informationen über Angst, allgemeine Unterstützung) und die dritte eine Konfrontationstherapie (spezifische Intervention zusätzlich zu den auch hier vorhandenen unspezifischen Faktoren). Der Vergleich mit der Gruppe ohne Behandlung ergibt den Effekt wieder in der Einheit “Cohen’s d”: Es ergibt sich z.B. ein Effekt von 0,5 für die Placebogruppe, aber einer von 1,2 für die Konfrontationsgruppe (was durchaus realistische Zahlen sind). Fazit hier wäre (und dies entspricht der Realität): Unspezifische Faktoren verbessern die Angst, aber spezifische Interventionen verbessern sie mehr.

Wenn man nicht nur direkte Vergleiche betrachtet…

Und wenn man eben solche Studienergebnisse mit betrachtet und sich nicht auf direkte Vergleichsstudien einengt, dann ergeben sich durchaus betachtliche Unterschiede zwischen Therapieformen. So konnte z.B. in einer Metaanalyse von Hoffman und Smits (2008) gezeigt werden, dass bei der posttraumatischen Belastungsstörung eine traumafokussierte Psychotherapie (ebenso wie Eye Movement Desensitisation and Reprocessing, kurz EMDR) einer nicht-traumafokussierten Psychotherapie, die auf die Konfrontation mit dem Trauma verzichtet, deutlich überlegen ist. Anders als in den Luborsky-Studien beruhte dieses Ergebnis derweil nicht auf dem gemittelten Unterschied zahlreicher direkter Vergleichsstudien, sondern auf einer großen Zahl von pro Therapieform zusammengetragenen einzelnen randomisierten kontrollierten Studien.

Auf die Störung kommt es an

Dieser Aspekt ist der wohl wichtigste und für die Praxis relevanteste. Ob Therapieformen gleich gut wirken oder nicht, hängt ganz maßgeblich davon ab, welche Störung wir betrachten. Dies konnte sehr eindrucksvoll von Tolin (2010) gezeigt werden, der interessanterweise die gleiche Methode wie die Gruppe um Luborsky verwendete, sich also nur auf direkte Vergleiche beschränkte, und zwar auf direkte Vergleiche jeweils zwischen kognitiver Verhaltenstherapie (KVT) und anderen Therapieformen. Gemittelt kommt Tolin auch auf einen gemittelten Unterschied von 0,2. Aber: Der Unterschied ist für verschiedene Störungen unterschiedlich hoch (auch wieder gemessen in d-Einheiten). Während die Art der Therapie z.B. bei Essstörungen und Substanzabhängigkeiten tatsächlich kaum eine Rolle spielt (d=0,15 bzw. 0), liegt der gemittelte Unterschied bei der Depression im mittleren Bereich von 0,2, während er bei Persönlichkeits- und Angststörungen deutlich höher ausfällt, nämlich bei 0,34 bzw. 0,43 liegt. Letzteres Ergebnis stützt den Befund aus Therapiestudien, dass bei Angststörungen generell Therapien mit Konfrontationselementen solchen ohne bezüglich der Wirksamkeit überlegen sind. Die Ergebnisse sind also insgesamt so zu verstehen, dass andere Therapieformen der KVT entweder ebenbürtig (d=0) oder unterlegen (d>0) sind.

Die Unterschiede zeigen sich in der langfristigen Wirkung

Ein weiteres Ergebnis der Metaanalyse von Tolin betrifft die Unterschiede in der langfristigen Wirkung. Der gemittelte Unterschied von 0,2 bezieht sich lediglich auf den Vergleich der Symptomverbesserung direkt im Anschluss an die Therapie (“post-treatment“). Legt man hingegen die Messungen der Symptomschwere 6 bzw. 12 Monate nach Ende der Therapie zugrunde (so genannte follow-up-Messungen), so ergeben sich über alle Störungen hinweg gemittelte Unterschiede von 0,47 bzw. 0,34. Hieraus kann man den wichtigen Schluss ziehen, dass sich die Unterschiede in der Wirkung verschiedener Psychotherapieformen vor allem auf die nachhaltige Wirkung beziehen, wo gemäß der Metaanalyse von Tolin die KVT nachweislich besser abschneidet als andere Verfahren.

Spezifische Psychotherapie wirkt nicht bei jedem Problem gleich

Anhänger des Dodo-Bird-Verdicts führen, wie oben beschrieben, das Argument an, dass Psychotherapie alleinig über unspezifische Wirkfaktoren wirkt. Dass das nicht stimmt, belegen zwar bereits sämtliche randomisierten kontrollierten Studien mit einer Placebo-Kontrollgruppe (siehe oben), es spricht aber noch ein anderer konsistenter Befund dagegen: Nämlich der, dass eine Psychotherapie im intendierten Störungsbereich stärkere Effekte erzielt als in anderen. Konkret bedeutet dies, dass sich z.B. ein depressionsspezifisches Therapieelement stärker auf Depressivität als beispielsweise auf Angst auswirkt, was nicht so sein sollte, wenn laut Dodo-Bird-Anhängern jede Therapie gleich gut bei allem wirkt.

Fazit

Pauschal zu sagen, dass alle Therapieformen gleich wirken, ist gemäß der Befundlage nicht möglich. Es gibt unspezifische Wirkfaktoren, die nahezu bei jeder Therapieform gleich sind und die auch bereits einen nicht zu vernachlässigenden Effekt bewirken. Aber: Spezische Interventionen sind diesen bei vielen Störungen und vor allem bezüglich der Nachhaltigkeit der Wirkung überlegen, was erklärt, dass eben nicht alle Psychotherapieformen als gleich gut einzustufen sind. Und übrigens: Für den zweiten Teil der Aussage aus dem taz-Artikel (“Eine Überbetonung der Methode ist sogar eher kontraproduktiv.“) liegen noch viel weniger Belege vor. Mit anderen Worten: Auch bei der taz ist man vor nachlässiger Rechercheleistung nicht sicher.

© Christian Rupp 2013

Klinische Psychologie, Psychotherapie, Psychoanalyse: Wo gehört Freud nun hin?

Klinische Psychologie

Die Klinische Psychologie als Teilgebiet der Psychologie befasst sich (ebenso wie ihr medizinisches Pendant, die Psychiatrie) mit psychischen Störungen, aber auch mit den psychischen Einflüssen bei auf den ersten Blick rein körperlich bedingten Krankheiten, wie z.B. Kopf- und Rückenschmerzen oder dem Reizdarmsyndrom (wo psychischen und Verhaltensfaktoren eine große Bedeutung zukommt). Diese Richtung ist ganz eng verwandt mit dem medizinischen Fach der Psychosomatik, das sich ebenfalls dem Einfluss psychischer Faktoren auf körperliche Symptome widmet und Körper und Psyche schon lange nicht mehr als getrennte Einheiten, sondern als Bestandteile eines untrennbar miteinander verwobenen Systems betrachtet.

Die Klinische Psychologie ist somit eines der großen Anwendungsfächer im Psychologiestudium. Dass es nur eines von mehreren ist, möchte ich an dieser Stelle noch einmal ganz deutlich machen, denn in der Laiengesellschaft wird “Psychologie” oftmals mit “Klinischer Psychologie” gleichgesetzt bzw. auf diese reduziert. Konkret werden in der Klinischen Psychologie vor allem die Ursachen von psychischen Störungen erforscht und in Bezug auf die verschiedenen Störungen spezifische Modelle für deren Entstehung entwickelt. So werden z.B. in Längsschnittstudien (die die Versuchsteilnehmer über Jahre begleiten) Risikofaktoren (z.B. bestimmte Erlebnisse in der Kindheit, der Erziehungsstil der Eltern, kindliche Verhaltensstörungen, etc.) und Auslösefaktoren (z.B. stressreiche Lebensereignisse) für psychische Störungen erforscht. Ferner wird auch an großen Bevölkerungsstichproben die Häufigkeit psychischer Störungen und deren Verlauf (z.B. episodenweise oder chronisch) untersucht –  zusammengefasst wird dieser Bereich unter dem Begriff “Epidemiologie”. Ein weiteres Gebiet ist außerdem die Experimentelle Psychopathologie, die systematisch mit Hilfe typischer experimenteller Manipulationen Begleiterscheinungen (Korrelate) psychischer Störungen untersucht. Hierzu gehören z.B. die Befunde, dass schizophrene Patienten Beeinträchtigungen bei unbewussten, motorischen Lernprozessen (implizitem Sequenzlernen) aufweisen und ADHS-Patienten sich hinsichtlich bestimmter ereigniskorrelierter Potenziale wie der “P300” von gesunden Menschen unterscheiden. Befunde der experimentellen Psychopathologie tragen so auch dazu bei, die Ursachen psychischer Störungen besser zu verstehen, da sie Einsicht in Fehlfunktionen der Informationsverarbeitung und somit in “schief laufende” Gehirnprozesse ermöglichen.

Psychotherapie

Kognitive Verhaltenstherapie

Das für die Praxis relevanteste und wahrscheinlich inzwischen größte Teilgebiet der Klinischen Psychologie ist das der Psychotherapie. Hier werden einerseits, aus den Störungsmodellen abgeleitet, Psychotherapieverfahren (auch Interventionen genannt) entwickelt und andererseits diese im Rahmen kontrollierter Studien auf ihre Wirksamkeit überprüft (daher der Name Psychotherapieforschung). Die Formen von Psychotherapie, die sich aus der wissenschaftlichen Psychologie entwickelt haben und deren Wirksamkeit intensiv erforscht und belegt ist, werden heutzutage unter dem Sammelbegriff “Kognitive Verhaltenstherapie” (kurz KVT) zusammengefasst, die im deutschen Gesundheitssystem derweil nur als “Verhaltenstherapie” bezeichnet wird. Hierbei handelt es sich um eine sehr vielfältige Gruppe von erfolgreichen Verfahren, die darauf abzielen, psychische Störungen sowohl durch die Veränderung des Verhaltens, als auch durch die Veränderung kognitiver Strukturen (z.B. festgefahrener Gedankenmuster) zu behandeln. Die KVT ist dabei ein Therapieverfahren, das sich als Methode sowohl des therapeutischen Gesprächs als auch vieler Aktivitäten und Trainings zum Aufbau von Verhaltensweisen bedient, z.B. des Trainings sozialer Kompetenzen. Emotionen, wie z.B. die Traurigkeit oder Niedergeschlagenheit, die die Depression kennzeichnen, werden hierbei entweder als Konsequenz von Verhalten und Gedanken angesehen und indirekt beeinflusst oder aber in neueren Ansätzen auch direkt angegangen. So basiert die Emotionsfokussierte Therapie nach Greenberg z.B. unter anderem darauf, dass Emotionen intensiv durchlebt werden müssen, um sie zu bewältigen – ein Ansatz, den die Kognitive Verhaltenstherapie zuvor nur aus der Expositions- bzw. Konfrontationstherapie für Angststörungen kannte.

Gesprächspsychotherapie & Gestalttherapie

Neben der kognitiven Verhaltenstherapie gibt es eine zweite Richtung von Psychotherapie, die tatsächlich aus der Psychologie stammt, und das ist die humanistische Psychotherapie (auch klientenzentrierte oder Gesprächspsychotherapie genannt), die sich ausschließlich des Gesprächs bedient und dabei die Leitung des Gesprächs meist dem Patienten überlässt. Begründer dieser Therapierichtung war Carl Rogers, der als die drei Hauptwirkungsmechnismen der Therapie die empathische Grundhaltung und die bedingungslose Wertschätzung des Therapeuten dem Patienten (Rogers nennt ihn Klienten) gegenüber sowie die Echtheit des Therapeuten selbst beschreibt. Letzteres meint, dass der Therapeut sich dem Patienten gegenüber nicht verstellen, sondern authentisch verhalten soll. Ziel des Therapeuten ist es hierbei, dem Patienten keine Ratschläge zu geben, sondern die Voraussetzungen dafür zu schaffen, dass der Patient sein Problem selbst lösen kann. Eine Weiterentwicklung der Gesprächspsychotherapie nach Rogers ist übrigens die Gestalttherapie nach Perls, die sich allerdings in vielen Punkten von Rogers’ Vorgehen unterscheidet, z.B. darin, dass der Therapeut sehr viel mehr das Gespräch lenkt und auch konfrontativer vorgeht.

Obwohl die von Rogers vorgeschlagene Art der Psychotherapie nachgewiesenermaßen bereits beträchtliche Verbesserungen bewirken kann, ist sie insgesamt nicht so wirksam wie die Kognitive Verhaltenstherapie, in der aber grundsätzlich die Prinzipien der Gesprächsführung nach Rogers nach wie vor eine bedeutende Rolle spielen. An der Uni Münster z.B., wo ich studiere, gehört das praktische Erlernen dieser Gesprächsführungskompetenzen auch fest zum Psychologiestudium dazu, weshalb das Führen konstruktiver Gespräche und auch der Umgang mit schwierigen Gesprächssituationen im Prinzip auch eine Fähigkeit ist, die nahezu jeden Psychologen auszeichnen dürfte.

Psychoanalyse

Wie Sie vielleicht gemerkt haben, ist der Name “Freud” bisher nicht gefallen. Das liegt daran, dass ich bisher bewusst nur Psychotherapieformen beschrieben habe, die aus der Psychologie heraus entstanden sind. Freud derweil war Arzt, kein Psychologe, und daher auch keinesfalls der Begründer oder Vater der Psychologie. Er war dafür aber der Begründer der Psychoanalyse, der allerersten Form von Psychotherapie, die er vor über 100 Jahren entwickelte. Während man in der Gesprächspsychotherapie oder der Kognitiven Verhaltenstherapie als Patient dem Therapeuten gegenüber sitzt, legte Freud (und hier kehren wir zu dem Cliché schlechthin zurück) seine Patienten tatsächlich auf die Couch. Das hatte vor allem den Grund, dass Freud sich stark an der Hypnose orientierte, die damals schon bekannt und verbreitet war. Die klassische Psychoanalyse dauert sehr lange (mehrere Jahre bei mehreren Sitzungen pro Woche) und spült dem Therapeuten daher viel Geld in die Kasse. Während der Therapiesitzung liegt der Patient, während der Therapeut außerhalb des Sichtfeldes des Patienten sitzt und eine neutrale Person darstellt, die (ganz im Gegensatz zu Rogers Idee der Echtheit) nichts von sich selbst preisgibt. Während Patient und Therapeut sich in der KVT oder der Gesprächspsychotherapie auf Augenhöhe begegnen, steht der Psychoanalytiker hierarchisch über dem Patienten und hat die absolute Deutungshoheit über das, was der Patient sagt. Es handelt sich insgesamt um eine höchst unnatürliche Gesprächssituation, bei der der Therapeut das tut, was Psychologiestudierenden immer fälschlicherweise vorgeworfen wird: Er analysiert den Patienten bis in die tiefsten Tiefen und stellt dann irgendwann fest, was für ein Konflikt vorliegt.

Intrapsychische Konflikte und ganz viel Sex

Denn die Psychoanalyse erklärt psychische Störungen (ganz grob gesagt) durch intrapsychische Konflikte mit Ursache in der Kindheit, die dadurch geprägt sind, dass ein Bedürfnis oder Trieb (meist sexueller oder aggressiver Art), gesteuert vom so genannten Es, mit einer gesellschaftlichen Norm, repräsentiert durch das Über-ich, nicht vereinbar war oder ist. In der Gegenwart muss die aus diesem Konflikt resultierende Spannung durch irgendwelche ungünstigen Methoden abgewehrt werden, wodurch dann die Störung entsteht, die Freud als Neurose bezeichnet. Als Beispiel soll die Geschichte des “kleinen Hans” dienen, einer Fallbeschreibung Freuds vom einem kleinen Jungen mit der Angst vor Pferden. Laut Freud hatte der Junge den so genannten Ödipus-Konflikt nicht gelöst, der darin besteht, dass angeblich alle Jungen zwischen 4 und 6 Jahren sexuelles Verlangen (Es) nach ihrer Mutter verspüren, woraufhin sie aber, weil sie wissen, dass ihr Vater als Konkurrent stärker ist und das ganze auch irgendwie nicht so sein sollte (Über-Ich), Angst davor entwickeln, dass der Vater sie kastrieren wird (Kastrationsangst; hier erscheint mir die kleine Anmerkung nützlich, dass sich bei Freud eigentlich grundsätzlich alles um Sex dreht). Laut Freud entsteht das Symptom (die Angst vor Pferden) nun durch eine Verschiebung (einen von vielen verschiedenen Abwehrmechanismen) der Angst, die eigentlich auf den Vater gerichtet ist, auf Pferde. In der Fallbeschreibung wird übrigens auch kurz erwähnt, dass der kleine Hans kurz zuvor von einem Pferd getreten worden war. Aber warum sollte das schon relevant sein? Wäre ja eine viel zu naheliegende Erklärung.

Besserung ist nicht das Ziel

Sie können meinem Sarkasmus entnehmen, dass ich von dieser Therapieform nicht viel bis gar nichts halte, da sie sehr weitreichende und oft abstruse Annahmen macht, die durch keinerlei Befunde der Psychologie gestützt werden. Denn der Psychoanalyse mangelt es im Gegensatz zur Psychologie stark an Wissenschaftlichkeit: Ihr fehlt vor allem das Kriterium der Falsifizierbarkeit, was bedeutet, dass sie keine eindeutigen Aussagen liefert, die man derart überprüfen könnte, dass man je nach Ergebnis die Theorie entweder bestätigen oder verwerfen könnte. Mit anderen Worten. Zudem besitzt die Psychoanalyse die Fähigkeit, psychische Störungen zu verschlimmern, anstatt sie zu heilen. Wie schon der Psychologe Eysenck im Jahr 1952 in einer auf Krankenversicherungsdaten basierenden, zusammenfassenden Studie eindrucksvoll darlegt, liegt der Heilingserfolg der Psychoanalyse nahe 0 bzw. übersteigt nicht das, was durch Zufall zu erwarten wäre. Dies gab die Initialzündung dafür, dass vor ca. 60 Jahren immer mehr Psychotherapien tatsächlich innerhalb der wissenschaftlichen Psychologie entwickelt wurden und der Psychoanalyse zunehmend Konkurrenz machten. Der riesige Vorteil dieser neuen Verfahren war der, dass diese stets auf wissenschaftlichen Theorien basierten und die Wirksamkeitsüberprüfung im Selbstverständnis der Psychologen bereits fest verankert war. Seit damals hat sich die Psychoanalyse ziemlich stark gegen weitere Wirksamkeitsforschung gewehrt (wen wundert’s?), was aber auch auf einen wichtigen konzeptuellen Unterschied zu anderen Psychotherapieformen zurückzuführen ist: Anders als die Kognitive Verhaltenstherapie oder die Gesprächspsychotherapie verfolgt die Psychoanalyse auch gar nicht das Ziel, dass es dem Patienten am Ende besser geht, also sich die Symotome reduzieren. Das Ziel besteht darin, dem Patienten Einsicht in seine (vermeintlichen) intrapsychischen Konflikte zu geben, damit dieser sich selbst “besser verstehen” kann. Die Annahme ist, dass dies hinreichend zur Verbesserung ist. Die Realität sieht so aus, dass Patienten meist nach mehreren Jahren Analyse keinen Schritt weiter, sondern eher noch mehr belastet sind durch die Kenntnis über all die (angeblichen) ungelösten Konflikte, die sie mit sich herumtragen. An dieser Stelle sei der Unterschied zur KVT und zur Gesprächspsychotherapie noch einmal ganz deutlich gemacht: Diese Verfahren analysieren das Verhalten und Erleben des Patienten auch, aber auf andere Weise, als die Psychoanalyse es tut. Zum einen wird auf so bizarre Elemente wie den Ödipuskomplex, Kastrationsangst und intrapsychische Konflikte verzichtet, zum anderen orientiert sich die Analyse (von typischen, eingefahrenen Verhaltens- sowie Denkmustern) immer daran, was man in der Folge auch therapeutisch verändern kann, um eben nicht ewig auf der meist lange zurückliegenden Ursache der Störung herumzureiten, sondern nach vorne zu blicken und die Aufrechterhaltung der Störung zu durchbrechen.

Weiterentwicklung: Tiefenpsychologisch fundierte Psychotherapie

Dass die Psychoanalyse, unter dem Label “Analytische Psychotherapie”, in Deutschland zu den Psychotherapieverfahren gehört, die von den Krankenkassen übernommen werden, liegt übrigens nicht etwa an ihrer wissenschaftlichen Basiertheit, sondern vor allem an der großen Lobby, die diese Richtung in Deutschland lange Zeit hatte. Die klassische Psychoanalyse ist heute nur noch sehr selten anzutreffen und ist hauptsächlich unter Ärzten (also hauptsächlich Psychiatern) noch relativ weit verbreitet, eben weil Freud selbst auch Arzt war. “Psychoanalyse” muss allerdings nicht zwangsweise bedeuten, dass die Lehre von Freud angewandt wird. Freud hatte viele Schüler, die im Laufe ihres Lebens ihre eigenen psychoanalytischen Theorien entwickelt und sich dabei größtenteils deutlich von Freuds Lehre distanziert haben – hierzu zählen z.B. Alfred Adler und Carl Gustav Jung. Abgesehen hiervon gibt es aber auch sehr moderne Weiterentwicklungen der Psychoanalyse, die unter dem Sammelbegriff der “Psychodynamischen Psychotherapie” oder der “Tiefenpsychologisch fundierten Therapie” (das ist der offizielle Name der Therapieform im deutschen Gesundheitssystem, die neben der Verhaltenstherapie und der Analytischen Psychotherapie von den Krankenkassen übernommen wird) zusammengefasst werden. Diese haben oft nur noch sehr rudimentäre Ähnlichkeit mit Freuds Ideen und sehen auch eine ganz andere, von mehr Empathie und Gleichberechtigung geprägte Interaktion zwischen Therapeut und Patient vor (unter anderem sitzt der Patient dem Therapeuten gegenüber und liegt nicht). Die Gemeinsamkeit beschränkt sich meist auf die Annahme von ungelösten Konflikten, die ihren Ursprung in der Kindheit haben. Im Gegensatz zur Psychoanalyse begnügt man sich aber nicht nur mit der Einsicht des Patienten, sondern strebt auch eine Veränderung an. In diesem Sinne sind viele moderne psychodynamische Therapieformen der KVT oder der Gesprächspsychotherapie zumindest oberflächlich gesehen recht ähnlich. Eine weitere Errungenschaft dieser weiterentwickelten Therapieform ist die Psychotherapieforschung, die die Wirksamkeit zumindest einiger dieser neuen Verfahren inzwischen belegt hat, was tvor allem auf einige manualisierte, psychodynamische Kurzzeittherapien zutrifft.

Die Begriffe noch einmal im Überblick

Um noch einmal die Begrifflichkeiten zusammenzufassen: Klinische Psychologen sind solche, die sich im Studium und in der darauf folgenden Berufstätigkeit auf psychische Störungen spezialisiert haben. Sie sind in der Regel Experten für das Erscheinungsbild und die Diagnostik psychischer Störungen und kennen sich mit den Ursachen aus. Auch von Psychotherapie haben sie normalerweise eine Menge Ahnung, dürfen diese aber nur im Rahmen einer postgradualen (d.h. nach dem Master- oder Diplomabschluss ansetzenden) Ausbildung zum Psychologischen Psychotherapeuten oder eben nach deren erfolgreichem Abschluss ausüben, d.h. nach Erteilung der Heilbefugnis (Approbation). Die meisten Klinischen Psychologen sind auch Psychotherapeuten, sodass sich eine große Überlappung ergibt. Psychotherapeuten können derweil entweder kognitiv-verhaltenstherapeutisch, psychoanalytisch, humanistisch oder systemisch (eine weitere, vor allem in der Kinder- und Familientherapie anzutreffende Richtung, auf deren Darstellung ich hier aus Sparsamkeitsgründen verzichtet habe) orientiert sein. Psychiater, die psychotherapeutisch tätig sind, haben derweil meist eine psychodynamische Orientierung.

Übrigens

Als Begründer der Psychologie als experimentell orientierte, empirische Wissenschaft wird Wilhelm Wundt (1832-1920) angesehen, der 1879 das erste “Institut für Experimentelle Psychologie” gründete, was oftmals als Geburtsstunde der Psychologie betrachtet wird. Wundt war sowohl durch die Physiologie als auch durch die Philosophie geprägt – was erklärt, dass die Psychologie bis heute mit beidem verwandt ist. Sigmund Freuds Verdienste habe ich derweil oben in Auszügen beschrieben. Was viele über ihn allerdings nicht wissen, ist, dass Freud stark kokainabhängig und ein extremer Kettenraucher war. Während er es zu Lebzeiten schaffte, vom Kokain loszukommen, blieb er bis zu seinem Tod stark nikotinabhängig und erkrankte vermutlich infolge dessen schwer an Kieferkrebs. Von dieser extrem qualvollen Erkrankung gezeichnet, setzte er 1939 im Londoner Exil (Freud war, obwohl atheistischer Religionskritiker, jüdischer Abstammung) seinem Leben ein Ende. So kann es eben leider auch enden. Und so endet auch die vierteilige Reihe von Artikeln darüber, was Psychologie ist und was nicht.

“Aufmerksamkeit”: Was ist das eigentlich und wie funktioniert es?

“Aufmerksamkeit” ist ein Beispiel für einen Begriff, von dem jeder Laie typischerweise meint, zu wissen, was sich dahinter verbirgt. Schaut man sich die psychologische und neurowissenschaftliche Forschung zu diesem Thema an, bemerkt man schnell, dass hierüber alles andere als Klarheit herrscht: Kaum ein Thema in der psychologischen Forschung ist derart kompliziert zu durchschauen und ebenso widersprüchlich.

Selektive Aufmerksamkeit: Wo war der Gorilla?

Zunächst ein Überblick über die Unterteilung, die häufig getroffen wird. Wenn man von “Aufmerksamkeit” spricht, muss man zwischen einer ganzen Menge von Begriffen unterscheiden. Zunächst unterscheidet man “globale Zustände”, d.h. wach vs. schlafend. Innerhalb des Wachzustands kann man dann wirklich “wachsam” sein (im Englischen gibt es hierfür den schönen Begriff “attentive” oder auch “alert”), oder aber eher schläfrig und “duselig”. Nur in einem wachsamen Zustand tritt das zum Vorschein, was mit “selektive Aufmerksamkeit” bezeichnet wird. Und diese Aufmerksamkeit ist in dem Sinne selektiv, als sie sich ausschließlich auf eine Sache richtet. Diese “Sache” kann entweder eine Richtung im Raum sein (z.B. das Gespräch der Leute links neben mir), ein Objekt (z.B. eine Fliege), oder ein einziges Merkmal (der rote Punkt auf der Stirn der Frau vor mir). Dass es tatsächlich diese drei Arten von Aufmerksamkeit gibt, wurde bereits häufig nachgewiesen. Eine praktische Implikation hiervon ist übrigens, dass so genannten “Head-up Displays”, bei denen z.B. die gerade gefahrene Geschwindigkeit auf die Windschutzscheibe des Autos projiziert wird, nur eingeschränkt etwas bringen, da die Aufmerksamkeit beim Autofahren nicht einfach nur nach “vorne” gerichtet ist, sondern auf die Straße – und eben nicht auf die Scheibe!

Ein bekanntes Experiment, das die Selektivität der Aufmerksamkeit verdeutlichst, ist dasjenige, wo einer Person ein Video mit Basketballspielern zweier Teams gezeigt wird. Die Person wird gebeten, alle Pässe zwischen Mitgliedern von Team A zu zählen, nicht aber die von Team B. Die Aufmerksamkeit ruht somit immer auf dem jeweils involvierten Spieler bzw. dem Ball, sodass kaum jemand nachher mitbekommen hat, dass mitten im Spiel ein sehr auffälliger Gorilla durchs Bild gelaufen ist. Eine gute Demonstration finden Sie hier.

Aufmerksamkeit, das heimliche Spotlight

Außerdem unterscheidet man noch zwischen willentlichen und automatischen Aufmerksamkeitsprozessen, die gemäß neurowissenschaftlicher Befunde auch durch unterschiedliche Teile des Gehirns gesteuert werden. Die willentliche Aufmerksamkeit wird aufgrund einer Absicht auf einen Reiz gelenkt (z.B. beim Lesen auf die Wörter im Buch), während die automatische Aufmerksamkeit von hervorstechenden Reizen in der Umwelt in Beschlag genommen wird. Das bringt mich zwingend zu einem wichtigen Thema: Aufmerksamkeitslenkung – d.h. wie bewegt sich unsere Aufmerksamkeit eigentlich? Nun könnte der Laie argumentieren: Na ist doch klar, mit den Augen. Aber das stimmt nicht. Wo unsere Aufmerksamkeit gerade ruht, ist unabhängig von unseren Augen. Zum einen, weil wir unsere Aufmerksamkeit natürlich auch auf akustische Reize lenken können. Zum anderen, weil selbst die visuelle Aufmerksamkeit an einem anderen Ort sein kann als an dem, den unsere Augen gerade fixieren. D.h., obwohl meine Augen den Fernseher anstarren, kann der Fokus meiner Aufmerksamkeit in meinem peripheren Sichtfeld sein, d.h. z.B. beim Ehegatten, der gerade auf dem Schrank neben dem Fernseher Staub wischt. Daher ist die Aufmerksamkeit ein “verdeckter” (“coverter”) Mechanismus – wir können von außen nicht sagen, wo die Aufmerksamkeit eines Menschen gerade liegt. Diese bemerkenswerte Eigenschaft der Aufmerksamkeit fand Hermann von Helmholtz bereits Ende des 19. Jahrhunderts heraus.

Die meisten Forscher gehen heute davon aus, dass sich die Aufmerksamkeit ähnlich einem “Spotlight” bewegt: Dieses Spotlight fokussiert sich auf einen Punkt im Raum, ein Objekt oder ein Merkmal und verweilt dort, bis es z.B. von einem lauten Geräusch dazu verleitet wird, das Objekt (z.B. ein Buch) zu verlassen (“disengage”), sich zu bewegen und erneut ein Objekt des Interesses (eine Fliege auf der Seite, die man gerade liest) zu fokussieren (“engage”). Und da die Aufmerksamkeit “heimlich” wandert, kann all das passieren, ohne dass sich Kopf oder Augen bewegen. Interessanterweise kann übrigens in einem solchen Moment die Aufmerksamkeit nicht sofort wieder zum Ursprungsort zurück wandern: Hemmende Prozesse im Gehirn verhindern, dass die Aufmerksamkeit sofort wieder zu den Buchstaben zurückwandern kann – selbst wenn der ablenkende Reiz völlig irrelevant und ungefährlich war (Dieses Phänomen nennt man “inhibition of return”). Übrigens ist der Gedanke, die Aufmerksamkeit wandere mit den Augen, gar nicht so weit hergeholt, da die Gehirnbereiche, die unsere Augenbewegungen steuern, viele Überlappungen mit denjenigen Bereichen haben, die für die Ausrichtung der Aufmerksamkeit als relevant angesehen werden.

Frühe Selektion und der Cocktailparty-Effekt

Eine lang währende Debatte drehte sich in der Vergangenheit um die Frage, an welcher Stelle im Informationsverarbeitungsprozess die selektive Aufmerksamkeit “eingreift” und dafür sorgt, dass nicht relevante (d.h. aufmerksam beachtete) Informationen nicht weiterverarbeitet werden. Konkret ging es darum, ob dieser “Eingriff” früh, d.h. kurz nachdem die Reize durch unsere Sinnesorgane das Gehirn erreicht haben, passiert, oder spät, d.h. erst nachdem sowohl relevante als auch irrelevante Reize bereits ziemlich weit verarbeitet wurden. Die momentane Befundlage sieht kurz zusammengefasst so aus: Neurowissenschaftliche (MEG, EEG- und fMRT-) Befunde und die Ergebnisse von Reaktionszeitexperimenten belegen vor allem die frühe Selektion, die schon kurz nach Eingang der Sinnesreize die unwichtigen herausfiltert, die dann nicht weiter verarbeitet werden und daher auch nicht unser Bewusstsein erreichen. Bildgebende Experimente konnten zeigen, dass das Gehirn bei der Verarbeitung aufmerksam betrachteter Reize in bestimmten Arealen tatsächlich aktiver ist als bei unaufmerksam betrachteten. Tatsächlich ist es so, dass durch die Ausrichtung der Aufmerksamkeit z.B. auf einen bestimmten Punkt im Raum die Aktivität in eben den Gehirnarealen ansteigt, die für die Verarbeitung von visuellen Reizen an genau dieser Stelle verantwortlich sind – und das, bevor überhaupt ein visueller Reiz erschienen ist. Ziemlich beeindruckend, wie ich finde!

Ein Beleg für die frühe Selektion ist auch der Cocktailparty-Effekt, d.h. das Phänomen, dass Menschen in einer von vielen verschiedenen Geräuschquellen charakterisierten Umgebung (wie einer Cocktailparty) trotzdem nur einer Quelle (z.B. einem Gespräch) folgen können, obwohl die Quelle in der Umgebung vielleicht sogar die leiseste ist. Die selektive Aufmerksamkeit kann aber durchaus auch “gestört” werden. Bestimmte nicht mit Aufmerksamkeit bedachte Reize, die eine besondere Priorität haben, können die “Schranke” der frühen Selektion offenbar passieren und gelangen in unser Bewusstsein. Das passiert z.B., wenn wir in einer solchen Cocktailparty-Situation einem Gespräch folgen und von irgendwoher plötzlich unseren Namen hören. Die frühe Selektion lässt also manche Informationen durch, die dann eine Verschiebung des “Spotlights” bewirken. Dies ist ein Beleg dafür, dass nicht alle irrelevanten Informationen direkt zu Beginn ausgefiltert werden, denn: Es gibt auch noch einen späten Selektionsprozess, der eine etwas andere Art der Aufmerksamkeit darstellt und eine andere Funktion hat.

Späte Selektion & ereigniskorrelierte Potenziale

Dass es auch noch späte Selektionsprozesse gibt, weiß man unter anderem durch die Untersuchung ereigniskorrelierter Potenziale (kurz EKP oder englisch ERP). Dabei handelt es sich um eine Sonderform des EEG (Elektroenzephalographie – das, wo einem Elektroden auf die Kopfhaut geklebt werden). Dieses Verfahren misst die winzigen, im Mikrovolt-Bereich liegenden elektrischen Potenziale der Nervenzellen in unserem Gehirn, die noch an der Kopfhaut messbar sind (oft wird das als “Hirnströme” bezeichnet, aber dieser Begriff ist ziemlicher Quatsch). Während das EEG an sich es z.B. ermöglicht, verschiedene Schlafstadien zu unterscheiden (weil die Wellenformen je nach Phase anders aussehen), hat die EKP-Methode ein anderes Ziel. Sie will elektrische Potenziale messen, die mit bestimmten “Ereignissen” korrelieren, d.h. solche, die nach der Darbietung bestimmter Reize wie Tönen, Geräuschen oder Bildern auftreten. Dazu müssen die EEG-Wellen, die leider vielen Störeinflüssen unterworfen sind, erst einmal gemittelt werden. Erst dann werden solche ereigniskorrelierten Potenziale sichtbar. Von diesen EKPs kennt man nun verschiedene, die sich hinsichtlich ihrer Polarität (positive oder negative Spannung) und bezüglich der Zeit unterscheiden, die zwischen der Reizdarbietung und dem Auftreten des EKP liegt (als “Latenz” bezeichnet). Ein sehr bekanntes und im Hinblick auf späte Selektion wichtiges EKP ist die “P300”. Die heißt so, weil sie ein positiver Ausschlag der Spannung ist, der ca. 300 Millisekunden nach der Darbietung des Reizes auftritt.

Die P300: “Irgendwas ist anders als vorher”

Die P300 tritt immer dann auf, wenn ein dargebotener Reiz von den zuvor dargebotenen abweicht. D.h., einer Person wird z.B. 50 Mal derselbe Ton dargeboten, und plötzlich kommt ein völlig anderer Ton. An dieser Stelle tritt die (sehr stark ausgeprägte und unübersehbare) P300 auf. Diese wird auf Basis bisheriger Forschungsergebnisse vor allem als Maß dafür gesehen, wie viele “Aufmerksamkeitsressourcen” dem Reiz zugeteilt werden. Hier haben wir es mit einem etwas anderen Verständnis von Aufmerksamkeit zu tun. Der Begriff “Ressource” soll heißen, dass Aufmerksamkeit ein limitiertes Gut ist. Oder in anderen Worten: Wir können einer Sache unterschiedlich viel Aufmerksamkeit schenken (d.h. Ressourcen zuteilen). Wenn wir bei der Metapher des Spotlights bleiben, könnte man sagen: Je nach zugeteilter Ressourcenmenge ist das Licht des Spotlights unterschiedlich hell.

Die P300 wiederum wird als Indikator für das Ausmaß dieser Ressourcenmenge angesehen. Wenn sich in Reaktion auf einen neuartigen Reiz eine große P300 ergibt, so lässt sich daraus schließen, dass diesem Reiz viele Aufmerksamkeitsressourcen zugeteilt wurden. In Experimenten wie dem, das ich für meine Bachelorarbeit durchgeführt habe, gibt es meist drei Arten von Reizen. Bei 100 akustischen Reizen sind das z.B. 70 “langweilige” tiefe Töne (=Standardreize), 15 andersartige Töne, nach deren Darbietung der Proband eine Taste drücken soll (=Zielreize), und 15 andersartige Töne, auf die aber nicht reagiert werden soll (= Distraktoren). Nun kommt ein weiterer Begriff ins Spiel, nämlich die “Effizienz der Ressourcenzuteilung”. Das soll bedeuten: Wenn man mit seinen Ressourcen effizient umgeht, dann sollten Reize, die in dem Sinne “wichtig” sind, weil man auf sie reagieren soll, mehr Ressourcen erhalten als die Distraktoren. So, und hier schließt sich der Bogen zu ADHS, denn: Bei ADHS-Patienten weißt vieles darauf hin, dass diese Ressourcenzuteilung ineffektiv ist. Die P300 in Reaktion auf Distraktoren ist genau so groß oder größer als die nach Zielreizen, und das Umgekehrte gilt für gesunde Menschen. Man könnte dies dahin gehend interpretieren, dass ADHS-Patienten eher von unwichtigen Reizen in der Umwelt abgelenkt werden. Im Gegensatz dazu ist die selektive Aufmerksamkeit, d.h. die frühe Selektion, bei ADHS tendenziell nicht beeinträchtigt, was ich hier noch einmal ganz klar hervorheben möchte!

Auf die Überraschung kommt’s an

Was ich in meiner Arbeit außerdem untersucht habe, ist, welchen Einfluss es hat, ob die Distraktoren den Zielreizen ähneln (d.h. auch Töne sind) oder einer anderen Reizkategorie angehören (Umweltgeräusche). Es zeigte sich, dass die Umweltgeräusche eine deutlich größere P300 erzeugten, woraus man schließen kann, dass diese neuartiger als die Töne waren und daher mehr Aufmerksamkeitsressourcen erhalten haben. Ich habe am Ende dieses Abschnitts eine Abbildung eingefügt, die die P300 in Reaktion auf Umweltgeräusche zeigt. Die drei verschiedenen Kurven stehen für drei verschiedene Elektroden am Kopf, an denen ich gemessen habe. Auf der y-Achse ist die Spannung in Mikrovolt abgetragen, auf der x-Achse die Zeit in Millisekunden, wobei die gestrichelte vertikale Linie den Zeitpunkt anzeigt, an dem dem Probanden das Geräusch vorgespielt wurde. Die Sternchen markieren den Punkt der maximalen Spannung, der als Index für die P300 verwendet wird. Achtung: Bei EEG-Abbildungen ist es üblich, dass positive Werte unten abgetragen werden und negative nach oben (niemand weiß, warum). Die Skala reicht von ca. -14 bis +14 Mikrovolt. Konkret ging es in meiner Arbeit allerdings auch noch um die Unterscheidung zweier verschiedener “Versionen” der P300 (genannt P3a und P3b), was aber den Rahmen dieses Eintrags sprengen würde. Aber so habe ich euch zumindest eine gewisse Idee von dem vermittelt, womit ich mich ein halbes Jahr beschäftigt habe!

Doch warum fasse ich all das unter dem Punkt “späte Selektion” zusammen? Ganz einfach: Es muss sich um späte Selektion handeln, da eine Aufmerksamkeitsreaktion auf einen abweichenden Reiz nur dann stattfinden kann, wenn der Reiz bereits soweit verarbeitet wurde, dass er kategorisiert wurde – und zwar als “neuartig”. Daher tritt die P300 auch erst nach rund 300 Millisekunden auf. Frühe Selektionsprozesse sind bereits ca. 50-100 Millisekunden nach der Reizdarbietung abgeschlossen.

Welche Gehirnregionen sind an der Aufmerksamkeit beteiligt?

Aufgrund von zahlreichen neurowissenschaftlichen Befunden unterscheidet man, entsprechend der oben vorgestellten Unterteilung, ein System der willentlichen (“endogenen”) und eines der automatischen (“exogenen”) Aufmerksamkeit. Die Gehirnbereiche, die für die willentliche Ausrichtung der Aufmersamkeit (“Ich will mich jetzt auf diesen Film konzentieren”) zuständig sind, befinden sich, grob gesagt, im Parietallappen (d.h. recht an der oberen, hinteren Oberfläche des Gehirns, unterhalb des Scheitels) und werden aufgrund der Gehirn-spezifischen Lagebezeichnungen als “dorsales Aufmerksamkeitssystem” zusammengefasst. Diejenigen Bereiche, die dafür sorgen, dass unsere Aufmerksamkeit durch auffällige Reize (z.B. einen orgasmatischen Schrei aus der Nachbarwohnung) automatisch wandert, liegen weiter vorne im Gehirn im Frontallappen (unterhalb der Stirn) und werden zusammenfassend als “ventrales Aufmerksamkeitssystem” bezeichnet. Das dorsale Aufmerksamkeitssystem sorgt derweil genau für das, was ich oben bereits kurz beschrieben habe: Es sorgt durch Nervenverbindungen für eine “Vorab”-Aktivierung derjenigen Gehirnbereiche, die für die Verarbeitung von den dann aufmerksam beobachteten Reizen zuständig sind. Somit gibt es im Prinzip einerseits die Gehirnareale, die Aufmerksamkeit “auslösen”, und andererseits solche, die, beeinflusst durch diese, ihre Aktivität erhöhen. Ziemlich clever, oder?

Fazit

Ich hoffe, ich konnte hiermit ein wenig deutlich machen, wie komplex das Thema “Aufmerksamkeit” ist – und wie unterschiedlich dieses Thema sogar in der Forschung behandelt wird. Zudem wäre es prima, wenn ich einen Eindruck von dem vermitteln konnte womit ich mich vergangenes Jahr über ein halbes Jahr beschäftigt habe 🙂

© Christian Rupp 2013

Depression – Teil 1: Modeerscheinung oder ernst zu nehmende Störung?

“Depression – wenn ich das schon höre! Die Leute müssen sich einfach mal mehr zusammenreißen, dann tut sich das von alleine!”

“Das sind doch die, die sich dann irgendwann vor die Schienen werfen!”

“Als ob das ne Krankheit wäre – mir geht‘s auch manchmal beschissen, und ich jammere nicht so rum.”

All das sind Vorurteile über die zweithäufigste aller psychischen Störungen – die Depression. Ich möchte gerne mit diesem Artikel dazu beitragen, über diese schwerwiegende Krankheit aufzuklären und so dazu beitragen, das Stigma ein wenig zu lösen, das auf ihr lastet. Gleichzeitig ist es mir ein Anliegen, deutlich zu machen, dass „Depression“ eine sehr spezifische Störung beschreibt, deren Diagnose ein genaues Nachfragen und weitere Diagnostik erfordert – und es sich nicht um eine diffuse Sammelkategorie für psychische Probleme handelt.

Die Depression ist die häufigste der so genannten Affektiven Störungen, d.h. Störungen, die die Stimmung und die Gefühlswelt betreffen. In diesem Artikel beschränke ich mich auf die so genannte Unipolare Depression (auch genannt: Major Depression) und klammere die weitaus selteneren Bipolaren Störungen aus, die sich durch eine Mischung aus depressiver und übersteigert guter Stimmung (Manie/Hypomanie) auszeichnen. Auch auf die Dysthyme Störung (grob gesagt: leichtere Form der Depression, die dafür aber über Jahre hinweg andauert) werde ich in diesem Beitrag nicht weiter eingehen, weil dies den Rahmen sprengen würde.

Häufigkeit & typischer Verlauf

Fakt ist: Das Risiko eines Menschen, in seinem gesamten Leben an einer Depression zu erkranken, liegt bei ca. 10-15 %. Das bedeutet: Von zehn Menschen in einem Raum wird durchschnittlich mindestens einer in seinem Leben eine depressive Episode durchlaufen. Von der Weltgesundheitsorganisation WHO wurde 1996 eine Studie durchgeführt, in der der das Ausmaß an Beeinträchtigung ermittelt wurde, das die verschiedenen „Volkskrankheiten“ bei den Betroffenen verursachen. Die Unipolare Depression rangierte mit großem Abstand auf Platz 1, gefolgt von Alkoholmissbrauch. Erst auf Platz 3 findet sich mit der Osteoarthritis eine organische Krankheit. Darüber hinaus ist Depression auch eine der tödlichsten Krankheiten. 10-15% der Betroffenen sterben durch Suizid; ca. 50% aller Suizide kann man auf Depression zurückführen. Der Grund, warum das alles so tragisch ist, ist, dass Depression eine so gut behandelbare Störung ist. Im Durchschnitt werden zwei Drittel der Erkrankten wieder völlig gesund, ein Drittel immerhin teilweise. 50% der Patienten erleben allerdings irgendwann in ihrem Leben eine erneute depressive Episode. Daran erkennt man schon: Depression ist eine phasenhaft verlaufende Störung, d.h., die depressive Symptomatik tritt in Form von Episoden auf, zwischen denen es den Betroffenen oft über viele Jahre, manchmal aber auch nur wenige Monate wieder gut und manchmal leider nur ein wenig besser geht (man spricht entsprechend von „Teil- oder Vollremission im Intervall“). Wenn jemand mindestens schon die zweite depressive Episode erlebt, lautet die Diagnose dann „Rezidivierende (= wiederkehrende) depressive Störung“.

Woran man eine Depression erkennt und warum man diese Diagnose niemals leichtfertig stellen sollte

Es ist sehr wichtig zu wissen, dass Depression mehr als nur Niedergeschlagenheit oder Traurigkeit ist. Es ist mehr als lediglich „schlechte Stimmung“. Und es gibt offizielle Diagnosekriterien, von denen eine bestimmte Anzahl (gemäß dem Diagnosesystem ICD-10 z. B. zwei Haupt- und zwei Nebensymptome) erfüllt sein müssen, damit man die Diagnose stellen kann. Und je nach Anzahl und Schwere der Symptomatik unterscheidet man dann eine leichte, mittelschwere oder schwere depressive Episode. Diesen Punkt betone ich deshalb so sehr, weil es leider im Gesundheitssystem zu häufig vorkommt, dass die Diagnose „Depressive Episode“ voreilig und mitunter leichtfertig gestellt wird, ohne dass man überhaupt ausreichend viele Fragen zu den Symptomen und deren Schwere und Dauer gestellt hat. Teilweise liegt das zumindest in der Ärzteschaft meiner Erfahrung nach daran, dass psychische Störungen im Medizinstudium sehr stiefmütterlich behandelt werden, was oft zum Ergebnis hat, dass bei den jungen Ärztinnen und Ärzten hängen bleibt: „Wenn der Patient was Psychisches berichtet, dann…‘Depression‘ aufschreiben“.

Jeder, der bei mir schon einmal ein Erstgespräch wegen einer depressiv anmutenden Symptomatik hatte, weiß, dass ich hier grundsätzlich sehr genau nachfrage. Und das hat gute Gründe: Erstens macht es einen Unterschied für die Behandlung, die sich nämlich an offiziellen Behandlungsleitlinien orientieren sollte. Bei Anpassungsstörungen (hiervon spricht man, wenn eine depressiv oder ängstlich anmutende Symptomatik besteht, die jedoch die Kriterien für eine Depression eben nicht erfüllt und in Reaktion auf ein besonders belastendes Ereignis entstand) oder leichten depressiven Episoden sollte man z. B. auf ein Antidepressivum (also ein Medikament) verzichten, während man bei einer schweren depressiven Episode unbedingt eines geben sollte. Zweitens hat diese Inflation der mitunter gar nicht gerechtfertigten Depressionsdiagnosen gravierende Folgen auf gesellschaftlicher Ebene. Zum einen ergibt sich, wenn bei psychischen Problemen zu wenig differenziert wird und voreilig eine gar nicht pathologische Problematik das Label „Depression“ erhält, fälschlicherweise in der Gesellschaft das Bild, quasi alles Psychische sei Depression. Das wiederum hat fatale Folgen für die Einstellung der Gesellschaft zu diesem Thema und nährt Vorurteile, wie ich sie am Anfang dieses Artikels aufgelistet habe – mit dem Ergebnis, dass die Menschen, die wirklich an einer Depression leiden, wiederum erst recht nicht ernst genommen werden. Zum anderen hat diese Entwicklung direkte Folgen für unseren Sozialstaat. Ja, eine mittelgradige depressive Episode ist eine super Diagnose für eine längere Krankschreibung, und ja, es ist „hilfreich“ für einen Antrag auf Schwerbehinderung oder Erwerbsminderungsrente, wenn man noch eine Depressionsdiagnose „oben drauf“ stellt. Aber man bedenke bitte auch, dass die Gesellschaft als Gesamtheit die Kosten dafür zahlt, wenn Behandler*innen ihren Patient*innen einen gut gemeinten Gefallen tun wollen. Und umgekehrt kommt es immer wieder bei gerade jungen Patient*innen vor, dass sie auf sehr unangenehme Weise die direkten negativen Folgen einer vorschnell gestellten Depressionsdiagnose zu spüren bekommen. Nämlich dann, wenn sie eine Berufsunfähigkeits- oder private Krankenversicherung abschließen oder verbeamtet werden wollen. Wenn dann der Hausarzt, als man mal vor fünf Jahren wegen Erschöpfung und ein paar diffusen Nebenbeschwerden bei ihm war, mal eben so in die Patientenakte eine mittelgradige depressive Episode eingetragen hat (und das habe ich leider viel zu oft erlebt), wird es bei vielen Versicherungen oder der Verbeamtung (die wollen nämlich oft alle Befunde der letzten 10 Jahre kennen) nämlich heißen: „Computer sagt Nein“. Ich vertrete den Standpunkt, dass all dies triftige Gründe sind, warum man lieber ein mal zu viel als einmal zu wenig nachfragen und zudem gut überlegen sollte, bevor man diese Diagnose stellt – denn es ist keine leichte, sondern eine schwerwiegende.

Was sind nun die Symptome einer Depression?

Die folgende Darstellung der Symptome einer Depression orientiert sich an der aktuellen Klassifikation psychischer Störungen der WHO, der so genannten ICD-10. In Deutschland sind alle Psychotherapeuten und Ärzte verpflichtet, ihre Diagnosen nach diesem System zu stellen.

Die drei Hauptsymptome der Depression:

  • Depressive (also dauerhaft niedergeschlagene) Verstimmung, bei schweren depressiven Episoden auch Gefühllosigkeit/Gefühl der inneren Leere
  • Verlust des Interesses an sonst als angenehm bewerteten Aktivitäten (z.B. Hobbies) und Verlust der Fähigkeit, Freude (oder auch andere Gefühle wie Trauer) zu empfinden
  • Antriebsmangel und Ermüdbarkeit bis hin zur Antriebshemmung, bei der es den Betroffenen kaum mehr gelingt, alltäglichen Routinen wie der Körperpflege nachzukommen

Zusatzsymptome der Depression:

  • Gesteigerter oder verminderter Appetit (typisch: vermindert, gleiches gilt für Veränderungen des Gewichts)
  • Vermehrter („Insomnie“) oder verminderter („Hypersomnie“) Schlaf, sowohl in Form von Ein- als auch Durchschlafstörungen
  • Psychomotorische Verlangsamung oder Agitiertheit (bedeutet: entweder ist der Patient stark verlangsamt und träge in allen seinen Handlungen oder er ist zappelig-unruhig und kann auch innerlich nicht zur Ruhe kommen)
  • Konzentrations- und Entscheidungsschwierigkeiten
  • Müdigkeits- und Erschöpfungsempfinden
  • Minderwertigkeitsgefühle und/oder (unangemessene) Schuldgefühle
  • Ins Negative verzerrtes Denken, z. B. eine pessimistische Sicht der Zukunft mit Hilf- und Hoffnungslosigkeitserleben, eine negativ-misstrauische Sicht auf andere Menschen und die Tendenz, immer vom Schlimmsten auszugehen
  • Suizidgedanken oder Suizidversuche

Um eine leichte depressive Episode diagnostizieren, müssen zwei Haupt- und zwei Zusatzsymptome erfüllt sein – und das bedeutet, dass sie über zwei Wochen am Stück (!) bestanden haben müssen. Allein an diesem Zeitkriterium würden viele der ungerechtfertigterweise gestellten Depressionsdiagnosen wahrscheinlich scheitern. Bei einer mittelgradigen Episode müssen zwei Haupt- und drei bis vier Zusatzsymptome vorliegen, bei einer schweren Episode drei Haupt- und fünf Zusatzsymptome. Ich glaube, es wird deutlich, wie aufwendig die Diagnosestellung wirklich ist, und dabei haben wir noch gar nicht darüber gesprochen, was vor der Diagnosestellung eigentlich alles ausgeschlossen werden sollte (die so genannte „Ausschluss- oder Differenzialdiagnostik“, siehe unten).

Es gibt noch weitere Symptome, die im Zuge einer Depression auftreten können, jedoch bewusst nicht bei den Symptomen gelistet werden, die die Depression definieren. Es gibt welche, die noch relativ spezifisch für Depression sind, und andere, die genau so gut im Rahmen einer anderen Störung auftreten können.

Spezifische weitere Symptome:

  • Grübeln, definiert als eine Art des gedanklichen Sich-im-Kreis-Drehens und zu verstehen als ein erfolgloser Versuch, ein Problem zu lösen
  • Frühmorgendliches Erwachen, d. h. deutlich früheres Erwachen als üblich
  • Morgentief: Die depressiven Symptome sind vormittags deutlich ausgeprägter als während des restlichen Tages

Eher unspezifische weitere Symptome:

  • Angstzustände bis hin zu Panikattacken
  • Schmerzen jeglicher Art
  • Körperliche Symptome wie Übelkeit, Zittern, Schwindel, etc. pp.

Das Problem mit diesen drei Symptomen ist folgendes: Sie werden oft, obwohl gar nicht genug Haupt- und Zusatzsymptome vorhanden sind, als Zeichen für eine versteckte (man sprach in der veralteten psychiatrischen Lehre von der „larvierten“) Depression gesehen. Es gibt Ärzte und teilweise auch Psychotherapeuten, die das bis heute so sehen und im Grunde meinen, das letztlich alles (außer Psychosen) Depression sei, die sich nur sehr unterschiedlich äußere. Der Meinung kann man sein, jedoch ist sie nicht mit dem aktuellen Stand der Wissenschaft zu vereinbaren. Eine gute Orientierung bietet folgende einfache Regel: Wenn eine ausreichende Anzahl depressiver Haupt- und Nebensymptome erfüllt ist und obendrein (und nur im Zuge der depressiven Phase, nicht außerhalb derer!) Ängste, Schmerzen oder andere Körpersymptome auftreten, so kann man davon ausgehen, dass diese wahrscheinlich mit durch die Depression bedingt sind. Panikattacken können Symptom einer Depression sein, und Depressionen können Körpersymptome oder Schmerzen verstärken und manchmal sogar verursachen. Wenn aber gar keine richtigen Depressionssymptome vorliegen, sondern nur Ängste, Schmerzen oder Körpersymptome, dann sollte man die Depressionsdiagnose verwerfen (ich weiß, es wäre anders so schön einfach) und über eine Angststörung oder somatoforme Störung nachdenken, denn die gibt es auch und man würde sie zumindest psychotherapeutisch anders behandeln als eine Depression.

Die Ausschlussdiagnostik: Das sollte vor der Diagnosestellung (eigentlich) alles überprüft werden

Bevor man eine Depression diagnostiziert, ist es wichtig, einige körperliche Ursachen für die vorliegenden Beschwerden auszuschließen. Das Problem: Es gibt diesbezüglich sehr viele Dinge. Das „eigentlich“ verweist deshalb auf den Umstand, dass es in unserem Gesundheitssystem kaum umsetzbar ist, wirklich alle Aspekte zu überprüfen. Wohlwissend, dass die Welt kein Ponyhof ist, wird meiner Meinung nach dennoch manchmal zu wenig an Ausschlussdiagnostik betrieben, und der Pat. wird vorschnell zum Psychotherapeuten geschickt. Im Folgenden findet sich eine sicherlich nicht vollständige Liste der Dinge, die man besser einmal untersuchen könnte, bevor im schlimmsten Fall ein Patient ungerechtfertigterweise das „Psycho“-Label und die entsprechende Überweisung bekommt:

  • Ist die depressive Symptomatik Folge des Konsums eines Rauschmittels (Alkohol, Drogen) oder die Nebenwirkung eines anderen Medikaments, z. B. eines blutdrucksenkenden Mittels (gerade bei älteren Menschen nicht selten)?
  • Ist die Depressivität Teil einer anderen übergeordneten Diagnose wie z.B. Demenz, Parkinson, etc., oder Folge einer Infektion, einer Herz-Kreislauf-Erkrankung, einer Immunerkrankung (z. B. Krebs, Allergien) oder einer hormonellen Störung (Diabetes, Wechseljahre bei Frauen)?
  • Im Blut sollte man folgende Parameter anschauen, die immer wieder sehr heiße Kandidaten für depressiv anmutende Symptome sind:
    • TSH, das Schilddrüsenhormon
    • Eisenwerte (durchaus auch inkl. des Ferritinwerts oder der Transferrinsättigung)
    • B-Vitamine, v. a. Vitamin B12 (oft leider eine IGEL, die selbst gezahlt werden muss)
    • Vitamin D3 (auch meist eine IGEL)
  • Liegt eine versteckte Fructoseintoleranz vor?

Ich verstehe, dass diese Ausschlussdiagnostik aufwendig ist, keine Frage. Aber der Nutzen wiegt hier meiner Meinung und Erfahrung nach die Kosten auf, denn allzu oft stellt sich heraus, dass Psychotherapie oder ein Antidepressivum eigentlich unnötig waren, und dann hat die Krankenkasse nicht nur unnötig Geld ausgegeben (und wir erinnern uns: das trifft alle, zumindest alle gesetzlich Versicherten), sondern ein Patient hat auch unnötigerweise gewaltige Strapazen auf sich genommen – dabei war z. B. einfach nur der Vitamin D-Wert im Keller.

Hinsichtlich des Zusammenhangs zwischen Depressivität und Fructoseintoleranz bzw. allgemein zwischen psychischen und psychosomatischen Problematiken wie Depression oder auch dem Reizdarmsyndrom, dem Erleben von Stress und unserem Darm (d. h. dessen Nervensystem und dessen Darmflora, also der Gesamtheit der in ihm lebenden Bakterien) möchte ich darauf verweisen, dass die Forschung in diesem Bereich sehr spannend und vielversprechend, jedoch noch zu jung und zu wenig eindeutig ist, um schon konkrete Behandlungsmöglichkeiten daraus abzuleiten. Dinge wie Stuhltransplantationen oder die gezielte Einnahme förderlicher Bifido- und Milchsäurebakterien werden durchaus in verschiedenen Bereichen schon durchgeführt, jedoch sind sie noch unausgereift und wissen wir noch zu wenig darüber, welche Bakterien genau im Darm z. B. dabei helfen könnten, Depressivität oder die Symptome eines Reizdarmsyndroms zu lindern. So rasant, wie die Forschung dort voranschreitet, kann ich mir aber gut vorstellen, dass in 10-20 Jahren die Behandlung mit bestimmten „guten“ Bakterien eine etablierte Alternative oder Ergänzung zu Antidepressiva sein wird. Wer hier mehr wissen will, sollte unbedingt die überarbeitete und aktualisierte Ausgabe des Buchs “Darm mit Charme” der Gastroenterologin Giulia Enders lesen (v. a. das letzte Kapitel).

Und was ist nun „Burnout?“

Spätestens seitdem die No Angels sich getrennt haben, ist diese scheinbare Diagnose in aller Munde. „Ausgebrannt sein“, sich “ innerlich leer fühlen“, „total erschöpft und ausgelaugt“ sind dann typische Attribute, die im medialen Alltag gerne fallen. Von fachlicher Seite ist hierbei aber große Vorsicht geboten. „Burnout“ ist, anders als Depression, tatsächlich mehr ein Modebegriff als eine offizielle Diagnose. In keinem der aktuellen Diagnosesysteme taucht sie, wenn man einmal inhaltlich verwandte Begriffe wie die “Erschöpfungsdepression” außer Acht lässt, auf, und das aus gutem Grund: „Burnout“ ist von der Symptomatik her nicht eindeutig von einer (leichten) depressiven Episode zu trennen – denn wir erinnern uns: Müdigkeit und Erschöpfungserleben sind depressive Symptome (siehe oben). Anders gesagt: „Burnout“ ist im Grunde ein anderer Begriff für Depression und klingt etwas salonfähiger, was aber das Stigma auf Depression eher verstärkt als abmildert. Daher muss auch explizit davor gewarnt werden, einen scheinbaren „Burnout“ auf die leichte Schulter zu nehmen. Um es auf den Punkt zu bringen: Die „Erfindung“ dieses Syndroms ist deshalb kritisch zu bewerten, weil so die Gefahr wächst, dass eine manifeste Depression übersehen – und folglich falsch oder gar nicht behandelt wird. Einen ausführlichen Artikel zum Thema „Burnout“ finden Sie außerdem  hier.

Im zweiten Teil dieses Artikels wird es darum gehen, was die Ursachen einer Depression sind – und wie eine Depression behandelt werden kann.

© Dr. Christian Rupp 2020