Intelligenz – Teil 3: Warum man nicht nur einen IQ hat und wir lange Zeit immer schlauer wurden

Vorab: Was ist eigentlich „der IQ“?

Der so genannte Intelligenzquotient, kurz IQ, ist im Grunde schon der Schlüssel zu der Art und Weise, wie er berechnet wird – und doch wird diese Tatsache im alltäglichen Sprachgebrauch viel zu selten berücksichtigt. Ursprünglich erfolgte die Berechnung dieses Maßes für menschliche Intelligenz allerdings auf etwas andere Weise als heute. Geprägt wurde der Begriff des Intelligenzquotienten nämlich durch den Psychologen William Stern, der den von Alfred Binet geprägten Begriff des Intelligenzalters aufgriff und weiterentwickelte. Das Intelligenzalter ergibt sich nach Binet, grob gesagt, durch die Summe der gelösten Aufgaben in einem Intelligenztest. Aufschluss über die kognitive Leistungsfähigkeit gibt dann der Vergleich von Intelligenzalter und tatsächlichem Lebensalter: Wenn ein 8-jähriges Kind z.B. deutlich mehr (d.h. schwierigere) Aufgaben löst, als andere 8-jährige Kinder es im Durchschnitt tun, dann könnte sein Intelligenzalter z.B. 9,5 Jahre betragen – mit anderen Worten: Dieses Kind wäre in seiner kognitiven Entwicklung schon überdurchschnittlich weit fortgeschritten. William Stern setzte schließlich diese beiden Größen (also das Lebensalter und das Intelligenzalter nach Binet) einfach ins Verhältnis (bildete also einen Quotienten), multiplizierte sie mit dem Faktor 100 – und schon war der IQ geboren. Für unser Beispiel-Kind ergäbe sich somit ein IQ von (9,5/8)*100 = 118,75 (bzw. 119, da es aufgrund der nicht perfekten Reliabilität von Intelligenztests unüblich ist, IQ-Werte mit Nachkommastellen anzugeben).

Heutzutage berechnet man den IQ nicht mehr auf diese Weise, wenngleich das Grundprinzip der Berechnung erhalten geblieben ist: Weiterhin werden zwei verschiedene Werte miteinander ins Verhältnis gesetzt, weshalb der Begriff „Quotient“ auch heute noch gerechtfertigt ist. Dies ist mit einer ganz wichtigen Tatsache verbunden, die in der Öffentlichkeit und in den Medien leider so oft untergeht: Es gibt nicht den IQ, und es ist keineswegs so, dass ein Mensch genau einen IQ hat. Derartige Aussagen kann man guten Gewissens als Unsinn bezeichnen. In der Tat kann man einer jeden Person unzählige IQ-Werte zuweisen; aber um zu verstehen, warum das so ist, muss man sich vor Augen führen, wie der IQ berechnet wird.

Wie schon gesagt, basiert die IQ-Berechnung auf dem Bilden von Verhältnissen. Was wird nun ins Verhältnis gesetzt? Grob gesagt wird (egal mit welchem Intelligenztest) immer ein Rohwert zu einem bestimmten Mittelwert und einer Standardabweichung gesetzt. Der Rohwert meint meist die Anzahl der in einem Intelligenztest gelösten Aufgaben (was deshalb Sinn macht, weil fast alle diese Tests so aufgebaut sind, dass die Aufgaben im Verlauf immer schwieriger werden). Bei unserem Beispiel-Kind von oben könnten das z.B. 21 von 30 Aufgaben sein. So, dieser Rohwert sagt einem zunächst einmal gar nichts. Um an einen IQ-Wert zu gelangen, braucht man zusätzlich eine Normstichprobe, d.h. eine repräsentative Stichprobe anderer Menschen, mit der man das Kind nun vergleichen kann. Von dieser Normstichprobe braucht man zwei Informationen: den Mittelwert (d.h. die durchschnittliche Zahl der gelösten Aufgaben in dieser Gruppe von Menschen, hier z.B. 18,1) und die Standardabweichung (d.h. die „durchschnittliche“ Abweichung von diesem Mittelwert, z.B. 2,7). Nun muss die Zahl der von unserem Beispiel-Kind gelösten Aufgaben ins Verhältnis zu dieser Normstichprobe gesetzt werden . Hierzu berechnet man zunächst die Differenz zwischen dem Rohwert des Kindes und dem Mittelwert der Normstichprobe: 21-18,1 = 2,9. Dies ist die also die „Abweichung“ unseres Kindes vom Mittelwert der Normstichprobe – und diese muss man nun ins Verhältnis setzen zur „durchschnittlichen Abweichung“ vom Mittelwert der Normstichprobe (also deren Standardabweichung); d.h. man rechnet: 2,9/2,6 = 1,12. Man sagt: Das Kind liegt etwas mehr als eine Standardabweichung über dem Mittelwert der Normstichprobe. Nun fehlt nur noch die Umrechung in IQ-Werte. Hierzu nutzt man die Tatsache, dass IQ-Werte eine Art Maßzahl sind – deren Mittelwert und deren Standardabweichung festgelegt sind. D.h., man kann sie nutzen, um die Ergebnisse unterschiedlichster Tests (die alle andere Skalierungen verwenden), in ein und derselben Metrik anzugeben. Der Mittelwert des IQ ist auf 100 festgelegt, und die Standardabweichung auf einen Wert von 15. Um unserem Kind nun einen IQ-Wert zuweisen zu können, muss man nur noch den Wert 1,12 mit 15 multiplizieren und 100 addieren – und es ergibt sich ein IQ von 116,8 (bzw. 117).

Und schon hat man das, was in der Praxis meist noch in viel gravierender Form auftritt: Die beiden IQ-Werte (119 und 117) sind nicht gleich. Während es in unserem konstruierten Fall natürlich daran liegt, dass ich bei der obigen Berechnung die Werte ins Blaue hinein erfunden habe, liegt es in der Realität an einem anderen Faktor – nämlich an der Frage, welche Normstichprobe ich heranziehe, um die Person, deren IQ ich messen will, mit ihr zu vergleichen. Im Allgemeinen sollte man hierzu immer diejenige Normstichprobe wählen, die der Person bezüglich Alter und Geschlecht am ähnlichsten und zudem möglichst aktuell ist. Es finden sich aber auch noch feiner aufgegliederte Normen, z.B. auch bezüglich des Bildungsstands oder der besuchten Schulform. Ein IQ-Wert bedeutet immer nur, wie gut oder schlecht die Leistungen einer Person im Vergleich mit einer ihr möglichst ähnlichen Gruppe von Menschen sind. Und das ist genau der Grund, aus dem man für ein und denselben Menschen unzählige IQ-Werte berechnen kann – und ein IQ-Wert völlig ohne Aussage ist, solange man nicht mit angibt, zu welcher Normstichprobe man die Person ins Verhältnis gesetzt hat: Wenn der IQ unseres Kindes aus dem Vergleich mit einer Stichprobe Fünfjähriger resultiert, würde man den IQ von 118 nicht als besonders hoch einstufen; stammt er jedoch aus einem Vergleich mit einer Gruppe 16-Jähriger, kann man sich ziemlich sicher sein, dass das Kind wohl hochbegabt ist. Das ganze noch einmal in Kürze: Wenn jemand Ihnen das nächste Mal erzählt, er habe einen IQ von 150 – dann fragen Sie ihn doch bitte, aus dem Vergleich mit welcher Normstichprobe dieses Ergebnis resultiert.

Wie ist Intelligenz in der Menschheit verbreitet?

Wie oben bereits erwähnt, handelt es sich bei IQ-Werten um eine standardisierte Skala, auf der sich durch einfache Umrechnung alle möglichen Werte abbilden lassen, solange man die zwei wichtigen Angaben vorliegen hat: den Mittelwert und die Standardabweichung der betreffenden Stichprobe. Wann immer ich im Rest dieses Artikels von IQ-Werten spreche, bitte ich, dieses zu berücksichtigen.

Wie man aus zahlreichen Untersuchungen an großen repräsentativen Stichproben weiß, folgen IQ-Werte in der menschlichen Bevölkerung ziemlich genau einer so genannten Gauss’schen Normalverteilung (auch Gauss’sche Glockenkurve oder einfach kurz Normalverteilung genannt). Bei diesem Begriff handelt es sich im Grunde um eine Art „Etikett“, da es eine besondere Form von Verteilung bezeichnet, der (statistische) Werte (wie eben IQ-Werte) folgen können. Eine Normalverteilung lässt sich anhand zweiter Werte genau beschreiben, und zwar wiederum anhand des Mittelwertes und der Standardabweichung, die maßgeblich die Form der Kurve beeinflussen. Was ich im vergangenen Abschnitt noch verschwiegen habe, ist der sehr wichtige Umstand, dass die Tatsache, dass IQ-Werte einer solchen Normalverteilung folgen, einen ganz entscheidenden Vorteil mit sich bringt: nämlich den, dass die Berechnungen und Umrechnungen, die ich oben dargestellt habe, dadurch überhaupt erst mathematisch zulässig sind. Würden IQ-Werte keiner Normalverteilung folgen, hätten wir es um einiges schwieriger. So jedoch lässt sich (wie oben schon erwähnt) guten Gewissens sagen: IQ-Werte haben in der menschlichen Bevölkerung einen Mittelwert von 100 und eine Standardabweichung von 15. Um das ganze einmal ein bisschen plakativer zu machen, habe ich einmal eine entsprechende Abbildung gebastelt.

Verteilung des IQ in der Bevölkerung
Verteilung des IQ in der Bevölkerung

Um diese Glockenkurve nun zu verstehen, ist es wichtig, dass man nicht versucht, die y-Achse zu interpretieren (weshalb ich sie auch weggelassen habe). Mathematisch betrachtet handelt es sich bei dieser Kurve um eine Dichte-Funktion, d.h. auf der y-Achse ist die schwer interpretierbare Dichte abgetragen. Man darf und kann diese Kurve daher nicht direkt so lesen, dass sie einem Aufschluss darüber gibt, wie vielen Prozent der Menschen welcher IQ-Wert zugordnet ist (das geht daher nicht, weil die Intelligenz hier mathematisch als stetiges Merkmal konzipiert ist – aber nun genug mit dem statistischen Wirrwarr).

Sinnvoll interpretierbar ist hingegen das Integral, also die Fläche unter der Glockenkurve. Mit deren Hilfe kann man zumindest Aussagen darüber treffen, wie viele IQ-Werte sich in einem bestimmten Bereich bewegen. So liegen z.B. im Bereich einer Standardabweichung unter- und überhalb vom Mittelwert von 100 (also zwischen den IQ-Werten von 85 und 115) rund 68% aller IQ-Werte, und somit auch aller Menschen. Zwischen 70 und 130 liegen derweil z.B. rund 95% aller Werte, d.h. es liegen nur 2,5% unter 70 und 2,5% über 130. Als Konvention hat sich daher eingebürgert, alle IQ-Werte zwischen 85 und 115 als „durchschnittlich“ zu bezeichnen, Werte zwischen 70 und 85 als „niedrig“ und Werte zwischen 115 und 130 als „hoch“. „Hochintelligent“ ist daher streng genommen etwas anderes als „hochbegabt“, was sich als Begriff für IQ-Werte über 130 etabliert hat. Zur Erinnerung: Diese Menschen liegen bzgl. ihrer kognitiven Leistungen mehr als zwei Standardabweichungen über dem Mittelwert ihrer (hoffentlich) alters- und geschlechtsspezifischen Normstichprobe. Ähnliches gilt in umgekehrter Richtung für IQ-Werte unter 70. Hier bewegen wir uns (allerdings noch mit bedeutenden Abstufungen!) im Bereich der geistigen Behinderung (für deren Definition vorrangig der IQ herangezogen wird). Diese praktischen Prozentangaben haben einen weiteren Vorteil: Man kann jedem IQ-Wert einen Prozentrang zuweisen und somit z.B. Aussagen der Sorte „besser als 84% aller Mitglieder der Normstichprobe“ (bei einem IQ von 115) treffen. Um zu der Anmerkung von vorhin zurückzukommen: Ein IQ von 150 würde bedeuten, dass 99,96% der Menschen in der Normstrichprobe (und somit gewissermaßen auch in der Bevölkerung, für die die Normstichprobe ja repräsentativ sein soll) einen niedrigeren Wert aufweisen: Und das ist, wie sie auch an der Abbildung sehen können, hochgradig unwahrscheinlich – mal davon abgesehen, dass kein Intelligenztest einen so hohen Wert vernünftig messen kann (Thema des nächsten Artikels).

Exkurs: Männer & Frauen

Ein ganz heikles Thema ist es natürlich, ob nun Männer oder Frauen im Durchschnitt intelligenter sind. Der mir bekannte aktuelle Forschungsstand hierzu ist der, dass es – bezüglich der allgemeinen Intelligenz – einen marginalen Unterschied dahingehend gibt, dass Männer ein paar wenige IQ-Punkte vorne liegen, gleichzeitig aber die Varianz bei Männern höher ist: Sowohl in den sehr hohen als auch in den sehr niedrigen IQ-Bereichen überwiegen Männer. Dazu sei noch gesagt, dass dieser Unterschied durch zwei Aspekte an Bedeutung verliert: Zum einen ist die Varianz innerhalb jeder der beiden Gruppen um ein Vielfaches größer als der Unterschied zwischen den Gruppen, und zum anderen ist es gut möglich, dass jener Unterschied dadurch zustande gekommen ist, dass viele Intelligenztests bestimmte Aufgaben in den Vordergrund stellen, die Männer bevorteilen. Denn was als gut gesichert gilt, ist, dass Männer und Frauen sich deutlich hinsichtlich ihrer kognitiven Stärken und Schwächen unterscheiden: Es gilt als sehr robuster Befund, dass Männer z.B. im Mittel besser im visuell-räumlichen Denken abschneiden als Frauen, die wiederum im Durchschnitt die Nase vorn haben, was die verbale Intelligenz betrifft.

Der Flynn-Effekt: Wird die Menschheit wirklich immer intelligenter?

Eine andere Fragestellung ist die, ob der durchschnittliche IQ der Menschheit tatsächlich zunimmt – ein Phänomen, das in Anlehnung an den neuseeländischen Politologen James R. Flynn als Flynn-Effekt bezeichnet wird. Dieser Fragestellung auf den Grund zu gehen, ist aufgrund der beschriebenen Berechnungsweise des IQ gar nicht so einfach – denn um herauszufinden, ob der IQ im Mittel steigt, darf man Menschen eben nicht mit aktuellen Normstichproben vergleichen, sondern muss ältere heranziehen: Nur so kommt man dem Flynn-Effekt auf die Schliche.

In der Tat haben groß angelegte Studien ergeben, dass der mittlere IQ in der westlichen Bevölkerung zwischen den 1930er und den 1990er Jahren um 0,2 – 0,5 Punkte pro Jahr gestiegen ist. Dieser Anstieg ergibt sich natürlich aus dem Vergleich mit den immer gleichen Normen aus den 1930er Jahren – anders wäre ein Anstieg ja gar nicht messbar. Dabei nahmen die Leistungen in nicht-sprachlichen Tests (die vor allem fluide Intelligenz messen) deutlich stärker zu als die in sprachlich basierten Tests (die vor allem kristalline Intelligenz messen). Für diesen Befund wurden diverse Erklärungshypothesen diskutiert, die im Folgenden kurz angeschnitten werden sollen.

Dauer des Schulbesuchs und Erfahrung mit typischen Intelligenztestaufgaben

In der Tat nahm die durchschnittliche Dauer des Schulbesuchs in dieser Zeit deutlich zu – was deshalb wichtig ist, weil somit auch die Erfahrung und die Geübtheit im systematischen Lösen von schulischen Aufgaben zunahm, die typischen Intelligenztests sehr ähnlich sind. Der Anteil dieser Faktoren am Flynn-Effekt ist jedoch eher als gering zu einzustufen.

Erziehungsstil

Weiterhin wurde in den Raum geworfen, dass der typische elterliche Erziehungsstil in dieser Zeitspanne natürlich auch einem erheblichen Wandel unterlegen war. Konkret wird von den Vetretern dieser Hypothese angeführt, dass von Eltern zunehmend Wert darauf gelegt wurde, ihre Kinder schon früh in ihrer kognitiven Entwicklung zu fördern. Dieser Trend fand aber nicht nur im familiären Rahmen, sondern auch in viel größerem Maße in den Medien (Beispiel „Sesamstraße“) und in der Politik statt. Die Befunde hierzu sind widersprüchlich. Während man weiß, dass große, national initiierte Bildungsprogramme eher keine Wirksamkeit bezüglich der Erhöhung des durchschnittlichen IQs vorweisen können, wirkt sich frühe Förderung auf der individuellen Ebene durchaus positiv auf die kognitive Entwicklung aus.

Weniger Fälle geistiger Behinderung

Zu bedenken ist sicherlich auch, dass aufgrund besserer medizinischer Versorgung die Zahl der mit geistigen Behinderungen geborenen Kinder in der beschriebenen Zeitspanne zurückgegangen ist. Einige Studien hierzu messen diesem Aspekt im Hinblick auf den Flynn-Effekt eine zentrale Bedeutung bei: Durch den überproportionalen Wegfall sehr niedriger IQ-Werte (<70) in der Bevölkerung stieg der durchschnittliche IQ im Mittel an.

Ernährung

Es ist gut belegt, dass bessere Ernährung (z.B. vitaminreiche Kost, weniger Schadstoffe, etc.) die geistige Entwicklung von Kindern positiv beeinflusst. Durch ungesunde Ernährung kann es z.B. zu Schilddrüsenunterfunktionen kommen (gekennzeichnet durch einen Mangel an Triiodthyroxin und Triiodthyronin), die dann wiederum eine Verzögerung der geistigen Entwicklung bedingen können, sodass der mittlere IQ infolgedessen gestiegen sein könnte.

Vermutlich ist es tatsächlich nicht einer dieser Faktoren, die den Flynn-Effekt erklären, sondern ihr Zusammenspiel. Interessanterweise ist es derweil übrigens so, dass der Anstieg des mittleren IQ seit Anfang der 1990er Jahre als „gestoppt“ gilt, sodass man zumindest momentan sagen kann, dass der Flynn-Effekt der Vergangenheit angehört. Manche deuten dies als Beleg für die Richtigkeit der Ernährungshypothese (da die Nahrungsversorgung in der westlichen Gesellschaft gewissermaßen nicht noch viel besser werden kann), ich jedoch würde eher sagen, dass diese Tatsache der „Sättigung“ in entsprechender Weise auf alle Erklärungsansätze zutrifft.

In diesem Artikel habe ich mehrfach schon das Thema der Intelligenzmessung gestreift. Ob, wie – und vor allem – wie genau man die Intelligenz eines Menschen tatsächlich messen kann, wird daher der Inhalt des nächsten Artikels sein.

© Christian Rupp 2014

Intelligenz – Teil 2: Die Sicht der wissenschaftlichen Psychologie

Nachdem ich im ersten Artikel zum Thema „Intelligenz“ versucht habe, zu beschreiben, wie die Definition des Konstrukts „Intelligenz“ von Kultur zu Kultur schwankt, soll es in diesem Beitrag nun darum gehen, wie die wissenschaftliche Psychologie die Intelligenz betrachtet und wie sehr auch unter den Experten auf diesem Gebiet die Meinungen hierüber auseinander gehen.

Die Intelligenzforschung nahm ihren Anfang in den ersten Jahrzehnten des 20. Jahrhunderts, initiiert durch Charles Spearman, den ersten Psychologen, der sich der Erforschung dieses Kontrukts widmete. Er war es auch, der das erste Intelligenzmodell formulierte, welches heutzutage unter dem Begriff der „Zweifaktorentheorie der Intelligenz“ bekannt ist. Dieses Modell basiert, wie fast alle anderen Modelle, die im Übrigen grundsätzlich auf Spearmans Modell aufbauen, auf dem Prinzip der Faktorenanalyse, d.h. auf einem statistischen Verfahren, mit dessen Hilfe man anhand typischer Muster von häufig gemeinsam gelösten und gemeinsam nicht gelösten Aufgaben Rückschlüsse über die Formen von Intelligenz ziehen kann, die von einer Gruppe ähnlicher Aufgaben erfordert werden und somit unterschiedliche Subtypen von Intelligenz darstellen.

Nun hat die Faktorenanalyse aber den Nachteil, dass die Ergebnisse, die sie liefert (die so genannte Faktorstruktur) dem Wissenschaftler enorm viel Interpretationsspielraum lassen und man aus dem gleichen statistischen Ergebnis unterschiedliche Modelle über die Struktur der Intelligenz, d.h. ihre verschiedenen Unterformen, ableiten kann. Das Ergebnis sind unterschiedliche hierarchische Modelle, die die sich allem voran in einem ganz wesentlichen Punkt unterscheiden, und zwar der Frage, ob es einen allgemeinen, allen anderen intellektuellen Fähigkeiten übergeordneten, Generalfaktor der Intelligenz (auch g-Faktor oder einfach nur g genannt) gibt – oder ob die verschiedenen Formen der Intelligenz doch voneinander unabhängig sind. Dies hat für die Praxis sehr weitreichende Folgen, hängt es doch genau von dieser Frage ab, ob wir uns bei der Messung der Intelligenz auf einen einzelnen Wert beschränken können oder ob wir differenzierter vorgehen müssen. Auf der zweiten Ebene spaltet die allgemeine Intelligenz sich in einige wenige Unterfaktoren auf, die zumindest teilweise voneinander unabhängig sind, aber dennoch beide auch mit g zusammenhängen. Auf der dritten Ebene gliedern sich diese Unterfaktoren dann wiederum in spezifische intellektuelle Fähigkeiten wie z.B. Wortgewandtheit und logisches Schlussfolgern auf. Damit Ihnen die Vorstellung dieser (immer sehr ähnlich aufgebauten) hierarchischen Modelle etwas leichter fällt, habe ich in der unten stehenden Abbildung einmal selbst ein beispielhaftes Modell erstellt, von dem ich behaupten würde, dass es zwar vereinfacht ist, aber in vielerlei Hinsicht einen derzeit weit verbreiteten Konsens darstellt, nämlich die Annahme eines gewissen g-Faktors, eine Unterscheidung zwischen fluider und kristalliner Intelligenz auf der zweiten Ebene sowie einige typische, diesen beiden Faktoren wiederum unterordnete Subformen intellektueller/kognitiver Fähigkeiten. Worauf die einzelnen Komponenten dieses beispielhaften Modells jeweils zurückgehen, erfahren Sie in den nächsten Abschnitten.

Beispiel für ein hierarchisches Modell
Beispiel für ein hierarchisches Modell

 

Spearman: G thront über allem

Das von Spearman entwickelte Modell ist sowohl das allerälteste als auch dasjenige, das den Begriff des g-Faktors bzw. der „Allgemeinen Intelligenz“ geprägt hat. Spearman interpretierte die aus der Faktorenanalyse resultierenden hohen Korrelationen (= statistische Zusammenhänge) zwischen den Lösungsmustern unterschiedlichster Aufgaben derart, dass es einen solchen Generalfaktor der Intelligenz geben müsse, da, grob gesagt, Personen, die in einem Aufgabenbereich (z.B. räumliches Denken) gut abschnitten, tendenziell auch in anderen Bereichen (z.B. Wortschatz und logisches Schlussfolgern) gute Ergebnisse erzielten. Dieser Generalfaktor, so Spearman, sei die Grundlage aller Leistungen in Intelligenztests, und er beschreibt ihn als die „Fähigkeit, Zusammenhänge wahrzunehmen und daraus Schlüsse zu ziehen“ – kurz: als „mentale Energie“. G untergeordnet sind im Spearman-Modell nur die „spezifischen Fähigkeiten“, die mit s bezeichnet werden und sprachliche, mathematische und räumliche Intelligenz umfassen. D.h. es gibt im Gegensatz zum oben skizzierten Beispielmodell keinerlei mittlere Ebene.

Auf Spearmans Modell basieren mehrere Intelligenztests, die auch heute noch weit verbreitet sind. Man erkennt diese Tests daran, dass sie am Ende die Berechnung eines Intelligenzquotienten ermöglichen, der als Index für das Niveau der Allgemeinen Intelligenz herangezogen wird. Hierzu gehören z.B. alle Tests aus der Wechsler-Reihe (die aktuellsten sind der Wechsler Intelligenztest für Erwachsene, kurz WIE, und der Hamburg Wechsler Intelligenztest für Kinder in seiner 4. Ausgabe, kurz HAWIK-IV) sowie die Raven-Tests, die nur aus Matrizen-Aufgaben („Welches Bild gehört in das leere Kästchen?“) bestehen und zum Ziel haben, unabhängig von Sprache und Kultur abstraktes, nicht angewandtes Denken zu erfassen.

Abgrenzung von Spearman: Thurstone & Cattell

Im Verlauf des 20. Jahrhunderts wurde dann von anderen Psychologen eine Fülle weiterer, meist auf Faktorenanalysen und ihrer Interpretation basierender Intelligenzmodelle entwickelt, die sich, wenn man einmal ehrlich ist, nicht wirklich exorbitant voneinander unterscheiden. Dies hat sicherlich auch damit zu tun, dass sie fast ausnahmslos in Abgrenzung vom Spearman-Modell enstanden sind und sich somit alle in irgendeiner Form hierauf beziehen. Der zweite Grund ist der, dass man in der Wissenschaft leider auch nicht ständig das Rad neu erfinden kann.

Das Primärfaktorenmodell nach Thurstone: Ebenbürtiges Nebeneinander?

Anders als Spearman betrachtete Louis Leon Thurstone die Intelligenz als eine Sammlung von sieben klar voneinander angrenzbaren, also unabhängigen Intelligenzarten. Diese sieben Primärfaktoren sind: Rechenfähigkeit, Auffassungsgeschwindigkeit, schlussfolgerndes Denken, räumliches Vorstellungsvermögen, assoziatives Gedächtnis, Sprachbeherrschung und Wortflüssigkeit. Widergespiegelt wird dies durch den bekannten Intelligenz-Struktur-Test, kurz IST-2000-R, in dem eben nicht ein IQ-Wert am Ende berechnet wird, sondern mehrere. Kritisch an diesem Modell ist anzumerken, dass Thurstone bei seinen Faktorenanalysen in den Augen einiger Wissenschaftler etwas „gepfuscht“ hat, da er anstatt einer orthogonalen eine oblique Faktorenrotation verwendete – mit dem Ergebnis, dass seine sieben Primärfaktoren leider doch nicht völlig unabhängig voneinander sind. Thurstone räumte tatsächlich später ein, dass diese Kritik berechtigt sei, und erkannte einen gewissen g-Faktor als mögliche Ursache dieser Zusammenhänge an.

Die Zweikomponententheorie nach Cattell: Einführung einer mittleren Ebene

Raymond Bernard Cattell hingegen nahm von vornherein einen g-Faktor als oberste Instanz in seinem Intelligenzmodell an, war zugleich aber der erste, der eine mittlere Ebene (wie im obigen Beispielmodell gezeigt) einführte. Auf ihn geht die bis heute weit etablierte und bewährte Unterscheidung zwischen kristalliner (meist abgekürzt c) und fluider Intelligenz (meist abgekürzt f) zurück, in die sich im zufolge die Allgemeine Intelligenz aufspaltet. Unter der fluiden Intelligenz versteht Cattell eine generelle Denk- und Problemlösefähigkeit, die er als weitgehend unabhängig von kulturellen Einflüssen versteht und die eine wichtige Voraussetzung für den Erwerb neuer Informationen darstellt. Nach Cattell ist die fluide Intelligenz ein angeborenes Merkmal, die sich im Laufe des Lebens stabilisiert oder sogar gegen Ende stagniert. Gegenteilig hierzu verhält sich die bis zum Lebensende stetig anwachsende kristalline Intelligenz, die als kumulative Lebenserfahrung zu sehen ist. Dies deutet bereits darauf hin, dass diese sämtliches im Laufe des Lebens erworbenes Wissen, erworbene Fertigkeiten und Kompetenzen umfasst. Diese erachtet Cattell als stark von kulturellen Einflüssen geprägtes und maßgeblich von sprachlichen Fähigkeiten bestimmtes Konstrukt. Fluide und kristalline Intelligenz sind somit, wie es typisch für Elemente der mittleren Ebene ist, insofern nicht gänzlich unabhängig voneinander, als sie durch die „gemeinsame Mutter“ g verbunden sind, und gleichzeitig ist ihr Zusammenhang hinreichend gering, um sie als zwei separate Unterfaktoren zu betrachten. Dabei wird übrigens durchaus angenommen, dass c und f auf vielfältige Weise interagieren: Zum Beispiel wird davon ausgegangen, dass eine gut ausgeprägte fluide Intelligenz den Erwerb von kritalliner Intelligenz in Form von Wissen und Fertigkeiten erleichtert. Cattells Modell ähnelt sehr stark dem von John B. Carroll. Da letzteres keinen meiner Meinung nach wesentlichen Unterschied aufweist, werde ich es an dieser Stelle nicht gesondert beschreiben.

Auch Cattells Theorie ist in die Entwicklung von Intelligenztests eingeflossen. So findet sich (wenn auch nicht explizit so bezeichnet) die Unterteilung in f und c auch im IST-2000-R wieder. Die Tests aus der Wechsler-Serie erfassen typischerweise leicht überwiegend kristalline Intelligenz, während die ebenfalls bereits erwähnten Raven-Tests, ebenso wie die so genannten Culture Fair Tests (kurz CFTs), hauptsächlich fluide Intelligenz messen, um ausdrücklich kulturelle Unterschiede außen vor zu lassen und diesem Sinne „fair“ zu sein.

Nicht-hierarchische Modelle

Neben den hierarchischen Modellen gibt es auch noch ein paar Vertreter, die von verschiedenen Intelligenzformen ausgehen, die unabhängig und sozusagen „gleichberechtigt“ nebeneinander stehen, ohne dass es einen übergeordneten g-Faktor oder untergeordnete Fähigkeiten gäbe. Im Grunde hätte ich an dieser Stelle auch das Primärfaktorenmodell von Thurstone anführen können; da Thurstone aber im Nachhinein einen g-Faktor doch mehr oder weniger eingeräumt hat, findet es sich bei den hierarchischen Modellen.

Mehrdimensionale Modelle: Inhalt, Prozess & Co.

Zu den im Vergleich zu den hierarchischen Modellen fast schon exotisch anmutenden mehrdimensionalen Modellen gehören das Würfelmodell nach Guilford und das Berliner Intelligenzstrukturmodell nach Jäger. Beiden Modellen gemeinsam ist, dass sich eine sehr große Menge unterschiedlicher „Intelligenzen“ ergeben, und zwar als Produkt einiger weniger Faktoren, die unterschiedliche Ausprägungen aufweisen können. Dabei beruhen auch diese Modelle auf Faktorenanalysen und sind somit ein anschaulicher Beleg dafür, auf welch unterschiedliche Weise man die im Prinzip gleiche Datenlage interpretieren kann.

Im Würfelmodell ist es so, dass sich 150 verschiedene Intelligenzarten als Produkt drei verschiedener Faktoren mit wiederum verschiedenen Ausprägungen ergeben. Unter diesen drei Faktoren versteht Guilford den zu verarbeitenden Inhalt (z.B. akustische Reize), den nötigen Vorgang (z.B. Auswertung der akustischen Reize) und das Produkt (z.B. Herausstellung der Implikationen). Das klingt sehr abtrakt, komplex und schwer überprüfbar, was es auch tatsächlich ist. Ähnliches gilt für das Berliner Intelligenzstrukturmodell, bei dem es im Gegensatz zum Würfelmodell nur zwei Faktoren gibt. Zum einen führt Jäger den Faktor „Operationen“ an, als dessen mögliche Ausprägungen er Merkfähigkeit, Bearbeitungsgeschwindigkeit, Einfallsreichtum und Verarbeitungskapazität anführt. Zum anderen gibt es den Faktor „Inhalte“ mit drei Varianten, und zwar bildhaftem, verbalem und numerischem Material. Insgesamt ergeben sich hieraus also 3×4=12 verschiedene Intelligenzformen, abhängig von der Art des zu bearbeitenden Materials und der Art der geforderten mentalen Operation. Jägers Modell enthält daneben übrigens auch noch einen g-Faktor, der in gewisser Weise allen Faktoren und ihren Ausprägungen gleichsam zugrunde liegt.

Die praktische Anwendung dieser Form von Modellen ist schwieriger als bei den oben beschriebenen Modellen, da, wenn man die Modelle ernst nimmt, für alle möglichen Kombinationen von Faktorausprägungen eine geeignete Aufgabe finden muss. Zwar hat Guilford für den Großteil der in seinem Modell postulierten Intelligenzfacetten inzwischen Aufgabentypen vorgeschlagen, dass diese jedoch in einen standardisierten Intelligenztest übertragen wurden, ist mir nicht bekannt. Anders sieht es mit dem (ja doch deutlich sparsameren) Jäger-Modell aus, welches in Form des Berliner Intelligenzstruktur-Tests (kurz BIS) Anwendung findet.

Gardners Theorie der Multiplen Intelligenzen: Ein Plädoyer gegen G

In den 1980er Jahren veröffentlichte Howard Gardner seine Theorie der Multiplen Intelligenzen und wetterte gewaltig gegen das Konzept der Allgemeinen Intelligenz bzw. den g-Faktor. Er argumentierte, dass klassische Intelligenztests nicht imstande wären, die Fülle an kognitiven Fähigkeiten, über die ein Mensch verfügen kann, zu erfassen, und schlug ein Modell mit sieben voneinander unabhängigen und nicht durch einen übergeordneten g-Faktor bestimmten Intelligenzfacetten vor. An diesem, ebenfalls auf Faktorenanalysen basierenden Modell ist, neben der Tatsache, dass die Unabhängigkeit der Intelligenzfacetten nicht belegt ist, zu kritisieren, dass es eine große Überlappung mit dem (lange vorher veröffentlichten) Thurstone-Modell aufweist (allein schon, was die Zahl der Faktoren angeht). So finden sich bei Gardner u.a. auch die logisch-mathematische, die sprachliche und die bildlich-räumliche Intelligenz. Neu sind allerdings vier Faktoren, die eher den Fokus auf künstlerische und sozio-emotionale Fähigkeiten legen, nämlich die musikalisch-rhythmische, die körperlich-kinästhetische (Einsatz des eigenen Körpers), die interpersonale (Verstehen von und Umgang mit anderen Menschen) und die intrapersonale Intelligenz (Verständnis seinerselbst). Insbesondere die letzten beiden Intelligenzarten sind in der Psychologie inzwischen anerkannte Konstrukte, werden jedoch eher nicht direkt als Form von Intelligenz betrachtet, sondern unter dem Begriff „sozio-emotionale Kompetenz“ zusammengefasst (im Volksmund und in Klatschzeitschriften erfreuen sich allerdings die Begriffe „emotionale Intelligenz“ und „soziale Intelligenz“ allerdings weiter Verbreitung) und als etwas erachtet, das in der Regel in der Kindheit und in der Interaktion mit anderen Menschen erworben wird und eher nicht angeboren ist. Zu diesem Konstrukt gehören z.B. u.a. die Fähigkeit, die Perspektive anderer einzunehmen (Theory of Mind), die Fähigkeit, die emotionale Lage anderer nachzuempfinden (Empathie), das Bewusstsein über eigene emotionale Vorgänge, Wege der Emotionsäußerung und das Bewusstsein über die Wirkung der eigenen Emotionen auf andere sowie die Fähigkeit zur Regulation der eigenen Emotionen.

Sternbergs Triarchisches Modell: Radikale Abkehr vom Hierarchie-Gedanken?

Das von Robert Sternberg postulierte Triarchische Modell, auch bekannt unter dem Namen Komponentenmodell, basiert auf der Informationsverarbeitungstheorie, die, grob gesagt, die menschliche Kognition als Informationsverarbeitungsprozess betrachtet, und gibt vor, eine radikale Abkehr von hierarchischen Strukturen und der Annahme voneinander abgrenzbarer Faktoren darzustellen. Es ist daher auch das einzige bekannte Intelligenzmodell, das nicht auf Faktorenanalysen beruht. Sternberg prägte hiermit auch eine neuartige Definition von Intelligenz und nannte als Teile der Definition die Elemente „Lernen aus Erfahrung“, „abstraktes Schlussfolgern“, „die Fähigkeit, sich einer sich ständig weiterentwickelnden und verändernden Umwelt anzupassen“ und „die Motivation, überhaupt neues Wissen bzw. Fertigkeiten zu erlangen“. Die ersten beiden Aspekte überlappen stark mit der kristallinen und der fluiden Intelligenz, die beiden letzten hingegen sind in der Tat relativ neu und haben bisher kaum Eingang in die Messung von Intelligenz gefunden.

Die eigentliche Intelligenztheorie von Sternberg ist hingegen sehr komplex und meiner Ansicht alles andere als leicht verständlich. Ich wage auch, die kühne Behauptung aufzustellen, dass sich diese Theorie kaum prägnant zusammenfassen lässt, weil sie sich teilweise in Einzelheiten verliert. Daher möchte ich mich darauf beschränken, einige meiner Meinung nach wichtige Teilaspekte der Theorie herauszustellen. Zunächst wird, abgeleitet von der Informationsverarbeitungstheorie, die wichtige Unterscheidung getroffen zwischen der Art des ablaufenden kognitiven Prozesses, der Genauigkeit, mit dem dieser abläuft, und der Art der mentalen Repräsentation, die diesem Prozess zugrunde liegt (z.B. bildliches oder sprachliches Material). Insofern erinnert es es schon an dieser Stelle stark an die oben beschriebenen mehrdimensionalen Modelle. Dann verliert sich die Theorie (meiner Auffassung nach) in mehr und mehr Unter-Theorien, die einen eher geringen Erklärungswert haben und darüber hinaus mehr Ähnlichkeit mit den bereits beschriebenen Modellen haben, als man eigentlich aufgrund der revolutionären Aura der Theorie erwarten würde. Wirklich eingängig ist mir lediglich die „Komponenten-Subtheorie“, die drei Intelligenzkomponenten beschreibt und im Gegensatz zum Rest relativ anschaulich ist. Und zwar stellt Sternberg hier die analytische Intelligenz (abstrakte Denkprozesse, die einer Problemlösung vorausgehen), die praktische Intelligenz (Lösung von Problemen durch Anpassung an die Umwelt, Formung einer Umwelt oder Auswahl einer passenden Umwelt) und die kreative Intelligenz (Nutzen von Erfahrungen zur Lösung von Problemen) dar. Diese, so Sternberg, seien aber nicht in ein hierarchisches System eingebunden und stellten auch keinerlei Intelligenzfaktoren im klassischen Sinne dar – vielmehr seien sie eine Beschreibung dessen, was die Intelligenz leisten muss. Was genau er damit meint, und in wiefern dieser Gedanke sich wirklich von den beschriebenen hierarchischen oder mehrdimensionalen Modellen unterscheidet, bleibt zumindest mir unklar. Fest steht, dass Sternberg keinen g-Faktor anerkennt – doch dies allein ist, wie ich ausführlich dargestellt habe, nichts Revolutionäres.

Fazit

Was ich hoffe, vermittelt zu haben, ist, dass es derzeit kein allgemeingültiges und eindeutiges Verständnis dessen gibt, was „Intelligenz“ ist, in wie vielen verschiedenen Formen sie vorliegt und ob es einen allem übergeordneten g-Faktor gibt. Wenn man sich die empirische Evidenz anschaut, muss man allerdings zugeben, dass die Existenz einer Allgemeinen Intelligenz bzw. eines solchen g-Faktors sehr wahrscheinlich ist, da sich die starken Zusammenhänge zwischen unterschiedlichsten Intelligenztestaufgaben nicht einfach so wegdiskutieren lassen. Weitere Evidenz für dieses Konstrukt der Allgemeinen Intelligenz findet sich übrigens auch aus der Anwendungsforschung, z.B. aus der Arbeits- und Organisationspsychologie, die ergeben hat, dass die Allgemeine Intelligenz mit Abstand der bester Prädiktor von Berufserfolg ist (Näheres dazu hier). Andererseits gibt es auch Belege, die deutlich zeigen, dass sich mit g auch nicht alles erklären lässt und eine Unterteilung auf unterer Ebene durchaus Sinn macht – so gilt die Unterscheidung zwischen kristalliner und fluider Intelligenz z.B. als gut belegt.

Für mich persönlich bedeutet dies, dass die „Wahrheit“ (sollte es diese denn geben) am ehesten durch ein Modell abgebildet wird, das dem von Cattell bzw. Carroll ähnelt – vom Konzept also einem solchen, wie Sie es in der obigen Abbildung finden. Bedenken Sie aber, dass all diese Modelle im Wesentlichen unterschiedliche Interpretationen der weitgehend gleichen Sachlage sind und somit automatisch auch von der jeweiligen Ideologie geprägt sind, die ein Forscher vertritt (z.B. bzgl. der Frage, ob es einen g-Faktor geben darf). Und nicht zu vergessen ist auch, dass die Modelle sich, wenngleich sie sich alle natürlich als neuartig und daher wichtig darstellen, im Grunde nicht besonders stark unterscheiden – wenn man einmal genau nachdenkt.

Im nächsten Teil wird es um die Fragen gehen, was es mit dem Intelligenzquotienten auf sich hat, wie Intelligenz in der Bevölkerung verteilt ist und ob es stimmt, dass wir immer intelligenter werden.

© Christian Rupp 2014

Wirken alle Formen von Psychotherapie eigentlich gleich gut? Das Dodo-Bird-Verdict.

Zu dem folgenden Artikel wurde ich inspiriert durch einen am 3. Juni diesen Jahres in der taz veröffentlichten Zeitungsartikel zum Thema Psychotherapie. Eigentlich handelte er von den zahlreichen Hindernissen, die Patienten, die eine Psychotherapie in Anspruch nehmen möchten, in Deutschland überwinden müssen (aufgrund der chronischen Unterversorgung). Mitten im letzten Abschnitt fand sich aber dann eine These, die so, wie sie dort dargestellt wurde, definitiv nicht zutrifft. Diese lautete:

„Das am besten belegte Ergebnis der Psychotherapieforschung, auch als ‚Dodo Bird effect‘ bekannt, ist nämlich, dass alle Therapien gleich gut wirken. Eine Überbetonung der Methode ist sogar eher kontraproduktiv.“

Zunächst einmal: Der Name „Dodo-Bird-Effect“, in der Forschung meist als „Dodo-Bird-Verdict“ bezeichnet, ist, so seltsam er klingen mag, tatsächlich noch das Korrekteste in diesen ganzen zwei Sätzen. Der Begriff, der ursprünglich als Satire gemeint war, hat tatsächlich seinen Ursprung bei „Alice im Wunderland“, wo in einer Geschichte ein Dodo den Vorschlag macht, ein Rennen zu veranstalten, bei dem am Ende alle gewinnen, weil es kein Ziel gibt und auch die Zeit nicht gemessen wird. In der Psychotherapieforschung bezeichnet die Metapher derweil tatsächlich die These, dass alle Formen von Psychotherapie (eine Beschreibung der wichtigsten finden Sie hier) eigentlich gleich wirksam sind und es deshalb nicht auf spezifische Therapieinhalte (so genannte Interventionen) wie z.B. Konfrontationsübungen, kognitive Umstrukturierung (Veränderung von Denkmechanismen) oder ein Training sozialer Kompetenzen ankommt, sondern Psychotherapie ausschließlich über so genannte „unspezifische“ Faktoren wirkt. Zu letzteren zählen vor allem die Qualität der therapeutischen Beziehung und das Ausmaß, in dem der Therapeut dem Patienten gegenüber empathisch ist, eine akzeptierende Haltung einnimmt und ihn  allgemein unterstützt.

Belege dafür

Dass eine nicht unwesentliche Zahl von Therapieforschern und praktisch tätigen Therapeuten die Sichtweise des Dodo-Bird-Verdict teilt, kommt nicht von ungefähr. Vermeintliche Belege hierfür stammen aus den Untersuchungen von Luborsky und Kollegen aus den Jahren 1975 und 2002. In beiden Artikeln trägt die Forschergruppe eine große Zahl von Studien zusammen, die systematisch jeweils zwei Therapieformen miteinander verglichen haben, z.B. kognitive Verhaltenstherapie und tiefenpsychologisch fundierte Psychotherapie. In solchen Studien wird dann der Unterschied der Wirksamkeit meist in der Einheit „Cohen’s d“ (einem statistischen Effektstärkenmaß) angegeben. Zur Orientierung: Hierbei spiegeln d-Werte von 0,2 einen kleinen, solche von 0,5 einen mittleren und von 0,8 einen großen Unterschied wider. Schon 1975 konnte die Forschergruppe um Luborsky durch das Zusammentragen solcher Studien zeigen, dass bei den meisten dieser Studien nur sehr kleine und zudem statistisch nicht signifikante Unterschiede zwischen verschiedenen Therapieformen resultieren. 2002 berechnete dieselbe Forschergruppe dann im Rahmen einer Metaanalyse den mittleren Unterschied über sämtliche solche direkten Vergleichsstudien hinweg und kam auf einen Wert von 0,2. Die Schlussfolgerung war: Die Unterschiede zwischen verschiedenen Therapieformen sind so gering, dass sie zu vernachlässigen sind.

Kritik an den Luborsky-Studien

Allerdings kann man an sehr vielen Punkten Kritik an der Vorgehensweise dieser Forschergruppe üben. Die wesentlichsten Punkte seien hier kurz genannt:

  • Die Autoren differenzierten die Ergebnisse nicht nach der jeweiligen Störung, die behandelt wurde, sondern mittelten über alle Störungen hinweg.
  • Unterschiede innerhalb einer Therapieform (z.B. der tiefenpsychologisch fundierten Psychotherapie) wurden ignoriert.
  • Es wurden viele Studien eingeschlossen, die die Therapieformen nicht an klinisch kranken Probanden verglichen, sondern an gesunden Probanden mit leichten psychischen Auffälligkeiten (so genannte Analogstichproben) – dies mindert die Aussagekraft.
  • Die Autoren schlossen viele Studien mit kleinen Stichprobenumfängen ein, was es aus statistischen Gründen stark erschwert, etwaige Unterschiede zwischen den Therapieformen überhaupt signifikant nachweisen zu können.
  • Durch die Einschränkung auf Studien, die zwei Therapieformen direkt miteinander verglichen haben, bleiben viele wichtige Befunde aus randomisierten kontrollierten Studien unberücksichtigt.

Belege dagegen

Spezifische Interventionen wirken über unspezifische Wirkfaktoren hinaus

Die Psychotherapieforschung hat zwei wesentliche Befunde vorzuweisen (die aber nicht mit der im taz-Artikel aufgestellten Behauptung übereinstimmen): Erstens, dass die oben beschriebenen unspezifischen Wirkfaktoren (vor allem die Qualität des therapeutischen Arbeitsbündnisses bzw. der therapeutischen Beziehung sowie Empathie & Akzeptanz auf Seiten des Therapeuten) tatsächlich stark mit dem Erfolg der Therapie zusammenhängen. Der Effekt dieser Faktoren auf den Therapieerfolg liegt, statistisch ausgedrückt, immerhin bei einem d-Wert von 0,5 (mittlerer Effekt), wie sich aus einer Vielzahl von Studien ergeben hat. Vor allem sind dies randomisierte kontrollierte Studien mit einer Placebo-Kontrollgruppe, wo die Behandlung in der Placebo-Gruppe eben ausschließlich darin besteht, dass der Therapeut diese unspezifischen Wirkfaktoren umsetzt. Diese Placebo-Behandlung zeigt gegenüber Kontrollgruppen ohne jegliche Behandlung bereits gute Therapieeffekte, aber: Sie sind gleichzeitig meist der Experimentalgruppe, die die Behandlung mit der spezifischen Intervention erhält, unterlegen. Um das ganze mit Leben zu füllen, soll ein kleines Beispiel herhalten: So könnte man z.B. bei Angststörungen drei Therapiebedingungen vergleichen: Eine Gruppe erhält gar keine Behandlung, die zweite eine Placebo-Behandlung (empathischer, aktiv zuhörender Therapeut, Vermittlung von Informationen über Angst, allgemeine Unterstützung) und die dritte eine Konfrontationstherapie (spezifische Intervention zusätzlich zu den auch hier vorhandenen unspezifischen Faktoren). Der Vergleich mit der Gruppe ohne Behandlung ergibt den Effekt wieder in der Einheit „Cohen’s d“: Es ergibt sich z.B. ein Effekt von 0,5 für die Placebogruppe, aber einer von 1,2 für die Konfrontationsgruppe (was durchaus realistische Zahlen sind). Fazit hier wäre (und dies entspricht der Realität): Unspezifische Faktoren verbessern die Angst, aber spezifische Interventionen verbessern sie mehr.

Wenn man nicht nur direkte Vergleiche betrachtet…

Und wenn man eben solche Studienergebnisse mit betrachtet und sich nicht auf direkte Vergleichsstudien einengt, dann ergeben sich durchaus betachtliche Unterschiede zwischen Therapieformen. So konnte z.B. in einer Metaanalyse von Hoffman und Smits (2008) gezeigt werden, dass bei der posttraumatischen Belastungsstörung eine traumafokussierte Psychotherapie (ebenso wie Eye Movement Desensitisation and Reprocessing, kurz EMDR) einer nicht-traumafokussierten Psychotherapie, die auf die Konfrontation mit dem Trauma verzichtet, deutlich überlegen ist. Anders als in den Luborsky-Studien beruhte dieses Ergebnis derweil nicht auf dem gemittelten Unterschied zahlreicher direkter Vergleichsstudien, sondern auf einer großen Zahl von pro Therapieform zusammengetragenen einzelnen randomisierten kontrollierten Studien.

Auf die Störung kommt es an

Dieser Aspekt ist der wohl wichtigste und für die Praxis relevanteste. Ob Therapieformen gleich gut wirken oder nicht, hängt ganz maßgeblich davon ab, welche Störung wir betrachten. Dies konnte sehr eindrucksvoll von Tolin (2010) gezeigt werden, der interessanterweise die gleiche Methode wie die Gruppe um Luborsky verwendete, sich also nur auf direkte Vergleiche beschränkte, und zwar auf direkte Vergleiche jeweils zwischen kognitiver Verhaltenstherapie (KVT) und anderen Therapieformen. Gemittelt kommt Tolin auch auf einen gemittelten Unterschied von 0,2. Aber: Der Unterschied ist für verschiedene Störungen unterschiedlich hoch (auch wieder gemessen in d-Einheiten). Während die Art der Therapie z.B. bei Essstörungen und Substanzabhängigkeiten tatsächlich kaum eine Rolle spielt (d=0,15 bzw. 0), liegt der gemittelte Unterschied bei der Depression im mittleren Bereich von 0,2, während er bei Persönlichkeits- und Angststörungen deutlich höher ausfällt, nämlich bei 0,34 bzw. 0,43 liegt. Letzteres Ergebnis stützt den Befund aus Therapiestudien, dass bei Angststörungen generell Therapien mit Konfrontationselementen solchen ohne bezüglich der Wirksamkeit überlegen sind. Die Ergebnisse sind also insgesamt so zu verstehen, dass andere Therapieformen der KVT entweder ebenbürtig (d=0) oder unterlegen (d>0) sind.

Die Unterschiede zeigen sich in der langfristigen Wirkung

Ein weiteres Ergebnis der Metaanalyse von Tolin betrifft die Unterschiede in der langfristigen Wirkung. Der gemittelte Unterschied von 0,2 bezieht sich lediglich auf den Vergleich der Symptomverbesserung direkt im Anschluss an die Therapie („post-treatment„). Legt man hingegen die Messungen der Symptomschwere 6 bzw. 12 Monate nach Ende der Therapie zugrunde (so genannte follow-up-Messungen), so ergeben sich über alle Störungen hinweg gemittelte Unterschiede von 0,47 bzw. 0,34. Hieraus kann man den wichtigen Schluss ziehen, dass sich die Unterschiede in der Wirkung verschiedener Psychotherapieformen vor allem auf die nachhaltige Wirkung beziehen, wo gemäß der Metaanalyse von Tolin die KVT nachweislich besser abschneidet als andere Verfahren.

Spezifische Psychotherapie wirkt nicht bei jedem Problem gleich

Anhänger des Dodo-Bird-Verdicts führen, wie oben beschrieben, das Argument an, dass Psychotherapie alleinig über unspezifische Wirkfaktoren wirkt. Dass das nicht stimmt, belegen zwar bereits sämtliche randomisierten kontrollierten Studien mit einer Placebo-Kontrollgruppe (siehe oben), es spricht aber noch ein anderer konsistenter Befund dagegen: Nämlich der, dass eine Psychotherapie im intendierten Störungsbereich stärkere Effekte erzielt als in anderen. Konkret bedeutet dies, dass sich z.B. ein depressionsspezifisches Therapieelement stärker auf Depressivität als beispielsweise auf Angst auswirkt, was nicht so sein sollte, wenn laut Dodo-Bird-Anhängern jede Therapie gleich gut bei allem wirkt.

Fazit

Pauschal zu sagen, dass alle Therapieformen gleich wirken, ist gemäß der Befundlage nicht möglich. Es gibt unspezifische Wirkfaktoren, die nahezu bei jeder Therapieform gleich sind und die auch bereits einen nicht zu vernachlässigenden Effekt bewirken. Aber: Spezische Interventionen sind diesen bei vielen Störungen und vor allem bezüglich der Nachhaltigkeit der Wirkung überlegen, was erklärt, dass eben nicht alle Psychotherapieformen als gleich gut einzustufen sind. Und übrigens: Für den zweiten Teil der Aussage aus dem taz-Artikel („Eine Überbetonung der Methode ist sogar eher kontraproduktiv.„) liegen noch viel weniger Belege vor. Mit anderen Worten: Auch bei der taz ist man vor nachlässiger Rechercheleistung nicht sicher.

© Christian Rupp 2013

Klinische Psychologie, Psychotherapie, Psychoanalyse: Wo gehört Freud nun hin?

Klinische Psychologie

Die Klinische Psychologie als Teilgebiet der Psychologie befasst sich (ebenso wie ihr medizinisches Pendant, die Psychiatrie) mit psychischen Störungen, aber auch mit den psychischen Einflüssen bei auf den ersten Blick rein körperlich bedingten Krankheiten, wie z.B. Kopf- und Rückenschmerzen oder dem Reizdarmsyndrom (wo psychischen und Verhaltensfaktoren eine große Bedeutung zukommt). Diese Richtung ist ganz eng verwandt mit dem medizinischen Fach der Psychosomatik, das sich ebenfalls dem Einfluss psychischer Faktoren auf körperliche Symptome widmet und Körper und Psyche schon lange nicht mehr als getrennte Einheiten, sondern als Bestandteile eines untrennbar miteinander verwobenen Systems betrachtet.

Die Klinische Psychologie ist somit eines der großen Anwendungsfächer im Psychologiestudium. Dass es nur eines von mehreren ist, möchte ich an dieser Stelle noch einmal ganz deutlich machen, denn in der Laiengesellschaft wird „Psychologie“ oftmals mit „Klinischer Psychologie“ gleichgesetzt bzw. auf diese reduziert. Konkret werden in der Klinischen Psychologie vor allem die Ursachen von psychischen Störungen erforscht und in Bezug auf die verschiedenen Störungen spezifische Modelle für deren Entstehung entwickelt. So werden z.B. in Längsschnittstudien (die die Versuchsteilnehmer über Jahre begleiten) Risikofaktoren (z.B. bestimmte Erlebnisse in der Kindheit, der Erziehungsstil der Eltern, kindliche Verhaltensstörungen, etc.) und Auslösefaktoren (z.B. stressreiche Lebensereignisse) für psychische Störungen erforscht. Ferner wird auch an großen Bevölkerungsstichproben die Häufigkeit psychischer Störungen und deren Verlauf (z.B. episodenweise oder chronisch) untersucht –  zusammengefasst wird dieser Bereich unter dem Begriff „Epidemiologie“. Ein weiteres Gebiet ist außerdem die Experimentelle Psychopathologie, die systematisch mit Hilfe typischer experimenteller Manipulationen Begleiterscheinungen (Korrelate) psychischer Störungen untersucht. Hierzu gehören z.B. die Befunde, dass schizophrene Patienten Beeinträchtigungen bei unbewussten, motorischen Lernprozessen (implizitem Sequenzlernen) aufweisen und ADHS-Patienten sich hinsichtlich bestimmter ereigniskorrelierter Potenziale wie der „P300“ von gesunden Menschen unterscheiden. Befunde der experimentellen Psychopathologie tragen so auch dazu bei, die Ursachen psychischer Störungen besser zu verstehen, da sie Einsicht in Fehlfunktionen der Informationsverarbeitung und somit in „schief laufende“ Gehirnprozesse ermöglichen.

Psychotherapie

Kognitive Verhaltenstherapie

Das für die Praxis relevanteste und wahrscheinlich inzwischen größte Teilgebiet der Klinischen Psychologie ist das der Psychotherapie. Hier werden einerseits, aus den Störungsmodellen abgeleitet, Psychotherapieverfahren (auch Interventionen genannt) entwickelt und andererseits diese im Rahmen kontrollierter Studien auf ihre Wirksamkeit überprüft (daher der Name Psychotherapieforschung). Die Formen von Psychotherapie, die sich aus der wissenschaftlichen Psychologie entwickelt haben und deren Wirksamkeit intensiv erforscht und belegt ist, werden heutzutage unter dem Sammelbegriff „Kognitive Verhaltenstherapie“ (kurz KVT) zusammengefasst, die im deutschen Gesundheitssystem derweil nur als „Verhaltenstherapie“ bezeichnet wird. Hierbei handelt es sich um eine sehr vielfältige Gruppe von erfolgreichen Verfahren, die darauf abzielen, psychische Störungen sowohl durch die Veränderung des Verhaltens, als auch durch die Veränderung kognitiver Strukturen (z.B. festgefahrener Gedankenmuster) zu behandeln. Die KVT ist dabei ein Therapieverfahren, das sich als Methode sowohl des therapeutischen Gesprächs als auch vieler Aktivitäten und Trainings zum Aufbau von Verhaltensweisen bedient, z.B. des Trainings sozialer Kompetenzen. Emotionen, wie z.B. die Traurigkeit oder Niedergeschlagenheit, die die Depression kennzeichnen, werden hierbei entweder als Konsequenz von Verhalten und Gedanken angesehen und indirekt beeinflusst oder aber in neueren Ansätzen auch direkt angegangen. So basiert die Emotionsfokussierte Therapie nach Greenberg z.B. unter anderem darauf, dass Emotionen intensiv durchlebt werden müssen, um sie zu bewältigen – ein Ansatz, den die Kognitive Verhaltenstherapie zuvor nur aus der Expositions- bzw. Konfrontationstherapie für Angststörungen kannte.

Gesprächspsychotherapie & Gestalttherapie

Neben der kognitiven Verhaltenstherapie gibt es eine zweite Richtung von Psychotherapie, die tatsächlich aus der Psychologie stammt, und das ist die humanistische Psychotherapie (auch klientenzentrierte oder Gesprächspsychotherapie genannt), die sich ausschließlich des Gesprächs bedient und dabei die Leitung des Gesprächs meist dem Patienten überlässt. Begründer dieser Therapierichtung war Carl Rogers, der als die drei Hauptwirkungsmechnismen der Therapie die empathische Grundhaltung und die bedingungslose Wertschätzung des Therapeuten dem Patienten (Rogers nennt ihn Klienten) gegenüber sowie die Echtheit des Therapeuten selbst beschreibt. Letzteres meint, dass der Therapeut sich dem Patienten gegenüber nicht verstellen, sondern authentisch verhalten soll. Ziel des Therapeuten ist es hierbei, dem Patienten keine Ratschläge zu geben, sondern die Voraussetzungen dafür zu schaffen, dass der Patient sein Problem selbst lösen kann. Eine Weiterentwicklung der Gesprächspsychotherapie nach Rogers ist übrigens die Gestalttherapie nach Perls, die sich allerdings in vielen Punkten von Rogers‘ Vorgehen unterscheidet, z.B. darin, dass der Therapeut sehr viel mehr das Gespräch lenkt und auch konfrontativer vorgeht.

Obwohl die von Rogers vorgeschlagene Art der Psychotherapie nachgewiesenermaßen bereits beträchtliche Verbesserungen bewirken kann, ist sie insgesamt nicht so wirksam wie die Kognitive Verhaltenstherapie, in der aber grundsätzlich die Prinzipien der Gesprächsführung nach Rogers nach wie vor eine bedeutende Rolle spielen. An der Uni Münster z.B., wo ich studiere, gehört das praktische Erlernen dieser Gesprächsführungskompetenzen auch fest zum Psychologiestudium dazu, weshalb das Führen konstruktiver Gespräche und auch der Umgang mit schwierigen Gesprächssituationen im Prinzip auch eine Fähigkeit ist, die nahezu jeden Psychologen auszeichnen dürfte.

Psychoanalyse

Wie Sie vielleicht gemerkt haben, ist der Name „Freud“ bisher nicht gefallen. Das liegt daran, dass ich bisher bewusst nur Psychotherapieformen beschrieben habe, die aus der Psychologie heraus entstanden sind. Freud derweil war Arzt, kein Psychologe, und daher auch keinesfalls der Begründer oder Vater der Psychologie. Er war dafür aber der Begründer der Psychoanalyse, der allerersten Form von Psychotherapie, die er vor über 100 Jahren entwickelte. Während man in der Gesprächspsychotherapie oder der Kognitiven Verhaltenstherapie als Patient dem Therapeuten gegenüber sitzt, legte Freud (und hier kehren wir zu dem Cliché schlechthin zurück) seine Patienten tatsächlich auf die Couch. Das hatte vor allem den Grund, dass Freud sich stark an der Hypnose orientierte, die damals schon bekannt und verbreitet war. Die klassische Psychoanalyse dauert sehr lange (mehrere Jahre bei mehreren Sitzungen pro Woche) und spült dem Therapeuten daher viel Geld in die Kasse. Während der Therapiesitzung liegt der Patient, während der Therapeut außerhalb des Sichtfeldes des Patienten sitzt und eine neutrale Person darstellt, die (ganz im Gegensatz zu Rogers Idee der Echtheit) nichts von sich selbst preisgibt. Während Patient und Therapeut sich in der KVT oder der Gesprächspsychotherapie auf Augenhöhe begegnen, steht der Psychoanalytiker hierarchisch über dem Patienten und hat die absolute Deutungshoheit über das, was der Patient sagt. Es handelt sich insgesamt um eine höchst unnatürliche Gesprächssituation, bei der der Therapeut das tut, was Psychologiestudierenden immer fälschlicherweise vorgeworfen wird: Er analysiert den Patienten bis in die tiefsten Tiefen und stellt dann irgendwann fest, was für ein Konflikt vorliegt.

Intrapsychische Konflikte und ganz viel Sex

Denn die Psychoanalyse erklärt psychische Störungen (ganz grob gesagt) durch intrapsychische Konflikte mit Ursache in der Kindheit, die dadurch geprägt sind, dass ein Bedürfnis oder Trieb (meist sexueller oder aggressiver Art), gesteuert vom so genannten Es, mit einer gesellschaftlichen Norm, repräsentiert durch das Über-ich, nicht vereinbar war oder ist. In der Gegenwart muss die aus diesem Konflikt resultierende Spannung durch irgendwelche ungünstigen Methoden abgewehrt werden, wodurch dann die Störung entsteht, die Freud als Neurose bezeichnet. Als Beispiel soll die Geschichte des „kleinen Hans“ dienen, einer Fallbeschreibung Freuds vom einem kleinen Jungen mit der Angst vor Pferden. Laut Freud hatte der Junge den so genannten Ödipus-Konflikt nicht gelöst, der darin besteht, dass angeblich alle Jungen zwischen 4 und 6 Jahren sexuelles Verlangen (Es) nach ihrer Mutter verspüren, woraufhin sie aber, weil sie wissen, dass ihr Vater als Konkurrent stärker ist und das ganze auch irgendwie nicht so sein sollte (Über-Ich), Angst davor entwickeln, dass der Vater sie kastrieren wird (Kastrationsangst; hier erscheint mir die kleine Anmerkung nützlich, dass sich bei Freud eigentlich grundsätzlich alles um Sex dreht). Laut Freud entsteht das Symptom (die Angst vor Pferden) nun durch eine Verschiebung (einen von vielen verschiedenen Abwehrmechanismen) der Angst, die eigentlich auf den Vater gerichtet ist, auf Pferde. In der Fallbeschreibung wird übrigens auch kurz erwähnt, dass der kleine Hans kurz zuvor von einem Pferd getreten worden war. Aber warum sollte das schon relevant sein? Wäre ja eine viel zu naheliegende Erklärung.

Besserung ist nicht das Ziel

Sie können meinem Sarkasmus entnehmen, dass ich von dieser Therapieform nicht viel bis gar nichts halte, da sie sehr weitreichende und oft abstruse Annahmen macht, die durch keinerlei Befunde der Psychologie gestützt werden. Denn der Psychoanalyse mangelt es im Gegensatz zur Psychologie stark an Wissenschaftlichkeit: Ihr fehlt vor allem das Kriterium der Falsifizierbarkeit, was bedeutet, dass sie keine eindeutigen Aussagen liefert, die man derart überprüfen könnte, dass man je nach Ergebnis die Theorie entweder bestätigen oder verwerfen könnte. Mit anderen Worten. Zudem besitzt die Psychoanalyse die Fähigkeit, psychische Störungen zu verschlimmern, anstatt sie zu heilen. Wie schon der Psychologe Eysenck im Jahr 1952 in einer auf Krankenversicherungsdaten basierenden, zusammenfassenden Studie eindrucksvoll darlegt, liegt der Heilingserfolg der Psychoanalyse nahe 0 bzw. übersteigt nicht das, was durch Zufall zu erwarten wäre. Dies gab die Initialzündung dafür, dass vor ca. 60 Jahren immer mehr Psychotherapien tatsächlich innerhalb der wissenschaftlichen Psychologie entwickelt wurden und der Psychoanalyse zunehmend Konkurrenz machten. Der riesige Vorteil dieser neuen Verfahren war der, dass diese stets auf wissenschaftlichen Theorien basierten und die Wirksamkeitsüberprüfung im Selbstverständnis der Psychologen bereits fest verankert war. Seit damals hat sich die Psychoanalyse ziemlich stark gegen weitere Wirksamkeitsforschung gewehrt (wen wundert’s?), was aber auch auf einen wichtigen konzeptuellen Unterschied zu anderen Psychotherapieformen zurückzuführen ist: Anders als die Kognitive Verhaltenstherapie oder die Gesprächspsychotherapie verfolgt die Psychoanalyse auch gar nicht das Ziel, dass es dem Patienten am Ende besser geht, also sich die Symotome reduzieren. Das Ziel besteht darin, dem Patienten Einsicht in seine (vermeintlichen) intrapsychischen Konflikte zu geben, damit dieser sich selbst „besser verstehen“ kann. Die Annahme ist, dass dies hinreichend zur Verbesserung ist. Die Realität sieht so aus, dass Patienten meist nach mehreren Jahren Analyse keinen Schritt weiter, sondern eher noch mehr belastet sind durch die Kenntnis über all die (angeblichen) ungelösten Konflikte, die sie mit sich herumtragen. An dieser Stelle sei der Unterschied zur KVT und zur Gesprächspsychotherapie noch einmal ganz deutlich gemacht: Diese Verfahren analysieren das Verhalten und Erleben des Patienten auch, aber auf andere Weise, als die Psychoanalyse es tut. Zum einen wird auf so bizarre Elemente wie den Ödipuskomplex, Kastrationsangst und intrapsychische Konflikte verzichtet, zum anderen orientiert sich die Analyse (von typischen, eingefahrenen Verhaltens- sowie Denkmustern) immer daran, was man in der Folge auch therapeutisch verändern kann, um eben nicht ewig auf der meist lange zurückliegenden Ursache der Störung herumzureiten, sondern nach vorne zu blicken und die Aufrechterhaltung der Störung zu durchbrechen.

Weiterentwicklung: Tiefenpsychologisch fundierte Psychotherapie

Dass die Psychoanalyse, unter dem Label „Analytische Psychotherapie“, in Deutschland zu den Psychotherapieverfahren gehört, die von den Krankenkassen übernommen werden, liegt übrigens nicht etwa an ihrer wissenschaftlichen Basiertheit, sondern vor allem an der großen Lobby, die diese Richtung in Deutschland lange Zeit hatte. Die klassische Psychoanalyse ist heute nur noch sehr selten anzutreffen und ist hauptsächlich unter Ärzten (also hauptsächlich Psychiatern) noch relativ weit verbreitet, eben weil Freud selbst auch Arzt war. „Psychoanalyse“ muss allerdings nicht zwangsweise bedeuten, dass die Lehre von Freud angewandt wird. Freud hatte viele Schüler, die im Laufe ihres Lebens ihre eigenen psychoanalytischen Theorien entwickelt und sich dabei größtenteils deutlich von Freuds Lehre distanziert haben – hierzu zählen z.B. Alfred Adler und Carl Gustav Jung. Abgesehen hiervon gibt es aber auch sehr moderne Weiterentwicklungen der Psychoanalyse, die unter dem Sammelbegriff der „Psychodynamischen Psychotherapie“ oder der „Tiefenpsychologisch fundierten Therapie“ (das ist der offizielle Name der Therapieform im deutschen Gesundheitssystem, die neben der Verhaltenstherapie und der Analytischen Psychotherapie von den Krankenkassen übernommen wird) zusammengefasst werden. Diese haben oft nur noch sehr rudimentäre Ähnlichkeit mit Freuds Ideen und sehen auch eine ganz andere, von mehr Empathie und Gleichberechtigung geprägte Interaktion zwischen Therapeut und Patient vor (unter anderem sitzt der Patient dem Therapeuten gegenüber und liegt nicht). Die Gemeinsamkeit beschränkt sich meist auf die Annahme von ungelösten Konflikten, die ihren Ursprung in der Kindheit haben. Im Gegensatz zur Psychoanalyse begnügt man sich aber nicht nur mit der Einsicht des Patienten, sondern strebt auch eine Veränderung an. In diesem Sinne sind viele moderne psychodynamische Therapieformen der KVT oder der Gesprächspsychotherapie zumindest oberflächlich gesehen recht ähnlich. Eine weitere Errungenschaft dieser weiterentwickelten Therapieform ist die Psychotherapieforschung, die die Wirksamkeit zumindest einiger dieser neuen Verfahren inzwischen belegt hat, was tvor allem auf einige manualisierte, psychodynamische Kurzzeittherapien zutrifft.

Die Begriffe noch einmal im Überblick

Um noch einmal die Begrifflichkeiten zusammenzufassen: Klinische Psychologen sind solche, die sich im Studium und in der darauf folgenden Berufstätigkeit auf psychische Störungen spezialisiert haben. Sie sind in der Regel Experten für das Erscheinungsbild und die Diagnostik psychischer Störungen und kennen sich mit den Ursachen aus. Auch von Psychotherapie haben sie normalerweise eine Menge Ahnung, dürfen diese aber nur im Rahmen einer postgradualen (d.h. nach dem Master- oder Diplomabschluss ansetzenden) Ausbildung zum Psychologischen Psychotherapeuten oder eben nach deren erfolgreichem Abschluss ausüben, d.h. nach Erteilung der Heilbefugnis (Approbation). Die meisten Klinischen Psychologen sind auch Psychotherapeuten, sodass sich eine große Überlappung ergibt. Psychotherapeuten können derweil entweder kognitiv-verhaltenstherapeutisch, psychoanalytisch, humanistisch oder systemisch (eine weitere, vor allem in der Kinder- und Familientherapie anzutreffende Richtung, auf deren Darstellung ich hier aus Sparsamkeitsgründen verzichtet habe) orientiert sein. Psychiater, die psychotherapeutisch tätig sind, haben derweil meist eine psychodynamische Orientierung.

Übrigens

Als Begründer der Psychologie als experimentell orientierte, empirische Wissenschaft wird Wilhelm Wundt (1832-1920) angesehen, der 1879 das erste „Institut für Experimentelle Psychologie“ gründete, was oftmals als Geburtsstunde der Psychologie betrachtet wird. Wundt war sowohl durch die Physiologie als auch durch die Philosophie geprägt – was erklärt, dass die Psychologie bis heute mit beidem verwandt ist. Sigmund Freuds Verdienste habe ich derweil oben in Auszügen beschrieben. Was viele über ihn allerdings nicht wissen, ist, dass Freud stark kokainabhängig und ein extremer Kettenraucher war. Während er es zu Lebzeiten schaffte, vom Kokain loszukommen, blieb er bis zu seinem Tod stark nikotinabhängig und erkrankte vermutlich infolge dessen schwer an Kieferkrebs. Von dieser extrem qualvollen Erkrankung gezeichnet, setzte er 1939 im Londoner Exil (Freud war, obwohl atheistischer Religionskritiker, jüdischer Abstammung) seinem Leben ein Ende. So kann es eben leider auch enden. Und so endet auch die vierteilige Reihe von Artikeln darüber, was Psychologie ist und was nicht.

„Aufmerksamkeit“: Was ist das eigentlich und wie funktioniert es?

„Aufmerksamkeit“ ist ein Beispiel für einen Begriff, von dem jeder Laie typischerweise meint, zu wissen, was sich dahinter verbirgt. Schaut man sich die psychologische und neurowissenschaftliche Forschung zu diesem Thema an, bemerkt man schnell, dass hierüber alles andere als Klarheit herrscht: Kaum ein Thema in der psychologischen Forschung ist derart kompliziert zu durchschauen und ebenso widersprüchlich.

Selektive Aufmerksamkeit: Wo war der Gorilla?

Zunächst ein Überblick über die Unterteilung, die häufig getroffen wird. Wenn man von „Aufmerksamkeit“ spricht, muss man zwischen einer ganzen Menge von Begriffen unterscheiden. Zunächst unterscheidet man „globale Zustände“, d.h. wach vs. schlafend. Innerhalb des Wachzustands kann man dann wirklich „wachsam“ sein (im Englischen gibt es hierfür den schönen Begriff „attentive“ oder auch „alert“), oder aber eher schläfrig und „duselig“. Nur in einem wachsamen Zustand tritt das zum Vorschein, was mit „selektive Aufmerksamkeit“ bezeichnet wird. Und diese Aufmerksamkeit ist in dem Sinne selektiv, als sie sich ausschließlich auf eine Sache richtet. Diese „Sache“ kann entweder eine Richtung im Raum sein (z.B. das Gespräch der Leute links neben mir), ein Objekt (z.B. eine Fliege), oder ein einziges Merkmal (der rote Punkt auf der Stirn der Frau vor mir). Dass es tatsächlich diese drei Arten von Aufmerksamkeit gibt, wurde bereits häufig nachgewiesen. Eine praktische Implikation hiervon ist übrigens, dass so genannten „Head-up Displays“, bei denen z.B. die gerade gefahrene Geschwindigkeit auf die Windschutzscheibe des Autos projiziert wird, nur eingeschränkt etwas bringen, da die Aufmerksamkeit beim Autofahren nicht einfach nur nach „vorne“ gerichtet ist, sondern auf die Straße – und eben nicht auf die Scheibe!

Ein bekanntes Experiment, das die Selektivität der Aufmerksamkeit verdeutlichst, ist dasjenige, wo einer Person ein Video mit Basketballspielern zweier Teams gezeigt wird. Die Person wird gebeten, alle Pässe zwischen Mitgliedern von Team A zu zählen, nicht aber die von Team B. Die Aufmerksamkeit ruht somit immer auf dem jeweils involvierten Spieler bzw. dem Ball, sodass kaum jemand nachher mitbekommen hat, dass mitten im Spiel ein sehr auffälliger Gorilla durchs Bild gelaufen ist. Eine gute Demonstration finden Sie hier.

Aufmerksamkeit, das heimliche Spotlight

Außerdem unterscheidet man noch zwischen willentlichen und automatischen Aufmerksamkeitsprozessen, die gemäß neurowissenschaftlicher Befunde auch durch unterschiedliche Teile des Gehirns gesteuert werden. Die willentliche Aufmerksamkeit wird aufgrund einer Absicht auf einen Reiz gelenkt (z.B. beim Lesen auf die Wörter im Buch), während die automatische Aufmerksamkeit von hervorstechenden Reizen in der Umwelt in Beschlag genommen wird. Das bringt mich zwingend zu einem wichtigen Thema: Aufmerksamkeitslenkung – d.h. wie bewegt sich unsere Aufmerksamkeit eigentlich? Nun könnte der Laie argumentieren: Na ist doch klar, mit den Augen. Aber das stimmt nicht. Wo unsere Aufmerksamkeit gerade ruht, ist unabhängig von unseren Augen. Zum einen, weil wir unsere Aufmerksamkeit natürlich auch auf akustische Reize lenken können. Zum anderen, weil selbst die visuelle Aufmerksamkeit an einem anderen Ort sein kann als an dem, den unsere Augen gerade fixieren. D.h., obwohl meine Augen den Fernseher anstarren, kann der Fokus meiner Aufmerksamkeit in meinem peripheren Sichtfeld sein, d.h. z.B. beim Ehegatten, der gerade auf dem Schrank neben dem Fernseher Staub wischt. Daher ist die Aufmerksamkeit ein „verdeckter“ („coverter“) Mechanismus – wir können von außen nicht sagen, wo die Aufmerksamkeit eines Menschen gerade liegt. Diese bemerkenswerte Eigenschaft der Aufmerksamkeit fand Hermann von Helmholtz bereits Ende des 19. Jahrhunderts heraus.

Die meisten Forscher gehen heute davon aus, dass sich die Aufmerksamkeit ähnlich einem „Spotlight“ bewegt: Dieses Spotlight fokussiert sich auf einen Punkt im Raum, ein Objekt oder ein Merkmal und verweilt dort, bis es z.B. von einem lauten Geräusch dazu verleitet wird, das Objekt (z.B. ein Buch) zu verlassen („disengage“), sich zu bewegen und erneut ein Objekt des Interesses (eine Fliege auf der Seite, die man gerade liest) zu fokussieren („engage“). Und da die Aufmerksamkeit „heimlich“ wandert, kann all das passieren, ohne dass sich Kopf oder Augen bewegen. Interessanterweise kann übrigens in einem solchen Moment die Aufmerksamkeit nicht sofort wieder zum Ursprungsort zurück wandern: Hemmende Prozesse im Gehirn verhindern, dass die Aufmerksamkeit sofort wieder zu den Buchstaben zurückwandern kann – selbst wenn der ablenkende Reiz völlig irrelevant und ungefährlich war (Dieses Phänomen nennt man „inhibition of return“). Übrigens ist der Gedanke, die Aufmerksamkeit wandere mit den Augen, gar nicht so weit hergeholt, da die Gehirnbereiche, die unsere Augenbewegungen steuern, viele Überlappungen mit denjenigen Bereichen haben, die für die Ausrichtung der Aufmerksamkeit als relevant angesehen werden.

Frühe Selektion und der Cocktailparty-Effekt

Eine lang währende Debatte drehte sich in der Vergangenheit um die Frage, an welcher Stelle im Informationsverarbeitungsprozess die selektive Aufmerksamkeit „eingreift“ und dafür sorgt, dass nicht relevante (d.h. aufmerksam beachtete) Informationen nicht weiterverarbeitet werden. Konkret ging es darum, ob dieser „Eingriff“ früh, d.h. kurz nachdem die Reize durch unsere Sinnesorgane das Gehirn erreicht haben, passiert, oder spät, d.h. erst nachdem sowohl relevante als auch irrelevante Reize bereits ziemlich weit verarbeitet wurden. Die momentane Befundlage sieht kurz zusammengefasst so aus: Neurowissenschaftliche (MEG, EEG- und fMRT-) Befunde und die Ergebnisse von Reaktionszeitexperimenten belegen vor allem die frühe Selektion, die schon kurz nach Eingang der Sinnesreize die unwichtigen herausfiltert, die dann nicht weiter verarbeitet werden und daher auch nicht unser Bewusstsein erreichen. Bildgebende Experimente konnten zeigen, dass das Gehirn bei der Verarbeitung aufmerksam betrachteter Reize in bestimmten Arealen tatsächlich aktiver ist als bei unaufmerksam betrachteten. Tatsächlich ist es so, dass durch die Ausrichtung der Aufmerksamkeit z.B. auf einen bestimmten Punkt im Raum die Aktivität in eben den Gehirnarealen ansteigt, die für die Verarbeitung von visuellen Reizen an genau dieser Stelle verantwortlich sind – und das, bevor überhaupt ein visueller Reiz erschienen ist. Ziemlich beeindruckend, wie ich finde!

Ein Beleg für die frühe Selektion ist auch der Cocktailparty-Effekt, d.h. das Phänomen, dass Menschen in einer von vielen verschiedenen Geräuschquellen charakterisierten Umgebung (wie einer Cocktailparty) trotzdem nur einer Quelle (z.B. einem Gespräch) folgen können, obwohl die Quelle in der Umgebung vielleicht sogar die leiseste ist. Die selektive Aufmerksamkeit kann aber durchaus auch „gestört“ werden. Bestimmte nicht mit Aufmerksamkeit bedachte Reize, die eine besondere Priorität haben, können die „Schranke“ der frühen Selektion offenbar passieren und gelangen in unser Bewusstsein. Das passiert z.B., wenn wir in einer solchen Cocktailparty-Situation einem Gespräch folgen und von irgendwoher plötzlich unseren Namen hören. Die frühe Selektion lässt also manche Informationen durch, die dann eine Verschiebung des „Spotlights“ bewirken. Dies ist ein Beleg dafür, dass nicht alle irrelevanten Informationen direkt zu Beginn ausgefiltert werden, denn: Es gibt auch noch einen späten Selektionsprozess, der eine etwas andere Art der Aufmerksamkeit darstellt und eine andere Funktion hat.

Späte Selektion & ereigniskorrelierte Potenziale

Dass es auch noch späte Selektionsprozesse gibt, weiß man unter anderem durch die Untersuchung ereigniskorrelierter Potenziale (kurz EKP oder englisch ERP). Dabei handelt es sich um eine Sonderform des EEG (Elektroenzephalographie – das, wo einem Elektroden auf die Kopfhaut geklebt werden). Dieses Verfahren misst die winzigen, im Mikrovolt-Bereich liegenden elektrischen Potenziale der Nervenzellen in unserem Gehirn, die noch an der Kopfhaut messbar sind (oft wird das als „Hirnströme“ bezeichnet, aber dieser Begriff ist ziemlicher Quatsch). Während das EEG an sich es z.B. ermöglicht, verschiedene Schlafstadien zu unterscheiden (weil die Wellenformen je nach Phase anders aussehen), hat die EKP-Methode ein anderes Ziel. Sie will elektrische Potenziale messen, die mit bestimmten „Ereignissen“ korrelieren, d.h. solche, die nach der Darbietung bestimmter Reize wie Tönen, Geräuschen oder Bildern auftreten. Dazu müssen die EEG-Wellen, die leider vielen Störeinflüssen unterworfen sind, erst einmal gemittelt werden. Erst dann werden solche ereigniskorrelierten Potenziale sichtbar. Von diesen EKPs kennt man nun verschiedene, die sich hinsichtlich ihrer Polarität (positive oder negative Spannung) und bezüglich der Zeit unterscheiden, die zwischen der Reizdarbietung und dem Auftreten des EKP liegt (als „Latenz“ bezeichnet). Ein sehr bekanntes und im Hinblick auf späte Selektion wichtiges EKP ist die „P300“. Die heißt so, weil sie ein positiver Ausschlag der Spannung ist, der ca. 300 Millisekunden nach der Darbietung des Reizes auftritt.

Die P300: „Irgendwas ist anders als vorher“

Die P300 tritt immer dann auf, wenn ein dargebotener Reiz von den zuvor dargebotenen abweicht. D.h., einer Person wird z.B. 50 Mal derselbe Ton dargeboten, und plötzlich kommt ein völlig anderer Ton. An dieser Stelle tritt die (sehr stark ausgeprägte und unübersehbare) P300 auf. Diese wird auf Basis bisheriger Forschungsergebnisse vor allem als Maß dafür gesehen, wie viele „Aufmerksamkeitsressourcen“ dem Reiz zugeteilt werden. Hier haben wir es mit einem etwas anderen Verständnis von Aufmerksamkeit zu tun. Der Begriff „Ressource“ soll heißen, dass Aufmerksamkeit ein limitiertes Gut ist. Oder in anderen Worten: Wir können einer Sache unterschiedlich viel Aufmerksamkeit schenken (d.h. Ressourcen zuteilen). Wenn wir bei der Metapher des Spotlights bleiben, könnte man sagen: Je nach zugeteilter Ressourcenmenge ist das Licht des Spotlights unterschiedlich hell.

Die P300 wiederum wird als Indikator für das Ausmaß dieser Ressourcenmenge angesehen. Wenn sich in Reaktion auf einen neuartigen Reiz eine große P300 ergibt, so lässt sich daraus schließen, dass diesem Reiz viele Aufmerksamkeitsressourcen zugeteilt wurden. In Experimenten wie dem, das ich für meine Bachelorarbeit durchgeführt habe, gibt es meist drei Arten von Reizen. Bei 100 akustischen Reizen sind das z.B. 70 „langweilige“ tiefe Töne (=Standardreize), 15 andersartige Töne, nach deren Darbietung der Proband eine Taste drücken soll (=Zielreize), und 15 andersartige Töne, auf die aber nicht reagiert werden soll (= Distraktoren). Nun kommt ein weiterer Begriff ins Spiel, nämlich die „Effizienz der Ressourcenzuteilung“. Das soll bedeuten: Wenn man mit seinen Ressourcen effizient umgeht, dann sollten Reize, die in dem Sinne „wichtig“ sind, weil man auf sie reagieren soll, mehr Ressourcen erhalten als die Distraktoren. So, und hier schließt sich der Bogen zu ADHS, denn: Bei ADHS-Patienten weißt vieles darauf hin, dass diese Ressourcenzuteilung ineffektiv ist. Die P300 in Reaktion auf Distraktoren ist genau so groß oder größer als die nach Zielreizen, und das Umgekehrte gilt für gesunde Menschen. Man könnte dies dahin gehend interpretieren, dass ADHS-Patienten eher von unwichtigen Reizen in der Umwelt abgelenkt werden. Im Gegensatz dazu ist die selektive Aufmerksamkeit, d.h. die frühe Selektion, bei ADHS tendenziell nicht beeinträchtigt, was ich hier noch einmal ganz klar hervorheben möchte!

Auf die Überraschung kommt’s an

Was ich in meiner Arbeit außerdem untersucht habe, ist, welchen Einfluss es hat, ob die Distraktoren den Zielreizen ähneln (d.h. auch Töne sind) oder einer anderen Reizkategorie angehören (Umweltgeräusche). Es zeigte sich, dass die Umweltgeräusche eine deutlich größere P300 erzeugten, woraus man schließen kann, dass diese neuartiger als die Töne waren und daher mehr Aufmerksamkeitsressourcen erhalten haben. Ich habe am Ende dieses Abschnitts eine Abbildung eingefügt, die die P300 in Reaktion auf Umweltgeräusche zeigt. Die drei verschiedenen Kurven stehen für drei verschiedene Elektroden am Kopf, an denen ich gemessen habe. Auf der y-Achse ist die Spannung in Mikrovolt abgetragen, auf der x-Achse die Zeit in Millisekunden, wobei die gestrichelte vertikale Linie den Zeitpunkt anzeigt, an dem dem Probanden das Geräusch vorgespielt wurde. Die Sternchen markieren den Punkt der maximalen Spannung, der als Index für die P300 verwendet wird. Achtung: Bei EEG-Abbildungen ist es üblich, dass positive Werte unten abgetragen werden und negative nach oben (niemand weiß, warum). Die Skala reicht von ca. -14 bis +14 Mikrovolt. Konkret ging es in meiner Arbeit allerdings auch noch um die Unterscheidung zweier verschiedener „Versionen“ der P300 (genannt P3a und P3b), was aber den Rahmen dieses Eintrags sprengen würde. Aber so habe ich euch zumindest eine gewisse Idee von dem vermittelt, womit ich mich ein halbes Jahr beschäftigt habe!

Doch warum fasse ich all das unter dem Punkt „späte Selektion“ zusammen? Ganz einfach: Es muss sich um späte Selektion handeln, da eine Aufmerksamkeitsreaktion auf einen abweichenden Reiz nur dann stattfinden kann, wenn der Reiz bereits soweit verarbeitet wurde, dass er kategorisiert wurde – und zwar als „neuartig“. Daher tritt die P300 auch erst nach rund 300 Millisekunden auf. Frühe Selektionsprozesse sind bereits ca. 50-100 Millisekunden nach der Reizdarbietung abgeschlossen.

Welche Gehirnregionen sind an der Aufmerksamkeit beteiligt?

Aufgrund von zahlreichen neurowissenschaftlichen Befunden unterscheidet man, entsprechend der oben vorgestellten Unterteilung, ein System der willentlichen („endogenen“) und eines der automatischen („exogenen“) Aufmerksamkeit. Die Gehirnbereiche, die für die willentliche Ausrichtung der Aufmersamkeit („Ich will mich jetzt auf diesen Film konzentieren“) zuständig sind, befinden sich, grob gesagt, im Parietallappen (d.h. recht an der oberen, hinteren Oberfläche des Gehirns, unterhalb des Scheitels) und werden aufgrund der Gehirn-spezifischen Lagebezeichnungen als „dorsales Aufmerksamkeitssystem“ zusammengefasst. Diejenigen Bereiche, die dafür sorgen, dass unsere Aufmerksamkeit durch auffällige Reize (z.B. einen orgasmatischen Schrei aus der Nachbarwohnung) automatisch wandert, liegen weiter vorne im Gehirn im Frontallappen (unterhalb der Stirn) und werden zusammenfassend als „ventrales Aufmerksamkeitssystem“ bezeichnet. Das dorsale Aufmerksamkeitssystem sorgt derweil genau für das, was ich oben bereits kurz beschrieben habe: Es sorgt durch Nervenverbindungen für eine „Vorab“-Aktivierung derjenigen Gehirnbereiche, die für die Verarbeitung von den dann aufmerksam beobachteten Reizen zuständig sind. Somit gibt es im Prinzip einerseits die Gehirnareale, die Aufmerksamkeit „auslösen“, und andererseits solche, die, beeinflusst durch diese, ihre Aktivität erhöhen. Ziemlich clever, oder?

Fazit

Ich hoffe, ich konnte hiermit ein wenig deutlich machen, wie komplex das Thema „Aufmerksamkeit“ ist – und wie unterschiedlich dieses Thema sogar in der Forschung behandelt wird. Zudem wäre es prima, wenn ich einen Eindruck von dem vermitteln konnte womit ich mich vergangenes Jahr über ein halbes Jahr beschäftigt habe 🙂

© Christian Rupp 2013

Psychologe, Psychiater, Psychotherapeut & Co. – Was ist der Unterschied?

Im Volksmund werden die „Psych“-Berufe ganz häufig synonym, oft völlig falsch und selten sachgemäß verwendet. Dabei lohnt es sich, einmal die Unterschiede genauer zu betrachten. Fangen wir also mit den Definitionen an. Ich bitte um Nachsehen dafür, dass ich der besseren Lesbarkeit wegen an allen Stellen nur die männliche Form verwende.

Psychologe

Psychologe ist ein geschützter Titel, den man nach einem abgeschlossenen Hochschulstudium der Psychologie erwirbt. In der Vergangenheit lautete der Titel (und auch die Berufsbezeichnung) nach dem Abschluss dann „Diplom-Psychologe“ (kurz: „Dipl.-Psych.“). Das Diplom war bis vor einigen Jahren der Regelabschluss im Fach Psychologie, den man nach ca. 9-10 Semestern erreichte. Im Zuge der Bologna-Reform der Studienabschlüsse wurde das Diplom als Abschluss abgeschafft und durch einen Bachelor- und einen Masterabschluss ersetzt. Den Bachelorabschluss hat man, wenn man in der Tretmühle dieses anstrengenden Studiums nicht auf der Strecke bleibt, nach 6 Semestern geschafft und darf sich dann „Bachelor of Science“ (kurz „B. Sc.“ oder „BSc“) nennen. Der Zusatz des Faches, in dem der Abschluss erworben wurde (Psychologie) ist hierbei (dämlicherweise) nicht vorgesehen, sodass keiner erkennen kann, ob man den Abschluss in Psychologie, Physik, Chemie, Biologie oder vielleicht auch in BWL gemacht hat. Der BDP (Der Berufsverband für Psychologen in Deutschland) möchte derweil nicht, dass Bachelor-Absolventen sich schon „Psychologen“ nennen, und auch die meisten Jobs erfordern einen Masterabschluss. Das Masterstudium kann jeder beginnen, der einen guten bis sehr guten Bachelorabschluss hingelegt hat (der Rest hat mehr oder weniger Pech), und es dauert weitere 4 Semester. Das Masterstudium ist meist sehr schwerpunktspezifisch, häufig angebotene Schwerpunkte sind z.B. Klinische Psychologie, Personal- und Wirtschaftspsychologie und Neurowissenschaften. Nach dem Masterabschluss lautet der Titel „Master of Science“ (kurz: „M. Sc.“ oder „MSc“), und man darf sich laut BDP nun auch Psychologe nennen, da der Masterabschluss dem alten Diplom in Psychologie gleichgesetzt wird. Um den damit erlangten Beruf deutlich zu machen, wird dann häufig die Bezeichnung „Psychologe M. Sc.“ oder „Psychologe (M. Sc.)“ gewählt. Analog zum „Dipl.-Psych“ findet sich in der letzten Zeit aber immer häufiger auch die Bezeichnung „M.Sc. Psych.“.

Der Zusatz „of Science“ zeigt übrigens an, dass es sich bei Psychologie um ein (natur)wissenschaftliches Fach handelt, nicht um eine Geisteswissenschaft. Das gesamte Psychologiestudium ist sehr reich an Wissenschaftsmethodik und –praxis, Statistik und viel auswendig zu lernendem Wissen. Für beide Abschlussarbeiten (Bachelor- und Masterarbeit) muss man in der Regel auch eine eigene empirische Studie durchführen und auswerten.

Psychologen sind übrigens nicht automatisch klinische Psychologen (was ich hier mal, auch wegen des klinischen Schwerpunkts dieses Blogs, mal hervorheben muss), auch wenn diese die größte Gruppe darstellen. Viele Psychologen sind an Universitäten und Forschungsinstituten als Wissenschaftler tätig (in allen Bereichen, die die Psychologie bietet, z.B. Sozialpsychologie, Neurowissenschaften, Entwicklungspsychologie, Persönlichkeitspsychologie…), andere arbeiten in der Wirtschaft, vor allem Personalabteilungen (Personalauswahl und –entwicklung sind ganz große Bereiche für Psychologen) oder freiberuflich in allen möglichen Funktionen.

Psychologischer Psychotherapeut (kurz: PP)

Als Psychologe kann man in der Regel nicht therapeutisch tätig sein, zumindest nicht, wenn man mit den gesetzlichen Krankenkassen und den privaten Krankenversicherungen und der Beihilfe abrechnen möchte. Hierzu muss man eine zwischen drei und fünf Jahren dauernde und 10.000 € bis 25.000 € teure Zusatzausbildung in Psychologischer Psychotherapie absolvieren, die man mit der Facharztausbildung vergleichen kann, die Ärzte nach dem Abschluss ihres Medizinstudiums absolvieren. Diese Ausbildung ist derzeit in fünf anerkannten Verfahren möglich: der (Kognitiven) Verhaltenstherapie (KVT oder VT), der analytischen Psychotherapie (AP), der tiefenpsychologisch fundierten Psychotherapie (TP), der Gesprächspsychotherapie und der systemischen Therapie. In allen fünf Verfahren kann man als Psychologe eine Ausbildung zum Psychologischen Psychotherapeuten absolvieren, allerdings werden aufgrund der Beschlüsse des Gemeinsamen Bundesausschusses, der den Leistungskatalog der gesetzlichen Krankenkassen festlegt, nur für die VT, die TP und die AP die Kosten von den Krankenversicherungen in Deutschland übernommen. Da die Wirksamkeit der TP und besonders der AP weitaus schlechter wissenschaftlich belegt (und wegen der größeren Sitzungskontingente die Kosten für das Gesundheitssystem deutlich höher) sind als die Gesprächspsychotherapie und die systemische Therapie, macht das zwar wenig Sinn im Sinne des Wirtschaftlichkeitsprinzips der Krankenkassen, aber leider ist es so.

Nach einer solchen postgraualen Ausbildung erhält man als Psychologe die Approbation, d.h. die Zulassung zum Heilberuf des Psychotherapeuten bzw. die Befugnis zur Ausübung der psychotherapeutischen Heilkunde (hier findet sich ein Unterschied zu den Ärzten: Sie erhalten ihre Approbation bereits nach Abschluss des Studiums und nicht erst nach abgeschlossener Facharztausbildung). Man erhält mit der Approbation den Titel „Psychologischer Psychotherapeut“ und ist dann befugt, in Kliniken oder in eigener Praxis eigenverantwortlich Patienten behandeln. Für die Behandlung von Privatpatienten genügen in der Regel die Approbation und ein Eintrag in das Arztregister der jeweiligen Kassenärztlichen Vereinigung; um hingegen gesetzlich Versicherte zu behandeln, benötigt man zusätzlich eine Kassenzulassung, die in den meisten Regionen nur von einem in den Ruhestand gehenden Psychotherapeuten erworben werden kann und meist mit 20.000 € bis 100.000 € bezahlt wird. Anders als Ärzte, die eine Praxis von ihrem Vorgänger übernehmen, erhält man dafür keinerlei Ausstattung oder einen Patientenstamm – man zahlt lediglich für die Erlaubnis, mit den Krankenkassen abrechnen zu dürfen (!).

Der Begriff „Psychologischer Psychotherapeut“ impliziert bereits, dass es auch noch andere gibt. Nämlich die „Ärztlichen Psychotherapeuten“, die aber weitaus seltener sind. Das sind Ärzte mit psychotherapeutischer Zusatzausbildung, die aber bei Weitem nicht so umfangreich ist wie die, die Psychologen absolvieren. Daher würde ich mit einem psychotherapeutischen Anliegen (Achtung: meine, allerdings durch zahlreiche eigene Erfahrungen untermauerte Meinung) immer zu einem Psychologischen Psychotherapeuten gehen, da ich die Qualität der psychotherapeutischen Behandlung dort als gesicherter ansehe und Psychologische Psychotherapeuten auf diesem Gebiet im Allgemeinen kompeteter und eher auf dem neusten Stand sind – allein schon deshalb, weil sie mit dem Psychologiestudium eine ganz andere Grundlage haben und die psychotherapeutische Ausbildung viel umfangreicher ist als bei Ärzten.

Psychologische und Ärztliche Psychotherapeuten besitzen eine Approbation (also die Befugnis zur Ausübung der Heilkunde), die altersunabhängig ist, dürfen sozialrechtlich (d.h. im System der gesetzlichen Krankenkassen) aber nur Erwachsene über 18 Jahren behandeln. Das bedeutet im Klartext: Ist der Jugendliche oder das Kind privatversichert (wofür nur die Approbation wichtig ist), kann es/er durch einen Psychologischen Psychotherapeuten behandelt werden – bei gesetzlicher Krankenversicherung muss die Behandlung durch einen Kinder- und Jugendlichenpsychotherapeuten (siehe nächster Abschnitt) erfolgen. Allerdings sollte man meiner Ansicht nach gerade bei Kindern immer eher einen Kinder- und Jugendlichenpsychotherapeuten aufsuchen, da Psychologische Psychotherapeuten meist über wenig bis keine Erfahrung in der Psychotherapie mit Kindern verfügen.

Psychologische Psychotherapeuten sind formal-rechtlich einem Facharzt gleichgestellt. Wenn Sie in NRW wohnen und einen Psychotherapeuten suchen, können Sie eine gezielte Suche z.B. auf den Seiten der Psychotherapeutenkammer NRW durchführen;  diese finden Sie hier. Diese Suchfunktion wird meines Wissens nach von jeder der 16 Psychotherapeutenkammern (pro Bundesland eine) angeboten – für das jeweilige Bundesland dann einfach googeln.

Kinder- und Jugendlichenpsychotherapeut (kurz: KJP)

Diese Bandwurmberufsbezeichnung steht für die Gruppe von Psychotherapeuten, die Kinder und Jugendliche unter 21 Jahren behandeln darf, aber keine Erwachsenen. Anders als bei psychologischen Psychotherapeuten, bei denen die Approbation altersungebunden ist, ist die von KJP wirklich auf Personen unter 21 Jahren beschränkt. Ansonsten ist alles identisch mit den Erwachsenen-Psychotherapeuten, außer dass neben Psychologie und Medizin auch ein Studium der Pädagogik, Sozialpädagogik oder der Heilpädagogik als Zugangsvoraussetzung für die Ausbildung anerkannt wird. In einigen Bundesländern genügt für diese Ausbildung übrigens ein Bachelorabschluss, was im Hinblick auf die Qualitätssicherung und den Facharztstandard als sehr kritisch zu betrachten ist und bei einer Überarbeitung des Psychotherapeutengesetzes unbedingt berücksichtigt werden sollte.

Von Heilpraktikern und  & „Psychologischen Beratern“

Der Begriff „Psychotherapeut“ ist als akademischer Heilberuf (genau wie „Arzt“ und „Apotheker“) geschützt, d.h. er darf nur mit der entsprechenden Ausbildung und einem vorher absolvierten wissenschaftlichen Hochschulstudium (Psychologie oder Medizin) getragen werden, ansonsten macht man sich strafbar. Dies soll im Grunde dabei helfen, die Menschen vor unseriösen Behandlern mit geringfügiger bis fehlender Ausbildung zu schützen. Leider jedoch ist es nicht verboten, auf sein Praxisschild „Psychotherapie“ zu schreiben. Heilpraktiker (die ich an dieser Stelle natürlich weder diffamieren noch als grundsätzlich unseriös bezeichnen möchte) können aufgrund des fehlenden Studiums nicht den Titel des Psychotherapeuten (und eben auch keine Approbation) erlangen, sondern nur den Zusatz „Psychotherapie HGP“, wobei HPG für das Heilpraktikergesetzt steht. Auch hier ist aus meiner Sicht häufig die Qualität gegenüber der Behandlung bei Psychologischen oder Ärztlichen Psychotherapeuten als fraglich einzustufen, und allzu häufig finden sich äußerst esoterische und selten verantwortungsvoll angebotene „Heilbehandlungen“.  Oft finden sich in diesem Kontext die Bezeichnungen „Heilpraktiker Psychotherapie“ oder „Psychotherapeutischer Heilpraktiker“. Was viele Patienten nicht wissen, ist, dass der Beruf des Heilpraktikers an sich nur recht wenigen gesetzlichen Regularien unterliegt (es gibt, anders bei als bei Psychotherapeuten und Ärzten, zum Beispiel keine Berufsordnung) – und Heilpraktiker, im Gegensatz zu Psychotherapeuten und Ärzten, über keine Approbation, sondern lediglich über eine Erlaubnis zur Ausübung der Heilkunde verfügen. Es gibt zwar eine relativ umfangreiche und nicht leicht zu bestehende Prüfung, die man bestehen muss, um sich Heilpraktiker nennen zu dürfen, aber es gibt keine staatlich geregelte und somit keine einheitliche Ausbildung zum Heilpraktiker, so dass jedem selbst überlassen ist, wie er sich den Prüfungsstoff aneignet.

Bevor 1999 das Psychotherapeutengesetzt in Kraft trat und all das regelte, was ich hier beschreibe, war eine solche Erlaubnis als Heilpraktiker (traurigerweise) die einzige Möglichkeit für Psychologen, psychotherapeutisch tätig zu werden. Aber auch heute noch nutzen manche Psychologen dieses „Schlupfloch“, um die lange und teure Ausbildung zum Psychotherapeuten zu umgehen und Patienten (dann i. d. R. auf Selbstzahlerbasis) behandeln zu können.

Vorsicht ist auch bei der Berufsbezeichnung „Psychologischer Berater“ geboten, da es sich auch hier nicht um echte Psychologen handelt. Eine solche Qualifikation kann man bei diversen Heilpraktikerschulen in einigen Monaten erwerben und ist nicht im Entferntesten mit einem Studium in Psychologie zu vergleichen, wenngleich man hierdurch sicherlich besser auf eine beratende Tätigkeit vorbereitet wird, als wenn man einfach so loslegt. Dennoch würde ich, wenn man nach psychologischer Beratung sucht (die im Gegensatz zur Psychotherapie leider keine Leistung der Krankenkassen ist), immer darauf achten, dass die betreffende Person, an die ich mich wende, auch tatsächlich einen Universitätsabschluss in Psychologie (Master oder Diplom oder zumindest einen Bachelor) vorweisen kann.

Psychiater & Facharzt für psychosomatische Medizin

Psychiater sind Fachärzte, d.h. sie haben Medizin studiert und dann eine Facharztausbildung absolviert, die auch ungefähr drei Jahre dauert. Der offizielle Titel lautet daher auch „Facharzt für Psychiatrie“ bzw. für Patienten unter 18 „Facharzt für Kinder- und Jugendlichenpsychiatrie“. Oft findet sich auch die Facharztbezeichnung „Neurologie und Psychiatrie“ sowie „Psychiatrie und Psychotherapie“. Psychiater behandeln, weil sie oft keine oder nur eine oberflächliche psychotherapeutische Ausbildung haben, psychische Störungen vorrangig mit anderen Mitteln, z.B. Medikamenten, Tiefenhirnstimulation, Elektrokrampftherapie, transkranieller Magnetstimulation etc. Im Gegensatz zu Psychologischen Psychotherapeuten dürfen sie diese Heilmittel auch verschreiben. Sie arbeiten in Kliniken (Psychiatrien) oder in eigenen Praxen. Psychiater können zu ihrer Berufsbezeichnung auch den Zusatz „Psychotherapie“ erwerben, wenn sie sich entsprechend fortbilden. In psychiatrischer Behandlung befinden sich meist Patienten mit eher schweren psychischen Erkrankungen oder solchen, die rein psychotherapeutisch gar nicht oder nur schlecht zu behandeln sind (z.B. schwere Depressionen mit vorrangig biologischer Ursache oder Psychosen wie die Schizophrenie).

Der Vollständigkeit halber sei an dieser Stelle auch noch der „Facharzt für psychosomatische Medizin“ genannt, der für einige Jahre auch „Facharzt für psychotherapeutische Medizin“ hieß. Diese Sorte von Facharzt ist noch mehr als der Facharzt für Psychiatrie mit dem Psychologischen Psychotherapeuten zu vergleichen, da die Behandlungform der Wahl vorrangig tatsächlich die Psychotherapie ist.

Die Sache mit dem „Dr.“

Ganz wichtig: Der Doktortitel sagt nichts über die berufliche Qualifikation einer Person in einem Heilberuf aus, sondern stellt eine wissenschaftliche Zusatzqualifikation dar. Die meisten Ärzte haben einen, aber das hauptsächlich deshalb, weil der Erwerb eines Doktortitels im Fach Medizin („Dr. med.“) im Vergleich zu anderen Fächern relativ leicht ist und in aller Regel deutlich schneller geht. Die Doktorarbeit im (an sich nicht wissenschaftlich ausgelegten) Studium der Medizin entspricht meiner Erfahrung nach in etwa der Master- oder Diplomarbeit in anderen Studiengängen wie z.B. Psychologie.

Im Prinzip handelt es sich aber um den höchsten akademischen Grad („Professor“ ist kein akademischer Grad, sondern eine Berufsbezeichnung), den man durch das Verfassen einer Dissertation („Doktorarbeit“) erlangt. In den Naturwissenschaften, und so auch in der Psychologie, muss man hierzu eine eigenständige wissenschaftliche Untersuchung durchführen, und die Dissertation muss am Ende veröffentlicht werden, bevor einem der Titel verliehen wird. Diesen gesamten Prozess bezeichnet man als „Promotion“. Während im Fach Medizin eine Promotion selten länger als ein Jahr dauert und oft nicht ganz so hohe wissenschaftliche Standards gelten, dauert es im Fach Psychologie, das sich hohen methodischen Standards verschrieben hat, meistens mindestens drei und in der Regel eher fünf Jahre, bis einem der Doktortitel verliehen wird. Um was für einen Doktortitel es sich handelt, erkennt man am Zusatz hinter dem „Dr.“: „Dr. med.“ ist der für Ärzte relativ einfach zu erlangende, in wissenschaftlichen Kreisen aber oftmals eher belächelte „Doktor der Medizin“. Für Psychologen gibt es entweder den „Dr. phil.“ (Doktor der Philosophie, der dann irrsinniger Weise für eine naturwissenschaftliche Dissertation vergeben wird, aber einen sehr guten Ruf hat) oder den ebenso hoch anerkannten „Dr. rer. nat.“ („Doktor der Naturwissenschaften“). In den letzten 10-20 Jahren wurde an Psychologen auch immer häufiger der „Dr. rer. medic.“ (Doktor der Medizinwissenschafen) vergeben, was möglich ist, wenn Psychologen an einer medizinischen Fakultät promovieren. Das bedeutet, das Thema der Dissertation ist grundsätzlich klinischer Natur, und die Kandidaten müssen je nach Universität, um überhaupt promovieren zu dürfen, ein vier- bis sechssemestriges medizinisches Zusatzstudium absolvieren. Also: auch nicht mal eben im Vorbeigehen erledigt! Dies gilt allerdings erst seit einigen Jahren; vorher war dieser Doktortitel vergleichsweise einfach zu erwerben und hatte daher keinen so hohen Wert wie ein „Dr. phil.“ oder ein „Dr. rer. nat“.

Insgesamt heißt das also:  Auch einen Psychologen oder Psychotherapeuten kann man mit „Herrn Doktor“ anreden, wenn er einen „Dr. phil.“ oder „Dr. rer. nat.“ hat, und er verdient diese Ehre meines Erachtens auch noch einmal mehr als ein Arzt,  weil er deutlich mehr für diesen Titel tun musste. Das bedeutet auch: Ein Doktortitel heißt nicht automatisch, dass jemand Arzt ist (eine Annahme, der man sehr häufig begegnet) – genau so wie es auch Ärzte ohne Doktortitel gibt, die denen mit Doktortitel fachlich in nichts nachstehen. Mein Tipp: immer auf den Zusatz nach dem „Dr.“ achten!

Man sieht also – es gibt da einige Unterschiede und, wie ich finde, hilfreiche Dinge, die man wissen sollte, wenn man in dem Bereich einen Behandler sucht. Bezüglich der Stellen, wo der Text ein bisschen kritisch wird, möchte ich nochmal betonen, dass es sich dort um meine persönliche Meinung handelt und sich niemand angegriffen fühlen muss.

© Christian Rupp 2018

Depression – Modeerscheinung oder ernst zu nehmende Störung?

„Depression – wenn ich das schon höre! Die Leute müssen sich einfach mal mehr zusammenreißen, dann tut sich das von alleine!“

„Das sind doch die, die sich dann irgendwann vor die Schienen werfen!“

„Als ob das ne Krankheit wäre – mir geht‘s auch manchmal beschissen, und ich jammere nicht so rum.“

„Ich hab dafür ja absolut kein Verständnis – wie kann man sich nur selbst so bemitleiden?“

„Bei Fußballern ist es ja nun auch in Mode, depressiv zu werden – die Männer von heute sind doch alle Memmen!“

All das sind Vorurteile über die zweithäufigste aller psychischen Störungen – die Depression. Ich möchte diesen Eintrag nun dazu nutzen, über diese schwerwiegende Krankheit aufzuklären und so dazu beitragen, das Stigma ein wenig zu lösen, das auf ihr lastet.

Die Depression ist die häufigste der so genannten Affektiven Störungen, d.h. Störungen, die die Stimmung und die Gefühlswelt betreffen. In diesem Artikel beschränke ich mich auf die sog. Unipolare Depression (auch genannt: Major Depression) und klammere die weitaus selteneren Bipolaren Störungen aus, die sich durch eine Mischung aus depressiver und übersteigert guter Stimmung (Manie/Hypomanie) auszeichnen. Auch auf die Dysthyme Störung (grob gesagt: leichte Form der Depression, dafür aber über Jahre hinweg) werde ich in diesem Eintrag nicht weiter eingehen, weil dies den Rahmen sprengen würde.

Häufigkeit & typischer Verlauf

Fakt ist: Das Risiko eines Menschen, in seinem gesamten Leben an einer Depression zu erkranken, liegt bei ca. 10-15 %. Das bedeutet: Von zehn Menschen in einem Raum wird durchschnittlich mindestens einer in seinem Leben eine depressive Episode durchlaufen! Die Depression ist somit nach der Spezifischen Phobie die zweithäufigste psychische Störung und somit alles andere als selten. Allerdings ist sie im Vergleich zur Schizophrenie beispielsweise nicht in allen Ländern gleichermaßen häufig. Studien ergaben, dass derzeit die höchste Rate im Libanon beobachtet wird, die niedrigste in Taiwan. Deutschland rangiert im Mittelfeld. Von der Weltgesundheitsorganisation WHO wurde 1996 eine Studie durchgeführt, in der der das Ausmaß an Beeinträchtigung ermittelt wurde, das die verschiedenen „Volkskrankheiten“ bei den Betroffenen verursachen. Die Unipolare Depression rangierte mit großem Abstand auf Platz 1, gefolgt von Alkoholmissbrauch. Erst auf Platz 3 findet sich mit der Osteoarthritis eine organische Krankheit. Darüber hinaus ist Depression auch eine der tödlichsten Krankheiten. 10-15% der Betroffenen sterben durch Suizid; ca. 50% aller Suizide kann man auf Depression zurückführen. Der Grund, warum das alles so tragisch ist, ist, dass Depression eine so gut behandelbare Störung ist. Zwei Drittel der Erkrankten werden wieder völlig gesund, ein Drittel immerhin teilweise. 50% der Patienten erleben allerdings irgendwann in ihrem Leben einen Rückfall. Depression ist nämlich eine phasenhaft verlaufende Störung, d.h., die depressive Symptomatik tritt in Form von Episoden auf, die, wenn sie nicht behandelt werden, 6-8 Monate andauern (wenn es nicht vorher zum Suizid kommt).

Woran erkennt man eine Depression?

Depression ist mehr als nur Niedergeschlagenheit oder Traurigkeit. Es ist mehr als lediglich „schlechte Stimmung“. Die Liste der neun Symptombereiche einer depressiven Episode ist eine der vielen Listen, die man im Psychologiestudium auswendig lernt. Und zugleich eine der paar, bei denen es tatsächlich hilfreich ist, sie im Kopf zu haben. Die „berühmten“ neun Symptome lauten (gemäß dem internationalen Diagnosesystem DSM-IV):

  • depressive Verstimmung
  • Verlust des Interesses an sonst als angenehm bewerteten Aktivitäten (z.B. Hobbies)
  • gesteigerter oder verminderter Appetit (typisch: vermindert, gleiches gilt für Veränderungen des Gewichts)
  • vermehrter oder verminderter Schlaf (typisch: vermindert)
  • psychomotorische Verlangsamung oder Agitiertheit (bedeutet: entweder ist der Patient stark verlangsamt und träge in allen seinen Handlungen oder er ist zappelig-unruhig und kann auch innerlich nicht zur Ruhe kommen) (typisch: Verlangsamung)
  • Konzentrations- und Entscheidungsschwierigkeiten
  • Müdigkeits- und Erschöpfungsempfinden
  • verminderter Selbstwert bis hin zur Wertlosigkeit oder Schuldgefühle
  • Suizidgedanken oder Suizidversuche

Ein Symptom, das hier nicht auftaucht, aber sehr typisch für die Depression ist, ist das exzessive Grübeln (ein kognitives Symptom, d.h. eines, das das Denken, die Wahrnehmung und die Aufmerksamkeit betrifft). Depressive grübeln in Form kreisender Gedankenketten immer und immer wieder über typische Themen der Depression – typischerweise das Thema Schuld, z.B. die vermeintliche Schuld an der eigenen Situation oder die Vorwürfe darüber, dass man wegen der Depression Freunde, Familie, Arbeit, Haushalt etc. vernachlässigt. Diese Grübelkreise gelten in der Forschung als dasjenige Symptom, das maßgeblich dafür sorgt, dass die Störung sich selbst aufrecht erhält. Damit ist die Durchbrechung dieser Grübelkreise die wichtigste therapeutische Maßnahme in der kognitiven Verhaltenstherapie, die weiter unten noch erläutert wird.

Depression darf als solche diagnostiziert werden, wenn:

  • 5 der oben genannten Symptome erfüllt sind
  • eines der 5 Symptome entweder depressive Verstimmung oder Interessenverlust ist (ACHTUNG: das bedeutet, dass eine Depression ohne depressive Stimmung diagnostiziert werden kann! Trotzdem ist es dann Depression – und zwar eine Form, die oft mit vielen körperlichen Symptomen wie z.B. Magenschmerzen einhergeht und folglich von Ärzten nicht erkannt wird!)
  • die Symptomatik nicht auf einen kurz zurückliegenden Trauerfall zurückzuführen ist oder deutlich über das zu erwartende Maß hinaus geht
  • die Depression nicht mit der Einnahme bestimmter psychotroper Substanzen (Drogen, Alkohol, bestimmte Medikamente) in Verbindung gebracht werden kann
  • die Depression nicht auf einen Medizinischen Krankheitsfaktor zurück zu führen ist, z.B. auf eine Schilddrüsenunterfunktion, die dieselben Symptome erzeugt
  • die Symptomatik seit mindestens 2 Wochen besteht
  • keine Anzeichen für eine Bipolare Störung („manisch-depressiv“) gegeben sind

Dann muss man noch schauen, ob die aktuelle Episode die erste ist oder ob es im bisherigen Leben schon eine andere gab. Gilt letzteres, heißt die Diagnose z.B. „Major Depression, rezidivierend“.

Exkurs: „Burnout“

Spätestens seitdem die No Angels sich getrennt haben, ist diese scheinbare Diagnose in aller Munde. „Ausgebrannt sein“, sich “ innerlich leer fühlen“, „total erschöpft und ausgelaugt“ sind dann typische Attribute, die im medialen Alltag gerne fallen. Von fachlicher Seite ist hierbei aber große Vorsicht geboten. „Burnout“ ist de facto mehr ein Modebegriff als eine offizielle Diagnose. In keinem der aktuellen Diagnosesysteme taucht sie auf, und auch in die angekündigten Neuauflagen wird sie nicht aufgenommen werden. Und das aus gutem Grund: „Burnout“ ist von der Psychopathologie und Symptomatik her nicht eindeutig von einer (leichten) depressiven Episode zu trennen. Daher muss explizit davor gewarnt werden, einen scheinbaren „Burnout“ auf die leichte Schulter zu nehmen und ihn beispielsweise mit Massagen oder einer Kur zu behandeln. Um es auf den Punkt zu bringen: Die „Erfindung“ dieses Syndroms ist deshalb kritisch zu bewerten, weil so die Gefahr wächst, dass eine manifeste Depression übersehen – und folglich falsch oder gar nicht behandelt wird. Einen ausführlichen Artikel zum Thema „Burnout“ finden Sie außerdem  hier.

Mögliche Ursachen

Das in der Wissenschaft etablierteste Modell zur Erklärung von Depression ist ein sog. Vulnerabilitäts-Stressmodell, in das die verschiedenen Faktoren eingehen, die sich in Studien als Risikofaktoren für Depression erwiesen haben. Ganz vereinfacht gesagt, geht dieses Modell davon aus, dass es zwei Komponenten gibt: auf der einen Seite die Vulnerabilität („Verwundbarbeit“), auf der anderen der „Stress“.

Mit „Stress“ ist weniger Stress im alltäglichen Sprachgebrauch gemeint, als vielmehr z.B. belastende Lebenssituationen (sog. kritische Lebensereignisse), die dem Ausbruch der Depression in der Regel ca. 6-12 Monate voraus gehen. Das kann eine Trennung vom Partner sein, ein nicht verarbeiteter Trauerfall, Arbeitslosigkeit, eine Fehlgeburt, etc. etc. Ob diese Ereignisse aber nun bei einem Menschen eine Depression vom Zaun brechen, hängt vom Ausmaß der individuellen Vulnerabilität (d.h. Verwundbarkeit) ab. D.h., ein gleichermaßen belastendes Ereignis kann bei Person A eine Depression bewirken, aber bei Person B nicht, weil B ein geringeres Ausmaß an Vulnerabilität hat. Positiv ausgedrückt kann man auch sagen, dass B bessere sog. Bewältigungsstrategien hat, die ihr helfen, das Ereignis zu bearbeiten. Dabei helfen können aber auch z.B. der soziale Rückhalt durch Partner, Freunde und Familie – was man dann als „Ressource“ von B bezeichnen würde. „Stress“ kann, wie Lewinsohn in seinem gut belegten Modell zeigt, auch in einem Mangel an sog. Verstärkern bestehen (d.h. Aktivitäten, die potentiell einen belohnenden, d.h. angenehmen Charakter für die Person haben). Daher ist der erste Schritt in der kognitiven Verhaltenstherapie, den Patienten zu mehr angenehmen Aktivitäten anzuregen – wodurch meistens schon ziemlich schnell eine Stimmungsverbesserung zu verzeichnen ist.

Woraus „besteht“ nun die Vulnerabilität? Nun, hauptsächlich aus Risikofaktoren, die für Depression gefunden werden konnten (d.h. Faktoren, die das Risiko erhöhen). Dazu gehören unter anderem:

  • das Geschlecht: Frauen haben ein doppelt so hohes Risiko, zu erkranken, wie Männer.
  • biologische/genetische Faktoren: Depression hat einen Erbfaktor, der aber viel niedriger ist als z.B. bei Schizophrenie oder auch Bipolaren Störungen. Kinder depressiver Eltern haben ein dreifach erhöhtes Risiko, an Depression zu erkranken (das bedeutet allerdings bereits 30-45%!) Es konnten bestimmte Gene ausgemacht werden, die wahrscheinlich eine Rolle spielen. Allerdings konnte auch gezeigt werden, dass diese oft erst in Verbindung mit bestimmten Umwelteinflüssen (wie Traumata in der Kindheit) im späteren Leben zu Depression führen. Ferner ist ein Zusammenhang von Depression mit einem relativen Mangel an Serotonin (ein Neurotransmitter des Gehirns) naheliegend. Allerdings ist die Frage nach dem Huhn oder dem Ei noch ungeklärt: nämlich, ob der Serotoninmangel die depressive Symptomatik hervorruft oder aber andersherum. Zudem ist ein Zusammenhang zwischen Depression und einem erhöhten Cortisolspiegel („Hyperkortisolismus“)  nachgewiesen, woraus sich eine Theorie darüber entwickelt hat, wie dieser Hyperkortisolismus mit Stressfaktoren zusammenhängen könnte (das so genannte Modell der biologischen Narben). Über dieses Modell und die Rolle von Cortisol bei Depression können Sie hier mehr erfahren.
  • frühe „adverse“ Lebensereignisse: darunter fallen insbesondere Traumata (schwere Unfälle, sexueller Missbrauch etc.) und der frühe Verlust der engsten Bezugsperson (meist Mutter). Nicht gut belegt ist der Einfluss der Trennung der Eltern.
  • niedriger sozioökonomischer Status (d.h. Einkommen und Bildungsgrad), wobei inzwischen die Kausalität dahin gehend geklärt ist, dass es tatsächlich so ist, dass ein niedriger sozioökonomischer Status durch eine hohe Wahrscheinlichkeit an kritischen Lebensereignissen (Arbeitsplatzverlust, Armut, Gewalt, etc.) zu einem höheren Risiko für die Entwicklung einer Depression (und nicht die Depression zu einem „sozialen Abstieg“) führt.
  • durch entsprechende Erfahrungen angeeignete, negative kognitive (=gedankliche) Schemata, z.B. Überzeugungen wie: „Ich bin ein Versager“, „Ich bin nichts wert“, „Ich bin dem Schicksal hilflos ausgeliefert“, „Ich kann nichts tun, das mich aus meiner Situation befreien würde“, „Alle anderen hassen mich“ etc. Gemäß dem Modell von Aaron Beck führen diese erworbenen Schemata in kritischen Situationen (z.B. Erhalten einer Absage) zur Aktivierung automatischer Gedanken („Ich werde nie etwas auf die Beine bringen“), was wiederum die depressiven Symptome hervorruft. Diese Gedanken sind im Übrigen auch die typischen Inhalte der oben erwähnten Grübelkreise!

Jene Schemata hängen oft mit der elterlichen Erziehung zusammen. Besonders wichtig ist hierbei das Modelllernen – das Kind nutzt seine Eltern als Vorbild für eigene Verhaltensweisen, Bewältigungsstrategien und Einstellungen. Wenn schon der Vater dem Kind das Schema: „Das Leben ist eine Fahrt in den Tod“ vorlebt, kann man sich vorstellen, wohin das führen mag.

Es gibt übrigens zwei verschiedene Typen von Vulnerabilitäts-Stress-Modellen: Es gibt zum einen solche, die annehmen, dass es alleinig auf die Summe von Vulnerabilität und Stress ankommt (die so genannten additiven Modelle), sodass umso weniger Stress nötig ist, je mehr Vulnerabilität vorhanden ist. Im Anschluss an diesen Abschnitt finden Sie eine Abbildung, die ein solches Modell veranschaulicht. Zum anderen gibt es solche, die davon ausgehen, dass bestimmte Stressoren bei einer hohen Vulnerabilität einen ungleich stärkeren Einfluss auf das Depressionsrisiko haben als bei einer niedrigen – und dass umgekehrt ein bestimmter Vulnerabilitätsfaktor (z.B. eine kritischer Genausprägung) umso ausschlaggebender ist, je mehr Stress vorhanden ist. Diese Sorte von Modellen heißen interaktiv, weil sie davon ausgehen, dass Stress und Vulnerabilität sich nicht einfach nur aufaddieren, sondern sich wechselseitig beeinflussen. Man spricht in diesem Zusammenhang auch von einer Gen-Umwelt-Interaktion, wie z.B. der Wissenschaftler Caspi sie in einer 2003 veröffentlichten Studie beschreibt. Diese Studie finden sie, detaillierter beschrieben, hier.

Vulnerabilitäts-Stress-Modell
Additives Vulnerabilitäts-Stress-Modell

Wie kann Depression behandelt werden?

Psychotherapie

Wie gesagt, ist die Depression als Störung sehr gut mittels Psychotherapie behandelbar. Während klassische psychoanalytische Verfahren gemäß vorliegender Therapieerfolgsstudien nur (wenn überhaupt) zu geringen Verbesserungen führen, sind die Wirksamkeit der Kognitiven Verhaltenstherapie (KVT) und der Interpersonellen Therapie (einer auf zwischenmenschliche, mit der Depression in Verbindung stehende Probleme fokussierenden und mit der KVT eng verwandten Therapie) sehr gut belegt. Bei chronischen, d.h. schon sehr lange bestehenden Depressionen (v.a. der so genannten Dysthymie, d.h. einer langandauernden, aber weniger schwer ausgeprägten Depression, die oft schon im Jugendalter beginnt) hat sich hingegen eine innovative Weiterentwicklung der KVT bewährt, das so genannte Cognitive Behavioral Analysis System of Psychotherapy (kurz: CBASP).

Da die KVT die bei Weitem etablierteste Therapieform ist, werde ich nur sie kurz skizzieren. In der KVT wird, wie der Name schon sagt, an zwei Punkten angesetzt: am Verhalten und an den Gedanken. Grob gesagt, übt man (unter anderem) mit dem Patienten neue Verhaltensweisen ein (z.B. sozial kompetente Verhaltensweisen, die dazu helfen, neue Kontakte zu knüpfen und Freundschaften zu pflegen – weil sich daraus angenehme Aktivitäten ergeben und der Selbstwert steigt) und analysiert, wie der Patient in typischen Situationen sein Verhalten so ändern kann, dass er langfristig positive Konsequenzen davon tragen kann. Der kognitive Teil der Therapie ist bei Depression derjenige, der die nachhaltigsten Effekte erbringt, aber auch der schwierigere. Ziel ist es, durch gezielte Gesprächstechniken depressionsfördernde Gedanken und Schemata wie die oben genannten zu verändern und so die beschriebenen Grübelkreise zu durchbrechen. Der Oberbegriff hierfür lautet kognitive Umstrukturierung.

Medikamentöse Behandlung

Alternativ zur KVT können auch Antidepressiva gegeben werden (heutzutage meist Serotoninwiederaufnahmehemmer, kurz SSRIs, Noradrenalinwiederaufnahmehemmer, kurz SNRIs und MAO-Hemmer). Diese sind kurzfristig ähnlich wirksam wie KVT, führen aber nachweislich zu mehr Rückfällen, haben mitunter Nebenwirkungen und wirken besonders bei denjenigen Patienten, bei denen die Ursache hauptsächlich biologisch, d.h. organisch bedingt ist. Zudem liegen Hinweise vor, dass Antidepressiva eigentlich nur bei schweren Depressionen eine Wirkung aufweisen, die tatsächlich über den Placeboeffekt hinausgeht. Über die Wirkung von Antidepressiva und die damit verbundenen Kontroversen habe ich einen separaten Artikel verfasst, den Sie hier finden können. Zu der Frage, ob Antidepressiva bei Kindern und Jugendlichen das Suizidrisiko erhöhen, finden Sie außerdem hier einen ausführlichen Artikel.

Weitere Optionen bei chronischen Depressionen: Elektrokrampftherapie, Schlafentzug, Lichttherapie

Es sei an dieser Stelle gesagt, dass die KVT gut geeignet ist, leichte und mittelschwere Depressionen zu behandeln. Schwere Depressionen (die vor allem durch akute Suizidneigung und weitgehende Funktionsunfähigkeit der Patienten gekennzeichnet sind) müssen in der Regel zunächst mit Antidepressiva behandelt werden, bevor eine Psychotherapie überhaupt möglich ist. Bei chronisch und schwer depressiven Patienten, die auf Medikamente und Psychotherapie nicht ansprechen, werden auch noch weitere „Register gezogen“, die zunehmend invasiv sind. Neben harmloseren Interventionen (= therapeutischen Maßnahmen) wie Lichttherapie und Schlafentzug (beides hellt die Stimmung auf und widerspricht somit der Überzeugung vieler Patienten, es könne ihnen nie wieder besser gehen) gibt es auch noch die Elektrokrampf-Therapie (EKT), bei der das Gehirn des Patienten unter Narkose mit Elektroschocks behandelt wird. Das klingt grausam, ist aber bei vielen Patienten, bei denen nichts anderes hilft, oft eine sehr effektive Maßnahme. Die Nebenwirkungen sind allerdings nicht zu unterschätzen; so kann es z.B., wenn auch in sehr seltenen Fällen, zu einer globalen oder partiellen Amnesie kommen.

Revolutionär: Tiefenhirnstimulation

Mit einem ähnlichen Prinzip arbeitet die Tiefenhirnstimulation (THS), die als sehr vielversprechendes Verfahren gilt. Auch sie ist eine Intervention, die erst indiziert, d.h. angebracht, ist, wenn alle nicht-invasiven Verfahren keinen Erfolg gebracht haben. Hierbei werden bestimmte Gehirnregionen mit niedriger elektrischer Spannung (2-10 Volt) gereizt. Die Elektroden hierfür werden den Patienten hierfür in bestimmte Hirnregionen implantiert und verbleiben dort, um für dauerhafte Stimulation zu sorgen. Der Arbeitsgruppe um Thomas Schläpfer von der Universität Bonn ist es kürzlich gelungen, sieben chronisch depressive Patienten mit dieser Methode von ihrer Depression zu befreien, was ein beachtlicher Erfolg ist. Das Forscherteam fokussierte sich dabei auf die medialen Vorderhirnfasern (befinden sich ca. hinter der Stirn), die Teil des sog. Belohnungssystems sind, das eng mit angenehmen Emotionen in Verbindung gebracht wird. Noch müssen allerdings Therapieerfolgsstudien mit einer größeren Zahl an Patienten durchgeführt und veröffentlicht werden, um die Wirksamkeit dieser Methode noch genauer zu dokumentieren.

Um den Bogen zu den eingangs beschriebenen Vorurteilen zu schlagen, kann man also folgendes Fazit ziehen: Depression ist eine ernst zu nehmende, vergleichsweise häufige Erkrankung, die sich niemand aussucht, für die man sich nicht schämen muss und die gut therapierbar ist.

© Christian Rupp 2013