Über die Bedeutung eines Doktortitels

Dieser Artikel stellt die Fortsetzung meines vorherigen Artikels dar, in dem ich mich bemüht habe, Licht ins Dunkel der verschiedenen Psych-Berufe zu bringen (zu finden hier). In diesem Artikel soll es nun darum gehen, was es nun bei all den verschiedenen Berufsbezeichnungen mit dem „Dr.“ auf sich hat. In diesem Artikel erfahren Sie also, warum man Arzt sein kann, ohne Doktor zu sein, warum man Doktor sein kann, ohne Arzt zu sein, und was ein Doktortitel mit Wissenschaft zu tun hat.

Doktor ist nicht gleich Doktor

Ganz wichtig: Der Doktortitel, den man einer abgeschlossenen Promotion erlangt, sagt nichts über die berufliche Qualifikation einer Person in einem Heilberuf aus, sondern stellt eine wissenschaftliche Zusatzqualifikation dar, die man „oben drauf“ durch eine Extraleistung erwirbt. Die meisten Ärzte haben einen – aber das liegt nicht daran, dass man mit dem Doktortitel regulär das Medizinstudium abschließt. Nein; dass fast alle Ärzte über einen Doktortitel verfügen, liegt daran, dass, verglichen mit allen anderen akademischen Fächern, der Erwerb eines Doktortitels im Fach Medizin („Dr. med.“) relativ leicht ist und in aller Regel deutlich schneller geht. Eine Promotion im Fach Medizin dauert selten länger als ein Jahr, während beispielsweise eine Promotion in z. B. Psychologie, Physik oder Chemie mindestens drei und in der Realität eher vier bis sechs Jahre dauert. Das liegt daran, dass die wissenschaftlichen Anforderungen und Hürden in so gut wie allen Disziplinen deutlich höher sind als in der Medizin. Die Doktorarbeit im (an sich nicht grundsätzlich wissenschaftlich ausgelegten) Studium der Medizin entspricht meiner Erfahrung nach in etwa der Master- oder Diplomarbeit in anderen Studiengängen wie z. B. Psychologie. Dadurch bedingt wird ein „Dr. med.“ in wissenschaftlichen Kreisen oft belächelt. Damit möchte ich keineswegs Ärztinnen und Ärzte abwerten, denn für das enorm anspruchsvolle Medizinstudium verdienen sie ebenso Respekt wie für den verantwortungsvollen und anforderungsreichen Job, den sie machen. Aber: Das Ausmaß, in dem sich manche Ärzte mit einem „Dr. med“ schmücken und auf die Anrede mit diesem bestehen, steht in keinem Verhältnis zu der Qualität der eher geringen wissenschaftlichen Leistung, die im Vergleich zu anderen Disziplinen dahintersteckt.

Was steckt hinter einem Doktortitel?

Im Prinzip handelt es sich bei einem Doktortitel um den höchsten akademischen Grad („Professor“ ist nämlich kein akademischer Grad, sondern eine Berufsbezeichnung), den man durch das Verfassen einer Dissertation („Doktorarbeit“) erlangt. In den Naturwissenschaften, und so auch in der Psychologie, muss man hierzu eine eigenständige wissenschaftliche Untersuchung durchführen, und die Dissertation muss am Ende veröffentlicht werden, bevor einem der Titel verliehen wird. Oft müssen zudem einzelne Teile der Dissertation zusätzlich in Form einzelner wissenschaftlicher Artikel in Fachzeitschriften veröffentlicht werden. Diesen gesamten Prozess bezeichnet man als „Promotion“.

Welche Doktortitel können Psychologen erlangen?

Psychologen können, weil es sich eben um eine Naturwissenschaft handelt (mehr dazu hier), entweder einen „Dr. rer. nat.“ („Doktor der Naturwissenschaften“) erlangen – oder, was weniger verständlich ist, einen „Dr. phil.“ (Doktor der Philosophie). Das mit dem „Dr. phil“ liegt letztlich daran, dass Psychologie als Studienfach in Deutschland meist traditionell den philosophischen Fakultäten zugeordnet ist oder zumindest lange war. Und wenn man noch länger zurückschaut, dann liegt es daran, dass die Philosophie geschichtlich betrachtet die Mutter der Psychologie sowie aller Naturwissenschaften ist – was anhand des damals üblichen Begriffs „Naturphilosophie“ sehr schön deutlich wird.

In den letzten 10-20 Jahren wurde an Psychologen auch immer häufiger der „Dr. rer. medic.“ (Doktor der Medizinwissenschafen) vergeben, was möglich ist, wenn Psychologen an einer medizinischen Fakultät promovieren. Das bedeutet, das Thema der Dissertation ist grundsätzlich klinischer Natur; allerdings müssen die Kandidaten an mancher Universität, um überhaupt promovieren zu dürfen, ein vier- bis sechssemestriges medizinisches Zusatzstudium absolvieren. Also auch hier gilt: Nicht mal eben im Vorbeigehen erledigt! Die Anforderungen der Universitäten an den „Dr. rer. medic.“ sind allerdings äußerst unterschiedlich, sodass man kein einheitliches Gütesiegel vergeben kann. In der Wissenschaftswelt hoch anerkannt sind vor allem der „Dr. rer. nat“ und der „Dr. phil“, zudem in den Ingenieurswissenschaften der „Dr. ing.“ und im juristischen Bereich der „Dr. iur.“.

In Kombination mit meinem vorherigen Artikel über die verschiedenen Psych-Berufsbezeichnungen erklärt sich nun also, warum ein Psychotherapeut meist gleichzeitig ein Psychologe ist und damit erstens zudem ein Naturwissenschaftlicher und zweitens auch ein Doktor sein kann. Somit gilt: Auch einen Psychologen oder Psychotherapeuten kann man mit „Herr Doktor“ anreden, wenn er durch eine wissenschaftliche Promotion z. B. einen „Dr. phil.“ oder „Dr. rer. nat.“ erworben hat – und aus meiner Sicht verdient er diese Ansprache auch noch ein bisschen mehr als ein Arzt,  weil er deutlich mehr für diesen Titel leisten und über Jahre große Entbehrungen hinnehmen musste. Denn Promovieren in den Naturwissenschaften bedeutet kurz gesagt: Viel Durchhaltevermögen, viel Frustration, wenig Freizeit, wenig Geld.

Jetzt wird auch klar: Ein Doktortitel heißt nicht automatisch, dass jemand Arzt ist (eine Annahme, der man sehr häufig begegnet) – genau so wie es auch Ärzte ohne Doktortitel gibt, die denen mit Doktortitel fachlich in nichts nachstehen, weil es sich beim Doktortitel immer um eine wissenschaftliche Qualifikation „on top“ handelt. Und abschließend hoffe ich, dass ich mit diesem Artikel und dem letzten (siehe hier) erklären konnte, warum ein Psychotherapeut auch ein Naturwissenschaftler sein kann.

© Dr. Christian Rupp 2020

Radiointerview zu Metakognitionen bei der Zwangsstörung

Radio Q, der Campus-Radiosender der Uni Münster, hat sich ihm Rahmen seiner Wissenschaftssendung „IQ Campus Science“ mit dem Thema Zwangsstörungen beschäftigt und wurde hierüber auch auf das Promotionsprojekt von mir und meiner Kollegin Charlotte Jürgens aufmerksam. Interessierte seien an dieser Stelle auf den knapp fünfminütigen Beitrag verwiesen, der aus einem Interview mit mir am vergangenen Mittwoch entstanden ist. Sehr hörenswert für Betroffene ebenso wie für ansonsten Interessierte sind natürlich auch die anderen drei Beiträge zum Thema Zwangsstörung, die Teil der einstündigen Sendung waren. Mit bestem Dank an Anne Kluger und Theresa Viefhaus.

Für eine aktuelle Therapiestudie suchen wir zudem im gesamten Jahr 2017 nach TeilnehmerInnen mit Zwangsstörung. Mehr darüber können Sie hier nachlesen.

 

Intelligenz – Teil 4: Was messen IQ-Tests und worin besteht ihre Berechtigung?

Nachdem es in Teil 3 darum ging, wie sich der so genannte „IQ“ berechnet und wie er zu interpretieren ist, widmet dieser Artikel sich der Frage: Wie lässt sich Intelligenz messen? Und messen Intelligenztests tatsächlich Intelligenz?

Die verschiedenen Arten von Intelligenztests lassen sich ganz grob in zwei Gruppen einteilen. Anhand ihrer Verbreitung und Etabliertheit habe ich diese zwei Kategorien einmal „untypisch“ und „typisch“ getauft.

„Untypische“ Vertreter

In diese Kategorie fallen zu allererst einmal die so genannten elementaren kognitiven Aufgaben (kurz EKAs). Hierbei handelt es sich um eine Reihe relativ einfacher Aufgaben, z.B. die Identifikation von präsentierten Reizen (Kreis oder Quadrat?), die Unterscheidung von Reizen (Welcher der zwei Töne ist höher?) oder die Erinnerungsleistung in Kurzzeitgedächtnisaufgaben (z.B. maximale Zahl von Zahlen, die jemand, unmittelbar nachdem er sie gehört hat, in derselben Reihenfolge wiedergeben kann). Die Variablen, die hier als Maß für Intelligenz herangezogen werden, sind unter anderem die Reaktionszeit, die so genannte inspection time (Zeit, die jemand benötigt, um z.B. zu sagen, welche von zwei Linien länger ist) oder aber auch mit dem EEG gemessene ereigniskorrelierte Potenziale, wobei die Dauer bis zum Auftreten des Pozentials im EEG (die so genannte Latenz) als Maß für die Verarbeitungsgeschwindigkeit herangezogen wird, die wiederum Intelligenz widerspiegeln soll. Zur Validität der EKAs (also der Frage, in wiefern diese tatsächlich Intelligenz messen), liegen divergierende Befunde vor. Untersucht wurde diese Fragestellung, indem der lineare Zusammenhang (die Korrelation) zwischen der Leistung in EKAs und der Leistung in „typischen“ Intelligenztests berechnet wurde. Diese Korrelation allerdings schwankt in den verschiedenen Studien zwischen 0,35 und 0,70 – mit anderen Worten: Der Zusammenhang ist nicht bombig, und es ist wenig naheliegend, die Leistung in EKAs als alleinigen Indikator für Intelligenz zu betrachten. Ähnliches gilt für die Gehirngröße (gemessen z.B. per MRT bei lebenden oder aber direkt am Objekt  bei toten Menschen), die laut einer Metaanalyse von McDaniel (2005) eine Korrelation von 0,33 mit der Leistung in typischen Intelligenztests aufweist. Dass hier kein so besonders großer Zusammenhang besteht, ist wenig verwunderlich, wenn man bedenkt, dass die Art der synaptischen Vernetzung in unserem Gehirn sehr viel wichtiger für die reibungslose Verarbeitung von Informationen ist als dessen einfaches Volumen.

Zweitens wären da eine Reihe von Tests, die offenkundig „typischen“ Vertretern ähneln, sich aber dadurch von diesen unterscheiden, dass sie den Generalfaktor g ablehnen, d.h. nicht von einem, allen Facetten übergeordneten allgemeinen Intelligenzfaktor ausgehen, sondern von mehreren voneinander unabhängigen Faktoren. In der Tat stellen die von diesen Tests postulierten Faktoren meist elementare kognitive Funktionen (ähnlich den EKAs) dar – und keine Intelligenzkomponenten, wie in den in Teil 2 beschriebenen Modellen aufgeführt. In diese Kategorie fallen z.B. das Cognitive Assessment System (CAS) und die Kaufman-Tests (z.B. das „K-ABC“). Während das CAS u.a. die Faktoren Planung (Strategien zur Problemlösung entwickeln) und Simultanität (getrennte Objekte zu etwas Ganzem integrieren) erfasst, unterscheidet das K-ABC zwischen erworbenen Fertigkeiten (Rechnen und Schreiben), simultaner Verarbeitung (Matrizen-Aufgaben der Sorte „Welches Bild ergänzt das Muster?“) und sequenzieller Verarbeitung (z.B. Zahlen nachsprechen). Wichtig beim K-ABC: Nur diese letzten zwei Faktoren sollen die kognitive Leistungsfähigkeit widerspiegeln; erworbene Fähigkeiten werden isoliert hiervon betrachtet.

„Typische“ Vertreter

Zu den typischen Vertretern gehören alle psychometrischen Tests, d.h. solche, die in der Regel auf einem bestimmten Intelligenzmodell (siehe Teil 2) basieren, eine Reihe verschiedener Aufgabentypen beinhalten, die normiert sind (damit die Leistung der getesten Person mit der von hinsichtlich Alter und Geschlecht ähnlichen Personen verglichen werden kann) und (das ist zentral) deren Gütekriterien (Objektivität, Reliabilität, Validität) überprüft wurden und als gesichert gelten.

Die meisten dieser Tests basieren auf Modellen, die einen g-Faktor annehmen, und ermöglichen daher auch die Berechnung eines allgemeinen Intelligenzquotienten. Ein Beispiel hierfür sind die Wechsler-Intelligenztests, z.B. der WIE (Wechsler-Intelligenztest für Erwachsene) oder der HAWIK-IV (Hamburg-Wechsler-Intelligenztest für Kinder, 4. Auflage). In den Wechsler-Tests gibt es u.a. die typischen Aufgabenbereiche Allgemeines Wissen, Finden von Gemeinsamkeiten, Matrizen ergänzen, Mosaike legen, Zahlen nachsprechen (vorwärts und rückwärts) und Kopfrechnen. Während die Wechsler-Tests sowohl die Berechnung der allgemeinen Intelligenz als auch verschiedener Unterfacetten ermöglichen, erlauben die so genannten Raven-Tests, die ausschließlich aus Matrizenaufgaben bestehen, nur die Berechnung eines allgemeinen IQs. Der Intelligenzstruktur-Tests (IST-2000-R), der auf dem Modell von Thurstone basiert, ermöglicht hingegen nur die Berechnung von IQ-Werten für die Bereiche schlussfolgerndes Denken (verbal, figural und numerisch) und Merkfähigkeit (verbal und figural). Zusätzlich gibt es einen Wissenstest, der aber nicht obligatorisch ist und am ehesten kristalline Intelligenz widerspiegelt.

Wozu das ganze? Der Sinn der Intelligenzmessung.

Nun kann man sich fragen, was es einem bringt, die Intelligenz einen Menschen (bzw. das, was diese ganzen Tests vorgeben, zu messen) zu erfassen. Die selbstwertregulierende Funktion liegt auf der Hand (es ist natürlich schön, von sich sagen zu können, dass man intelligenter als 99% der restlichen Menschheit ist), aber das ist zum Glück nicht alles.

Diagnostik von Intelligenzminderung & Hochbegabung

In der Tat sind Intelligenztests ein extrem wichtiges diagnostisches Instrument, das in vielen Bereichen zum Einsatz kommt. Im Bereich der pädagogischen Psychologie sind da z.B. die Diagnostik von Teilleistungsstörungen wie Lesestörungen, Rechtschreibstörungen und Dyskalkulie (Rechenstörung) zu nennen, zu deren Diagnose nämlich die Leistung im jeweils beeinträchtigten Bereich mindestens zwei Standardabweichungen (also deutlich) unterhalb der allgemeinen Intelligenz liegen müssen (um auszuschließen, dass es sich um eine generelle Intelligenzminderung oder gar eine geistige Behinderung handelt). Aber auch am anderen Ende der Skala ergibt sich ein wichtiges Anwendungsfeld: die Hochbegabtendiagnostik. Die ist deshalb so wichtig, weil es bei solchen Kindern von großer Bedeutung ist, diese hohe Intelligenz zu fördern, um Unterforderungserleben zu verhindern, das sonst leicht zu Problemen führen kann (z.B. weil das Kind den Unterricht stört oder sich zurückzieht). Vielleicht denken Sie hierbei auch gleichzeitig an die Diagnose einer ADHS. Das ist völlig richtig, denn auch zu dieser Diagnose muss eine Hochbegabung (genauso wie eine geistige Behinderung) als Ursache des unangepassten Verhaltens des Kindes ausgeschlossen werden.

Bewerberauswahl und Vorhersage des Schulerfolgs

Die weiteren Anwendungsgebiete von Intelligenztests ergeben sich aus der breitgefächerten prädiktiven Validität von Intelligenztests, d.h. aus der Tatsache, dass sich durch die Intelligenzleistung zu einem bestimmten Zeitpunkt bestimmte andere Variablen ziemlich gut vorhersagen lassen. So zeigte z.B. eine Metaanalyse von Schmidt und Hunter aus dem Jahr 1998, dass die allgemeine Intelligenz zu 0,54 mit dem späteren Arbeitserfolg bzw. der beruflichen Leistung korrelierte – damit sind Intelligenztests diejenige Methode mit der besten Vorhersagekraft für Berufserfolg. Trotz dieser Erkenntnis bevorzugen die meisten Unternehmen bei der Bewerberauswahl jedoch die sehr viel teureren Assessment-Center, wobei die Argumente hierfür denkbar schwach sind: Die Leistung in diesen korreliert nämlich im Mittel nur zu 0,37 mit späterem Berufserfolg. Ähnliche Korrelationen ergeben sich für die Beziehung von Intelligenz und Schulerfolg, gemessen z.B. durch die Schulnote. Diese schwanken nach Deary und Kollegen (2007) zwischen 0,43 im Fach Kunst und 0,77 im Fach Mathematik (und das ist in der Psychologie eine wirklich verdammt hohe Korrelation). Als Anwendungsfeld ergibt sich hierbei z.B. die Verteilung von Kindern auf verschiedene Schulformen, um eine jeweils optimale Förderung zu ermöglichen.

Von Haftstrafen bis Krebs

Die Vorhersagekraft der allgemeinen Intelligenz ist jedoch noch sehr viel größer. Eine große Zahl von Längsschnittstudien (d.h. solchen, die z.B. in der Kindheit den IQ messen und dann über die folgenden 20 Jahre weitere Variablen erfassen) wurde zu diesem Thema durchgeführt und führte zu verblüffenden Ergebnissen. So zeigte sich, dass mit steigendem IQ das Risiko für Arbeitslosigkeit und Armut abnimmt, ebenso wie für Scheidungen und Haftstrafen. Zudem ergab sich, dass sogar Krebsdiagnosen umso unwahrscheinlicher sind, je intelligenter der Mensch ist. Bei vielen dieser Zusammenhänge gibt es sehr wahrscheinlich so genannte vermittelnde Variablen, d.h. solche, die den Zusammenhang zwischen IQ und der jeweils anderen Variable erklären. So ist der Zusammenhang mit Arbeitslosigkeit und Armut sicherlich darauf zurückzuführen, dass ein höherer IQ höhere Bildungsabschlüsse ermöglicht, die dann wiederum das Risiko für Arbeitslosigkeit und Verarmung reduzieren. Ähnliches gilt für den Fall der Krebsdiagnosen: Menschen mit höherem IQ haben in der Regel einen gesünderen Lebensstil (trinken z.B. weniger Alkohol und rauchen nicht), was dann wiederum das Krebsrisiko niedrig hält.

Messen Intelligenztests wirklich Intelligenz?

Hier bewegen wir uns auf die Frage nach der Validität dieser Tests zu. Um die Frage aus der Überschrift zu beantworten, müssen wir jedoch verschiedene Aspekte des Konstrukts „Validität“ auseinander halten. Zunächst kann man davon ausgehen, dass bei Intelligenztests im Allgemeinen die Augenscheinvalidität (auch Inhaltsvalidität genannt) gegeben ist. Diese bezieht sich allerdings nur auf die einzelnen Untertests und meint nicht mehr, als dass die Aufgaben offenbar das erfassen, was sie vorgeben zu erfassen – z.B. dass man bei Rechenaufgaben rechnen muss, dass Wortschatzaufgaben die Größe des Wortschatzes erfassen, etc. Allerdings muss man zugeben, dass diese Inhaltsvalidität bei komplexeren Aufgaben wie Matrizenergänzungen durchaus nicht so einfach zu beurteilen ist, weil die Frage nach den Prozessen, die zur Lösung der Aufgaben bewältigt werden müssen, so groß ist, dass sie ein eigenes Forschungsfeld darstellt.

Wenn man jedoch den gesamten Test heranzieht und sich fragt, ob dieser das Konstrukt „Intelligenz“ misst, ist die Antwort schon weniger eindeutig. Dafür, dass zumindest die meisten Intelligenztests annähernd dasselbe messen, sprechen die ziemlich hohen Korrelationen zwischen den Ergebnissen derselben Person in verschiedenen Intelligenztests. Dies bezeichnet man auch als diagnostische Validität. Und dafür, dass mit diesen Tests offenbar etwas gemessen wird, das Auswirkungen auf extrem viele andere Lebensbereiche (Berufserfolg, Gesundheit, etc.) hat, liegen ebenfalls zahlreiche Belege vor (prädiktive Validität). Mit anderen Worten: Irgendetwas muss ganz offensichtlich dran sein an diesem Konstrukt.

Es gibt aber natürlich auch jede Menge Kritik an der gesamten Intelligenzmessung. An dieser Stelle sei noch einmal deutlich betont, dass es sich, wie in Teil 1 beschrieben, bei Intelligenz lediglich um ein Konstrukt handelt – und nicht um eine vom Himmel gefallene und unumstößlich definierte Begebenheit. So wird von Kritikern z.B. eingeworfen, dass klassische Intelligenztests viele Aspekte gar nicht berücksichtigen, z.B. sozio-emotionale Kompetenzen. Zudem wird häufig angemerkt, dass Intelligenz auch die Aneignung von Fertigkeiten und Wissen im kulturellen Kontext bedeutet – was die Tests allesamt nicht erfassen.

Letztendlich handelt es sich bei der Frage, was Intelligenztests messen, also um eine, die die Wissenschaft nie endgültig wird beantworten können, weil dies unmöglich ist. Man kann als Fazit allerdings zweierlei festhalten: Dass Intelligenztests das messen, was sie vorgeben zu messen, scheint auf Basis der Befunde zur Inhalts-, diagnostischen und prädiktiven Validität sehr wahrscheinlich – ebenso wie dass dieses Konstrukt, wie auch immer man es nennen mag, offenbar große Auswirkungen auf unser Leben hat. Ob diese Tests aber tatsächlich Intelligenz messen, lässt sich nicht beantworten, da es sich hierbei um ein höchst unterschiedlich definiertes Konstrukt handelt.

Bleibt der IQ immer gleich? Die Frage nach der Stabilität.

Auch diese Frage hat wiederum zwei Facetten. Die erste ist die Frage, ob Intelligenztests zuverlässig messen, d.h. reliabel sind. Im Wesentlichen ist hiermit die Frage verknüpft, wie genau Intelligenztests messen. Nun, ein psychometrischer Test misst nicht so genau wie eine Waage, das ist klar. Aber die meisten Intelligenztests haben Reliabilitäten von über 0,90, was ziemlich gut ist. Am geläufigsten ist hierbei die so genannte Retest-Reliabilität, d.h. die Frage nach der Übereinstimmung der Testergebnisse, wenn Personen denselben Test zweimal hintereinander bearbeiten. Hierbei muss das Zeitintervall natürlich groß genug sein, um auszuschließen, dass die Person die richtigen Lösungen bei der Bearbeitung lediglich erinnert. Der zeitliche Abstand darf aber auch nicht zu lang sein, da es sonst möglich ist, dass eine große Abweichung der Testwerte darauf zurückgeht, dass die tatsächliche Intelligenzleistung der Person sich verändert hat (was besonders bei Kindern der Fall ist, die einen schnellen Zuwachs verzeichnen).

Die zweite Frage ist die, ob die Intelligenzleistung selbst stabil ist. Hier bietet die Forschungslage erfreulicherweise einen relativ eindeutigen Befund: Obwohl IQ-Werte auch tagesformabhängig sind (logisch, da man sich nicht immer gleich gut konzentrieren kann), sind die Fluktuationen ziemlich gering, und Intelligenz erweist sich insgesamt als ziemlich stabile Eigenschaft. Stabil meint hierbei allerdings nicht, dass immer gleich viele Punkte im selben Test erreicht werden, sondern dass eine Person im Vergleich zur alters- und geschlechtsspezifischen Normstichprobe gleich gut bleibt. Als Beispiel: Natürlich wird ein zehnjähriges Kind im HAWIK mehr Punkte erzielen als mit sechs Jahren, aber es behält trotzdem denselben IQ, weil es bei den beiden Messungen mit unterschiedlichen Normstichproben verglichen wird. Verschiedene Untersuchungen zeigen sogar eine erstaunliche Stabilität des IQ über sehr lange Zeitspannen: So ergab sich in einer Studie von Deary und Kollegen (2000) eine beachtliche Korrelation von 0,77 zwischen den IQ-Werten einer Stichprobe, die zum ersten Mal 1932 und zum zweiten Mal 1995 an demselben Test teilgenommen hatte.

Interessant ist diesbezüglich übrigens der sehr unterschiedliche Verlauf von fluider und kristalliner Intelligenz über die Lebensspanne. Studien aus diesem Bereich zeigen, dass, während die kristalline Intelligenz (im Wesentliches also erworbenes Wissen) im Laufe des Lebens zunimmt bzw. stagniert, die fluide Intelligenz (logisches Denken etc.) abnimmt. Neuere Untersuchungen zeigen jedoch, dass der Rückgang der fluiden Intelligenz auf etwas anderes zurückzuführen ist – nämlich auf die mit dem Alter geringer werdende Erfahrung mit den Aufgabenformaten typischer Intelligenztests, die stark an die von Schulaufgaben angelehnt sind. Insgesamt kann man also sagen: Intelligenz ist ziemlich stabil, aber eben nicht perfekt stabil. Und das liegt maßgeblich daran, dass wir entgegen der weitläufigen Meinung nicht mit einem festgelegten IQ geboren werden – was Thema des fünften Teils der Intelligenz-Reihe sein wird.

 © Christian Rupp 2014

Homöopathie & Co.: Von Placebo, Nocebo und einem paradoxen Dilemma

Vorab: Was ist eigentlich Homöopathie?

Diese Frage ist deshalb ganz zentral, weil im Volksmund häufig eine ganz bestimmte Verwechslung vorgenommen wird: nämlich die von homöopathischen und pflanzlichen Mitteln. Denn diese beiden Kategorien sind keineswegs dasselbe! Weder sind alle pflanzlichen Mittel homöopathisch, noch sind alle homöopathischen Mittel pflanzlich. Ein Beispiel für ein nicht-homöopathisches, aber pflanzliches Mittel ist z.B. Johanniskraut, dessen Wirksamkeit in Bezug auf Depressionen als gut belegt gilt, wenngleich der Effekt nicht so groß ist wie der klassischer Antidepressiva. Zudem ist Johanniskraut ein sehr gutes Beispiel dafür, dass auch pflanzliche Medikamente erhebliche Nebenwirkungen haben können – aber das nur nebenbei. Derweil enthalten homöopathische Mittel oft keinerlei pflanzliche Substanzen, sondern anorganische chemische Stoffe, wie z.B. Quecksilber.

Aber was ist nun der Unterschied? Im Wesentlichen liegt dieser in der Wirkstoffkonzentration. Überspitzt gesagt ist es nämlich so, dass pflanzliche Medikamente Wirkstoffe enthalten, homöopathische hingegen nicht. Warum das so ist? Das liegt in der Herstellung und den meiner Meinung nach als esoterisch zu bezeichnenden Annahmen bezüglich der Wirkung. Denn homöopathische Mittel beruhen auf dem Prinzip der extremen Verdünnung, die ein Verhältnis von bis zu 1 : 50000 annehmen kann (wobei der Wirkstoff entweder in Wasser oder Alkohol gelöst wird). Das Ergebnis dessen ist, dass in einem 50ml-Fläschchen rein rechnerisch oft kein einziges Wirkstoffmolekül mehr enthalten ist. Nun kann man sich zurecht fragen, wie dann noch eine Wirkung eintreten soll. Die Antwort der Homöopathen lautet in etwa so: Dadurch dass die Lösung zusätzlich auf eine ganz bestimmte Weise geschüttelt wird („Dilutation“), überträgt sich die Wirkung auf die Wasser- oder Alkoholmoleküle. Ferner sei es so, dass sich die Wirkung durch die Verdünnung nicht verringere, sondern gar vergrößere („Potenzierung“). Wie genau das geschehen soll, lassen sie derweil offen. Die wissenschaftliche Forschung hat derweil ein paar andere Antworten parat.

Homöopathie trifft auf wissenschaftliche Realität

Der durch zahlreiche Studien belegte wissenschaftliche Konsens bezüglich homöopathischer Medikamente ist der, dass sie zwar wirksam sind, aber eben nicht wirksamer als eine Zuckerpille, die das häufigste Beispiel für eine so genannte Placebo-Behandlung darstellt. Dieser Befund gilt für alle Formen von Erkrankungen, die bisher in solchen Studien betrachtet wurden. Untersucht werden Fragestellungen der Wirksamkeit von Medikamenten in der Regel in randomisierten kontrollierten Studien, in denen verschiedene Behandlungsgruppen miteinander verglichen werden, die jeweils mit nur einem Präparat über eine gewisse Zeit behandelt werden. So könnte man sich z.B. eine Studie vorstellen, in der vier Bedingungen miteinander verglichen werden: ein Medikament mit klassischem Wirkstoff, ein homöopathisches Mittel, eine Zuckerpille (Placebo) – und eine Gruppe von Patienten, die gar keine Behandlung erfährt. Das Ergebnis in einer solchen Studie sieht typischerweise so aus (Beispiel: Reduktion von Schmerzen bei Arthritis): Das klassische Medikament führt zu einer deutlichen Abnahme der Schmerzen, die Patienten ohne Behandlung verändern sich kaum hinsichtlich ihres Schmerzniveaus. Die Schmerzen in der homöopathisch behandelten Gruppen lassen auch signifikant nach (d.h. die Reduktion kann nicht auf einen Zufall zurückgeführt werden) – aber, und das ist das Wichtige: Die Schmerzen in der Placebo-Gruppe reduzieren sich ebenfalls signifikant um einen ähnlichen Betrag. Wie kann das sein?

Von Placebo- und Nocebo-Effekten

Die Antwort lautet „Placeboeffekt“. Abgeleitet von dem lateinischen Verb „placere“ (= „gefallen“) beschreibt dieser in der Psychologie sehr gut erforschte Effekt das Phänomen, das bloße Wirkungserwartungen schon Berge versetzen können. So weiß man sowohl aus der Forschung zur Wirksamkeit von Medikamenten als auch von Psychotherapie, dass am Ende eine stärkere Wirkung resultiert, wenn der Patient auch eine Verbesserung erwartet. Oder mit anderen Worten: an eine Besserung glaubt. Hierzu müssen diese Wirkungserwartungen allerdings in ausreichendem Maße ausgelöst werden (z.B. indem der Patient eine nach echter Tablette aussehende Pille schluckt), aber das genügt dann auch schon. Da man sich dieses Effekts bewusst ist, ist das, was Heilmethoden liefern müssen, um zugelassen zu werden, der Nachweis einer Wirkung, die über eben diesen Placeboeffekt hinausgeht. Und genau dieser fehlt bei homöopathischen Mitteln leider – sie zeigen keine größere Wirkung als eine Zuckerpille, von der Patienten denken, es sei eine „echte“ Pille.

Es gibt allerdings auch den bösen Zwillingsbruder des Placeboeffekts – genannt Nocebo-Effekt. Er beschreibt das Phänomen, dass negative Wirkungserwartungen auch einen negativen Effekt auf die tatsächliche Wirkung haben. Konkret bedeutet das: Sagt man Patienten, die eine echte Pille einnehmen, es handle sich hierbei um eine Zuckerpille ohne Wirkstoff, dann lässt sich tatsächlich eine geringere objektive Wirkung nachweisen als bei Patienten, die eine echte Pille einnehmen und dies auch wissen. Was man hieran also erkennt, ist: Jede Form von Therapie, sei es ein Medikament, ein wissenschaftlich fundiertes psychotherapeutisches Verfahren – oder aber homöopathische Globuli, Reiki und Akupunktur – sind von solchen Erwartungseffekten betroffen. Bedeutet das also, dass es eigentlich egal ist, welche Behandlungsform wir wählen, Hauptsache der Patient glaubt an ihre Wirkung?

Das paradoxe Dilemma

Zunächst einmal: Nein. Denn der zentrale Unterschied liegt nun einmal darin, dass sich wissenschaftlich fundierte Behandlungsmethoden, wie oben beschrieben, eben genau dadurch auszeichnen, dass sie wirksamer sind als eine entsprechende Placebo-Behandlung. Dennoch ist es natürlich, wie bereits dargelegt, unverkennbar, dass die Erwartung des Patienten an die Wirksamkeit und die Wirkweise einer Behandlung großen Einfluss auf seine Genesung oder Nicht-Genesung haben kann. Die bedeutsame Rolle dessen, dass derartige Erwartungen durch eine glaubwürdige „Coverstory“ aber überhaupt erst erzeugt werden müssen, wird an dem Dilemma deutlich, dass ein Placebo zwar ohne Wirkstoff (bzw. als wirksam erachtete Elemente) wirkt – aber eben auch mehr als nichts ist (und somit klar von dem Effekt abzugrenzen ist, dass mit der Zeit „von selbst“ eine Besserung eintritt). Daher macht es z.B. im Kontext einer Psychotherapie Sinn, dem Patienten ein Störungs- sowie ein Veränderungsmodell zu vermitteln, welches er nachvollziehen und mit dem er sich zudem identifizieren kann – in anderen Worten: ein Modell, an das er glauben kann – um sich den Placeboeffekt zunutze zu machen.

Erwartungseffekte in der Psychotherapie

Zumindest in Bezug auf die Wirkung von Psychotherapie lässt sich der Befund, dass Wirkungserwartungen und die Passung zwischen dem subjektiven Patientenmodell und dem Veränderungsmodell der Therapie den Therapieerfolg maßgeblich bestimmen, durchaus mit dem aktuellen Forschungsstand der Psychotherapieforschung vereinbaren. Letzterer nämlich lässt sich am ehesten dadurch zusammenfassen, dass die Wirksamkeitsunterschiede zwischen den verschiedenen Therapieformen bestenfalls gering ausfallen (siehe auch mein Artikel zum Dodo-Bird-Verdict). Allerdings haftet dieser Forschung meiner Meinung eine reduzierte Aussagekraft an, da ihre externe Validität sowohl im Hinblick auf die Repräsentativität der Patienten (Patienten in klinischen Studien sind eher untypisch für die große Masse der Patienten in der Bevölkerung) als auch bezüglich der schulenspezifischen Reinheit der Therapie (die dem in der Praxis üblichen eklektischen Mix sehr fern ist) stark hinterfragt werden muss. Zudem ist die viel interessantere Frage, der sich die klinisch-psychologische Forschung zum Glück inzwischen vermehrt widmet, die nach den Prozessen bzw. Mediatoren, über die Psychotherapie wirkt. Ein sehr heißer Kandidat hierfür ist z.B. schulenübergreifend die therapeutische Beziehung, auch working alliance genannt. Zwar wurden in diesem Sinne bereits (z.B. von Klaus Grawe, der leider verstorben ist) integrative Ansätze zu Wirkmechanismen von Psychotherapie vorgeschlagen, jedoch herrschen in den Köpfen der meisten Forscher und Praktiker noch immer kategoriale Denkweisen vor.

Hierbei handelt es sich allerdings um ein mir weitgehend unverständliches Phänomen, da die Quintessenz, die ich aus meinem Studium in klinischer Psychologie mitnehme, die ist, dass im Grunde, wenn man einmal die Dinge zu Ende denkt, alle psychotherapeutischen Verfahren weitgehend dasselbe beinhalten und lediglich unterschiedliche Begriffe verwenden oder Perspektiven einnehmen. Und ich könnte mir in der Tat sehr gut vorstellen, dass es letztlich hauptsächlich darauf ankommt, ob der Patient diese Begriffe und Perspektiven für sich annehmen kann – sodass etwaige Wirksamkeitsunterschiede zwischen verschiedenen Therapieverfahren am Ende vielleicht genau darauf zurückzuführen sein könnten. Ich weiß nicht, ob Erwartungseffekte in der Psychotherapie bereits dahingehend untersucht wurden, ob eine generelle Wirkungserwartung bzw. ein allgemeiner Glaube an Psychotherapie eine notwendige Bedingung für Veränderung darstellen; so ließe sich in der Tat eventuell Licht ins Dunkel der Frage bringen, ob etwaige weitere Wirkmechanismen der Therapie im Sinne eines Interaktionseffekts erst dann wirksam werden, wenn diese notwendige Bedingung erfüllt ist.

Egal warum – Hauptsache, es wirkt?

Doch rechtfertigt dies die (oft in Bezug auf Homöopathie gehörte) Aussage: „Egal warum es wirkt – Hauptsache, es wirkt“? In Bezug auf psychotherapeutische Verfahren und Medikamente, deren Überlegenheit gegenüber einem Placebo belegt wurde, würde ich ganz klar sagen: Ja – aber mit dem Zusatz, dass es aber durchaus wünschenswert wäre, den Wirkmechanismus genauer zu kennen. Hinsichtlich Medikamenten und Therapien, für die diese Überlegenheit nicht gilt (z.B. Homöopathie), würde ich hingegen sagen: Bevor man hierfür Geld ausgibt, sollte man lieber die günstigere Zuckerpille schlucken – wenngleich die schwierige Crux natürlich gerade darin besteht, bei einer solchen Zuckerpille die notwendigen Wirkungserwartungen auszulösen. Dennoch wäre meine persönliche Empfehlung, dass man bei Zugrundelegung der Nicht-Überlegenheit homöopathischer Mittel gegenüber einem Placebo, deren fragwürdiger Herstellungsweise – und dem oft exorbitant hohen Preis – eher die Finger davon lassen sollte. Ein Ratschlag, den ich auch einigen deutschen Krankenkassen geben würde, von denen, wie ich vor Kurzem voller Entsetzen feststellen musste, eine große Zahl die Kosten für homöopathische Mittel übernimmt, während bei anderen Behandlungsformen, deren Wirksamkeit weitaus besser belegt ist, gerne gegeizt wird. Geht es djedoch nicht um die Frage des Geldes (angenommen, der Referenzwert ist der Preis einer Zuckerpille), sehe ich derweil keinerlei Nachteil darin, den Placeboeffekt voll auszunutzen. Nur leider ist es in der Regel so, dass am anderen Ende des Verkaufstisches, der Massageliege oder des Akupunkturnadelkissens meist kein altruistischer Kommunist steht, sondern in der Regel eine Person, die Geld verdienen möchte.

© Christian Rupp 2014

Couch & Klemmbrett: Wie Film & Fernsehen die Psychologie zu einem Heilberuf mach(t)en

Anders als bei den drei zurückliegenden Einträgen bilden die Grundlage von diesem mehrere Diskussionsrunden, an denen ich im Rahmen einer mit dem schrecklichen Namen „World Café“ titulierten Lehrveranstaltung teilgenommen habe. Es ging weder um die Welt, noch gab es Kaffee, aber trotzdem kamen wir gut ins Gespräch, und es war interessant, Erfahrungen und Sichtweisen auszutauschen. Die erste dieser Diskussionsrunden beschäftigte sich mit der Frage, wie man als Psychologe auf Vorurteile bzgl. dieses Berufsbilds reagiert und welches öffentliche Bild der Psychologie wir uns wünschen bzw. erzeugen möchten. Neben den Punkten, auf die ich in vorherigen Einträgen bereits eingegangen bin (Aufklärung in der Schule über Psychologie als Naturwissenschaft) gab es hierbei einige weitere, meiner Meinung nach interessante Denkanstöße. Zum einen haben wir uns – mit Bezug auf den sehr häufigen Kommentar: „Oh, du studierst Psychologie, dann muss ich ja jetzt aufpassen, was ich sage“ – längere Zeit darüber unterhalten, ob dieses „Analysieren-Couch-Image“ und die damit verbundene Angst der Menschen, von ihrem Gegenüber „durchschaut“ zu werden, eventuell typisch für Deutschland sind, da hier (anders z.B. als in den USA, wo immer schon Lerntheorien dominierten) der Einfluss der Psychoanalyse sensu Freud überproportional groß war.

Direkt damit einher geht natürlich das Missverständnis, das sich in der Gleichsetzung von Psychologie und klinischer Psychologie wiederfindet und somit gleichermaßen die Verwechslung dieser Wissenschaft mit einem Heilberuf erklärt. Im Zuge dessen erschien uns aber hinsichtlich der Ursache des verzerrten öffentlichen Bildes vor allem die Rolle von Film, Fernsehen und Nachrichtenmedien als zentral. Zum einen, da Psychologen in Filmen und Fernsehserien typischerweise mit immer wiederkehrenden äußerlichen (Brille, Klemmbrett, obligatorisches Couch-Mobiliar), charakterlichen (weitgehende Skurrilität bis hin zum selbst stark ausgeprägten Neurotizismus) und Verhaltensmerkmalen (analytischer Blick, analytische Interpretationen, Rolle des Ratgebers, dem man seine Probleme schildert) ausgestattet werden. An dieser Stelle sei übrigens angemerkt, dass in der Regel hierbei keine Unterscheidung vorgenommen wird zwischen Psychologen, Psychiatern und Psychotherapeuten, was der beschriebenen Verzerrung noch überdies zuträglich ist. In Nachrichtenformaten hingegen findet sich ein anderes Phänomen: Wann immer (mehr oder weniger seriös und angemessen) von (an den jeweiligen Themen deutlich als solchen erkennbaren) psychologischen Forschungsergebnissen berichtet wird, wird grundsätzlich unterschlagen, dass es wissenschaftlich tätige Psychologen waren, die diese Studie durchgeführt haben. Stattdessen, so fast immer der Wortlaut, heißt es: „Forscher der Universität XY haben herausgefunden, dass…“ (wenn nicht sogar noch das Wort „bewiesen“ anstelle von „herausgefunden“ Verwendung findet). Woher sollen Laien also wissen, dass diese Wissenschaftler Psychologen sind und dass Psychologen nicht nur analytisch ausgerichtete Psychotherapeuten sind? Man kann ihnen im Grunde keinerlei Vorwurf machen.

In Bezug auf die Frage, wie man bei Konfrontation mit diesen enorm hartnäckigen Fehlvorstellungen reagieren kann/sollte/möchte, reichte die Spannbreite der diskutierten Möglichkeiten von der geduldigen, gebetsmühlenartigen Erläuterung der Unangemessenheit dieser Vorstellungen über die (je nach Sympathie zum Gegenüber) Nutzung der beschriebenen Angst vor dem Analysiertwerden – bis hin zum einfachen Umdrehen und Gehen. Ich selbst muss sagen, dass ich es mittlerweile mehr als leid bin, meinen Freunden und Verwandten (nicht meinen engeren Familienangehörigen, die durch meine ältere Schwester und mich bereits genügend „Psychoedukation“ erfahren haben) immer und immer wieder zu erklären, dass mein Studium nicht das Erlernen von Gedankenlesen beinhaltet und sich in unserem Institutsgebäude kaum eine einzige Couch befindet. Noch mehr stören mich aber tatsächlich zwei weitere Dinge, und zwar zu allererst die Tendenz eben solcher Mitmenschen, mein gesamtes Verhalten (von der Art der Fragen bis hin zur Sitzhaltung auf einem handelsüblichen Stuhl) im Lichte meines (angestrebten) Berufes zu deuten – oder sollte ich lieber sagen: im Lichte des Berufsbilds, das auf mich projiziert bzw. mir unterstellt wird?

Der zweite Aspekt ist derweil noch direkter mit jenen verzerrten Vorstellungen verbunden und schließt im Grunde nahtlos an die Gleichsetzung von Psychologie und klinischer Psychologie an. Was ich hiermit meine, ist die radikale Unterschätzung der Vielfalt dieses Fachs und die damit verbundene Nicht-Zuschreibung von Kompetenzen und Wissen, die Psychologen in Wirklichkeit aber gerade auszeichnen und sie von anderen Disziplinen wie z.B. der Pädagogik, aber auch der Medizin, abgrenzen. Oft habe ich bei mir persönlich sogar den Eindruck, dass mich diese Nicht-Zuschreibung noch mehr stört als die geschilderten (falschen) Zuschreibungen. Die Bereiche, auf die ich mich hier explizit beziehe, umfassen einerseits methodische Kenntnisse (insbesondere statistisch-mathematischer Art und solche bzgl. des Designs von Untersuchungen im Allgemeinen) und zum anderen eine Reihe von Wissensbereichen, die genuine Domänen der Psychologie darstellen, z.B. das Thema Intelligenz. Am Beispiel der Intelligenzforschung wird ganz besonders anschaulich, wie groß die Diskrepanz zwischen dem Experten- und dem Laienbild der Psychologie tatsächlich ist – ist es doch so, dass die Intelligenzforschung von Expertenseite als eines der größten Flaggschiffe der Psychologie angesehen wird, während der durchschnittliche Laie einen Intelligenztest (aber auch allgemein das Thema Testkonstruktion) in der Regel nicht mit der Psychologie in Verbindung bringen würde. Ähnliches gilt für den großen Bereich der Neurowissenschaften bzw. der Biologischen/Allgemeinen Psychologie, der, obgleich er ein interdisziplinäres Forschungsfeld darstellt, einen bedeutenden Teil des Psychologiestudiums ausmacht, was kaum ein Laie für gewöhnlich bedenkt.

Doch, wie im vorherigen Eintrag bereits im Fazit formuliert: Da sich die Situation mittelfristig eher wenig ändern wird, sind Gelassenheit und vielleicht auch ein Stück Gleichgültigkeit gefragt. Bis dahin werde zumindest ich, sollte mir nicht irgendwann doch der Geduldsfaden reißen, weiter versuchen, meine Freunde sowie (über diesen eigens zu diesem Zweck eingerichteten Blog) die Öffentlichkeit zumindest ein Stück weit darüber aufzuklären, was Psychologie ist – und was nicht.

© Christian Rupp 2014

 

Über die Frustration im Psychologiestudium – und wie sie sich verhindern ließe

Welche Auffassungen von und Einstellungen zur Psychologie als Natur-, Geistes- oder Sozialwissenschaft findet man bei Schüler_innen der Oberstufe? Und in wieweit hängen diese korrekten oder inkorrekten Auffassungen mit dem Wunsch zusammen, nach dem Abitur tatsächlich Psychologie zu studieren? Hierzu möchte ich auf zwei Studien der Erstautorin Dr. Sabine Fischer eingehen, die sich erstens mit den bei Schüler_innen vorliegenden konzeptuellen Vorstellungen bezüglich der Psychologie und zweitens mit Prädiktoren des Wunsches, Psychologie zu studieren, beschäftigten. Die vorgestellten Ergebnisse zur ersten Studie deuteten zum einen darauf hin, dass die befragten Schüler eine weniger naturwissenschaftliche, dafür aber stärker qualitativ-sozialwissenschaftliche Auffassung der Psychologie aufwiesen (im Vergleich zu befragten Experten). Zum anderen schätzten jene Schüler_innen psychologisches Forschungswissen als eher weniger relevant für die Berufspraxis ein. Die zweite Studie ergab derweil, dass das Wissen über den empirisch-experimentellen Charakter der akademischen Psychologie bei Schüler_innen mit starkem gesellschaftswissenschaftlichen Interesse den Wunsch, Psychologie zu studieren, abschwächte – und dass naturwissenschaftliches Interesse sich hingegen nicht auf den Studienwunsch „Psychologie“ auswirkte.

Ich finde diese Ergebnisse zugleich interessant und enorm wenig überraschend. Schließlich ist es auch in meinem Fall noch nicht so viele Jahre her, dass ich den Entschluss fasste, ein Psychologiestudium zu beginnen, sodass ich mich noch gut in die Lage der befragten Oberstufenschüler_innen hineinversetzen kann. Das verzerrte Image der Psychologie macht eben auch vor den Schulen keinen Halt. Woher sollen Oberstufenschüler_innen wissen, dass die akademische Psychologie (um sie einmal von der Alltagspsychologie zu unterscheiden) eine Naturwissenschaft ist, wenn Ihnen im Pädagogik-Leistungskurs Sigmund Freud als Lichtgestalt der Psychologie vorgestellt wird und der Großteil der unterrichtenden Lehrer selbst weder über ein adäquates Konzept der Psychologie noch über eine wissenschaftliche Ausbildung verfügt? Ich erachte dies als ein grundsätzliches Problem in der deutschen Schullandschaft, auf das ich aber an dieser Stelle nicht weiter eingehen möchte, da ich dies bereits in den vorigen zwei Einträgen getan habe.

Die Ergebnisse geben meiner Meinung jedoch noch weitere wichtige Impulse. Der Befund, dass das Wissen um die „wahre Gestalt“ der Psychologie bei geisteswissenschaftlich interessierten Befragten den Studienwunsch schmälerte, ist der Schlüssel zu der Frage, wie man die allgegenwärtige Frustration im ersten Semester des Psychologiestudiums vermeiden könnte. Da ich das große Glück hatte, eine zum damaligen Zeitpunkt schon „fertige“ Psychologin als große Schwester zu haben, hatte ich das Privileg, mit realistischen Erwartungen ins Studium zu starten. Gut, dass es aufgrund des Leistungsdrucks und des extremen Lernaufwands die für mich persönlich schlimmsten fünf Jahre meines Lebens werden würden, habe ich zu Beginn nicht geahnt – dass mich zu Beginn viel Mathematik und Neurophysiologie erwarten würde, wusste ich hierdurch aber immerhin. Ganz im Gegensatz zu den meisten meiner Kommiliton_innen, denen die blanke Enttäuschung nur so ins Gesicht geschrieben stand. So äußerte im zweiten Semester beispielsweise eine Kommilitonin mir gegenüber ihre ausufernde Enttäuschung darüber, dass sie in der Vorlesung zur Allgemeinen Psychologie nichts über Traumdeutung nach Freud erfahren hatte. Dies alles ließe sich vermeiden, wenn man angehende Studierende früh genug so weit informieren würde, dass sie vor Beginn des Studiums wissen, worauf sie sich einlassen (eine Art „informed consent“ also). So könnte man einerseits geisteswissenschaftlich Interessierte eine Enttäuschung und viel unnötige Frustration ersparen und andererseits naturwissenschaftlich Interessierte für die Psychologie begeistern, die andernfalls vielleicht in die Biologie oder die Physik abwandern würden. Allerdings sollte man hierbei auch den (relativ einzigartigen) Umstand positiv hervorheben, dass man als Psychologe sowohl Wissenschaftler als auch Praktiker sein kann (scientist-practioner-Modell). Letzteren Aspekt kann und darf man einfach nicht unter den Tisch kehren, wenn man bedenkt, dass die allermeisten Psychologen nach dem Studium eben – auch wenn sie sicherlich im Beruf von ihrer wissenschaftlichen Ausbildung profitieren – tatsächlich nicht als Wissenschaftler arbeiten, sondern klassischerweise therapeutischen oder beratenden Tätigkeiten nachgehen, weshalb ich hier auch festhalten möchte, dass das verzerrte Image (Psychologe = jemand, dem man seine Probleme erzählt) durchaus nicht völlig aus der Luft gegriffen ist.

Neben solchen schulischen Informationsangeboten (die dringend notwendig sind, da die Psychologie im Schulunterricht in der Regel nicht oder falsch repräsentiert ist) ist es meiner Ansicht nach aber auch Aufgabe der Hochschullehrer und Dozenten – die über all diese Fehlkonzepte schließlich Bescheid wissen – etwas sensibler auf diese zu reagieren. Darunter verstehe ich vor allem, diese Diskrepanzen offen anzusprechen und die Studierenden da abzuholen, wo sie stehen, und sie nicht direkt zu Beginn mit Begriffen, Theorien und Denkweisen zu überschütten, zu denen sie keinerlei Bezug haben und auch nicht haben können. Und letztlich muss es vielleicht ja auch nicht das Ziel sein, geisteswissenschaftlich Interessierte „abzuschrecken“: Warum nicht ein bisschen Energie darauf verwenden, solche Schüler_innen für die Psychologie zu begeistern, indem man ihnen zeigt, was sie alles kann? Denn zu bieten hat sie wahrlich genug.

Ich möchte nun noch kurz eine andere Perspektive beleuchten, und zwar die der Relevanz dieser Vorstellungen über die Psychologie in der beruflichen Praxis. Ich denke nämlich, dass die oben beschriebenen Fehlkonzepte (Psychologe = jemand, der einem zuhört und einen analysiert, etc.) für Psychologen in fast allen beruflichen Bereichen von größter Relevanz sind, da sowohl Klienten, Patienten, Kunden & Co. einen mit von der Realität abweichenden Erwartungen konfrontieren, als auch Kollegen anderer Berufsgruppen (Ärzte, Betriebswirte, Juristen…) oft fehlerhafte Erwartungen an einen hegen. Zentral sind hierbei sicherlich vor allem die Reduktion des Psychologenberufs auf einen Heilberuf und die mangelhafte Kenntnis über die wissenschaftlichen Kenntnisse von Psychologen, worauf sehr wahrscheinlich auch die teilweise geringe Anerkennung oder das Belächeln dieses Berufs zurückzuführen sind. Hierbei handelt es sich zweifelsohne um einen Umstand, der Änderungsbedarf birgt. Da man aber leider in absehbarer Zeit keine für alle psychologischen Laien verpflichtende Grundausbildung in Psychologie wird durchsetzen können, ist man, denke ich, als Psychologe gut bedient, wenn man mit der Zeit eine gewisse Gelassenheit entwickelt, die es einem erlaubt, zumindest jede zweite Couch-Anspielung im Sinne der Achtsamkeit wahrzunehmen, nicht zu bewerten und einfach wie die Wolken am Himmel vorbei ziehen zu lassen.

Sendung mit der Maus & Co.: Was ist und tut Wissenschaft wirklich?

In diesem und in den folgenden Artikeln werde ich auf verschiedene Themen eingehen, mit denen ich mich im Rahmen einer Vorlesung zum Thema „Wissenschaft & Öffentlichkeit“ beschäftigt habe, die ich in meinem – sich nun dem Ende zuneigenden – letzten Studiensemester besucht habe. Es ist daher das erste Mal, dass ich Texte, die auch Teil meiner Studienleistung waren (einem so genannten „Lerntagebuch“) quasi für dieses Blog recycle. Aber da die Vorlesung sich thematisch einfach genau mit den Themen beschäftigte, um die sich auch psycholography dreht, drängte sich diese Option förmlich auf.

In diesem ersten Eintrag soll es darum gehen, was unter dem Begriff der Wissenschaftskommunikation zu verstehen ist und in welchen Fällen es sich im Grunde nicht um Wissenschaftskommunikation per se, sondern vielmehr lediglich um eine Art der Reflexion über die Natur als solches handelt. Als Beispiel für letzteres können z.B. kindgerechte Fernsehformate wie die „Sendung mit der Maus“ und „Wissen macht Ah“ gelten, ebenso wie sich an Erwachsene richtende Formate wie „Quarks & Co.“ oder die Zeitschrift „Geo Wissen“. Was ich an dieser Unterscheidung zwischen „Kommunikation über Wissenschaft“ und „Kommunikation über die Natur“ für so wichtig erachte, ist die Tatsache, dass hiermit unmittelbar die Frage nach dem Bild der Wissenschaft in der Öffentlichkeit bzw. nach der Laien-Definition von „Wissenschaft“ verbunden ist.

Um zu verstehen, warum diese Unterscheidung keineswegs belanglos ist, sollte man sich vor Augen führen, welches Bild die meisten populärwissenschaftlichen Fernseh- und Zeitschriftenformate von der Wissenschaft zeichnen: nämlich das einer Fabrik fertigen Wissens. „Wissenschaftlich belegt“, „wissenschaftlich überprüft“ oder gar „wissenschaftlich bewiesen“ gelten als Aushängeschilder in den Medien ebenso wie in der Produktvermarktung und stellen in den Köpfen der meisten Laien das höchste Qualitätssiegel dar. Im Grunde kann man sich als Wissenschaftler natürlich über ein derartiges Kompliment freuen – werden einem so doch die Rolle der verlässlichsten Quelle von Wissen und nahezu grenzenlose Kompetenz zugeschrieben. Und in einem Punkt trifft diese (implizite) Definition ja auch durchaus zu: In der Tat kann man mit Recht behaupten, dass die empirischen Wissenschaften wohl mit Abstand die verlässlichsten Quellen von Wissen in unserer Welt darstellen – vergleicht man sie z.B. mit esoterischen Lehren oder den verschiedenen Religionen, bei denen das vermeintliche „Wissen“ immer ideologisch determiniert und somit nie objektiv ist. Aber – und das ist der springende Punkt: Auch die Wissenschaft liefert keine fertigen und unumstößlichen Aussagen über die Welt, sie ist keine Produzentin ultimativer Wahrheiten. Noch kann sie (zumindest der Wissenschaftstheorie Carl Poppers folgend) jemals irgendetwas beweisen – ein Punkt, der wohl einen der größten Irrtümer im öffentlichen Bild der Wissenschaft darstellt und dem gleichzeitig das größte Frustrationspotenzial zu Beginn eines naturwissenschaftlichen Studiums innewohnt.

Doch wie erklärt sich eben dieses Frustrationspotenzial? Wenn ich an meinen nun schon viereinhalb Jahre zurückliegenden Studienbeginn zurückdenke, erinnere ich mich gut an eben dieses Gefühl der Frustration und die omnipräsente Frage: „Wozu das ganze?“. In der Tat ist dieses Gefühl der enttäuschten Erwartung und der Verwirrung noch sehr gegenwärtig, wenn ich an die Lektüre von Zeitschriftenartikeln und Lehrbüchern in den ersten Semestern meines Bachelorstudiums zurückdenke. Darüber lesen, was Wissenschaftler X in Studie Y herausgefunden hat, wonach dann aber Forscher A in Studie B das Gegenteil zeigte, sodass die einzige Quintessenz lautet: „Es könnte so sein, es könnte aber auch anders sein – man weiß es nicht“.

In der Schule aber wurde einem durch Lehrer und Schulbücher nun einmal leider vorgegaukelt, dass Wissen über die Natur sich lediglich aufkumuliert, sich aber nicht verändert oder gar widerspricht – eine, wie ich finde, grandiose Veranschaulichung des Unterschieds zwischen „Kommunikation über die Welt“ und „Kommunikation über Wissenschaft“. Eine gelungene Wissenschaftskommunikation besteht meiner Ansicht nach nämlich gerade darin, der Öffentlichkeit – in der Schule beginnend – zu vermitteln, dass Wissenschaft nicht zaubern kann und sich vielmehr als dynamischer Prozess der Wissensgenerierung und Wissensveränderung beschreiben lässt – und dass vermeintlich etabliertes, „festes“ Wissen auch in der Regel nur einen momentan geltenden Konsens unter Wissenschaftlern darstellt. Ein Konsens, der sicherlich fundiert ist, aber keineswegs unantastbar.

Eine weitere Folge des schulischen Lehrplans ist zudem das unvollständige Bild naturwissenschaftlicher Disziplinen, das dadurch vermittelt wird, dass man als Schüler in seiner Laufbahn maximal mit der Mathematik, der Physik, der Chemie, der Biologie – und eventuell noch mit der Informatik konfrontiert wird. Und sollte man mit der Psychologie in Kontakt kommen, dann in der Regel meist doch nicht wirklich, da sich diese leider i.d.R. auf die Freud’schen Lehren beschränkt, die einem im Pädagogik-Leistungskurs präsentiert werden – traurigerweise meistens, ohne die dringend notwendige Kritik an diesen Theorien zu beleuchten. Diese Form von „Bias“ führt unweigerlich zu einer verzerrten Sicht von „Wissenschaft“ in den Köpfen derjenigen Menschen, die nicht gerade ein naturwissenschaftliches Studium hinter sich bringen. Und sie ist gleichsam die Ursache dafür, warum so viele Studienanfänger von der Psychologie zu Beginn (und manchmal noch weit darüber hinaus) so fürchterlich enttäuscht sind: Woher sollen sie denn auch wissen, dass es gar nicht um verdrängte Triebe und Traumdeutung, sondern vielmehr um Regressionsmodelle und Signifikanztests geht?

Das verzerrte Bild von „Wissenschaft“ zu korrigieren, hat in meinem Fall sicherlich mehr als zwei Semester in Anspruch genommen. Und auch, wenn ich bis heute die Meinung vertrete, dass gute Wissenschaft nur eine solche sein kann, die nicht nur sich selbst, sondern allen Menschen in einer gewissen Weise nützt und die sich nicht (wie es in der Psychologie vielerorts der Fall ist) in Belanglosigkeiten verliert, habe ich die Wissenschaft und ihre Möglichkeiten inzwischen definitiv schätzen gelernt. Mein Psychologiestudium hat mir daher nicht nur eine ganz neue Perspektive auf die Erklärung von menschlichem Erleben und Verhalten eröffnet (inklusive der sehr zufriedenstellenden Fähigkeit, besser zu verstehen, warum Menschen so handeln, wie sie handeln), sondern es hat mich noch etwas anderes sehr Wichtiges und Fächerübergreifendes gelehrt: nämlich, woher unser Wissen kommt, wie ich Quellen von Wissen beurteile – und was der Unterschied ist zwischen Glauben und Wissen.

© Christian Rupp 2014

Intelligenz – Teil 2: Die Sicht der wissenschaftlichen Psychologie

Nachdem ich im ersten Artikel zum Thema „Intelligenz“ versucht habe, zu beschreiben, wie die Definition des Konstrukts „Intelligenz“ von Kultur zu Kultur schwankt, soll es in diesem Beitrag nun darum gehen, wie die wissenschaftliche Psychologie die Intelligenz betrachtet und wie sehr auch unter den Experten auf diesem Gebiet die Meinungen hierüber auseinander gehen.

Die Intelligenzforschung nahm ihren Anfang in den ersten Jahrzehnten des 20. Jahrhunderts, initiiert durch Charles Spearman, den ersten Psychologen, der sich der Erforschung dieses Kontrukts widmete. Er war es auch, der das erste Intelligenzmodell formulierte, welches heutzutage unter dem Begriff der „Zweifaktorentheorie der Intelligenz“ bekannt ist. Dieses Modell basiert, wie fast alle anderen Modelle, die im Übrigen grundsätzlich auf Spearmans Modell aufbauen, auf dem Prinzip der Faktorenanalyse, d.h. auf einem statistischen Verfahren, mit dessen Hilfe man anhand typischer Muster von häufig gemeinsam gelösten und gemeinsam nicht gelösten Aufgaben Rückschlüsse über die Formen von Intelligenz ziehen kann, die von einer Gruppe ähnlicher Aufgaben erfordert werden und somit unterschiedliche Subtypen von Intelligenz darstellen.

Nun hat die Faktorenanalyse aber den Nachteil, dass die Ergebnisse, die sie liefert (die so genannte Faktorstruktur) dem Wissenschaftler enorm viel Interpretationsspielraum lassen und man aus dem gleichen statistischen Ergebnis unterschiedliche Modelle über die Struktur der Intelligenz, d.h. ihre verschiedenen Unterformen, ableiten kann. Das Ergebnis sind unterschiedliche hierarchische Modelle, die die sich allem voran in einem ganz wesentlichen Punkt unterscheiden, und zwar der Frage, ob es einen allgemeinen, allen anderen intellektuellen Fähigkeiten übergeordneten, Generalfaktor der Intelligenz (auch g-Faktor oder einfach nur g genannt) gibt – oder ob die verschiedenen Formen der Intelligenz doch voneinander unabhängig sind. Dies hat für die Praxis sehr weitreichende Folgen, hängt es doch genau von dieser Frage ab, ob wir uns bei der Messung der Intelligenz auf einen einzelnen Wert beschränken können oder ob wir differenzierter vorgehen müssen. Auf der zweiten Ebene spaltet die allgemeine Intelligenz sich in einige wenige Unterfaktoren auf, die zumindest teilweise voneinander unabhängig sind, aber dennoch beide auch mit g zusammenhängen. Auf der dritten Ebene gliedern sich diese Unterfaktoren dann wiederum in spezifische intellektuelle Fähigkeiten wie z.B. Wortgewandtheit und logisches Schlussfolgern auf. Damit Ihnen die Vorstellung dieser (immer sehr ähnlich aufgebauten) hierarchischen Modelle etwas leichter fällt, habe ich in der unten stehenden Abbildung einmal selbst ein beispielhaftes Modell erstellt, von dem ich behaupten würde, dass es zwar vereinfacht ist, aber in vielerlei Hinsicht einen derzeit weit verbreiteten Konsens darstellt, nämlich die Annahme eines gewissen g-Faktors, eine Unterscheidung zwischen fluider und kristalliner Intelligenz auf der zweiten Ebene sowie einige typische, diesen beiden Faktoren wiederum unterordnete Subformen intellektueller/kognitiver Fähigkeiten. Worauf die einzelnen Komponenten dieses beispielhaften Modells jeweils zurückgehen, erfahren Sie in den nächsten Abschnitten.

Beispiel für ein hierarchisches Modell
Beispiel für ein hierarchisches Modell

 

Spearman: G thront über allem

Das von Spearman entwickelte Modell ist sowohl das allerälteste als auch dasjenige, das den Begriff des g-Faktors bzw. der „Allgemeinen Intelligenz“ geprägt hat. Spearman interpretierte die aus der Faktorenanalyse resultierenden hohen Korrelationen (= statistische Zusammenhänge) zwischen den Lösungsmustern unterschiedlichster Aufgaben derart, dass es einen solchen Generalfaktor der Intelligenz geben müsse, da, grob gesagt, Personen, die in einem Aufgabenbereich (z.B. räumliches Denken) gut abschnitten, tendenziell auch in anderen Bereichen (z.B. Wortschatz und logisches Schlussfolgern) gute Ergebnisse erzielten. Dieser Generalfaktor, so Spearman, sei die Grundlage aller Leistungen in Intelligenztests, und er beschreibt ihn als die „Fähigkeit, Zusammenhänge wahrzunehmen und daraus Schlüsse zu ziehen“ – kurz: als „mentale Energie“. G untergeordnet sind im Spearman-Modell nur die „spezifischen Fähigkeiten“, die mit s bezeichnet werden und sprachliche, mathematische und räumliche Intelligenz umfassen. D.h. es gibt im Gegensatz zum oben skizzierten Beispielmodell keinerlei mittlere Ebene.

Auf Spearmans Modell basieren mehrere Intelligenztests, die auch heute noch weit verbreitet sind. Man erkennt diese Tests daran, dass sie am Ende die Berechnung eines Intelligenzquotienten ermöglichen, der als Index für das Niveau der Allgemeinen Intelligenz herangezogen wird. Hierzu gehören z.B. alle Tests aus der Wechsler-Reihe (die aktuellsten sind der Wechsler Intelligenztest für Erwachsene, kurz WIE, und der Hamburg Wechsler Intelligenztest für Kinder in seiner 4. Ausgabe, kurz HAWIK-IV) sowie die Raven-Tests, die nur aus Matrizen-Aufgaben („Welches Bild gehört in das leere Kästchen?“) bestehen und zum Ziel haben, unabhängig von Sprache und Kultur abstraktes, nicht angewandtes Denken zu erfassen.

Abgrenzung von Spearman: Thurstone & Cattell

Im Verlauf des 20. Jahrhunderts wurde dann von anderen Psychologen eine Fülle weiterer, meist auf Faktorenanalysen und ihrer Interpretation basierender Intelligenzmodelle entwickelt, die sich, wenn man einmal ehrlich ist, nicht wirklich exorbitant voneinander unterscheiden. Dies hat sicherlich auch damit zu tun, dass sie fast ausnahmslos in Abgrenzung vom Spearman-Modell enstanden sind und sich somit alle in irgendeiner Form hierauf beziehen. Der zweite Grund ist der, dass man in der Wissenschaft leider auch nicht ständig das Rad neu erfinden kann.

Das Primärfaktorenmodell nach Thurstone: Ebenbürtiges Nebeneinander?

Anders als Spearman betrachtete Louis Leon Thurstone die Intelligenz als eine Sammlung von sieben klar voneinander angrenzbaren, also unabhängigen Intelligenzarten. Diese sieben Primärfaktoren sind: Rechenfähigkeit, Auffassungsgeschwindigkeit, schlussfolgerndes Denken, räumliches Vorstellungsvermögen, assoziatives Gedächtnis, Sprachbeherrschung und Wortflüssigkeit. Widergespiegelt wird dies durch den bekannten Intelligenz-Struktur-Test, kurz IST-2000-R, in dem eben nicht ein IQ-Wert am Ende berechnet wird, sondern mehrere. Kritisch an diesem Modell ist anzumerken, dass Thurstone bei seinen Faktorenanalysen in den Augen einiger Wissenschaftler etwas „gepfuscht“ hat, da er anstatt einer orthogonalen eine oblique Faktorenrotation verwendete – mit dem Ergebnis, dass seine sieben Primärfaktoren leider doch nicht völlig unabhängig voneinander sind. Thurstone räumte tatsächlich später ein, dass diese Kritik berechtigt sei, und erkannte einen gewissen g-Faktor als mögliche Ursache dieser Zusammenhänge an.

Die Zweikomponententheorie nach Cattell: Einführung einer mittleren Ebene

Raymond Bernard Cattell hingegen nahm von vornherein einen g-Faktor als oberste Instanz in seinem Intelligenzmodell an, war zugleich aber der erste, der eine mittlere Ebene (wie im obigen Beispielmodell gezeigt) einführte. Auf ihn geht die bis heute weit etablierte und bewährte Unterscheidung zwischen kristalliner (meist abgekürzt c) und fluider Intelligenz (meist abgekürzt f) zurück, in die sich im zufolge die Allgemeine Intelligenz aufspaltet. Unter der fluiden Intelligenz versteht Cattell eine generelle Denk- und Problemlösefähigkeit, die er als weitgehend unabhängig von kulturellen Einflüssen versteht und die eine wichtige Voraussetzung für den Erwerb neuer Informationen darstellt. Nach Cattell ist die fluide Intelligenz ein angeborenes Merkmal, die sich im Laufe des Lebens stabilisiert oder sogar gegen Ende stagniert. Gegenteilig hierzu verhält sich die bis zum Lebensende stetig anwachsende kristalline Intelligenz, die als kumulative Lebenserfahrung zu sehen ist. Dies deutet bereits darauf hin, dass diese sämtliches im Laufe des Lebens erworbenes Wissen, erworbene Fertigkeiten und Kompetenzen umfasst. Diese erachtet Cattell als stark von kulturellen Einflüssen geprägtes und maßgeblich von sprachlichen Fähigkeiten bestimmtes Konstrukt. Fluide und kristalline Intelligenz sind somit, wie es typisch für Elemente der mittleren Ebene ist, insofern nicht gänzlich unabhängig voneinander, als sie durch die „gemeinsame Mutter“ g verbunden sind, und gleichzeitig ist ihr Zusammenhang hinreichend gering, um sie als zwei separate Unterfaktoren zu betrachten. Dabei wird übrigens durchaus angenommen, dass c und f auf vielfältige Weise interagieren: Zum Beispiel wird davon ausgegangen, dass eine gut ausgeprägte fluide Intelligenz den Erwerb von kritalliner Intelligenz in Form von Wissen und Fertigkeiten erleichtert. Cattells Modell ähnelt sehr stark dem von John B. Carroll. Da letzteres keinen meiner Meinung nach wesentlichen Unterschied aufweist, werde ich es an dieser Stelle nicht gesondert beschreiben.

Auch Cattells Theorie ist in die Entwicklung von Intelligenztests eingeflossen. So findet sich (wenn auch nicht explizit so bezeichnet) die Unterteilung in f und c auch im IST-2000-R wieder. Die Tests aus der Wechsler-Serie erfassen typischerweise leicht überwiegend kristalline Intelligenz, während die ebenfalls bereits erwähnten Raven-Tests, ebenso wie die so genannten Culture Fair Tests (kurz CFTs), hauptsächlich fluide Intelligenz messen, um ausdrücklich kulturelle Unterschiede außen vor zu lassen und diesem Sinne „fair“ zu sein.

Nicht-hierarchische Modelle

Neben den hierarchischen Modellen gibt es auch noch ein paar Vertreter, die von verschiedenen Intelligenzformen ausgehen, die unabhängig und sozusagen „gleichberechtigt“ nebeneinander stehen, ohne dass es einen übergeordneten g-Faktor oder untergeordnete Fähigkeiten gäbe. Im Grunde hätte ich an dieser Stelle auch das Primärfaktorenmodell von Thurstone anführen können; da Thurstone aber im Nachhinein einen g-Faktor doch mehr oder weniger eingeräumt hat, findet es sich bei den hierarchischen Modellen.

Mehrdimensionale Modelle: Inhalt, Prozess & Co.

Zu den im Vergleich zu den hierarchischen Modellen fast schon exotisch anmutenden mehrdimensionalen Modellen gehören das Würfelmodell nach Guilford und das Berliner Intelligenzstrukturmodell nach Jäger. Beiden Modellen gemeinsam ist, dass sich eine sehr große Menge unterschiedlicher „Intelligenzen“ ergeben, und zwar als Produkt einiger weniger Faktoren, die unterschiedliche Ausprägungen aufweisen können. Dabei beruhen auch diese Modelle auf Faktorenanalysen und sind somit ein anschaulicher Beleg dafür, auf welch unterschiedliche Weise man die im Prinzip gleiche Datenlage interpretieren kann.

Im Würfelmodell ist es so, dass sich 150 verschiedene Intelligenzarten als Produkt drei verschiedener Faktoren mit wiederum verschiedenen Ausprägungen ergeben. Unter diesen drei Faktoren versteht Guilford den zu verarbeitenden Inhalt (z.B. akustische Reize), den nötigen Vorgang (z.B. Auswertung der akustischen Reize) und das Produkt (z.B. Herausstellung der Implikationen). Das klingt sehr abtrakt, komplex und schwer überprüfbar, was es auch tatsächlich ist. Ähnliches gilt für das Berliner Intelligenzstrukturmodell, bei dem es im Gegensatz zum Würfelmodell nur zwei Faktoren gibt. Zum einen führt Jäger den Faktor „Operationen“ an, als dessen mögliche Ausprägungen er Merkfähigkeit, Bearbeitungsgeschwindigkeit, Einfallsreichtum und Verarbeitungskapazität anführt. Zum anderen gibt es den Faktor „Inhalte“ mit drei Varianten, und zwar bildhaftem, verbalem und numerischem Material. Insgesamt ergeben sich hieraus also 3×4=12 verschiedene Intelligenzformen, abhängig von der Art des zu bearbeitenden Materials und der Art der geforderten mentalen Operation. Jägers Modell enthält daneben übrigens auch noch einen g-Faktor, der in gewisser Weise allen Faktoren und ihren Ausprägungen gleichsam zugrunde liegt.

Die praktische Anwendung dieser Form von Modellen ist schwieriger als bei den oben beschriebenen Modellen, da, wenn man die Modelle ernst nimmt, für alle möglichen Kombinationen von Faktorausprägungen eine geeignete Aufgabe finden muss. Zwar hat Guilford für den Großteil der in seinem Modell postulierten Intelligenzfacetten inzwischen Aufgabentypen vorgeschlagen, dass diese jedoch in einen standardisierten Intelligenztest übertragen wurden, ist mir nicht bekannt. Anders sieht es mit dem (ja doch deutlich sparsameren) Jäger-Modell aus, welches in Form des Berliner Intelligenzstruktur-Tests (kurz BIS) Anwendung findet.

Gardners Theorie der Multiplen Intelligenzen: Ein Plädoyer gegen G

In den 1980er Jahren veröffentlichte Howard Gardner seine Theorie der Multiplen Intelligenzen und wetterte gewaltig gegen das Konzept der Allgemeinen Intelligenz bzw. den g-Faktor. Er argumentierte, dass klassische Intelligenztests nicht imstande wären, die Fülle an kognitiven Fähigkeiten, über die ein Mensch verfügen kann, zu erfassen, und schlug ein Modell mit sieben voneinander unabhängigen und nicht durch einen übergeordneten g-Faktor bestimmten Intelligenzfacetten vor. An diesem, ebenfalls auf Faktorenanalysen basierenden Modell ist, neben der Tatsache, dass die Unabhängigkeit der Intelligenzfacetten nicht belegt ist, zu kritisieren, dass es eine große Überlappung mit dem (lange vorher veröffentlichten) Thurstone-Modell aufweist (allein schon, was die Zahl der Faktoren angeht). So finden sich bei Gardner u.a. auch die logisch-mathematische, die sprachliche und die bildlich-räumliche Intelligenz. Neu sind allerdings vier Faktoren, die eher den Fokus auf künstlerische und sozio-emotionale Fähigkeiten legen, nämlich die musikalisch-rhythmische, die körperlich-kinästhetische (Einsatz des eigenen Körpers), die interpersonale (Verstehen von und Umgang mit anderen Menschen) und die intrapersonale Intelligenz (Verständnis seinerselbst). Insbesondere die letzten beiden Intelligenzarten sind in der Psychologie inzwischen anerkannte Konstrukte, werden jedoch eher nicht direkt als Form von Intelligenz betrachtet, sondern unter dem Begriff „sozio-emotionale Kompetenz“ zusammengefasst (im Volksmund und in Klatschzeitschriften erfreuen sich allerdings die Begriffe „emotionale Intelligenz“ und „soziale Intelligenz“ allerdings weiter Verbreitung) und als etwas erachtet, das in der Regel in der Kindheit und in der Interaktion mit anderen Menschen erworben wird und eher nicht angeboren ist. Zu diesem Konstrukt gehören z.B. u.a. die Fähigkeit, die Perspektive anderer einzunehmen (Theory of Mind), die Fähigkeit, die emotionale Lage anderer nachzuempfinden (Empathie), das Bewusstsein über eigene emotionale Vorgänge, Wege der Emotionsäußerung und das Bewusstsein über die Wirkung der eigenen Emotionen auf andere sowie die Fähigkeit zur Regulation der eigenen Emotionen.

Sternbergs Triarchisches Modell: Radikale Abkehr vom Hierarchie-Gedanken?

Das von Robert Sternberg postulierte Triarchische Modell, auch bekannt unter dem Namen Komponentenmodell, basiert auf der Informationsverarbeitungstheorie, die, grob gesagt, die menschliche Kognition als Informationsverarbeitungsprozess betrachtet, und gibt vor, eine radikale Abkehr von hierarchischen Strukturen und der Annahme voneinander abgrenzbarer Faktoren darzustellen. Es ist daher auch das einzige bekannte Intelligenzmodell, das nicht auf Faktorenanalysen beruht. Sternberg prägte hiermit auch eine neuartige Definition von Intelligenz und nannte als Teile der Definition die Elemente „Lernen aus Erfahrung“, „abstraktes Schlussfolgern“, „die Fähigkeit, sich einer sich ständig weiterentwickelnden und verändernden Umwelt anzupassen“ und „die Motivation, überhaupt neues Wissen bzw. Fertigkeiten zu erlangen“. Die ersten beiden Aspekte überlappen stark mit der kristallinen und der fluiden Intelligenz, die beiden letzten hingegen sind in der Tat relativ neu und haben bisher kaum Eingang in die Messung von Intelligenz gefunden.

Die eigentliche Intelligenztheorie von Sternberg ist hingegen sehr komplex und meiner Ansicht alles andere als leicht verständlich. Ich wage auch, die kühne Behauptung aufzustellen, dass sich diese Theorie kaum prägnant zusammenfassen lässt, weil sie sich teilweise in Einzelheiten verliert. Daher möchte ich mich darauf beschränken, einige meiner Meinung nach wichtige Teilaspekte der Theorie herauszustellen. Zunächst wird, abgeleitet von der Informationsverarbeitungstheorie, die wichtige Unterscheidung getroffen zwischen der Art des ablaufenden kognitiven Prozesses, der Genauigkeit, mit dem dieser abläuft, und der Art der mentalen Repräsentation, die diesem Prozess zugrunde liegt (z.B. bildliches oder sprachliches Material). Insofern erinnert es es schon an dieser Stelle stark an die oben beschriebenen mehrdimensionalen Modelle. Dann verliert sich die Theorie (meiner Auffassung nach) in mehr und mehr Unter-Theorien, die einen eher geringen Erklärungswert haben und darüber hinaus mehr Ähnlichkeit mit den bereits beschriebenen Modellen haben, als man eigentlich aufgrund der revolutionären Aura der Theorie erwarten würde. Wirklich eingängig ist mir lediglich die „Komponenten-Subtheorie“, die drei Intelligenzkomponenten beschreibt und im Gegensatz zum Rest relativ anschaulich ist. Und zwar stellt Sternberg hier die analytische Intelligenz (abstrakte Denkprozesse, die einer Problemlösung vorausgehen), die praktische Intelligenz (Lösung von Problemen durch Anpassung an die Umwelt, Formung einer Umwelt oder Auswahl einer passenden Umwelt) und die kreative Intelligenz (Nutzen von Erfahrungen zur Lösung von Problemen) dar. Diese, so Sternberg, seien aber nicht in ein hierarchisches System eingebunden und stellten auch keinerlei Intelligenzfaktoren im klassischen Sinne dar – vielmehr seien sie eine Beschreibung dessen, was die Intelligenz leisten muss. Was genau er damit meint, und in wiefern dieser Gedanke sich wirklich von den beschriebenen hierarchischen oder mehrdimensionalen Modellen unterscheidet, bleibt zumindest mir unklar. Fest steht, dass Sternberg keinen g-Faktor anerkennt – doch dies allein ist, wie ich ausführlich dargestellt habe, nichts Revolutionäres.

Fazit

Was ich hoffe, vermittelt zu haben, ist, dass es derzeit kein allgemeingültiges und eindeutiges Verständnis dessen gibt, was „Intelligenz“ ist, in wie vielen verschiedenen Formen sie vorliegt und ob es einen allem übergeordneten g-Faktor gibt. Wenn man sich die empirische Evidenz anschaut, muss man allerdings zugeben, dass die Existenz einer Allgemeinen Intelligenz bzw. eines solchen g-Faktors sehr wahrscheinlich ist, da sich die starken Zusammenhänge zwischen unterschiedlichsten Intelligenztestaufgaben nicht einfach so wegdiskutieren lassen. Weitere Evidenz für dieses Konstrukt der Allgemeinen Intelligenz findet sich übrigens auch aus der Anwendungsforschung, z.B. aus der Arbeits- und Organisationspsychologie, die ergeben hat, dass die Allgemeine Intelligenz mit Abstand der bester Prädiktor von Berufserfolg ist (Näheres dazu hier). Andererseits gibt es auch Belege, die deutlich zeigen, dass sich mit g auch nicht alles erklären lässt und eine Unterteilung auf unterer Ebene durchaus Sinn macht – so gilt die Unterscheidung zwischen kristalliner und fluider Intelligenz z.B. als gut belegt.

Für mich persönlich bedeutet dies, dass die „Wahrheit“ (sollte es diese denn geben) am ehesten durch ein Modell abgebildet wird, das dem von Cattell bzw. Carroll ähnelt – vom Konzept also einem solchen, wie Sie es in der obigen Abbildung finden. Bedenken Sie aber, dass all diese Modelle im Wesentlichen unterschiedliche Interpretationen der weitgehend gleichen Sachlage sind und somit automatisch auch von der jeweiligen Ideologie geprägt sind, die ein Forscher vertritt (z.B. bzgl. der Frage, ob es einen g-Faktor geben darf). Und nicht zu vergessen ist auch, dass die Modelle sich, wenngleich sie sich alle natürlich als neuartig und daher wichtig darstellen, im Grunde nicht besonders stark unterscheiden – wenn man einmal genau nachdenkt.

Im nächsten Teil wird es um die Fragen gehen, was es mit dem Intelligenzquotienten auf sich hat, wie Intelligenz in der Bevölkerung verteilt ist und ob es stimmt, dass wir immer intelligenter werden.

© Christian Rupp 2014

Warum werden Menschen abhängig? – Die psychosoziale Seite.

In diesem zweiten Teil soll es um die Frage gehen, welche psychischen und sozialen Faktoren die Entwicklung einer Abhängigkeitserkrankung bedingen. Hierzu habe ich vier Aspekte herausgegriffen, die mir als die wichtigsten erscheinen.

Veränderte Selbstwahrnehmung

Zu diesem Punkt liegen verschiedene Theorien vor, deren Gemeinsamkeit darin besteht, dass sie davon ausgehen, dass Alkoholkonsum zu einer veränderten Wahrnehmung der eigenen Person führt und so z.B. bei sozial ängstlichen Personen bewirkt, dass diese sich weniger schüchtern und offener in soziale Interaktionen begeben.

So postuliert z.B. die Self Awareness-Theorie, dass Alkohol die selbstbezogene Aufmerksamkeit verändert. Generell gilt: Je höher die selbstbezogene Aufmerksamkeit, desto besser stimmen externe und interne Verhaltensstandards überein, d.h. umso mehr orientiert sich das eigene Verhalten an gesellschaftlichen Normen. Unter Alkoholeinfluss reduziert sich laut dieser Theorie die Aufmerksamkeit auf die eigene Person, und in der Folge verhalten sich Menschen eher entgegen jener Normen – d.h. sie tun Dinge, die ihnen unter intakter Selbstaufmerksamkeit viel zu peinlich wären (auf dem Tisch tanzen, den Chef auf einer Betriebsfeier anbaggern, etc.). Zu dieser Theorie ist die empirische Befundlage leider sehr mager, sodass sie nicht als bestätigt angesehen werden kann.

Die Alcohol-Myopia-Theory besagt derweil, dass Alkohol dazu führt, dass bei der Entscheidung, welchem von zwei Handlungsimpulsen aus der Umwelt man folgt (z.B. auf der Betriebsfeier eher hemmungslos abtanzen oder sich aufgrund der Anwesenheit des Chefs eher zurückzuhalten)  immer derjenige gewählt wird, der weniger kognitive Verarbeitung erfordert und der am meisten hervorsticht. In diesem Beispiel wäre der dominierende Impuls „Party“, und die Verarbeitung des weniger hervorstechenden Aspekts „Chef ist anwesend“ würde aufgrund des Alkoholkonsums unterdrückt, sodass der erste Impuls das Verhalten steuert und man beispielsweise wild auf dem Tisch tanzt. Für diese Theorie liegen tatsächliche einige Belege vor.

Das Appraisal-Disruption-Modell besagt etwas sehr Ähnliches. Es geht davon aus, dass Alkohol verhindert, dass bei der Wahrnehmung eines bestimmtes Reizes in der Umwelt (z.B. „Chef da drüben“) die damit assoziierten Aspekte im Gedächtnis („nicht blamieren“) aktiviert werden, was aber für eine adäquate Bewertung des Reizes und somit angemessenes Verhalten unerlässlich ist. Die Theorie sagt somit aber vorher, dass Alkohol sich nur dann auf Selbstwahrnehmung und Sozialverhalten auswirken sollte, wenn er konsumiert wird, bevor man mit dem zu bewertenden Reiz konfrontiert wird (da er sich nur dann auf die Aktivierung im Gedächtnis auswirken kann) – eine Vorhersage, die bislang nicht bestätigt wurde.

Insgesamt kann man die Forschungsergebnisse zum Aspekt der veränderten Selbstwahrnehmung so zusammenfassen: Als bestätigt gilt, dass Alkoholkonsum die Selbstwahrnehmung verbessert, was man z.B. daran erkennt, dass sich Probanden nach dem Konsum von Alkohol positivere Eigenschaften zuschreiben (gemessen mit dem so genannten Impliziten Assoziationstest). Weiterhin wurde die Frage untersucht, ob sich durch Alkoholkonsum tatsächlich die soziale Ängstlichkeit reduziert. Hier konnte gezeigt werden, dass sozial ängstliche Probanden nach Alkoholkonsum und der Ankündigung, z.B. vor anderen eine Rede halten zu müssen, zwar subjektiv weniger Angst und Stress angaben, dies aber nicht durch objektive physiologische Messwerte, die mit Angstreaktionen einhergehen (Herzrate, Hautleitfähigkeit…) widergespiegelt wurde. Insgesamt ist aber gerade aufgrund der subjektiv wahrgenommenen Angstreduktion davon auszugehen, dass die leichter fallende Interaktion mit anderen bei sehr schüchternen Personen einen wesentlichen Beitrag dazu leistet, dass sich eine Abhängigkeit entwickelt – was dazu passt, dass sich bei Patienten mit einer sozialen Phobie häufig sekundär eine Alkoholabhängigkeit entwickelt.

Suchtbezogene Grundannahmen

Dieser Aspekt beruht auf der kognitiven Theorie bzw. der kognitiven Therapie nach Aaron Beck, der als Kern der Abhängigkeit bestimmte kognitive Strukturen (Überzeugungen, Grundannahmen) ansieht, die sich aus den Erfahrungen des Individuums in der Vergangenheit gebildet haben. Suchtbezogene Grundannahmen haben gemeinsam, dass die allesamt die Vorteile des Alkoholkonsums betonen. So könnten typische Annahmen z.B. lauten: „Ohne Alkohol kann ich keinen Spaß haben“, „Ohne Alkohol kann ich nicht entspannen“, „Ohne Alkohol wirke ich nicht attraktiv“, „Nur mit Alkohol kann ich mich ohne Angst mit Fremden unterhalten“ oder „Nur mit Alkohol komme ich auf richtig gute Ideen“. Wie man sieht, können diese Annahmen vielfältig sein und natürlich auch die Aspekte der oben beschriebenen veränderten Selbstwahrnehmung beinhalten.

Das Modell nach Beck sieht nun vor, dass diese Grundannahmen in Risikosituationen (wie z.B. einer generell schlechten Stimmung) aktiviert werden, was dann bestimmte automatische Gedanken auslöst (z.B.: „Geh los und trink was“). Dies erzeugt dann starkes Verlangen nach der Substanz (hier Alkohol), was schließlich zu einem erlaubniserteilenden Gedanken führt („Mir bleibt nichts anderes übrig als zu trinken, weil niemand da ist, mit dem ich reden könnte“) – und letztlich zum erneuten Alkoholkonsum.  In der Therapie bestünde daher ein wichtiger Ansatz darin, diese Grundannahmen durch Techniken der kognitiven Therapie zu verändern.

Abstinenz-Verletzungssyndrom

Dieser recht unschöne Begriff bezeichnet ein Phänomen, das bei abhängigen Patienten häufig nach einem Rückfall auftritt, nachdem sie es bereits einige Zeit geschafft haben, abstinent zu sein, also nichts von der Substanz zu konsumieren.  Das Abstinenz-Verletzungssyndrom (kurz AVS) ist gekennzeichnet durch starke Resignation und Minderwertigkeitsgefühle auf Seiten des Patienten, der den Rückfall als Beleg für die eigene Schwäche wertet – sowie dafür, ein Versager zu sein. Typische Gedanken, die Patienten in solchen Situationen häufig kommen, sind: „Ich bekomme es einfach nicht hin, mit dem Trinken aufzuhören“, „Dass ich einen Rückfall hatte, zeigt, dass ich dafür einfach zu schwach bin“ und „Im Prinzip kann ich gleich aufhören, es weiter zu versuchen und wieder trinken wie bisher“. Daraus erklärt sich die große Gefahr, die das AVS birgt – nämlich wieder komplett in das alte Trinkverhalten zurückzuverfallen, „weil man es ja eh nicht schafft, ganz aufzuhören“. In der Therapie ist es daher enorm wichtig, zwischen einem einmaligen Rückfall (im Englischen „lapse“) und einem wirklichen Rückfall in das alte Trinkmuster (im Englischen „relapse“) zu unterscheiden und dem Patienten klar zu machen, dass es gerade wichtig ist, nach einem lapse nicht in einen relapse zu verfallen. Tatsächlich brauchen die meisten Patienten 4-5 Anläufe, bis es dauerhaft mit der Abstinenz klappt – eine Erkenntnis, die für Patienten sehr entlastend sein kann.

Veränderungen in der Familie

Zuletzt möchte ich noch auf einige soziale Aspekte eingehen, die die mit einer Abhängigkeitserkrankung einhergehenden Veränderungen in der Familie des Patienten betreffen. So kommt es infolge der Abhängigkeit häufig dazu, dass sich die Familie nach außen hin abschottet – in der Regel aus Scham und der Angst, von Verwandten, Freunden und Bekannten abgewertet zu werden. Die dadurch weniger werdenden sozialen Kontakte brechen somit als wichtige Ressource weg, was der Patient typischerweise durch gesteigerten Konsum kompensiert.

Hinzu kommt, dass in den betroffenen Familien das Thema „Abhängigkeit“ oft lange Zeit vermieden und mit aller Mühe versucht wird, es z.B. vor Partner oder Kindern zu verheimlichen. Selbst wenn jeder Bescheid weiß, wird das Thema oft lieber totgeschwiegen als offen angesprochen, meist aus Unsicherheit und Hilflosigkeit der Familienmitglieder. Zudem kommt es häufig vor, dass z.B. Partner dem Abhängigen sogar entgegenkommen, indem sie beispielsweise Alkohol besorgen – natürlich in dem Bestreben, dem geliebten Partner in seinen Qualen behilflich zu sein. Hierdurch passiert natürlich langfristig das Gegenteil: Die Abhängigkeit wird aufrecht erhalten, und die Lage spitzt sich zu.

Letztlich kommt es in solchen Familien auch oft zu gravierenden Veränderungen der Rollenverteilung, z.B. wenn ein älteres Kind die Mutterrolle für jüngere Geschwister übernimmt, weil die alkoholabhängige Mutter nicht mehr in der Lage ist, für ihre Kinder zu sorgen. Solche Veränderungen halten nicht nur die Abhängigkeitserkrankung aufrecht, sondern sind außerdem hochgradig ungünstig für die Entwicklung der betroffenen Kinder. Deshalb gehört zu einer allumfassenden Therapie von Abhängigkeitserkrankungen immer auch der Einbezug der Familienmitglieder und die genaue Betrachtung der sozialen Bedingungen, in denen sich der Patient befindet.

Fazit

Wie ich in diesem und dem vorherigen Artikel hoffentlich habe zeigen können, sind die Ursachen dafür, warum Menschen eine Abhängigkeit entwickeln, sehr vielfältig – und nur durch die Berücksichtigung sowohl biologischer als auch psychischer und sozialer Aspekte lässt sich diese sehr ernste Erkrankung überhaupt verstehen.

© Christian Rupp 2013

Wirken alle Formen von Psychotherapie eigentlich gleich gut? Das Dodo-Bird-Verdict.

Zu dem folgenden Artikel wurde ich inspiriert durch einen am 3. Juni diesen Jahres in der taz veröffentlichten Zeitungsartikel zum Thema Psychotherapie. Eigentlich handelte er von den zahlreichen Hindernissen, die Patienten, die eine Psychotherapie in Anspruch nehmen möchten, in Deutschland überwinden müssen (aufgrund der chronischen Unterversorgung). Mitten im letzten Abschnitt fand sich aber dann eine These, die so, wie sie dort dargestellt wurde, definitiv nicht zutrifft. Diese lautete:

„Das am besten belegte Ergebnis der Psychotherapieforschung, auch als ‚Dodo Bird effect‘ bekannt, ist nämlich, dass alle Therapien gleich gut wirken. Eine Überbetonung der Methode ist sogar eher kontraproduktiv.“

Zunächst einmal: Der Name „Dodo-Bird-Effect“, in der Forschung meist als „Dodo-Bird-Verdict“ bezeichnet, ist, so seltsam er klingen mag, tatsächlich noch das Korrekteste in diesen ganzen zwei Sätzen. Der Begriff, der ursprünglich als Satire gemeint war, hat tatsächlich seinen Ursprung bei „Alice im Wunderland“, wo in einer Geschichte ein Dodo den Vorschlag macht, ein Rennen zu veranstalten, bei dem am Ende alle gewinnen, weil es kein Ziel gibt und auch die Zeit nicht gemessen wird. In der Psychotherapieforschung bezeichnet die Metapher derweil tatsächlich die These, dass alle Formen von Psychotherapie (eine Beschreibung der wichtigsten finden Sie hier) eigentlich gleich wirksam sind und es deshalb nicht auf spezifische Therapieinhalte (so genannte Interventionen) wie z.B. Konfrontationsübungen, kognitive Umstrukturierung (Veränderung von Denkmechanismen) oder ein Training sozialer Kompetenzen ankommt, sondern Psychotherapie ausschließlich über so genannte „unspezifische“ Faktoren wirkt. Zu letzteren zählen vor allem die Qualität der therapeutischen Beziehung und das Ausmaß, in dem der Therapeut dem Patienten gegenüber empathisch ist, eine akzeptierende Haltung einnimmt und ihn  allgemein unterstützt.

Belege dafür

Dass eine nicht unwesentliche Zahl von Therapieforschern und praktisch tätigen Therapeuten die Sichtweise des Dodo-Bird-Verdict teilt, kommt nicht von ungefähr. Vermeintliche Belege hierfür stammen aus den Untersuchungen von Luborsky und Kollegen aus den Jahren 1975 und 2002. In beiden Artikeln trägt die Forschergruppe eine große Zahl von Studien zusammen, die systematisch jeweils zwei Therapieformen miteinander verglichen haben, z.B. kognitive Verhaltenstherapie und tiefenpsychologisch fundierte Psychotherapie. In solchen Studien wird dann der Unterschied der Wirksamkeit meist in der Einheit „Cohen’s d“ (einem statistischen Effektstärkenmaß) angegeben. Zur Orientierung: Hierbei spiegeln d-Werte von 0,2 einen kleinen, solche von 0,5 einen mittleren und von 0,8 einen großen Unterschied wider. Schon 1975 konnte die Forschergruppe um Luborsky durch das Zusammentragen solcher Studien zeigen, dass bei den meisten dieser Studien nur sehr kleine und zudem statistisch nicht signifikante Unterschiede zwischen verschiedenen Therapieformen resultieren. 2002 berechnete dieselbe Forschergruppe dann im Rahmen einer Metaanalyse den mittleren Unterschied über sämtliche solche direkten Vergleichsstudien hinweg und kam auf einen Wert von 0,2. Die Schlussfolgerung war: Die Unterschiede zwischen verschiedenen Therapieformen sind so gering, dass sie zu vernachlässigen sind.

Kritik an den Luborsky-Studien

Allerdings kann man an sehr vielen Punkten Kritik an der Vorgehensweise dieser Forschergruppe üben. Die wesentlichsten Punkte seien hier kurz genannt:

  • Die Autoren differenzierten die Ergebnisse nicht nach der jeweiligen Störung, die behandelt wurde, sondern mittelten über alle Störungen hinweg.
  • Unterschiede innerhalb einer Therapieform (z.B. der tiefenpsychologisch fundierten Psychotherapie) wurden ignoriert.
  • Es wurden viele Studien eingeschlossen, die die Therapieformen nicht an klinisch kranken Probanden verglichen, sondern an gesunden Probanden mit leichten psychischen Auffälligkeiten (so genannte Analogstichproben) – dies mindert die Aussagekraft.
  • Die Autoren schlossen viele Studien mit kleinen Stichprobenumfängen ein, was es aus statistischen Gründen stark erschwert, etwaige Unterschiede zwischen den Therapieformen überhaupt signifikant nachweisen zu können.
  • Durch die Einschränkung auf Studien, die zwei Therapieformen direkt miteinander verglichen haben, bleiben viele wichtige Befunde aus randomisierten kontrollierten Studien unberücksichtigt.

Belege dagegen

Spezifische Interventionen wirken über unspezifische Wirkfaktoren hinaus

Die Psychotherapieforschung hat zwei wesentliche Befunde vorzuweisen (die aber nicht mit der im taz-Artikel aufgestellten Behauptung übereinstimmen): Erstens, dass die oben beschriebenen unspezifischen Wirkfaktoren (vor allem die Qualität des therapeutischen Arbeitsbündnisses bzw. der therapeutischen Beziehung sowie Empathie & Akzeptanz auf Seiten des Therapeuten) tatsächlich stark mit dem Erfolg der Therapie zusammenhängen. Der Effekt dieser Faktoren auf den Therapieerfolg liegt, statistisch ausgedrückt, immerhin bei einem d-Wert von 0,5 (mittlerer Effekt), wie sich aus einer Vielzahl von Studien ergeben hat. Vor allem sind dies randomisierte kontrollierte Studien mit einer Placebo-Kontrollgruppe, wo die Behandlung in der Placebo-Gruppe eben ausschließlich darin besteht, dass der Therapeut diese unspezifischen Wirkfaktoren umsetzt. Diese Placebo-Behandlung zeigt gegenüber Kontrollgruppen ohne jegliche Behandlung bereits gute Therapieeffekte, aber: Sie sind gleichzeitig meist der Experimentalgruppe, die die Behandlung mit der spezifischen Intervention erhält, unterlegen. Um das ganze mit Leben zu füllen, soll ein kleines Beispiel herhalten: So könnte man z.B. bei Angststörungen drei Therapiebedingungen vergleichen: Eine Gruppe erhält gar keine Behandlung, die zweite eine Placebo-Behandlung (empathischer, aktiv zuhörender Therapeut, Vermittlung von Informationen über Angst, allgemeine Unterstützung) und die dritte eine Konfrontationstherapie (spezifische Intervention zusätzlich zu den auch hier vorhandenen unspezifischen Faktoren). Der Vergleich mit der Gruppe ohne Behandlung ergibt den Effekt wieder in der Einheit „Cohen’s d“: Es ergibt sich z.B. ein Effekt von 0,5 für die Placebogruppe, aber einer von 1,2 für die Konfrontationsgruppe (was durchaus realistische Zahlen sind). Fazit hier wäre (und dies entspricht der Realität): Unspezifische Faktoren verbessern die Angst, aber spezifische Interventionen verbessern sie mehr.

Wenn man nicht nur direkte Vergleiche betrachtet…

Und wenn man eben solche Studienergebnisse mit betrachtet und sich nicht auf direkte Vergleichsstudien einengt, dann ergeben sich durchaus betachtliche Unterschiede zwischen Therapieformen. So konnte z.B. in einer Metaanalyse von Hoffman und Smits (2008) gezeigt werden, dass bei der posttraumatischen Belastungsstörung eine traumafokussierte Psychotherapie (ebenso wie Eye Movement Desensitisation and Reprocessing, kurz EMDR) einer nicht-traumafokussierten Psychotherapie, die auf die Konfrontation mit dem Trauma verzichtet, deutlich überlegen ist. Anders als in den Luborsky-Studien beruhte dieses Ergebnis derweil nicht auf dem gemittelten Unterschied zahlreicher direkter Vergleichsstudien, sondern auf einer großen Zahl von pro Therapieform zusammengetragenen einzelnen randomisierten kontrollierten Studien.

Auf die Störung kommt es an

Dieser Aspekt ist der wohl wichtigste und für die Praxis relevanteste. Ob Therapieformen gleich gut wirken oder nicht, hängt ganz maßgeblich davon ab, welche Störung wir betrachten. Dies konnte sehr eindrucksvoll von Tolin (2010) gezeigt werden, der interessanterweise die gleiche Methode wie die Gruppe um Luborsky verwendete, sich also nur auf direkte Vergleiche beschränkte, und zwar auf direkte Vergleiche jeweils zwischen kognitiver Verhaltenstherapie (KVT) und anderen Therapieformen. Gemittelt kommt Tolin auch auf einen gemittelten Unterschied von 0,2. Aber: Der Unterschied ist für verschiedene Störungen unterschiedlich hoch (auch wieder gemessen in d-Einheiten). Während die Art der Therapie z.B. bei Essstörungen und Substanzabhängigkeiten tatsächlich kaum eine Rolle spielt (d=0,15 bzw. 0), liegt der gemittelte Unterschied bei der Depression im mittleren Bereich von 0,2, während er bei Persönlichkeits- und Angststörungen deutlich höher ausfällt, nämlich bei 0,34 bzw. 0,43 liegt. Letzteres Ergebnis stützt den Befund aus Therapiestudien, dass bei Angststörungen generell Therapien mit Konfrontationselementen solchen ohne bezüglich der Wirksamkeit überlegen sind. Die Ergebnisse sind also insgesamt so zu verstehen, dass andere Therapieformen der KVT entweder ebenbürtig (d=0) oder unterlegen (d>0) sind.

Die Unterschiede zeigen sich in der langfristigen Wirkung

Ein weiteres Ergebnis der Metaanalyse von Tolin betrifft die Unterschiede in der langfristigen Wirkung. Der gemittelte Unterschied von 0,2 bezieht sich lediglich auf den Vergleich der Symptomverbesserung direkt im Anschluss an die Therapie („post-treatment„). Legt man hingegen die Messungen der Symptomschwere 6 bzw. 12 Monate nach Ende der Therapie zugrunde (so genannte follow-up-Messungen), so ergeben sich über alle Störungen hinweg gemittelte Unterschiede von 0,47 bzw. 0,34. Hieraus kann man den wichtigen Schluss ziehen, dass sich die Unterschiede in der Wirkung verschiedener Psychotherapieformen vor allem auf die nachhaltige Wirkung beziehen, wo gemäß der Metaanalyse von Tolin die KVT nachweislich besser abschneidet als andere Verfahren.

Spezifische Psychotherapie wirkt nicht bei jedem Problem gleich

Anhänger des Dodo-Bird-Verdicts führen, wie oben beschrieben, das Argument an, dass Psychotherapie alleinig über unspezifische Wirkfaktoren wirkt. Dass das nicht stimmt, belegen zwar bereits sämtliche randomisierten kontrollierten Studien mit einer Placebo-Kontrollgruppe (siehe oben), es spricht aber noch ein anderer konsistenter Befund dagegen: Nämlich der, dass eine Psychotherapie im intendierten Störungsbereich stärkere Effekte erzielt als in anderen. Konkret bedeutet dies, dass sich z.B. ein depressionsspezifisches Therapieelement stärker auf Depressivität als beispielsweise auf Angst auswirkt, was nicht so sein sollte, wenn laut Dodo-Bird-Anhängern jede Therapie gleich gut bei allem wirkt.

Fazit

Pauschal zu sagen, dass alle Therapieformen gleich wirken, ist gemäß der Befundlage nicht möglich. Es gibt unspezifische Wirkfaktoren, die nahezu bei jeder Therapieform gleich sind und die auch bereits einen nicht zu vernachlässigenden Effekt bewirken. Aber: Spezische Interventionen sind diesen bei vielen Störungen und vor allem bezüglich der Nachhaltigkeit der Wirkung überlegen, was erklärt, dass eben nicht alle Psychotherapieformen als gleich gut einzustufen sind. Und übrigens: Für den zweiten Teil der Aussage aus dem taz-Artikel („Eine Überbetonung der Methode ist sogar eher kontraproduktiv.„) liegen noch viel weniger Belege vor. Mit anderen Worten: Auch bei der taz ist man vor nachlässiger Rechercheleistung nicht sicher.

© Christian Rupp 2013