Intelligenz – Teil 2: Die Sicht der wissenschaftlichen Psychologie

Nachdem ich im ersten Artikel zum Thema „Intelligenz“ versucht habe, zu beschreiben, wie die Definition des Konstrukts „Intelligenz“ von Kultur zu Kultur schwankt, soll es in diesem Beitrag nun darum gehen, wie die wissenschaftliche Psychologie die Intelligenz betrachtet und wie sehr auch unter den Experten auf diesem Gebiet die Meinungen hierüber auseinander gehen.

Die Intelligenzforschung nahm ihren Anfang in den ersten Jahrzehnten des 20. Jahrhunderts, initiiert durch Charles Spearman, den ersten Psychologen, der sich der Erforschung dieses Kontrukts widmete. Er war es auch, der das erste Intelligenzmodell formulierte, welches heutzutage unter dem Begriff der „Zweifaktorentheorie der Intelligenz“ bekannt ist. Dieses Modell basiert, wie fast alle anderen Modelle, die im Übrigen grundsätzlich auf Spearmans Modell aufbauen, auf dem Prinzip der Faktorenanalyse, d.h. auf einem statistischen Verfahren, mit dessen Hilfe man anhand typischer Muster von häufig gemeinsam gelösten und gemeinsam nicht gelösten Aufgaben Rückschlüsse über die Formen von Intelligenz ziehen kann, die von einer Gruppe ähnlicher Aufgaben erfordert werden und somit unterschiedliche Subtypen von Intelligenz darstellen.

Nun hat die Faktorenanalyse aber den Nachteil, dass die Ergebnisse, die sie liefert (die so genannte Faktorstruktur) dem Wissenschaftler enorm viel Interpretationsspielraum lassen und man aus dem gleichen statistischen Ergebnis unterschiedliche Modelle über die Struktur der Intelligenz, d.h. ihre verschiedenen Unterformen, ableiten kann. Das Ergebnis sind unterschiedliche hierarchische Modelle, die die sich allem voran in einem ganz wesentlichen Punkt unterscheiden, und zwar der Frage, ob es einen allgemeinen, allen anderen intellektuellen Fähigkeiten übergeordneten, Generalfaktor der Intelligenz (auch g-Faktor oder einfach nur g genannt) gibt – oder ob die verschiedenen Formen der Intelligenz doch voneinander unabhängig sind. Dies hat für die Praxis sehr weitreichende Folgen, hängt es doch genau von dieser Frage ab, ob wir uns bei der Messung der Intelligenz auf einen einzelnen Wert beschränken können oder ob wir differenzierter vorgehen müssen. Auf der zweiten Ebene spaltet die allgemeine Intelligenz sich in einige wenige Unterfaktoren auf, die zumindest teilweise voneinander unabhängig sind, aber dennoch beide auch mit g zusammenhängen. Auf der dritten Ebene gliedern sich diese Unterfaktoren dann wiederum in spezifische intellektuelle Fähigkeiten wie z.B. Wortgewandtheit und logisches Schlussfolgern auf. Damit Ihnen die Vorstellung dieser (immer sehr ähnlich aufgebauten) hierarchischen Modelle etwas leichter fällt, habe ich in der unten stehenden Abbildung einmal selbst ein beispielhaftes Modell erstellt, von dem ich behaupten würde, dass es zwar vereinfacht ist, aber in vielerlei Hinsicht einen derzeit weit verbreiteten Konsens darstellt, nämlich die Annahme eines gewissen g-Faktors, eine Unterscheidung zwischen fluider und kristalliner Intelligenz auf der zweiten Ebene sowie einige typische, diesen beiden Faktoren wiederum unterordnete Subformen intellektueller/kognitiver Fähigkeiten. Worauf die einzelnen Komponenten dieses beispielhaften Modells jeweils zurückgehen, erfahren Sie in den nächsten Abschnitten.

Beispiel für ein hierarchisches Modell
Beispiel für ein hierarchisches Modell

 

Spearman: G thront über allem

Das von Spearman entwickelte Modell ist sowohl das allerälteste als auch dasjenige, das den Begriff des g-Faktors bzw. der „Allgemeinen Intelligenz“ geprägt hat. Spearman interpretierte die aus der Faktorenanalyse resultierenden hohen Korrelationen (= statistische Zusammenhänge) zwischen den Lösungsmustern unterschiedlichster Aufgaben derart, dass es einen solchen Generalfaktor der Intelligenz geben müsse, da, grob gesagt, Personen, die in einem Aufgabenbereich (z.B. räumliches Denken) gut abschnitten, tendenziell auch in anderen Bereichen (z.B. Wortschatz und logisches Schlussfolgern) gute Ergebnisse erzielten. Dieser Generalfaktor, so Spearman, sei die Grundlage aller Leistungen in Intelligenztests, und er beschreibt ihn als die „Fähigkeit, Zusammenhänge wahrzunehmen und daraus Schlüsse zu ziehen“ – kurz: als „mentale Energie“. G untergeordnet sind im Spearman-Modell nur die „spezifischen Fähigkeiten“, die mit s bezeichnet werden und sprachliche, mathematische und räumliche Intelligenz umfassen. D.h. es gibt im Gegensatz zum oben skizzierten Beispielmodell keinerlei mittlere Ebene.

Auf Spearmans Modell basieren mehrere Intelligenztests, die auch heute noch weit verbreitet sind. Man erkennt diese Tests daran, dass sie am Ende die Berechnung eines Intelligenzquotienten ermöglichen, der als Index für das Niveau der Allgemeinen Intelligenz herangezogen wird. Hierzu gehören z.B. alle Tests aus der Wechsler-Reihe (die aktuellsten sind der Wechsler Intelligenztest für Erwachsene, kurz WIE, und der Hamburg Wechsler Intelligenztest für Kinder in seiner 4. Ausgabe, kurz HAWIK-IV) sowie die Raven-Tests, die nur aus Matrizen-Aufgaben („Welches Bild gehört in das leere Kästchen?“) bestehen und zum Ziel haben, unabhängig von Sprache und Kultur abstraktes, nicht angewandtes Denken zu erfassen.

Abgrenzung von Spearman: Thurstone & Cattell

Im Verlauf des 20. Jahrhunderts wurde dann von anderen Psychologen eine Fülle weiterer, meist auf Faktorenanalysen und ihrer Interpretation basierender Intelligenzmodelle entwickelt, die sich, wenn man einmal ehrlich ist, nicht wirklich exorbitant voneinander unterscheiden. Dies hat sicherlich auch damit zu tun, dass sie fast ausnahmslos in Abgrenzung vom Spearman-Modell enstanden sind und sich somit alle in irgendeiner Form hierauf beziehen. Der zweite Grund ist der, dass man in der Wissenschaft leider auch nicht ständig das Rad neu erfinden kann.

Das Primärfaktorenmodell nach Thurstone: Ebenbürtiges Nebeneinander?

Anders als Spearman betrachtete Louis Leon Thurstone die Intelligenz als eine Sammlung von sieben klar voneinander angrenzbaren, also unabhängigen Intelligenzarten. Diese sieben Primärfaktoren sind: Rechenfähigkeit, Auffassungsgeschwindigkeit, schlussfolgerndes Denken, räumliches Vorstellungsvermögen, assoziatives Gedächtnis, Sprachbeherrschung und Wortflüssigkeit. Widergespiegelt wird dies durch den bekannten Intelligenz-Struktur-Test, kurz IST-2000-R, in dem eben nicht ein IQ-Wert am Ende berechnet wird, sondern mehrere. Kritisch an diesem Modell ist anzumerken, dass Thurstone bei seinen Faktorenanalysen in den Augen einiger Wissenschaftler etwas „gepfuscht“ hat, da er anstatt einer orthogonalen eine oblique Faktorenrotation verwendete – mit dem Ergebnis, dass seine sieben Primärfaktoren leider doch nicht völlig unabhängig voneinander sind. Thurstone räumte tatsächlich später ein, dass diese Kritik berechtigt sei, und erkannte einen gewissen g-Faktor als mögliche Ursache dieser Zusammenhänge an.

Die Zweikomponententheorie nach Cattell: Einführung einer mittleren Ebene

Raymond Bernard Cattell hingegen nahm von vornherein einen g-Faktor als oberste Instanz in seinem Intelligenzmodell an, war zugleich aber der erste, der eine mittlere Ebene (wie im obigen Beispielmodell gezeigt) einführte. Auf ihn geht die bis heute weit etablierte und bewährte Unterscheidung zwischen kristalliner (meist abgekürzt c) und fluider Intelligenz (meist abgekürzt f) zurück, in die sich im zufolge die Allgemeine Intelligenz aufspaltet. Unter der fluiden Intelligenz versteht Cattell eine generelle Denk- und Problemlösefähigkeit, die er als weitgehend unabhängig von kulturellen Einflüssen versteht und die eine wichtige Voraussetzung für den Erwerb neuer Informationen darstellt. Nach Cattell ist die fluide Intelligenz ein angeborenes Merkmal, die sich im Laufe des Lebens stabilisiert oder sogar gegen Ende stagniert. Gegenteilig hierzu verhält sich die bis zum Lebensende stetig anwachsende kristalline Intelligenz, die als kumulative Lebenserfahrung zu sehen ist. Dies deutet bereits darauf hin, dass diese sämtliches im Laufe des Lebens erworbenes Wissen, erworbene Fertigkeiten und Kompetenzen umfasst. Diese erachtet Cattell als stark von kulturellen Einflüssen geprägtes und maßgeblich von sprachlichen Fähigkeiten bestimmtes Konstrukt. Fluide und kristalline Intelligenz sind somit, wie es typisch für Elemente der mittleren Ebene ist, insofern nicht gänzlich unabhängig voneinander, als sie durch die „gemeinsame Mutter“ g verbunden sind, und gleichzeitig ist ihr Zusammenhang hinreichend gering, um sie als zwei separate Unterfaktoren zu betrachten. Dabei wird übrigens durchaus angenommen, dass c und f auf vielfältige Weise interagieren: Zum Beispiel wird davon ausgegangen, dass eine gut ausgeprägte fluide Intelligenz den Erwerb von kritalliner Intelligenz in Form von Wissen und Fertigkeiten erleichtert. Cattells Modell ähnelt sehr stark dem von John B. Carroll. Da letzteres keinen meiner Meinung nach wesentlichen Unterschied aufweist, werde ich es an dieser Stelle nicht gesondert beschreiben.

Auch Cattells Theorie ist in die Entwicklung von Intelligenztests eingeflossen. So findet sich (wenn auch nicht explizit so bezeichnet) die Unterteilung in f und c auch im IST-2000-R wieder. Die Tests aus der Wechsler-Serie erfassen typischerweise leicht überwiegend kristalline Intelligenz, während die ebenfalls bereits erwähnten Raven-Tests, ebenso wie die so genannten Culture Fair Tests (kurz CFTs), hauptsächlich fluide Intelligenz messen, um ausdrücklich kulturelle Unterschiede außen vor zu lassen und diesem Sinne „fair“ zu sein.

Nicht-hierarchische Modelle

Neben den hierarchischen Modellen gibt es auch noch ein paar Vertreter, die von verschiedenen Intelligenzformen ausgehen, die unabhängig und sozusagen „gleichberechtigt“ nebeneinander stehen, ohne dass es einen übergeordneten g-Faktor oder untergeordnete Fähigkeiten gäbe. Im Grunde hätte ich an dieser Stelle auch das Primärfaktorenmodell von Thurstone anführen können; da Thurstone aber im Nachhinein einen g-Faktor doch mehr oder weniger eingeräumt hat, findet es sich bei den hierarchischen Modellen.

Mehrdimensionale Modelle: Inhalt, Prozess & Co.

Zu den im Vergleich zu den hierarchischen Modellen fast schon exotisch anmutenden mehrdimensionalen Modellen gehören das Würfelmodell nach Guilford und das Berliner Intelligenzstrukturmodell nach Jäger. Beiden Modellen gemeinsam ist, dass sich eine sehr große Menge unterschiedlicher „Intelligenzen“ ergeben, und zwar als Produkt einiger weniger Faktoren, die unterschiedliche Ausprägungen aufweisen können. Dabei beruhen auch diese Modelle auf Faktorenanalysen und sind somit ein anschaulicher Beleg dafür, auf welch unterschiedliche Weise man die im Prinzip gleiche Datenlage interpretieren kann.

Im Würfelmodell ist es so, dass sich 150 verschiedene Intelligenzarten als Produkt drei verschiedener Faktoren mit wiederum verschiedenen Ausprägungen ergeben. Unter diesen drei Faktoren versteht Guilford den zu verarbeitenden Inhalt (z.B. akustische Reize), den nötigen Vorgang (z.B. Auswertung der akustischen Reize) und das Produkt (z.B. Herausstellung der Implikationen). Das klingt sehr abtrakt, komplex und schwer überprüfbar, was es auch tatsächlich ist. Ähnliches gilt für das Berliner Intelligenzstrukturmodell, bei dem es im Gegensatz zum Würfelmodell nur zwei Faktoren gibt. Zum einen führt Jäger den Faktor „Operationen“ an, als dessen mögliche Ausprägungen er Merkfähigkeit, Bearbeitungsgeschwindigkeit, Einfallsreichtum und Verarbeitungskapazität anführt. Zum anderen gibt es den Faktor „Inhalte“ mit drei Varianten, und zwar bildhaftem, verbalem und numerischem Material. Insgesamt ergeben sich hieraus also 3×4=12 verschiedene Intelligenzformen, abhängig von der Art des zu bearbeitenden Materials und der Art der geforderten mentalen Operation. Jägers Modell enthält daneben übrigens auch noch einen g-Faktor, der in gewisser Weise allen Faktoren und ihren Ausprägungen gleichsam zugrunde liegt.

Die praktische Anwendung dieser Form von Modellen ist schwieriger als bei den oben beschriebenen Modellen, da, wenn man die Modelle ernst nimmt, für alle möglichen Kombinationen von Faktorausprägungen eine geeignete Aufgabe finden muss. Zwar hat Guilford für den Großteil der in seinem Modell postulierten Intelligenzfacetten inzwischen Aufgabentypen vorgeschlagen, dass diese jedoch in einen standardisierten Intelligenztest übertragen wurden, ist mir nicht bekannt. Anders sieht es mit dem (ja doch deutlich sparsameren) Jäger-Modell aus, welches in Form des Berliner Intelligenzstruktur-Tests (kurz BIS) Anwendung findet.

Gardners Theorie der Multiplen Intelligenzen: Ein Plädoyer gegen G

In den 1980er Jahren veröffentlichte Howard Gardner seine Theorie der Multiplen Intelligenzen und wetterte gewaltig gegen das Konzept der Allgemeinen Intelligenz bzw. den g-Faktor. Er argumentierte, dass klassische Intelligenztests nicht imstande wären, die Fülle an kognitiven Fähigkeiten, über die ein Mensch verfügen kann, zu erfassen, und schlug ein Modell mit sieben voneinander unabhängigen und nicht durch einen übergeordneten g-Faktor bestimmten Intelligenzfacetten vor. An diesem, ebenfalls auf Faktorenanalysen basierenden Modell ist, neben der Tatsache, dass die Unabhängigkeit der Intelligenzfacetten nicht belegt ist, zu kritisieren, dass es eine große Überlappung mit dem (lange vorher veröffentlichten) Thurstone-Modell aufweist (allein schon, was die Zahl der Faktoren angeht). So finden sich bei Gardner u.a. auch die logisch-mathematische, die sprachliche und die bildlich-räumliche Intelligenz. Neu sind allerdings vier Faktoren, die eher den Fokus auf künstlerische und sozio-emotionale Fähigkeiten legen, nämlich die musikalisch-rhythmische, die körperlich-kinästhetische (Einsatz des eigenen Körpers), die interpersonale (Verstehen von und Umgang mit anderen Menschen) und die intrapersonale Intelligenz (Verständnis seinerselbst). Insbesondere die letzten beiden Intelligenzarten sind in der Psychologie inzwischen anerkannte Konstrukte, werden jedoch eher nicht direkt als Form von Intelligenz betrachtet, sondern unter dem Begriff „sozio-emotionale Kompetenz“ zusammengefasst (im Volksmund und in Klatschzeitschriften erfreuen sich allerdings die Begriffe „emotionale Intelligenz“ und „soziale Intelligenz“ allerdings weiter Verbreitung) und als etwas erachtet, das in der Regel in der Kindheit und in der Interaktion mit anderen Menschen erworben wird und eher nicht angeboren ist. Zu diesem Konstrukt gehören z.B. u.a. die Fähigkeit, die Perspektive anderer einzunehmen (Theory of Mind), die Fähigkeit, die emotionale Lage anderer nachzuempfinden (Empathie), das Bewusstsein über eigene emotionale Vorgänge, Wege der Emotionsäußerung und das Bewusstsein über die Wirkung der eigenen Emotionen auf andere sowie die Fähigkeit zur Regulation der eigenen Emotionen.

Sternbergs Triarchisches Modell: Radikale Abkehr vom Hierarchie-Gedanken?

Das von Robert Sternberg postulierte Triarchische Modell, auch bekannt unter dem Namen Komponentenmodell, basiert auf der Informationsverarbeitungstheorie, die, grob gesagt, die menschliche Kognition als Informationsverarbeitungsprozess betrachtet, und gibt vor, eine radikale Abkehr von hierarchischen Strukturen und der Annahme voneinander abgrenzbarer Faktoren darzustellen. Es ist daher auch das einzige bekannte Intelligenzmodell, das nicht auf Faktorenanalysen beruht. Sternberg prägte hiermit auch eine neuartige Definition von Intelligenz und nannte als Teile der Definition die Elemente „Lernen aus Erfahrung“, „abstraktes Schlussfolgern“, „die Fähigkeit, sich einer sich ständig weiterentwickelnden und verändernden Umwelt anzupassen“ und „die Motivation, überhaupt neues Wissen bzw. Fertigkeiten zu erlangen“. Die ersten beiden Aspekte überlappen stark mit der kristallinen und der fluiden Intelligenz, die beiden letzten hingegen sind in der Tat relativ neu und haben bisher kaum Eingang in die Messung von Intelligenz gefunden.

Die eigentliche Intelligenztheorie von Sternberg ist hingegen sehr komplex und meiner Ansicht alles andere als leicht verständlich. Ich wage auch, die kühne Behauptung aufzustellen, dass sich diese Theorie kaum prägnant zusammenfassen lässt, weil sie sich teilweise in Einzelheiten verliert. Daher möchte ich mich darauf beschränken, einige meiner Meinung nach wichtige Teilaspekte der Theorie herauszustellen. Zunächst wird, abgeleitet von der Informationsverarbeitungstheorie, die wichtige Unterscheidung getroffen zwischen der Art des ablaufenden kognitiven Prozesses, der Genauigkeit, mit dem dieser abläuft, und der Art der mentalen Repräsentation, die diesem Prozess zugrunde liegt (z.B. bildliches oder sprachliches Material). Insofern erinnert es es schon an dieser Stelle stark an die oben beschriebenen mehrdimensionalen Modelle. Dann verliert sich die Theorie (meiner Auffassung nach) in mehr und mehr Unter-Theorien, die einen eher geringen Erklärungswert haben und darüber hinaus mehr Ähnlichkeit mit den bereits beschriebenen Modellen haben, als man eigentlich aufgrund der revolutionären Aura der Theorie erwarten würde. Wirklich eingängig ist mir lediglich die „Komponenten-Subtheorie“, die drei Intelligenzkomponenten beschreibt und im Gegensatz zum Rest relativ anschaulich ist. Und zwar stellt Sternberg hier die analytische Intelligenz (abstrakte Denkprozesse, die einer Problemlösung vorausgehen), die praktische Intelligenz (Lösung von Problemen durch Anpassung an die Umwelt, Formung einer Umwelt oder Auswahl einer passenden Umwelt) und die kreative Intelligenz (Nutzen von Erfahrungen zur Lösung von Problemen) dar. Diese, so Sternberg, seien aber nicht in ein hierarchisches System eingebunden und stellten auch keinerlei Intelligenzfaktoren im klassischen Sinne dar – vielmehr seien sie eine Beschreibung dessen, was die Intelligenz leisten muss. Was genau er damit meint, und in wiefern dieser Gedanke sich wirklich von den beschriebenen hierarchischen oder mehrdimensionalen Modellen unterscheidet, bleibt zumindest mir unklar. Fest steht, dass Sternberg keinen g-Faktor anerkennt – doch dies allein ist, wie ich ausführlich dargestellt habe, nichts Revolutionäres.

Fazit

Was ich hoffe, vermittelt zu haben, ist, dass es derzeit kein allgemeingültiges und eindeutiges Verständnis dessen gibt, was „Intelligenz“ ist, in wie vielen verschiedenen Formen sie vorliegt und ob es einen allem übergeordneten g-Faktor gibt. Wenn man sich die empirische Evidenz anschaut, muss man allerdings zugeben, dass die Existenz einer Allgemeinen Intelligenz bzw. eines solchen g-Faktors sehr wahrscheinlich ist, da sich die starken Zusammenhänge zwischen unterschiedlichsten Intelligenztestaufgaben nicht einfach so wegdiskutieren lassen. Weitere Evidenz für dieses Konstrukt der Allgemeinen Intelligenz findet sich übrigens auch aus der Anwendungsforschung, z.B. aus der Arbeits- und Organisationspsychologie, die ergeben hat, dass die Allgemeine Intelligenz mit Abstand der bester Prädiktor von Berufserfolg ist (Näheres dazu hier). Andererseits gibt es auch Belege, die deutlich zeigen, dass sich mit g auch nicht alles erklären lässt und eine Unterteilung auf unterer Ebene durchaus Sinn macht – so gilt die Unterscheidung zwischen kristalliner und fluider Intelligenz z.B. als gut belegt.

Für mich persönlich bedeutet dies, dass die „Wahrheit“ (sollte es diese denn geben) am ehesten durch ein Modell abgebildet wird, das dem von Cattell bzw. Carroll ähnelt – vom Konzept also einem solchen, wie Sie es in der obigen Abbildung finden. Bedenken Sie aber, dass all diese Modelle im Wesentlichen unterschiedliche Interpretationen der weitgehend gleichen Sachlage sind und somit automatisch auch von der jeweiligen Ideologie geprägt sind, die ein Forscher vertritt (z.B. bzgl. der Frage, ob es einen g-Faktor geben darf). Und nicht zu vergessen ist auch, dass die Modelle sich, wenngleich sie sich alle natürlich als neuartig und daher wichtig darstellen, im Grunde nicht besonders stark unterscheiden – wenn man einmal genau nachdenkt.

Im nächsten Teil wird es um die Fragen gehen, was es mit dem Intelligenzquotienten auf sich hat, wie Intelligenz in der Bevölkerung verteilt ist und ob es stimmt, dass wir immer intelligenter werden.

© Christian Rupp 2014

Psychopath, Soziopath & Co: Unterschiede, Ursachen & Therapie

„Der ist doch ein Psychopath!“ – Wer hat das nicht schon einmal gehört und dabei nicht das Bild eines gefährlichen, „irren“ und skrupellosen Mannes im Kopf gehabt? Dabei sind die Begriffe „Psychopath“ und „Soziopath“ keineswegs Diagnosen, die sich in den etablierten Diagnosesystemen für psychische Störungen, dem DSM-IV (Diagnostisches und Statistisches Manual, vierte Auflage) und der ICD-10 (International Classification of Diseases, 10. Auflage) finden. Daran lässt sich bereits erkennen, dass über sie wenig Einigkeit herrscht.

Einordnung & Merkmale: Was ist was?

Trotzdem kann man die Begriffe einordnen. Psychopathie ist der Begriff, der früher in der Psychiatrie für das verwendet wurde, was man heutzutage als Persönlichkeitsstörung bezeichnet, d.h. als tiefgreifende psychische Störung, die das gesamte Verhalten der Person in sämtlichen Lebensbereichen beeinflusst, in der Jugend oder im frühen Erwachsenenalter beginnt und sich in erster Linie in interaktionellen, d.h. zwischenmenschlichen Problemen niederschlägt. Von den Persönlichkeitsstörungen gibt es – je nachdem, welches Beziehungsmotiv und welche entsprechenden fehlangepassten Verhaltensweisen dominieren – einen ganzen „Zoo“. Da wären z.B. die narzisstische, die histrionische, die zwanghafte, die selbstunsicher-vermeidende, die schizoide und die schizotype Persönlichkeitsstörung (nicht zu verwechseln mit der Schizophrenie, einer psychotischen Störung!) sowie die relativ bekannte Borderline-Persönlichkeitsstörung, die auch unter dem Namen „emotional instabile Persönlichkeitsstörung“ bekannt ist. Und dann gibt es eben die antisoziale oder manchmal auch als dissoziale bezeichnete Persönlichkeitsstörung, deren Kernmerkmal in einem „tiefgreifenden Muster von Missachtung und Verletzung der Rechte anderer“ (DSM-IV) besteht. Gekennzeichnet ist diese Störung z.B. dadurch, dass der betroffene Mensch sich nicht in soziale Gemeinschaften integrieren kann und andererseits auch geringes Interesse an sozialen Beziehungen hat, nicht die Perspektive anderer Menschen übernehmen kann (es bestehen Beeinträchtigungen bezüglich der sozio-emotionalen Kompetenz und der Theory of Mind), kein Gespür für angemessenes Vehalten in sozialen Situationen aufweist, oder aber bewusst anderen Menschen Schaden zufügt (z.B. durch Diebstahl oder Gewalt). Gesellschaftliche Normen werden meist ignoriert oder bewusst verletzt, es kommt zu verantwortungslosem Verhalten sich selbst und anderen gegenüber, und es besteht generell ein geringes Schuldbewusstsein. Lügen und Betrügen sind ebenso typische Verhaltensweisen wie aggressive Gewaltexzesse und impulsives, wenig vorausschauendes Verhalten. So, und eben diese Art von Persönlichkeitsstörung wird bisweilen auch als „Soziopathie“ bezeichnet. Bestimmte psychiatrische Schulen der Vergangenheit prägten diesen Begriff, Eingang in DSM-IV und ICD-10 fand aber die antisoziale/dissoziale Persönlichkeitsstörung, die im Prinzip genau dasselbe beschreibt.

Antisoziale Denk- und Verhaltensmuster manifestieren sich meistens schon relativ früh in der Kindheit: So entwickelt besonders ein Großteil derjenigen Kinder, die schon vor dem 10. Lebensjahr eine Störung mit oppositionellem Trotzverhalten oder eine Störung des Sozialverhaltens aufweisen, im weiteren Entwicklungsverlauf eine antisoziale Persönlichkeitsstörung. Ähnlich häufig kommt es im Erwachsenenalter zu Abhängigkeitserkrankungen und aggressivem sowie delinquentem Verhalten, was gleichsam häufige Begleiterscheinungen der antisozialen Persönlichkeitsstörung sind, die übrigens deutlich häufiger bei Männern auftritt als bei Frauen.

Exkurs: „Weibliche“ und „männliche“ Gewalt

Einige Wissenschaftler zweifeln allerdings daran, dass aggressiv-antisoziales Verhalten bei Frauen tatsächlich seltener auftritt als bei Männern. Dies begründen sie damit, dass antisoziales Verhalten meist nur in Form der für Männer typischen körperlichen Gewaltakte („draufhauen“) und Verhaltensweisen wie Diebstahl oder Lügen erfasst wird. Diese sind jedoch nur die eine Seite der Medaille. Die andere Seite sind die eher indirekten, aber keineswegs weniger folgeschweren Formen von Gewalt. Oft fallen in diesem Zusammenhang die Begriffe „soziale Gewalt“ oder „relationale Gewalt“. Gemeint ist hiermit, dass dem Opfer nicht durch direkte körperliche Gewalt Schaden zugefügt wird, sondern über die soziale Gruppe. Hierzu gehören der soziale Ausschluss des Opfers, üble Nachrede („Lästern“), verbale Beschimpfungen und öffentliche Demütigungen. Diese Form von Gewalt, ist, wie einige Studien belegen, unter Mädchen und Frauen sehr viel weiter verbreitet als unter Jungen und Männern. Daher bleibt die Frage offen, ob der scheinbare Häufigkeitsunterschied zwischen Männern und Frauen nicht eventuell einfach nur darauf zurückzuführen ist, dass in den Studien, die diesen Unterschied berichten, antisoziales Verhalten auf die „männliche Definition“ reduziert wurde.

Um die oben beschriebenen Begrifflichkeitsprobleme noch zu verkomplizieren, findet sich z.B. leider in der ICD-10 zur Erläuterung der antisozialen Persönlichkeitsstörung der Begriff „psychopathisch“, sodass man leider zugeben muss, dass selbst die Fachliteratur die Begriffe „Soziopath“ und „Psychopath“ heutzutage nicht konsistent und manchmal durchaus gleichbedeutend verwendet. Übrigens: Man ersetzte im Fachsprachgebrauch deshalb „Psychopathie“ durch „Persönlichkeitsstörung“, weil „Psychopath“ inzwischen zu einem gern genutzten Schimpfwort verkommen ist und bevorzugt degradierend und stigmatisierend (für jemanden, der einem unberechenbar und „irre“ vorkommt) verwendet wird – d.h. jenseits seiner eigentlichen Bedeutung.

Thema Ursache: Wie kann es dazu kommen?

Eine ebenso verständliche wie schwierig zu beantwortende Frage ist, wie Menschen sich zu derart unangenehmen Zeitgenossen entwickeln können. Basierend auf Forschungsbefunden lassen sich im Wesentlichen drei verschiedene Gruppen von Erklärungsmodellen unterscheiden, die meiner Einschätzung nach alle einen eigenständigen und plausiblen Beitrag zur Erklärung einer antisozialen Entwicklung leisten, also keineswegs so zu verstehen sind, dass sie einander ausschließen.

Neurowissenschaftliche und lerntheoretische Befunde: Grundlegende Defizite

Die neurowissenschaftliche Perspektive stellt, neben einigen Theorien, die einen Mangel an Serotonin (einem Neurotransmitter, der als wichtig für soziales Verhalten angesehen wird) vermuten, eine Fehlfunktion des Frontallappens (vorderster und evolutiv jüngster Teil des Gehirns) ins Zentrum. Er wird vor allem mit den so genannten exekutiven Funktionen in Verbindung gebracht, worunter u.a. die Ausrichtung der Aufmerksamkeit, das Filtern von Informationen in wichtige und unwichtige sowie (ganz zentral) die Kontrolle über die Initiierung und Hemmung von Verhalten fallen. Laut Blair (2011) besteht bei Personen mit antisozialer Persönlichkeitsstörung ein Defizit der Art, dass Handlungen nicht adäquat an Signale aus der Umwelt angepasst werden können und die für gesunde Menschen völlig natürliche Orientierung des Verhaltens an seinen Konsequenzen erschwert wird. Hinzu komme außerdem eine Veränderung des neuronalen Furchtsystems in der Form, dass Betroffene grundsätzlich deutlich weniger Furcht empfinden und somit negative Konsequenzen ihres Verhaltens nicht als ausreichend schwerwiegend wahrgenommen werden, um zukünftiges Verhalten zu beeinflussen. Zusätzlich bestehe ein Defizit der sozio-emotionalen Kompetenz, ausgehend von Befunden, die zeigen, dass Menschen mit antisozialer Persönlichkeitsstörung eine verringerte Reaktion auf emotionale Äußerungen anderer zeigen und eine deutliche Beeinträchtigung aufweisen bzgl. der Fähigkeit, bei anderen Menschen Emotionen zu identifizieren.

Zusammengenommen könnte dies z.B. erklären, warum Menschen mit antisozialer Persönlichkeitsstörung wenig vorausschauendes Verhalten zeigen, d.h. nur wenige Aspekte bei dessen Planung berücksichtigen. Zudem wird hierdurch klar, warum diese, völlig ungeachtet der Konsequenzen ihres Verhaltens (ich meine hier explizit auch schwerwiegende Konsequenzen wie Gefängnisstrafen), immer „weitermachen“. Die sozio-emotionalen Beeinträchtigungen können ferner als Erklärung für die „Kaltblütigkeit“ und Skrupellosigkeit des Verhaltens herangezogen werden: Wo „gesunde“ Menschen aus Mitleid mit bzw. Empathie gegenüber dem Opfer aufhören (z.B. weil das Opfer weint und um Gnade bittet), schlagen Menschen mit antisozialer Persönlichkeitsstörung eher noch weiter zu.

Die Frage bei diesen neurowissenschaftlichen Theorien ist immer die, ob die von ihnen postulierten Defizite als angeboren oder als durch Lernerfahrungen erworben angesehen werden. Von Haus aus haftet diesen Theorien meist eher die „angeboren“-Perspektive an, doch dieser Schluss ist keineswegs gerechtfertigt, da inzwischen vieles darauf hinweist, dass Lernerfahrungen hinsichtlich ihres Einflusses auf die Entwicklung psychischer Störungen lange Zeit eher unterschätzt wurden und weil mittlerweile klar geworden ist, dass Lernerfahrungen neuronale Prozesse ebenso beeinflussen können wie unsere Gene – und dass es in den allermeisten Fällen in der Tat eine komplexe Interaktion von Genen und Lernerfahrungen bzw. Umwelt ist (die so genannte Gen-Umwelt-Interaktion), die als Ursache einer Störung angesehen werden kann.

Persönlichkeitsmodelle: Kaltherzig oder dauerhaft unterstimuliert?

Bei den Persönlichkeitsmodellen gibt es zwei, die jeweils unterschiedliche – als weitgehend angeboren betrachtete – Persönlichkeitsmerkmale (traits) postulieren, die als Grundlage der antisozialen Persönlichkeitsstörung angesehen werden. Quay (1965) geht davon aus, dass Menschen mit antisozialer Persönlichkeitsstörung ein ungewöhnlich hohes Befürfnis nach Stimulation haben bzw. eine generelle Unterstimulation/ein geringes physiologisches Aktivierungsniveau aufweisen. Dies hat zur Folge, dass die betreffenden Menschen extrem riskantes Verhalten an den Tag legen, da nur dieses sie in einen angenehmen Aktivierungszustand versetzen, d.h. ihnen den „Kick“ geben kann. Aufgrund des drängenden Bedürfnisses nach solcher Stimulation hat sich in diesem Kontext der Begriff sensation seeking eingebürgert. Funktionale, wenn auch nicht minder gefährliche Wege, dieses Bedürfnis zu befriedigen, sind z.B. entsprechende Sportarten wie Bungee Jumping, Fallschirmspringen, Wildwasser-Rafting, etc. Nicht funktionale Wege sind derweil aggressives Verhalten und kriminelle Handlungen, wie sie bei der antisozialen Persönlichkeitsstörung auftreten.

Frick (1998) beschreibt derweil eine andere Charaktereigenschaft als Basis der antisozialen Persönlichkeitsstörung, und zwar den callous trait (callous = abgestumpft/gleichgültig), der auch als unemotional trait bezeichnet wird. Gemeint ist hiermit etwas, das bereits bei den neurowissenschaftlichen Theorien angeklungen ist, nämlich eine generelle Abwesenheit von Empathie und einem grundlegenden Schuldempfinden.

„Schwieriges“ Temperament

Eine weitere Perspektive betrifft die der frühkindlichen Temperamentseigenschaften, die – im Gegensatz zu den sich erst deutlich später herausbildenden Persönlichkeitseigenschaften – als größtenteils angeboren und durch grundlegende physiologische Prozesse bestimmt angesehen werden. Daher sind diese auch bereits im Säuglingsalter ersichtlich und zeigen sich z.B. dadurch, wie häufig und intensiv das Kind negative (Schreien, Weinen, generelle Unzufriedenheit) oder auch positive Emotionen (Lächeln, Freude am Spiel) äußert, wie regelmäßig sein Schlaf-Wach-Rhythmus ist, wie regelmäßig es Hunger verspürt und ob es fremden Situationen gegenüber eher gehemmt ist oder ihnen offenherzig begegnet. Es gilt inzwischen als relativ gut belegt, dass diese Eigenschaften weitgehend angeboren sind – und dass die weitere Entwicklung der Persönlichkeit des Kindes bzw. einer psychischen Störung in der Folge vor allem davon abhängt, wie angemessen Eltern auf das Temperament des Kindes reagieren können und in der Lage sind, dessen Emotionsausbrüche zu regulieren. Das heißt, auch hier haben wir es mit einer ganz klassischen Gen-Umwelt-Interaktion zu tun: Eltern eines Kindes mit einem „schwierigen Temperament“ (gekennzeichnet u.a. durch viel negative Emotionalität, gehemmtes Annäherungsverhalten in fremdartigen Situationen und unregelmäßige biologische Rhyhtmen) haben es sicherlich in der Erziehung schwerer und müssen sich sicherlich viele tolle „Ratschläge“ von anderen Eltern anhören, aber ihr Kind ist aufgrund seines Temperaments sicherlich nicht automatisch zum Scheitern oder gar zu einer psychischen Störung verurteilt.

Umwelteinflüsse: Gewalt in der Kindheit & Co.

Im Abschnitt über neurowissenschaftliche Theorien hatte ich schon einige lerntheoretische Aspekte genannt, dennoch möchte ich hier noch einen Abschnitt den Umwelterfahrungen, d.h. vor allem den Lernerfahrungen in der Kindheit, widmen. Es ist einerseits eine Binsenweisheit, dass Kinder von Eltern, die Gewalt anwenden, überzufällig häufig (was heißt: keineswegs immer!) auch Gewalt gegenüber ihren eigenen Kindern und anderen Menschen anwenden, andererseits ist dies tatsächlich auch wissenschaftlich belegt worden. Dies erklärt sich dadurch, dass Kinder natürlich am Modell ihrer Eltern lernen, dass man sich mittels Gewalt durchsetzt, Probleme löst und sich somit Respekt durch „Gefürchtetwerden“ verschafft – mit anderen Worten: Sie erlernen gewaltsames Verhalten als Bewältigungsstrategie. Es besteht aber noch ein weiterer Zuammenhang: So wird von vielen Forschern postuliert, dass Kinder, die häufig körperliche Gewalterfahrungen machen, in gewisser Weise „abgehärtet“ werden. Da sie so unempfindlicher für entsprechende Schmerzen werden, sinkt somit die Hemmschwelle, selbst auch Gewalt gegen andere anzuwenden.

Natürlich aber können Gewalt bzw. aggressives Verhalten von Seiten der Umwelt auch direkt verstärkt, d.h. belohnt, werden. Dies ist bei Kindern z.B. dann der Fall, wenn sie durch aggressive Wutausbrüche  bei ihren Eltern immer wieder ihr Ziel erreichen („ihren Willen bekommen“) – ebenso wie wenn Eltern solchen Wutausbrüchen tatenlos zusehen, da das Kind auf diese Weise lernt, dass solches Verhalten akzeptiert wird. Ähnlich verhält es sich mit Lernprozessen im weiteren Leben, wenn das Kind oder der Jugendliche z.B. innerhalb von Gleichaltrigengruppen die Erfahrung macht, dass es oder er sich durch antisoziales Verhalten Vorteile (z.B. Respekt der anderen, erpresstes Geld, keinerlei Bedrohung, etc.) verschaffen kann. Das Endergebnis ist immer dasselbe: Das antisoziale Verhalten wird bestärkt und aufrecht erhalten.

Therapie: Resignation oder Hoffnung?

Man muss es offen zugeben: Im Allgemeinen besteht größtenteils Pessimismus bezüglich der Behandlung dieser Form von Persönlichkeitsstörung. Auch wenn es in den letzten 10-20 Jahren enorme Fortschritte hinsichtlich der Behandlung von Persönlichkeitsstörungen gegeben hat (nicht zuletzt durch die Schematherapie nach Young und, vor allem im deutschsprachigen Raum, durch die Klärungsorientierte Therapie nach Sachse), ist die Bilanz bei der antisozialen Persönlichkeitsstörung eher mager.

Dies ist jedoch wenig überraschend, wenn man einmal die Umstände berücksichtigt, unter denen hier in der Regel Therapie stattfindet. Da die Betroffenen in aller Regel keine eigene Motivation besitzen, sich in Behandlung zu begeben (weil das Problem, wenn es überhaupt ein Problembewusstsein gibt, grundsätzlich bei anderen Menschen verortet wird), findet die Therapie erst dann statt, wenn es im Grunde schon „zu spät“ ist, d.h. wenn die Betreffenden sich im Strafvollzug befinden und die Therapie im Rahmen dessen unter Zwang stattfindet. Dies sind, psychotherapeutisch und motivationspsychologisch betrachtet, die denkbar ungünstigsten Voraussetzungen für nachhaltige therapeutische Veränderung. Hinzu kommt, dass zum aktuellen Zeitpunkt keine evidenzbasierten Behandlungsmethoden vorliegen und es auch keine „Standardtherapie“ gibt.

Lichtblick

2002 veröffentlichte Salekin allerdings eine Metaanalyse, die unerwarteten Optimismus weckte. Sie fasste die Ergebnisse von über 30 Studien mit insgesamt über 800 Patienten zusammen, die mit unterschiedlichsten Therapiemethoden (von Psychoanalyse bis zu kognitiver Verhaltenstherapie war alles dabei) behandelt worden waren. Tatsächlich ergaben sich hier Erfolgsraten (d.h. Anteil der Patienten, die durch die Behandlung eine deutliche Veränderung erlebten) zwischen 17 und 88%, was deutlich mehr ist, als man erwartet hätte.

Festzuhalten bleibt dennoch, dass es sich bei der antisozialen Persönlichkeitsstörung um eine sehr schwerwiegende, schwer behandelbare und – im Gegensatz zu anderen psychischen Störungen – vor allem für das Umfeld der Person (bzw. für die gesamte Gesellschaft) nicht ungefährliche und sehr beeinträchtigende Störung handelt.

© Christian Rupp 2014