Intelligenz – Teil 3: Warum man nicht nur einen IQ hat und wir lange Zeit immer schlauer wurden

Vorab: Was ist eigentlich „der IQ“?

Der so genannte Intelligenzquotient, kurz IQ, ist im Grunde schon der Schlüssel zu der Art und Weise, wie er berechnet wird – und doch wird diese Tatsache im alltäglichen Sprachgebrauch viel zu selten berücksichtigt. Ursprünglich erfolgte die Berechnung dieses Maßes für menschliche Intelligenz allerdings auf etwas andere Weise als heute. Geprägt wurde der Begriff des Intelligenzquotienten nämlich durch den Psychologen William Stern, der den von Alfred Binet geprägten Begriff des Intelligenzalters aufgriff und weiterentwickelte. Das Intelligenzalter ergibt sich nach Binet, grob gesagt, durch die Summe der gelösten Aufgaben in einem Intelligenztest. Aufschluss über die kognitive Leistungsfähigkeit gibt dann der Vergleich von Intelligenzalter und tatsächlichem Lebensalter: Wenn ein 8-jähriges Kind z.B. deutlich mehr (d.h. schwierigere) Aufgaben löst, als andere 8-jährige Kinder es im Durchschnitt tun, dann könnte sein Intelligenzalter z.B. 9,5 Jahre betragen – mit anderen Worten: Dieses Kind wäre in seiner kognitiven Entwicklung schon überdurchschnittlich weit fortgeschritten. William Stern setzte schließlich diese beiden Größen (also das Lebensalter und das Intelligenzalter nach Binet) einfach ins Verhältnis (bildete also einen Quotienten), multiplizierte sie mit dem Faktor 100 – und schon war der IQ geboren. Für unser Beispiel-Kind ergäbe sich somit ein IQ von (9,5/8)*100 = 118,75 (bzw. 119, da es aufgrund der nicht perfekten Reliabilität von Intelligenztests unüblich ist, IQ-Werte mit Nachkommastellen anzugeben).

Heutzutage berechnet man den IQ nicht mehr auf diese Weise, wenngleich das Grundprinzip der Berechnung erhalten geblieben ist: Weiterhin werden zwei verschiedene Werte miteinander ins Verhältnis gesetzt, weshalb der Begriff „Quotient“ auch heute noch gerechtfertigt ist. Dies ist mit einer ganz wichtigen Tatsache verbunden, die in der Öffentlichkeit und in den Medien leider so oft untergeht: Es gibt nicht den IQ, und es ist keineswegs so, dass ein Mensch genau einen IQ hat. Derartige Aussagen kann man guten Gewissens als Unsinn bezeichnen. In der Tat kann man einer jeden Person unzählige IQ-Werte zuweisen; aber um zu verstehen, warum das so ist, muss man sich vor Augen führen, wie der IQ berechnet wird.

Wie schon gesagt, basiert die IQ-Berechnung auf dem Bilden von Verhältnissen. Was wird nun ins Verhältnis gesetzt? Grob gesagt wird (egal mit welchem Intelligenztest) immer ein Rohwert zu einem bestimmten Mittelwert und einer Standardabweichung gesetzt. Der Rohwert meint meist die Anzahl der in einem Intelligenztest gelösten Aufgaben (was deshalb Sinn macht, weil fast alle diese Tests so aufgebaut sind, dass die Aufgaben im Verlauf immer schwieriger werden). Bei unserem Beispiel-Kind von oben könnten das z.B. 21 von 30 Aufgaben sein. So, dieser Rohwert sagt einem zunächst einmal gar nichts. Um an einen IQ-Wert zu gelangen, braucht man zusätzlich eine Normstichprobe, d.h. eine repräsentative Stichprobe anderer Menschen, mit der man das Kind nun vergleichen kann. Von dieser Normstichprobe braucht man zwei Informationen: den Mittelwert (d.h. die durchschnittliche Zahl der gelösten Aufgaben in dieser Gruppe von Menschen, hier z.B. 18,1) und die Standardabweichung (d.h. die „durchschnittliche“ Abweichung von diesem Mittelwert, z.B. 2,6). Nun muss die Zahl der von unserem Beispiel-Kind gelösten Aufgaben ins Verhältnis zu dieser Normstichprobe gesetzt werden . Hierzu berechnet man zunächst die Differenz zwischen dem Rohwert des Kindes und dem Mittelwert der Normstichprobe: 21-18,1 = 2,9. Dies ist die also die „Abweichung“ unseres Kindes vom Mittelwert der Normstichprobe – und diese muss man nun ins Verhältnis setzen zur „durchschnittlichen Abweichung“ vom Mittelwert der Normstichprobe (also deren Standardabweichung); d.h. man rechnet: 2,9/2,6 = 1,12. Man sagt: Das Kind liegt etwas mehr als eine Standardabweichung über dem Mittelwert der Normstichprobe. Nun fehlt nur noch die Umrechung in IQ-Werte. Hierzu nutzt man die Tatsache, dass IQ-Werte eine Art Maßzahl sind – deren Mittelwert und deren Standardabweichung festgelegt sind. D.h., man kann sie nutzen, um die Ergebnisse unterschiedlichster Tests (die alle andere Skalierungen verwenden), in ein und derselben Metrik anzugeben. Der Mittelwert des IQ ist auf 100 festgelegt, und die Standardabweichung auf einen Wert von 15. Um unserem Kind nun einen IQ-Wert zuweisen zu können, muss man nur noch den Wert 1,12 mit 15 multiplizieren und 100 addieren – und es ergibt sich ein IQ von 116,8 (bzw. 117).

Und schon hat man das, was in der Praxis meist noch in viel gravierender Form auftritt: Die beiden IQ-Werte (119 und 117) sind nicht gleich. Während es in unserem konstruierten Fall natürlich daran liegt, dass ich bei der obigen Berechnung die Werte ins Blaue hinein erfunden habe, liegt es in der Realität an einem anderen Faktor – nämlich an der Frage, welche Normstichprobe ich heranziehe, um die Person, deren IQ ich messen will, mit ihr zu vergleichen. Im Allgemeinen sollte man hierzu immer diejenige Normstichprobe wählen, die der Person bezüglich Alter und Geschlecht am ähnlichsten und zudem möglichst aktuell ist. Es finden sich aber auch noch feiner aufgegliederte Normen, z.B. auch bezüglich des Bildungsstands oder der besuchten Schulform. Ein IQ-Wert bedeutet immer nur, wie gut oder schlecht die Leistungen einer Person im Vergleich mit einer ihr möglichst ähnlichen Gruppe von Menschen sind. Und das ist genau der Grund, aus dem man für ein und denselben Menschen unzählige IQ-Werte berechnen kann – und ein IQ-Wert völlig ohne Aussage ist, solange man nicht mit angibt, zu welcher Normstichprobe man die Person ins Verhältnis gesetzt hat: Wenn der IQ unseres Kindes aus dem Vergleich mit einer Stichprobe Fünfjähriger resultiert, würde man den IQ von 118 nicht als besonders hoch einstufen; stammt er jedoch aus einem Vergleich mit einer Gruppe 16-Jähriger, kann man sich ziemlich sicher sein, dass das Kind wohl hochbegabt ist. Das ganze noch einmal in Kürze: Wenn jemand Ihnen das nächste Mal erzählt, er habe einen IQ von 150 – dann fragen Sie ihn doch bitte, aus dem Vergleich mit welcher Normstichprobe dieses Ergebnis resultiert.

Wie ist Intelligenz in der Menschheit verbreitet?

Wie oben bereits erwähnt, handelt es sich bei IQ-Werten um eine standardisierte Skala, auf der sich durch einfache Umrechnung alle möglichen Werte abbilden lassen, solange man die zwei wichtigen Angaben vorliegen hat: den Mittelwert und die Standardabweichung der betreffenden Stichprobe. Wann immer ich im Rest dieses Artikels von IQ-Werten spreche, bitte ich, dieses zu berücksichtigen.

Wie man aus zahlreichen Untersuchungen an großen repräsentativen Stichproben weiß, folgen IQ-Werte in der menschlichen Bevölkerung ziemlich genau einer so genannten Gauss’schen Normalverteilung (auch Gauss’sche Glockenkurve oder einfach kurz Normalverteilung genannt). Bei diesem Begriff handelt es sich im Grunde um eine Art „Etikett“, da es eine besondere Form von Verteilung bezeichnet, der (statistische) Werte (wie eben IQ-Werte) folgen können. Eine Normalverteilung lässt sich anhand zweiter Werte genau beschreiben, und zwar wiederum anhand des Mittelwertes und der Standardabweichung, die maßgeblich die Form der Kurve beeinflussen. Was ich im vergangenen Abschnitt noch verschwiegen habe, ist der sehr wichtige Umstand, dass die Tatsache, dass IQ-Werte einer solchen Normalverteilung folgen, einen ganz entscheidenden Vorteil mit sich bringt: nämlich den, dass die Berechnungen und Umrechnungen, die ich oben dargestellt habe, dadurch überhaupt erst mathematisch zulässig sind. Würden IQ-Werte keiner Normalverteilung folgen, hätten wir es um einiges schwieriger. So jedoch lässt sich (wie oben schon erwähnt) guten Gewissens sagen: IQ-Werte haben in der menschlichen Bevölkerung einen Mittelwert von 100 und eine Standardabweichung von 15. Um das ganze einmal ein bisschen plakativer zu machen, habe ich einmal eine entsprechende Abbildung gebastelt.

Verteilung des IQ in der Bevölkerung Verteilung des IQ in der Bevölkerung

Um diese Glockenkurve nun zu verstehen, ist es wichtig, dass man nicht versucht, die y-Achse zu interpretieren (weshalb ich sie auch weggelassen habe). Mathematisch betrachtet handelt es sich bei dieser Kurve um eine Dichte-Funktion, d.h. auf der y-Achse ist die schwer interpretierbare Dichte abgetragen. Man darf und kann diese Kurve daher nicht direkt so lesen, dass sie einem Aufschluss darüber gibt, wie vielen Prozent der Menschen welcher IQ-Wert zugordnet ist (das geht daher nicht, weil die Intelligenz hier mathematisch als stetiges Merkmal konzipiert ist – aber nun genug mit dem statistischen Wirrwarr).

Sinnvoll interpretierbar ist hingegen das Integral, also die Fläche unter der Glockenkurve. Mit deren Hilfe kann man zumindest Aussagen darüber treffen, wie viele IQ-Werte sich in einem bestimmten Bereich bewegen. So liegen z.B. im Bereich einer Standardabweichung unter- und überhalb vom Mittelwert von 100 (also zwischen den IQ-Werten von 85 und 115) rund 68% aller IQ-Werte, und somit auch aller Menschen. Zwischen 70 und 130 liegen derweil z.B. rund 95% aller Werte, d.h. es liegen nur 2,5% unter 70 und 2,5% über 130. Als Konvention hat sich daher eingebürgert, alle IQ-Werte zwischen 85 und 115 als „durchschnittlich“ zu bezeichnen, Werte zwischen 70 und 85 als „niedrig“ und Werte zwischen 115 und 130 als „hoch“. „Hochintelligent“ ist daher streng genommen etwas anderes als „hochbegabt“, was sich als Begriff für IQ-Werte über 130 etabliert hat. Zur Erinnerung: Diese Menschen liegen bzgl. ihrer kognitiven Leistungen mehr als zwei Standardabweichungen über dem Mittelwert ihrer (hoffentlich) alters- und geschlechtsspezifischen Normstichprobe. Ähnliches gilt in umgekehrter Richtung für IQ-Werte unter 70. Hier bewegen wir uns (allerdings noch mit bedeutenden Abstufungen!) im Bereich der geistigen Behinderung (für deren Definition vorrangig der IQ herangezogen wird). Diese praktischen Prozentangaben haben einen weiteren Vorteil: Man kann jedem IQ-Wert einen Prozentrang zuweisen und somit z.B. Aussagen der Sorte „besser als 84% aller Mitglieder der Normstichprobe“ (bei einem IQ von 115) treffen. Um zu der Anmerkung von vorhin zurückzukommen: Ein IQ von 150 würde bedeuten, dass 99,96% der Menschen in der Normstrichprobe (und somit gewissermaßen auch in der Bevölkerung, für die die Normstichprobe ja repräsentativ sein soll) einen niedrigeren Wert aufweisen: Und das ist, wie sie auch an der Abbildung sehen können, hochgradig unwahrscheinlich – mal davon abgesehen, dass kein Intelligenztest einen so hohen Wert vernünftig messen kann (Thema des nächsten Artikels).

Exkurs: Männer & Frauen

Ein ganz heikles Thema ist es natürlich, ob nun Männer oder Frauen im Durchschnitt intelligenter sind. Der mir bekannte aktuelle Forschungsstand hierzu ist der, dass es – bezüglich der allgemeinen Intelligenz – einen marginalen Unterschied dahingehend gibt, dass Männer ein paar wenige IQ-Punkte vorne liegen, gleichzeitig aber die Varianz bei Männern höher ist: Sowohl in den sehr hohen als auch in den sehr niedrigen IQ-Bereichen überwiegen Männer. Dazu sei noch gesagt, dass dieser Unterschied durch zwei Aspekte an Bedeutung verliert: Zum einen ist die Varianz innerhalb jeder der beiden Gruppen um ein Vielfaches größer als der Unterschied zwischen den Gruppen, und zum anderen ist es gut möglich, dass jener Unterschied dadurch zustande gekommen ist, dass viele Intelligenztests bestimmte Aufgaben in den Vordergrund stellen, die Männer bevorteilen. Denn was als gut gesichert gilt, ist, dass Männer und Frauen sich deutlich hinsichtlich ihrer kognitiven Stärken und Schwächen unterscheiden: Es gilt als sehr robuster Befund, dass Männer z.B. im Mittel besser im visuell-räumlichen Denken abschneiden als Frauen, die wiederum im Durchschnitt die Nase vorn haben, was die verbale Intelligenz betrifft.

Der Flynn-Effekt: Wird die Menschheit wirklich immer intelligenter?

Eine andere Fragestellung ist die, ob der durchschnittliche IQ der Menschheit tatsächlich zunimmt – ein Phänomen, das in Anlehnung an den neuseeländischen Politologen James R. Flynn als Flynn-Effekt bezeichnet wird. Dieser Fragestellung auf den Grund zu gehen, ist aufgrund der beschriebenen Berechnungsweise des IQ gar nicht so einfach – denn um herauszufinden, ob der IQ im Mittel steigt, darf man Menschen eben nicht mit aktuellen Normstichproben vergleichen, sondern muss ältere heranziehen: Nur so kommt man dem Flynn-Effekt auf die Schliche.

In der Tat haben groß angelegte Studien ergeben, dass der mittlere IQ in der westlichen Bevölkerung zwischen den 1930er und den 1990er Jahren um 0,2 – 0,5 Punkte pro Jahr gestiegen ist. Dieser Anstieg ergibt sich natürlich aus dem Vergleich mit den immer gleichen Normen aus den 1930er Jahren – anders wäre ein Anstieg ja gar nicht messbar. Dabei nahmen die Leistungen in nicht-sprachlichen Tests (die vor allem fluide Intelligenz messen) deutlich stärker zu als die in sprachlich basierten Tests (die vor allem kristalline Intelligenz messen). Für diesen Befund wurden diverse Erklärungshypothesen diskutiert, die im Folgenden kurz angeschnitten werden sollen.

Dauer des Schulbesuchs und Erfahrung mit typischen Intelligenztestaufgaben

In der Tat nahm die durchschnittliche Dauer des Schulbesuchs in dieser Zeit deutlich zu – was deshalb wichtig ist, weil somit auch die Erfahrung und die Geübtheit im systematischen Lösen von schulischen Aufgaben zunahm, die typischen Intelligenztests sehr ähnlich sind. Der Anteil dieser Faktoren am Flynn-Effekt ist jedoch eher als gering zu einzustufen.

Erziehungsstil

Weiterhin wurde in den Raum geworfen, dass der typische elterliche Erziehungsstil in dieser Zeitspanne natürlich auch einem erheblichen Wandel unterlegen war. Konkret wird von den Vetretern dieser Hypothese angeführt, dass von Eltern zunehmend Wert darauf gelegt wurde, ihre Kinder schon früh in ihrer kognitiven Entwicklung zu fördern. Dieser Trend fand aber nicht nur im familiären Rahmen, sondern auch in viel größerem Maße in den Medien (Beispiel „Sesamstraße“) und in der Politik statt. Die Befunde hierzu sind widersprüchlich. Während man weiß, dass große, national initiierte Bildungsprogramme eher keine Wirksamkeit bezüglich der Erhöhung des durchschnittlichen IQs vorweisen können, wirkt sich frühe Förderung auf der individuellen Ebene durchaus positiv auf die kognitive Entwicklung aus.

Weniger Fälle geistiger Behinderung

Zu bedenken ist sicherlich auch, dass aufgrund besserer medizinischer Versorgung die Zahl der mit geistigen Behinderungen geborenen Kinder in der beschriebenen Zeitspanne zurückgegangen ist. Einige Studien hierzu messen diesem Aspekt im Hinblick auf den Flynn-Effekt eine zentrale Bedeutung bei: Durch den überproportionalen Wegfall sehr niedriger IQ-Werte (<70) in der Bevölkerung stieg der durchschnittliche IQ im Mittel an.

Ernährung

Es ist gut belegt, dass bessere Ernährung (z.B. vitaminreiche Kost, weniger Schadstoffe, etc.) die geistige Entwicklung von Kindern positiv beeinflusst. Durch ungesunde Ernährung kann es z.B. zu Schilddrüsenunterfunktionen kommen (gekennzeichnet durch einen Mangel an Triiodthyroxin und Triiodthyronin), die dann wiederum eine Verzögerung der geistigen Entwicklung bedingen können, sodass der mittlere IQ infolgedessen gestiegen sein könnte.

Vermutlich ist es tatsächlich nicht einer dieser Faktoren, die den Flynn-Effekt erklären, sondern ihr Zusammenspiel. Interessanterweise ist es derweil übrigens so, dass der Anstieg des mittleren IQ seit Anfang der 1990er Jahre als „gestoppt“ gilt, sodass man zumindest momentan sagen kann, dass der Flynn-Effekt der Vergangenheit angehört. Manche deuten dies als Beleg für die Richtigkeit der Ernährungshypothese (da die Nahrungsversorgung in der westlichen Gesellschaft gewissermaßen nicht noch viel besser werden kann), ich jedoch würde eher sagen, dass diese Tatsache der „Sättigung“ in entsprechender Weise auf alle Erklärungsansätze zutrifft.

In diesem Artikel habe ich mehrfach schon das Thema der Intelligenzmessung gestreift. Ob, wie – und vor allem – wie genau man die Intelligenz eines Menschen tatsächlich messen kann, wird daher der Inhalt des nächsten Artikels sein.

© Christian Rupp 2014

Warum werden Menschen abhängig? – Die biologische Seite.

Abhängigkeitserkrankungen („Süchte“) stellen eine schwerwiegende, sehr qualvolle und gesellschaftlich extrem stigmatisierte Gruppe von psychischen Störungen dar. Und sie sind alles andere als selten: So leiden pro Jahr z.B. ca. 3% der Bevölkerung an einer Alkoholabhängigkeit und 0,5% bis 1% an einer Drogen – oder Medikamentenabhängigkeit (Nikotinabhängigkeit außen vor gelassen).

Im Hinblick auf illegale Drogen sind hierbei vor allem die sedierend wirkenden Opioide (in der Regel das aus Schlafmohn gewonnene Heroin), das stimulierend wirkende Kokain (aus den Blättern des Coca-Strauchs gewonnen, entweder als Koks in Pulverform geschnupft oder als Crack geraucht) sowie die ebenfalls stimulierenden Amphetamine (im Wesentlichen synthetisches Kokain, hierunter fällt auch Methylamphetamin, bekannt als „Crystal Meth“) und das sedierend wirkende Cannabis (in Form von Haschisch oder Marihuana) zu nennen. Nicht zu vernachlässigen sind auch Medikamentenabhängigkeiten, insbesondere von Benzodiazepinen, die meist als Schlafmittel eingenommen werden und schon nach nur dreiwöchigem Gebrauch abhängig machen.

Hinzu kommen außerdem die so genannten nicht stoffgebundenen Abhängigkeiten, worunter vor allem das pathologische Glücksspiel („Spielsucht“) fällt, bezüglich dessen neuere Forschungsergebnisse darauf hindeuten, dass die Wirkung im Gehirn der von „echten“ Substanzen enorm ähnelt. Bezüglich aller Abhängigkeitserkrankungen gilt das Gegenteil dessen, was bei den meisten anderen psychischen Störungen gilt, nämlich dass Männer deutlich häufiger betroffen sind als Frauen.

Woran erkennt man eine Abhängigkeit?

Die Symptome einer Abhängigkeitserkrankung sind die folgenden:

  • Toleranzentwicklung (d.h., es muss mit der Zeit mehr von der Substanz konsumiert werden, um dieselbe Wirkung zu erzeugen)
  • Entzugserscheinungen (Bei nicht erfolgtem Konsum kommt es zu Entzugssymptomen wie Übelkeit, Schmerzen, Unruhe oder auch Halluzinationen und epileptischen Anfällen)
  • Die Substanz wird häufiger oder in größeren Mengen konsumiert als beabsichtigt
  • Es besteht der anhaltende Wunsch, den Konsum zu reduzieren oder zu kontrollieren; bisherige Versuche sind aber gescheitert
  • Der Betroffene verbringt sehr viel Zeit mit dem Konsum, der Beschaffung und der Erholung vom Konsum der Substanz
  • Der Betroffene setzt den Konsum trotz eines bestehenden körperlichen oder psychischen Problems fort
  • Der Betroffene vernachlässigt wichtige soziale, familiäre oder berufliche Pflichten aufgrund des Substanzkonsums

Im Folgenden werde ich nun verschiedene Faktoren beleuchten, die dafür verantwortlich sind, dass Menschen von Substanzen abhängig werden. Die dargestellten Ansätze dienen dabei vor allem dazu, die beiden bedeutendsten Symptome zu erklären: die Toleranzentwicklung und die Entzugssymptome. Ich orientiere mich bei der Darstellung am Beispiel der besonders relevanten Alkoholabhängigkeit – die meisten Prozesse haben jedoch eine ebenso große Bedeutung für andere Substanzen.

Metabolische Toleranz

Hiermit sind Anpassungsprozesse auf Ebene der Leber gemeint, wo der größte Anteil des Alkohols abgebaut (d.h. metabolisiert) wird. In der Tat passt sich die Leber bei fortwährendem starken Alkoholkonsum dadurch an, dass zusätzliche Enzyme zum Abbau des Alkohols gebildet werden. Bei sehr starkem Konsum wird zudem auch das Enzym MEOS gebildet, das neben Ethanol (was den Hauptbestandteil dessen ausmacht, was wir als „Alkohol“ bezeichnen) auch die noch wesentlich gefährlichere Substanz Methanol abbaut und dem eine wichtige Bedeutung hinsichtlich der sich auftürmenden Nachwirkungen (siehe unten) zukommt.

Insgesamt kommt es also durch die Anpassungsprozesse in der Leber zu einem immer schnelleren Abbau in der Leber und somit dazu, dass eine immer größere Menge Alkohol nötig ist, um die gewünschte Wirkung zu erzielen.

Warum einem von Alkohol übel wird

Dass einem nach starkem Alkoholkonsum übel wird, ist auf das Produkt der ersten Abbaustufe in der Leber zurückzuführen, das so genannte Acetaldehyd, das dann zu Essigsäure und schließlich zu Kohlendioxid und Wasser abgebaut wird. Vielen asiatisch stämmigen Menschen fehlt das Enzym zum weiteren Abbau von Acetaldehyd, was deren generelle Unverträglichkeit gegenüber Alkohol erklärt.

Pharmakologische Toleranz

Dieser Begriff beschreibt die andere Facette der Toleranz und bezieht sich auf Anpassungsprozesse im Gehirn. Jede Substanz wirkt durch die Interaktion mit jeweils einer bestimmten Sorte von Rezeptoren, die normalerweise auf körpereigene Neurotransmitter („Botenstoffe“) ausgerichtet sind, die bezüglich der chemischen Struktur eine große Ähnlichkeit mit der jeweiligen Substanz aufweisen. Alkohol z.B. erzeugt an den entsprechenden Rezeptoren genau die gleiche Wirkung wie der allgemein sedierend wirkende Neurotransmitter GABA (Gamma-Aminobuttersäure). Bei fortwährendem Alkoholkonsum kommt es nun zu zwei Phänomenen: Erstens finden Umbauprozesse auf Basis der Rezeptoren statt, die sowohl in ihrer Zahl zunehmen als auch weniger empfindlich für die mit ihnen interagierenden Stoffe werden. Dies hat ebenso zur Folge, dass eine höhere Dosis der Substanz erforderlich ist, um die gewohnte Wirkung zu erzielen. Die zweite Wirkung ist die, dass durch die Allgegenwärtigkeit des Alkohols im Nervensystems der natürliche Neurotransmitter GABA „überflüssig“ wird und folglich in geringeren Mengen produziert wird – ein Aspekt, der im übernächsten Abschnitt intensiver behandelt wird.

Warum Alkohol in geringen Dosen stimulierend wirkt

Wie auch der Neurotransmitter GABA wirkt Alkohol als solcher sedierend, d.h. dämpfend und beruhigend. Gleichzeitig wirkt er sich aber auch sekundär auf das dompaminerge Transmittersystem aus, das auch unter dem Namen „Belohnungssystem“ bekannt ist. Alkohol bewirkt eine Enthemmung dieses Systems und führt somit zu dessen Aktivierung; die Folge ist (wie immer, wenn das Dopaminsystem aktiviert wird) eine stimulierende, euphorisierende und enthemmende Wirkung. In geringen Dosen überwiegt diese stimulierende Wirkung. Ist eine gewisse Blutalkoholkonzentration (in der Regel über 1 Promille) jedoch überschritten, überwiegt die eigentliche Wirkung, und die Euphorie weicht einem gedämpften Bewusstseinszustand und einer zunehmenden Müdigkeit.

Craving

„Craving“ bezeichnet das starke Verlangen nach der Substanz und die Omnipräsenz der Substanz in den Gedanken der Person. Dieses starke Verlangen tritt auf, wenn die Substanz längere Zeit nicht konsumiert wurde und die Person dann mit Dingen in Kontakt kommt, die mit der Substanz assoziiert sind (z.B. Alkoholwerbung bei Alkoholabhängigen oder rauchende Zeitgenossen bei Nikotinabhängigen). Craving ist daher maßgeblich für gescheiterte Abstinenzversuche verantwortlich. Der Grund hierfür liegt sehr wahrscheinlich, wie im vorherigen Abschnitt beschrieben, auf Basis der Veränderungen im Nervensystem, präziser gesagt an der heruntergefahrenen Produktion der körpereigenen Neurotransmitter (im Falle von Alkohol ist dies GABA). Diese Reduktion der Produktion ist die automatische Folge bei jedem Substanzkonsum, ist also mit diesem assoziiert (lerntheoretisch spricht man von einem klassischen Konditionierungsprozess). Ebenso ist der Substanzkonsum aber mit anderen substanzbezogenen Reizen assoziiert, wie z.B. mit dem Bild einer Schnapsflasche oder dem Geruch von Wein.

Wenn die Person nun mit substanzbezogenen Reizen in der Umwelt in Kontakt kommt, kommt es im Sinne einer konditionierten Reaktion schon vorab zu einer Reduktion der Neurotransmittermenge. Dadurch dass somit zu wenig GABA vorhanden ist, der Alkohol als Ersatz aber noch fehlt, kommt es zu dem starken Verlangen nach eben diesem. In der Regel folgt hierauf der erneute Konsum, um dieses Verlangen zu „befriedigen“. Bleibt dieser aus, kommt es zu starken Entzugssymptomen aufgrund des Defizits an Neurotransmittern. Diese Entzugssymptome stellen typischerweise das Gegenteil der direkten Wirkung der Substanz dar – beim generell sedierend wirkenden Alkohol sind die Folgen z.B. eine ausgeprägte Unruhe, ein hoher Puls und starkes Schwitzen. Aufgrund dieser Gegensätzlichkeit wird die Theorie, auf der diese Erklärung beruht, auch als opponent process theory bezeichnet.

Die tödliche Dosis Heroin

Die opponent process theory bietet auch eine Erklärung dafür, warum ein und dieselbe Dosis z.B. bei Heroin je nach Ort des Konsums entweder normal oder tödlich wirken kann. Der typische Ort des Konsums ist mit dem Konsum selbst assoziiert, und somit bewirkt schon das Eintreffen an dem jeweiligen Ort eine Reduktion der körpereigenen Transmittermenge (bei Heroin generell auch GABA), sodass der Körper auf die Aufnahme des Heroins vorbereitet wird. Wird die gleiche Dosis Heroin jetzt plötzlich an einem ungewohnten Ort konsumiert, fehlt dieser konditionierte Reiz, und es kommt nicht vorab zu einer Reduktion der körpereigenen GABA-Produktion. Folglich ist der Körper nicht auf die Substanz vorbereitet, und die gleiche Dosis wie zuvor kann in diesem Fall „zu viel“ sein und tödlich wirken. Ein anderer Grund ist derweil der, dass Heroin eine sehr unterschiedliche Zusammensetzung haben und mal mehr, mal weniger gepuncht sein kann, was auch eine unterschiedliche Wirkung derselben Dosis erklärt.

Sich auftürmende Nachwirkungen

Dieser Aspekt der Abhängigkeit ist womöglich derjenige, der am eigängigsten und daher am besten verständlich ist. Was vielen Menschen nicht unbedingt bewusst ist, ist, dass der erwünschten positiven (in geringen Dosen stimulierenden und in höheren Dosen sedierenden) Wirkung des Alkohols eine deutlich länger andauernde negative Wirkung gegenübersteht, die jedoch schwächer ausgeprägt ist als die unmittelbare Wirkung. Hierzu gehören ein generelles Unlustgefühl, Reizbarkeit und depressiver Verstimmung. Diese sind noch abzugrenzen von den Kopfschmerzen im Rahmen des „Katers am nächsten Morgen“, die schon früher vorüber sind. Diese negativen Folgewirkungen sind auch zu unterscheiden von Entzugserscheinungen, da sie im Gegensatz zu diesen nicht nur bei Menschen mit einer Abhängigkeit, sondern bei allen Konsumenten auftreten.

Warum kommt es zu diesen Folgeerscheinungen? Dies liegt wiederum stark an biologischen Abbauprozessen. Wie oben bereits erwähnt, wird Alkohol zunächst zu Acetaldehyd abgebaut. In Verbindung mit dem Hormon und Neurotransmitter Adrenalin bilden sich hieraus die Substanzen TIQ und THBC, zu deren Bildung außerdem das Enzym MEOS beiträgt, das bei sehr langem und intensivem Konsum entsteht. Die Substanzen TIQ und THBC beeinträchtigen nun wiederum das körpereigene Endorphinsystem und das Dopaminsystem („Belohnungssystem“), was für die oben beschriebenen Symptome verantwortlich ist.

Der Bezug zur Abhängigkeit ist nun der, dass die Betroffenen dazu neigen, diese negativen Folgewirkungen nicht „auszusitzen“ und zu warten, bis sie vorüber sind, sondern stattdessen erneut trinken, um diese zu kompensieren. Die Folge ist die, dass die negativen Nachwirkungen sich von Mal zu Mal auftürmen, weil die relevanten Stoffe im Körper (vor allem TIQ und THBC) nie richtig abgebaut werden können. Dies führt dazu, dass nach einiger Zeit die gleiche Menge Alkohol gerade einmal ausreicht, um wieder einen Normalzustand herbeizuführen – um die gleiche positive Wirkung wie zu Beginn hervorzurufen, muss hingegen dann schon die doppelte Menge Alkohol konsumiert werden. Somit bietet diese Perspektive eine weitere Erklärung für die Entwicklung einer Toleranz gegenüber der Substanz.

© Christian Rupp 2013

Psychopath, Soziopath & Co: Unterschiede, Ursachen & Therapie

„Der ist doch ein Psychopath!“ – Wer hat das nicht schon einmal gehört und dabei nicht das Bild eines gefährlichen, „irren“ und skrupellosen Mannes im Kopf gehabt? Dabei sind die Begriffe „Psychopath“ und „Soziopath“ keineswegs Diagnosen, die sich in den etablierten Diagnosesystemen für psychische Störungen, dem DSM-IV (Diagnostisches und Statistisches Manual, vierte Auflage) und der ICD-10 (International Classification of Diseases, 10. Auflage) finden. Daran lässt sich bereits erkennen, dass über sie wenig Einigkeit herrscht.

Einordnung & Merkmale: Was ist was?

Trotzdem kann man die Begriffe einordnen. Psychopathie ist der Begriff, der früher in der Psychiatrie für das verwendet wurde, was man heutzutage als Persönlichkeitsstörung bezeichnet, d.h. als tiefgreifende psychische Störung, die das gesamte Verhalten der Person in sämtlichen Lebensbereichen beeinflusst, in der Jugend oder im frühen Erwachsenenalter beginnt und sich in erster Linie in interaktionellen, d.h. zwischenmenschlichen Problemen niederschlägt. Von den Persönlichkeitsstörungen gibt es – je nachdem, welches Beziehungsmotiv und welche entsprechenden fehlangepassten Verhaltensweisen dominieren – einen ganzen „Zoo“. Da wären z.B. die narzisstische, die histrionische, die zwanghafte, die selbstunsicher-vermeidende, die schizoide und die schizotype Persönlichkeitsstörung (nicht zu verwechseln mit der Schizophrenie, einer psychotischen Störung!) sowie die relativ bekannte Borderline-Persönlichkeitsstörung, die auch unter dem Namen „emotional instabile Persönlichkeitsstörung“ bekannt ist. Und dann gibt es eben die antisoziale oder manchmal auch als dissoziale bezeichnete Persönlichkeitsstörung, deren Kernmerkmal in einem „tiefgreifenden Muster von Missachtung und Verletzung der Rechte anderer“ (DSM-IV) besteht. Gekennzeichnet ist diese Störung z.B. dadurch, dass der betroffene Mensch sich nicht in soziale Gemeinschaften integrieren kann und andererseits auch geringes Interesse an sozialen Beziehungen hat, nicht die Perspektive anderer Menschen übernehmen kann (es bestehen Beeinträchtigungen bezüglich der sozio-emotionalen Kompetenz und der Theory of Mind), kein Gespür für angemessenes Vehalten in sozialen Situationen aufweist, oder aber bewusst anderen Menschen Schaden zufügt (z.B. durch Diebstahl oder Gewalt). Gesellschaftliche Normen werden meist ignoriert oder bewusst verletzt, es kommt zu verantwortungslosem Verhalten sich selbst und anderen gegenüber, und es besteht generell ein geringes Schuldbewusstsein. Lügen und Betrügen sind ebenso typische Verhaltensweisen wie aggressive Gewaltexzesse und impulsives, wenig vorausschauendes Verhalten. So, und eben diese Art von Persönlichkeitsstörung wird bisweilen auch als „Soziopathie“ bezeichnet. Bestimmte psychiatrische Schulen der Vergangenheit prägten diesen Begriff, Eingang in DSM-IV und ICD-10 fand aber die antisoziale/dissoziale Persönlichkeitsstörung, die im Prinzip genau dasselbe beschreibt.

Antisoziale Denk- und Verhaltensmuster manifestieren sich meistens schon relativ früh in der Kindheit: So entwickelt besonders ein Großteil derjenigen Kinder, die schon vor dem 10. Lebensjahr eine Störung mit oppositionellem Trotzverhalten oder eine Störung des Sozialverhaltens aufweisen, im weiteren Entwicklungsverlauf eine antisoziale Persönlichkeitsstörung. Ähnlich häufig kommt es im Erwachsenenalter zu Abhängigkeitserkrankungen und aggressivem sowie delinquentem Verhalten, was gleichsam häufige Begleiterscheinungen der antisozialen Persönlichkeitsstörung sind, die übrigens deutlich häufiger bei Männern auftritt als bei Frauen.

Exkurs: „Weibliche“ und „männliche“ Gewalt

Einige Wissenschaftler zweifeln allerdings daran, dass aggressiv-antisoziales Verhalten bei Frauen tatsächlich seltener auftritt als bei Männern. Dies begründen sie damit, dass antisoziales Verhalten meist nur in Form der für Männer typischen körperlichen Gewaltakte („draufhauen“) und Verhaltensweisen wie Diebstahl oder Lügen erfasst wird. Diese sind jedoch nur die eine Seite der Medaille. Die andere Seite sind die eher indirekten, aber keineswegs weniger folgeschweren Formen von Gewalt. Oft fallen in diesem Zusammenhang die Begriffe „soziale Gewalt“ oder „relationale Gewalt“. Gemeint ist hiermit, dass dem Opfer nicht durch direkte körperliche Gewalt Schaden zugefügt wird, sondern über die soziale Gruppe. Hierzu gehören der soziale Ausschluss des Opfers, üble Nachrede („Lästern“), verbale Beschimpfungen und öffentliche Demütigungen. Diese Form von Gewalt, ist, wie einige Studien belegen, unter Mädchen und Frauen sehr viel weiter verbreitet als unter Jungen und Männern. Daher bleibt die Frage offen, ob der scheinbare Häufigkeitsunterschied zwischen Männern und Frauen nicht eventuell einfach nur darauf zurückzuführen ist, dass in den Studien, die diesen Unterschied berichten, antisoziales Verhalten auf die „männliche Definition“ reduziert wurde.

Um die oben beschriebenen Begrifflichkeitsprobleme noch zu verkomplizieren, findet sich z.B. leider in der ICD-10 zur Erläuterung der antisozialen Persönlichkeitsstörung der Begriff „psychopathisch“, sodass man leider zugeben muss, dass selbst die Fachliteratur die Begriffe „Soziopath“ und „Psychopath“ heutzutage nicht konsistent und manchmal durchaus gleichbedeutend verwendet. Übrigens: Man ersetzte im Fachsprachgebrauch deshalb „Psychopathie“ durch „Persönlichkeitsstörung“, weil „Psychopath“ inzwischen zu einem gern genutzten Schimpfwort verkommen ist und bevorzugt degradierend und stigmatisierend (für jemanden, der einem unberechenbar und „irre“ vorkommt) verwendet wird – d.h. jenseits seiner eigentlichen Bedeutung.

Thema Ursache: Wie kann es dazu kommen?

Eine ebenso verständliche wie schwierig zu beantwortende Frage ist, wie Menschen sich zu derart unangenehmen Zeitgenossen entwickeln können. Basierend auf Forschungsbefunden lassen sich im Wesentlichen drei verschiedene Gruppen von Erklärungsmodellen unterscheiden, die meiner Einschätzung nach alle einen eigenständigen und plausiblen Beitrag zur Erklärung einer antisozialen Entwicklung leisten, also keineswegs so zu verstehen sind, dass sie einander ausschließen.

Neurowissenschaftliche und lerntheoretische Befunde: Grundlegende Defizite

Die neurowissenschaftliche Perspektive stellt, neben einigen Theorien, die einen Mangel an Serotonin (einem Neurotransmitter, der als wichtig für soziales Verhalten angesehen wird) vermuten, eine Fehlfunktion des Frontallappens (vorderster und evolutiv jüngster Teil des Gehirns) ins Zentrum. Er wird vor allem mit den so genannten exekutiven Funktionen in Verbindung gebracht, worunter u.a. die Ausrichtung der Aufmerksamkeit, das Filtern von Informationen in wichtige und unwichtige sowie (ganz zentral) die Kontrolle über die Initiierung und Hemmung von Verhalten fallen. Laut Blair (2011) besteht bei Personen mit antisozialer Persönlichkeitsstörung ein Defizit der Art, dass Handlungen nicht adäquat an Signale aus der Umwelt angepasst werden können und die für gesunde Menschen völlig natürliche Orientierung des Verhaltens an seinen Konsequenzen erschwert wird. Hinzu komme außerdem eine Veränderung des neuronalen Furchtsystems in der Form, dass Betroffene grundsätzlich deutlich weniger Furcht empfinden und somit negative Konsequenzen ihres Verhaltens nicht als ausreichend schwerwiegend wahrgenommen werden, um zukünftiges Verhalten zu beeinflussen. Zusätzlich bestehe ein Defizit der sozio-emotionalen Kompetenz, ausgehend von Befunden, die zeigen, dass Menschen mit antisozialer Persönlichkeitsstörung eine verringerte Reaktion auf emotionale Äußerungen anderer zeigen und eine deutliche Beeinträchtigung aufweisen bzgl. der Fähigkeit, bei anderen Menschen Emotionen zu identifizieren.

Zusammengenommen könnte dies z.B. erklären, warum Menschen mit antisozialer Persönlichkeitsstörung wenig vorausschauendes Verhalten zeigen, d.h. nur wenige Aspekte bei dessen Planung berücksichtigen. Zudem wird hierdurch klar, warum diese, völlig ungeachtet der Konsequenzen ihres Verhaltens (ich meine hier explizit auch schwerwiegende Konsequenzen wie Gefängnisstrafen), immer „weitermachen“. Die sozio-emotionalen Beeinträchtigungen können ferner als Erklärung für die „Kaltblütigkeit“ und Skrupellosigkeit des Verhaltens herangezogen werden: Wo „gesunde“ Menschen aus Mitleid mit bzw. Empathie gegenüber dem Opfer aufhören (z.B. weil das Opfer weint und um Gnade bittet), schlagen Menschen mit antisozialer Persönlichkeitsstörung eher noch weiter zu.

Die Frage bei diesen neurowissenschaftlichen Theorien ist immer die, ob die von ihnen postulierten Defizite als angeboren oder als durch Lernerfahrungen erworben angesehen werden. Von Haus aus haftet diesen Theorien meist eher die „angeboren“-Perspektive an, doch dieser Schluss ist keineswegs gerechtfertigt, da inzwischen vieles darauf hinweist, dass Lernerfahrungen hinsichtlich ihres Einflusses auf die Entwicklung psychischer Störungen lange Zeit eher unterschätzt wurden und weil mittlerweile klar geworden ist, dass Lernerfahrungen neuronale Prozesse ebenso beeinflussen können wie unsere Gene – und dass es in den allermeisten Fällen in der Tat eine komplexe Interaktion von Genen und Lernerfahrungen bzw. Umwelt ist (die so genannte Gen-Umwelt-Interaktion), die als Ursache einer Störung angesehen werden kann.

Persönlichkeitsmodelle: Kaltherzig oder dauerhaft unterstimuliert?

Bei den Persönlichkeitsmodellen gibt es zwei, die jeweils unterschiedliche – als weitgehend angeboren betrachtete – Persönlichkeitsmerkmale (traits) postulieren, die als Grundlage der antisozialen Persönlichkeitsstörung angesehen werden. Quay (1965) geht davon aus, dass Menschen mit antisozialer Persönlichkeitsstörung ein ungewöhnlich hohes Befürfnis nach Stimulation haben bzw. eine generelle Unterstimulation/ein geringes physiologisches Aktivierungsniveau aufweisen. Dies hat zur Folge, dass die betreffenden Menschen extrem riskantes Verhalten an den Tag legen, da nur dieses sie in einen angenehmen Aktivierungszustand versetzen, d.h. ihnen den „Kick“ geben kann. Aufgrund des drängenden Bedürfnisses nach solcher Stimulation hat sich in diesem Kontext der Begriff sensation seeking eingebürgert. Funktionale, wenn auch nicht minder gefährliche Wege, dieses Bedürfnis zu befriedigen, sind z.B. entsprechende Sportarten wie Bungee Jumping, Fallschirmspringen, Wildwasser-Rafting, etc. Nicht funktionale Wege sind derweil aggressives Verhalten und kriminelle Handlungen, wie sie bei der antisozialen Persönlichkeitsstörung auftreten.

Frick (1998) beschreibt derweil eine andere Charaktereigenschaft als Basis der antisozialen Persönlichkeitsstörung, und zwar den callous trait (callous = abgestumpft/gleichgültig), der auch als unemotional trait bezeichnet wird. Gemeint ist hiermit etwas, das bereits bei den neurowissenschaftlichen Theorien angeklungen ist, nämlich eine generelle Abwesenheit von Empathie und einem grundlegenden Schuldempfinden.

„Schwieriges“ Temperament

Eine weitere Perspektive betrifft die der frühkindlichen Temperamentseigenschaften, die – im Gegensatz zu den sich erst deutlich später herausbildenden Persönlichkeitseigenschaften – als größtenteils angeboren und durch grundlegende physiologische Prozesse bestimmt angesehen werden. Daher sind diese auch bereits im Säuglingsalter ersichtlich und zeigen sich z.B. dadurch, wie häufig und intensiv das Kind negative (Schreien, Weinen, generelle Unzufriedenheit) oder auch positive Emotionen (Lächeln, Freude am Spiel) äußert, wie regelmäßig sein Schlaf-Wach-Rhythmus ist, wie regelmäßig es Hunger verspürt und ob es fremden Situationen gegenüber eher gehemmt ist oder ihnen offenherzig begegnet. Es gilt inzwischen als relativ gut belegt, dass diese Eigenschaften weitgehend angeboren sind – und dass die weitere Entwicklung der Persönlichkeit des Kindes bzw. einer psychischen Störung in der Folge vor allem davon abhängt, wie angemessen Eltern auf das Temperament des Kindes reagieren können und in der Lage sind, dessen Emotionsausbrüche zu regulieren. Das heißt, auch hier haben wir es mit einer ganz klassischen Gen-Umwelt-Interaktion zu tun: Eltern eines Kindes mit einem „schwierigen Temperament“ (gekennzeichnet u.a. durch viel negative Emotionalität, gehemmtes Annäherungsverhalten in fremdartigen Situationen und unregelmäßige biologische Rhyhtmen) haben es sicherlich in der Erziehung schwerer und müssen sich sicherlich viele tolle „Ratschläge“ von anderen Eltern anhören, aber ihr Kind ist aufgrund seines Temperaments sicherlich nicht automatisch zum Scheitern oder gar zu einer psychischen Störung verurteilt.

Umwelteinflüsse: Gewalt in der Kindheit & Co.

Im Abschnitt über neurowissenschaftliche Theorien hatte ich schon einige lerntheoretische Aspekte genannt, dennoch möchte ich hier noch einen Abschnitt den Umwelterfahrungen, d.h. vor allem den Lernerfahrungen in der Kindheit, widmen. Es ist einerseits eine Binsenweisheit, dass Kinder von Eltern, die Gewalt anwenden, überzufällig häufig (was heißt: keineswegs immer!) auch Gewalt gegenüber ihren eigenen Kindern und anderen Menschen anwenden, andererseits ist dies tatsächlich auch wissenschaftlich belegt worden. Dies erklärt sich dadurch, dass Kinder natürlich am Modell ihrer Eltern lernen, dass man sich mittels Gewalt durchsetzt, Probleme löst und sich somit Respekt durch „Gefürchtetwerden“ verschafft – mit anderen Worten: Sie erlernen gewaltsames Verhalten als Bewältigungsstrategie. Es besteht aber noch ein weiterer Zuammenhang: So wird von vielen Forschern postuliert, dass Kinder, die häufig körperliche Gewalterfahrungen machen, in gewisser Weise „abgehärtet“ werden. Da sie so unempfindlicher für entsprechende Schmerzen werden, sinkt somit die Hemmschwelle, selbst auch Gewalt gegen andere anzuwenden.

Natürlich aber können Gewalt bzw. aggressives Verhalten von Seiten der Umwelt auch direkt verstärkt, d.h. belohnt, werden. Dies ist bei Kindern z.B. dann der Fall, wenn sie durch aggressive Wutausbrüche  bei ihren Eltern immer wieder ihr Ziel erreichen („ihren Willen bekommen“) – ebenso wie wenn Eltern solchen Wutausbrüchen tatenlos zusehen, da das Kind auf diese Weise lernt, dass solches Verhalten akzeptiert wird. Ähnlich verhält es sich mit Lernprozessen im weiteren Leben, wenn das Kind oder der Jugendliche z.B. innerhalb von Gleichaltrigengruppen die Erfahrung macht, dass es oder er sich durch antisoziales Verhalten Vorteile (z.B. Respekt der anderen, erpresstes Geld, keinerlei Bedrohung, etc.) verschaffen kann. Das Endergebnis ist immer dasselbe: Das antisoziale Verhalten wird bestärkt und aufrecht erhalten.

Therapie: Resignation oder Hoffnung?

Man muss es offen zugeben: Im Allgemeinen besteht größtenteils Pessimismus bezüglich der Behandlung dieser Form von Persönlichkeitsstörung. Auch wenn es in den letzten 10-20 Jahren enorme Fortschritte hinsichtlich der Behandlung von Persönlichkeitsstörungen gegeben hat (nicht zuletzt durch die Schematherapie nach Young und, vor allem im deutschsprachigen Raum, durch die Klärungsorientierte Therapie nach Sachse), ist die Bilanz bei der antisozialen Persönlichkeitsstörung eher mager.

Dies ist jedoch wenig überraschend, wenn man einmal die Umstände berücksichtigt, unter denen hier in der Regel Therapie stattfindet. Da die Betroffenen in aller Regel keine eigene Motivation besitzen, sich in Behandlung zu begeben (weil das Problem, wenn es überhaupt ein Problembewusstsein gibt, grundsätzlich bei anderen Menschen verortet wird), findet die Therapie erst dann statt, wenn es im Grunde schon „zu spät“ ist, d.h. wenn die Betreffenden sich im Strafvollzug befinden und die Therapie im Rahmen dessen unter Zwang stattfindet. Dies sind, psychotherapeutisch und motivationspsychologisch betrachtet, die denkbar ungünstigsten Voraussetzungen für nachhaltige therapeutische Veränderung. Hinzu kommt, dass zum aktuellen Zeitpunkt keine evidenzbasierten Behandlungsmethoden vorliegen und es auch keine „Standardtherapie“ gibt.

Lichtblick

2002 veröffentlichte Salekin allerdings eine Metaanalyse, die unerwarteten Optimismus weckte. Sie fasste die Ergebnisse von über 30 Studien mit insgesamt über 800 Patienten zusammen, die mit unterschiedlichsten Therapiemethoden (von Psychoanalyse bis zu kognitiver Verhaltenstherapie war alles dabei) behandelt worden waren. Tatsächlich ergaben sich hier Erfolgsraten (d.h. Anteil der Patienten, die durch die Behandlung eine deutliche Veränderung erlebten) zwischen 17 und 88%, was deutlich mehr ist, als man erwartet hätte.

Festzuhalten bleibt dennoch, dass es sich bei der antisozialen Persönlichkeitsstörung um eine sehr schwerwiegende, schwer behandelbare und – im Gegensatz zu anderen psychischen Störungen – vor allem für das Umfeld der Person (bzw. für die gesamte Gesellschaft) nicht ungefährliche und sehr beeinträchtigende Störung handelt.

© Christian Rupp 2014