Wenn dieses Editorial erscheint, befinden wir uns im dritten Jahrzehnt des 21. Jahrhunderts.
Was bedeutet das für unser Fach? Welche Entwicklungen zeichnen sich ab? Leider habe
ich keine Glaskugel zur Hand, und selbst wenn ich eine hätte, so verfüge ich dennoch
über keinerlei hellseherischen Fähigkeiten. Aber es gibt viele neue Erkenntnisse,
Entwicklungen und gewisse Trends schon jetzt, die man auf die Psychiatrie extrapolieren[
1
] kann: Molekularbiologie, Gentechnik, Epigenetik, Mikrobiom, Data-Science, der Wandel
von Demografie und Klima, die Verstädterung oder die ubiquitäre Verbreitung von Internet
und digitalen Endgeräten. All das wird nicht nur ganz sicher die Oberflächengestalt
psychopathologischer Erscheinungen verändern (in dem Sinne, wie der hypochondrische
Wahn Depressiver früher die Lues, dann TBC, dann HIV und demnächst wahrscheinlich
Corona zum Inhalt hat oder im Sinne von Phantomvibration, Fomo und Cyberchondrie),
sondern mit hoher Wahrscheinlichkeit tiefer gehen: So wie der Abstammungswahn mit
dem Adel (und etwa 100-jähriger Verspätung) verschwand, könnten bestimmte Formen der
Psychopathologie ab- oder zunehmen: Dass der demografische Wandel mehr demenzielle
Syndrome mit sich bringen wird, ist trivial; dass der Klimawandel mehr Ängste und
Gefühle der Hilflosigkeit (und damit auch mehr Depression) zur Folge haben wird, ist
schon nicht mehr ganz so trivial. Und dass manche klinische Einschätzung irgendwann
auch in der Psychiatrie durch Data-Science ersetzt wird, oder Psychotherapie durch
ein Klistier, ist zumindest nicht mehr prinzipiell undenkbar. Betrachten wir ein paar
Beispiele – in leider noch ungeordneter Reihenfolge im Hinblick auf Inhalt und Wahrscheinlichkeit
des Eintretens.[
2
]
Gene-Editing: CRISPR/Cas bei Alzheimer?
Gene-Editing: CRISPR/Cas bei Alzheimer?
Die Alzheimer-Krankheit macht etwa 70 % der Demenzen aus und gehört mit knapp 50 Millionen
Fällen weltweit zu den häufigen Todesursachen. Bereits in 10 Jahren werden es über
70 Millionen Fälle weltweit sein. Bei ihr kommt es u. a. zu einem „falschen Zerschneiden“
eines in der Zellmembran lokalisierten Eiweißkörpers, dem Amyloid-Precursor-Protein
(APP). Hierbei entsteht Amyloid, dessen Ablagerung im Gehirn für die Krankheit mitverantwortlich
ist. In einer isländischen Studie an 1700 Patienten wurde bereits im Jahr 2012 eine
Mutation im APP-Gen entdeckt, die mit der Abwesenheit von Alzheimer-Demenz assoziiert
war [15]. Diese Mutation betrifft ein einziges Nukleotid (Punktmutation), das vor kurzem
erstmals mittels der Genschere CRISPR/Cas in Zellkulturen eingesetzt wurde, woraufhin
sich die Ablagerungen verminderten [19]. Die ganze Sache klingt sehr gut, ist jedoch aus ganz prinzipiellen Gründen nicht
unproblematisch: Zwar nimmt man an, dass die bei den Isländern gefundene Mutation
sonst keine negativen Auswirkungen hat. Das kann sein. Nicht selten haben aber Gene
(um genau zu sein: Allele), die für irgendetwas gut sind, irgendwo anders negative
Auswirkungen, die man (zunächst) meist nicht kennt. 3 bekannte Beispiele: Gene für
blaue Augen und helle Haut vermindern in höheren Breitengraden Vitamin-D-Mangel im
Winter, führen jedoch in Gegenden mit mehr Sonneneinstrahlung (also näher am Äquator)
zu mehr Hautkrebs. Gene für besonders gutes Denkvermögen in jungen Jahren erhöhen
die Wahrscheinlichkeit der Entwicklung einer Alzheimer-Demenz im Alter. Gene für ein
langes Leben erhöhen die Wahrscheinlichkeit, an Krebs zu erkranken, denn Krebszellen
vermehren sich, leben ewig und führen daher zum Tod.
Darm-Gehirn-Achse: Bakterien gegen Angst, Autismus und Depression?
Darm-Gehirn-Achse: Bakterien gegen Angst, Autismus und Depression?
Wohl kaum ein Thema hat die Medizin im vergangenen Jahrzehnt so stark und so unerwartet
durcheinandergewirbelt wie das Mikrobiom, also die auf und in unserem Körper vorhandenen
Bakterien. Dass Kot zu etwa 70 % aus Bakterien besteht, wusste man schon lange, dass
diese Bakterien jedoch in ihrer Summe mehr als das 100-Fache der Gene des menschlichen
Körpers ausmachen und damit Stoffwechselleistungen vollbringen können, die wir nicht
können, war neu. So können wir keine Fasern verdauen, unser Mikrobiom aber schon.
Und es macht daraus nicht nur etwa ein Zehntel der Kalorien, die wir täglich zu uns
nehmen, sondern auch Stoffe, die wir nicht herstellen können: Manche Vitamine und
beispielsweise kurzkettige Fettsäuren, die für die Gehirnentwicklung gebraucht werden.
In gleich 3 unterschiedlichen Mausmodellen des Autismus konnte gezeigt werden, dass
die Übertragung von gesunden Darmbakterien (Lactobacillus reuteri) in den Darm der Modell-Tiere die Entstehung dieser Entwicklungsstörung verhindert
[23]. Bemerkenswert an den Experimenten war die Tatsache, dass der Autismus durch die
Bakterien sowohl bei gleichzeitiger Durchtrennung des Nervus vagus als auch bei Blockade
zerebraler Oxytocin-Rezeptoren nicht zu verhindern war. Auch die Blockade dopaminerger
Verbindungen der VTA hatte diese Auswirkung. Der therapeutische Effekt der Darmbakterien
ist also über den Vagusnerv sowie über die zentralnervösen Neurotransmitter Oxytocin
und Dopamin vermittelt ([
Abb. 1
]). An diesem Beispiel zeigt sich deutlich die Komplexität der Auswirkungen der „richtigen“
Darmbakterien auf die Gehirnentwicklung.
Abb. 1 Diese besonders nette grafische Zusammenfassung der Studie aus Neuron sei dem Leser
nicht vorenthalten (nach Daten aus [23]).
-
Für den Effekt muss es ein „Entwicklungsfenster“ (auch „kritische Phase“ oder „sensible
Periode“ genannt) geben.
-
Er setzt die Intaktheit des Parasympathikus und gleich zweier für Lernen und Sozialverhalten
als wesentlich erachteter Neuromodulatoren voraus.
-
Der Effekt erwies sich als unabhängig von der Ursache des Autismus.
Das Beispiel zeigt, wie unerwartet die Ergebnisse gut gemachter wissenschaftlicher
Studien sein können. Es zeigt aber auch, dass hier lediglich ein Anfang gemacht wurde
und noch sehr großer Forschungsbedarf besteht, bis diese Erkenntnisse klinische Relevanz
bekommen könnten. Auch Angststörungen und Depression wurden mit Veränderungen des
Mikrobioms im Darm des Menschen in Verbindung gebracht [22], [37]. Die Neuromodulatoren Serotonin, Dopamin, Noradrenalin, Melatonin sowie die Neurotransmitter
Acetylcholin, Glutamat und GABA – das muss jeden Nervenarzt aufhorchen lassen – werden nebst den genannten kurzkettigen Fettsäuren
und Vitaminen vom Mikrobiom in unserem Darm für uns synthetisiert ([
Abb. 2
]).
Abb. 2 Zusammenhang auf der molekularen bzw. Neurotransmitterebene zwischen Darmbakterien
und Depression (nach Daten aus [4]).
In Mausmodellen führt die Einnahme von Probiotika (also Stoffen, welche die Darmbakterien
beeinflussen) durch Muttertiere während der Trächtigkeit und Laktation zu messbaren
Veränderungen bei der Expression bestimmter Neurotransmitter sowie angstspezifischer
Verhaltensweisen bei den Nachkommen [12]. Diese Befunde zeigen, dass das die mütterliche Diät epigenetische Effekte auf das
Gehirn der Nachkommen haben kann, die über das Mikrobiom vermittelt sind. Die klinischen
Konsequenzen dieser Befunde sind Gegenstand intensiver Forschungsbemühungen und werden
uns damit in den nächsten Jahren mit hoher Wahrscheinlichkeit in der Klinik beschäftigen.
Da Bakterien sich in einer Matrix aus Zellulose verkapseln lassen, ist deren Einsatz
neben dem von Probiotika auch in der Psychiatrie durchaus denkbar. Es muss also keineswegs
um „fecal transplants“ gehen, wie man das im Englischen nennt, also Klistiere mit
Bakterien aus den Därmen Gesunder.
Big Data, Mustererkennung und klinische Entscheidungen
Big Data, Mustererkennung und klinische Entscheidungen
Die Analyse großer Datensätze mittels lernender Computer, die ähnlich funktionieren
wie lernende Gehirne, erobert seit ein paar Jahren die unterschiedlichsten Bereiche
unserer Welt – autonom fahrende Autos, automatisches Übersetzen und Erkennen von Gesichtern,
Wettervorhersage, Auffinden neuer chemischer Reaktionswege[
3
] – und auch die Medizin in vielfacher Hinsicht. Der wesentliche Fortschritt bestand
dabei in immer stärkerer Rechenleistung von Computern und immer besseren Algorithmen
zum Lernen (Deep Learning). Mein Smartphone kann, verbunden mit dem Internet, Hautkrebs
so gut diagnostizieren wie ein Dermatologe [7] ([
Abb. 3
]). Computer sind bei der Beurteilung beispielsweise von Lungen-CTs zum Screening
für Lungenkarzinomen etwa so gut wie Radiologen [3] und werden in naher Zukunft Radiologen auch bei der Beurteilung von Röntgenbildern
ablösen (ein Computer und ein Radiologe zusammen sind ebenso gut oder gar besser als
2 Radiologen[
4
], [
5
]). Mittels künstlicher Intelligenz (Deep Learning in neuronalen Netzwerken) finden Maschinen mittlerweile sogar neue Erkenntnisse,
auf die Radiologen nie gekommen wären ([
Abb. 4
]).
Abb. 3 Cover des Nature-Hefts aus dem Jahr 2017, auf dem der Durchbruch der Nutzung von
Artificial Intelligence (AI) bei der medizinischen Diagnose von Hautkrebs sehr schön
in grafische Symbolik umgesetzt wurde. Auch der Titel „Lesions Learnt“ ist kein Druckfehler,
sondern stellt ein schönes Wortspiel dar, werden doch normalerweise „lessons“ gelernt.
In diesem Fall hat das neuronale Netzwerk jedoch bei Hautläsionen („lesions“) gelernt,
die gutartigen von den bösartigen zu unterscheiden.
Abb. 4 Die Stellung der Schulterblätter im Röntgenthorax verrät etwas über die Mortalität
(nach Daten aus [21]). Zu diesem Ergebnis kommt eine Studie an 52 320 Röntgenthorax-Aufnahmen, die im
Rahmen eines Screening-Programms zur Vorsorge im Hinblick auf Karzinome von Prostata,
Lunge, Kolon und Rektum sowie der Ovarien vom 8. November 1993 bis zum 2. Juli 2001
an 10 Zentren in den USA durchgeführt wurden. Ein neuronales Netzwerk wurde dann mit
nichts weiter trainiert als den Röntgenbildern und den Sterbedaten der Teilnehmer
in den darauffolgenden 12 Jahren. Die Abbildung links zeigt anhand einer Beispiel-Röntgenaufnahme
farblich kodiert (von Violett: „wenig“ bis Gelb: „viel“) die Lokalisation der Varianzaufklärung,
d. h. zeigt an, dass das Netzwerk die Mortalität vor allem an den Schulterblättern
abgelesen hat. Teilt man die Gesamtgruppe nach der vorhergesagten Mortalität in fünf
Gruppen (Quintile) ein, so zeigen die Kaplan-Meier-Überlebenskurven (rechts) deutliche
Unterschiede in der 12-Jahres-Mortalität zwischen den Gruppen an. Zur Validierung
wurde das Netzwerk danach zur Bestimmung der 6-Jahres-Mortalität anhand weiterer 5493
Röntgenthoraxbilder aus einer anderen Studie (vom August 2002 bis zum April 2004)
verwendet und sagte diese gut voraus. Die Voraussage funktionierte unabhängig von
der Diagnose im Einzelfall. Warum das so ist, weiß bislang niemand. (Und dies ist
bei lernenden neuronalen Netzwerken, die nach dem Lernen etwas können, grundsätzlich
so: Wie sie das machen, ist unserer Erkenntnis zunächst verschlossen. Man kann auf
verschiedene Weise versuchen, es herauszubekommen, aber die Erfolgsaussichten sind
ungewiss.)
Was man mit der Analyse von Daten aus der realen Welt durch lernende neuronale Netzwerke
in der Medizin bei der klinischen Entscheidungsfindung anstellen kann, zeigte schon
vor mehr als 2 Jahrzehnten der Arzt einer Unfallklinik im amerikanischen Bundesstaat
North Carolina [25], [30]. Er trainierte ein neuronales Netzwerk mit Daten zu Alter, Geschlecht, Diagnose,
klinischem Bild, Allgemeinzustand, Laborwerten und Outcome (überlebt oder gestorben)
von Patienten auf Intensivstationen, sodass es lernte, aus diesen Datenmustern die
Prognose der Patienten vorherzusagen. Dies ist wichtig, wenn es beispielsweise um
die Triage geht, d. h. um die Optimierung des Outcomes bei der Allokation knapper
Ressourcen: Wenn nach einer Massenkarambolage 7 Schwerverletzte zugleich eintreffen,
aber nur 4 Intensivbetten zur Verfügung stehen, sollte die Entscheidung, wer behandelt
wird und wer nicht, nach rationalen Gesichtspunkten getroffen werden.[
6
] Gelöst wird es in aller Welt nach den gleichen Prinzipien. Wenn an der Lösung künstliche
Intelligenz beteiligt ist (kein Mensch kann so viele Daten wie neuronale Netzwerke
verarbeiten und dies ohne affektiv getönte und wertende (Vor-)Urteile), sagen die
Amerikaner „der Computer entscheidet“, wohingegen man in Europa eher sagt, „dass wir
entscheiden, uns aber vom Computer unterstützen lassen“.
Erst kürzlich wurde eine auf maschinellem Lernen basierte Lösung des bekannten Problems
publiziert, das bei der Gabe von Antibiotika bei einem unkomplizierten Harnwegsinfekt
dadurch entsteht. Man will einerseits wirksam therapieren, andererseits jedoch keineswegs
immer gleich das neueste und wirksamste Antibiotikum geben, um die Entwicklung von
Resistenzen gegen diese neu entwickelten Substanzen nicht zu fördern [17]. Welches Medikament sollte man also vor dem Hintergrund dieses Zielkonflikts zwischen
jetzigen und künftigen Patientinnen im Einzelfall geben? Dieses Problem ist keineswegs
akademisch, sondern im klinischen Alltag sehr häufig, erleidet doch nahezu jede Frau
mindestens einmal im Leben einen Harnwegsinfekt, welcher mit in den USA 4,7 Millionen
Verschreibungen bei 13 Millionen ambulanten Vorfällen die dritthäufigste Indikation
für die Gabe von Antibiotika überhaupt darstellt. Um das Problem zu lösen, entwickelte
ein Team aus Ärzten und Wissenschaftlern aus Boston (Harvard University und Medical
School, MIT) und Pittsburgh (Machine Learning Department der Carnegie Mellon University) eine Anwendung, um auf der Grundlage von maschinellem
Lernen aus Daten der elektronischen Gesundheitsakte (EHR), sowohl Wirksamkeit als
auch Wahrscheinlichkeit einer Antibiotikaresistenz gegen Erstlinien- (Nitrofurantoin
und Trimethoprim-Sulfamethoxazol) und Zweitlinien-Therapien (Ciprofloxazin und Levofloxazin)
vorherzusagen. Der daraus entwickelte Entscheidungsalgorithmus setzt diese Wahrscheinlichkeiten
in Empfehlungen um, sodass das Antibiotikum mit dem kleinstmöglichen Spektrum ausgewählt
wurde, mit dem sich noch eine klinische Heilung erreichen lässt. In den Jahren 2014–2016
wurde dann bei einer Testkohorte von 3629 Patienten eine Verminderung der Verwendung
von Zweitlinien-Therapien um 67 % gegenüber der Entscheidung von Klinikern gefunden.
Zugleich wurden Behandlungen mit Antibiotika, gegenüber denen sich die Erreger als
resistent erwiesen, um 18 % durch den Algorithmus (gegenüber Klinikern) gesenkt. In
92 % (1066 von 1157) der Fälle, in denen Kliniker eine Zweitlinien-Therapie empfohlen
hatten, der Algorithmus jedoch ein Erstlinien-Medikament vorschlug, erwiesen sich
die Erreger als empfindlich auf das Erstlinien-Medikament. Wenn Kliniker ein ungeeignetes
Medikament der ersten Wahl auswählten, wählte der Algorithmus in 47 % (183 von 392)
der Fälle ein geeignetes Medikament der ersten Wahl. Die Autoren folgern, dass ihr
„maschinell lernender Entscheidungsalgorithmus Antibiotikaempfehlungen für ein häufiges
infektiöses Syndrom bietet, indem er die Reduktion des Einsatzes von Breitbandantibiotika
bei gleichzeitiger Aufrechterhaltung optimaler Wirksamkeit gewährleistet“ [17]. Sie sind damit nicht am Ende, sondern erst am Anfang ihrer Arbeit, denn erst weitere
solche Untersuchungen mittels neuronaler Netzwerke, die aus klinischen Daten Muster
extrahieren und damit Handlungsanweisungen optimieren, wie es ein einzelner Kliniker
schlichtweg nicht kann[
7
], können die Verallgemeinerbarkeit ihrer Ergebnisse auf andere Diagnosen und Patientengruppen
klären.
Was hat das Ganze mit Psychiatrie zu tun? – Sehr viel, wie ein Blick in die Psychiatriegeschichte
zeigt. Diese ist voll von Beispielen der Erkennung von Mustern, auch wenn die beteiligten
Psychiater manchmal Muster zu erkennen glaubten, die sich als ephemer herausstellten.
So beispielsweise in der zu Beginn des 19. Jahrhunderts von dem Arzt und Anatomen
Franz Joseph Gall (1758–1828) begründeten Phrenologie, in der man aus bestimmten Mustern der Form des Schädels auf Charaktereigenschaften
schließen zu können glaubte ([
Abb. 5
])[
8
], oder darauf aufbauend einige Jahrzehnte später in den Lehren von Cesare Lombroso
(1872) zu Gesichtszügen von „Degenerierten“ und Verbrechern.[
9
] Auch Sir Francis Galton (1878, 1879), ein Neffe von Charles Darwin, versuchte sich
in der Erkennung des „typischen“ Verbrechergesichts durch fotographische Mittelwertbildung.
Bleibenden Erfolg hatten dagegen die Psychiater Emil Kraepelin (1890), der psychiatrische
Erkrankungen nach ihren Verlaufsmustern einteilte, Eugen Bleuler (1911), der Muster
von Abweichungen normaler geistiger Prozesse (Denken, Affekt, Wollen und Sozialverhalten)
in seinen Grundsymptomen der Schizophrenie beschrieb, sowie Kurt Schneider (1946/1980), der ganz bestimmte klinische Muster
(das Hören von kommentierenden oder dialogisierenden Stimmen, Gemachtes, „2-gliedrige“
Wahnwahrnehmungen) als Erstrangsymptome der Schizophrenie beschrieb. Einflussreich,
aber letztlich ohne langfristige klinische Bestätigung blieben auch die Versuche des
tübinger Psychiaters Ernst Kretschmer (1927), aus 3 idealtypischen Mustern des Körperbaus
auf bestimmte damit korrelierende Charaktereigenschaften zu schließen.
Abb. 5 Die vielleicht bekannteste Büste zur Phrenologie stammt von Lorenzo Niles Fowler
(Foto: ©Autor).
Die genannten Psychiater würden heute angesichts der mittlerweile sehr erfolgreichen
Versuche, durch maschinelles Lernen Millionen von Mustern jeglicher Art (Gesichter,
zeitliche Verläufe, semantische Beziehungen, Straßenverkehrsschilder und -teilnehmer,
chemische Substanzen, Krankenakten, Röntgenbilder, Eiweißkörper, Gerüche etc.) zu
erkennen und zu klassifizieren, wahrscheinlich sofort die „Europäische Gesellschaft
für Computational Psychiatry“ gründen! Ähnlich wie man darüber nachdenken kann, wie
oder was Mozart oder Beethoven heute komponieren würden, kann man fragen, ob Kraepelin
heute mit Hilfe geeigneter Software und Smartphone-Daten zum Verlauf von Aktivität,
Denken, Affekt, Suizidalität, Vorlieben, Kommunikation mit anderen und zur Persönlichkeit
Datenbanken erstellen würde, um diese dann mittels Deep Learning klassifikatorisch
zu analysieren. Außenkriterien wie erreichter Bildungsgrad, Einkünfte, Ausgaben, Beziehungsstatus
und Güte des sozialen Netzwerks könnte er sich von den Rechenzentren von Facebook,
Amazon, Apple und Google besorgen, wo man sie sowieso längst analysiert hat [32].
Big Data und neue Medikamente
Big Data und neue Medikamente
Die Firma DeepMind wurde im Jahr 2010 durch den Neurowissenschaftler Demis Hassabis ([
Abb. 6
]) gegründet und 2014 für etwa 400 Millionen Englische Pfund an Google (heute Alphabet) verkauft. Sie hat mittlerweile mehr als 1000 Mitarbeiter (Stand: 20.11.2020), was
nicht weiter verwundert, ist doch ihr erklärtes Ziel, zunächst Intelligenz zu verstehen,
um dann alle anderen Probleme dieser Welt zu lösen. Ihr erster großer Erfolg bestand
darin, dass das von DeepMind entwickelte selbstständig anhand von Millionen publizierter Go-Partien lernende neuronale
Netzwerk AlphaGo im Jahr 2016 gegen den besten Go-Spieler der Welt mehrfach gewonnen hatte [28]. Ein Jahr später war ein Nachfolgemodell – AlphaGo Zero – entwickelt worden, das von Anfang an nur gegen sich selbst spielte (also nicht von Menschen lernte) und nach 40 Tagen Training 100 von 100 Partien gegen AlphaGo gewann [29]. Die Methodik des Deep Learning taugt jedoch zu weit mehr als nur zum Spielen, kann
man mit ihr doch beispielsweise auch neue Medikamente entdecken. Der Hintergrund hierzu
lässt sich wie folgt in aller gebotenen Kürze darstellen.
Abb. 6 Demis Hassabis, der Gründer und noch immer die treibende Kraft der Firma DeepMind. Am 14.11.2017 hielt er auf der Jahrestagung der Society of Neuroscience – wie jedes Jahr trafen sich etwa 30 000 Gehirnforscher zum Auszutausch – eine Keynote Rede. Vor Tausenden Neurowissenschaftlern sagte er lässig: „Erst lösen wir das Problem,
was Intelligenz ist, und wenn wir das gelöst haben, dann lösen wir alle anderen Probleme.“
Hätte er zu diesem Zeitpunkt nicht schon bahnbrechende Erfolge verbuchen können, hätten
die Kollegen ihn wahrscheinlich nicht wirklich ernst genommen. So aber war es sehr
still im Saal als er der versammelten Mannschaft der Neurowissenschaftler dieser Welt
klarmachte, dass Artificial Intelligence (AI) im Grunde nichts weiter ist als angewandte
Gehirnforschung, wie er dies im Fachblatt Neuron publiziert hat. Quelle: Foto: © DeepMind
Abb. 7 Der US-amerikanische Chemiker Christian B. Anfinsen (1916–1995) war Sohn norwegischer Einwanderer und erhielt 1972 den Nobelpreis für
Chemie (Aufnahme von Edward A. Hubbard, National Institutes of Health, aus dem Jahr 1969; Foto: © public domain).
Der Chemiker Christian B. Anfinsen ([
Abb. 8
]) hatte bereits im Jahr 1972 in seiner Rede anlässlich des Empfangs des Nobelpreises
für Chemie gefordert, dass man – zumindest theoretisch und im Prinzip – die 3-dimensionale
Struktur eines Proteins aus der eindimensionalen Abfolge von dessen Aminosäuren vorsagen
können müsste. Das klingt logisch, wurde jedoch damals zugleich als unmöglich erachtet.
Denn bereits im Jahr 1969 hatte der US-amerikanische Molekularbiologe Cyrus Levinthal
darauf hingewiesen, dass die Zahl der Möglichkeiten der Faltung eines relativ kleinen
Eiweißkörpers (aus 150 Aminosäuren) 2150 beträgt (entspricht etwa 1,4 × 1045), wenn man hierzu noch vereinfachend annimmt, dass jede Aminosäure nur 2 Zustände
einnehmen kann. Bei größeren Proteinen kann die Zahl 10300 übersteigen, also eine Zahl, die in der Natur nicht vorkommt, wird doch die Zahl
der Atome im gesamten Universum auf etwa 1080 geschätzt (man spricht daher auch vom Levinthal-Paradoxon[
10
]).
Abb. 8 Screenshot zweier animierter räumlicher Proteinmodelle aus einem Blog vom 30.11.2020
des Teams von AlphaFold
[36], der die Übereinstimmung von Experiment (grün) und Berechnung (blau) am Beispiel
zweier Proteine darstellen soll.
Mit Hilfe einer Proteindatenbank lernte AlphaFold anhand von Millionen von Beispielen die Form eines Proteins aus der Reihenfolge seiner
Aminosäuren zu etwa 60 % vorherzusagen, wie im Januar 2020 im Fachblatt Nature publiziert
wurde [27]. Die Genauigkeit betrug im Mittel 6,6 Ångström, was noch nicht ausreicht, um die
katalytischen Effekte von Proteinen anhand der räumlichen Passungen zwischen Proteinen
und Stoffen, die deren Wirkungen beeinflussen (d. h. die meisten Medikamente!) vorherzusagen.
Hierfür wird eine Auflösung von 2–3 Ångström benötigt [1]. Es ist daher von großer Bedeutung, dass die Anfang Dezember (vorab) publizierte
neueste Version des die Proteinfaltung vorhersagenden neuronalen Netzwerks – genannt
AlphaFold2 – Ergebnisse mit einer Auflösung von 1,6 Ångström liefert [16]. Ein Ångström (ein Zehntel Nanometer) entspricht etwa dem Durchmesser eines Atoms
([
Abb. 8
]).
Damit hat man die Genauigkeit physikalischer Messmethoden erreicht (oder sogar überboten),
die es erlaubt, von den räumlichen Strukturen auf Wirkungen zu schließen. Mit anderen
Worten: Man braucht neue Medikamente nicht mehr suchen, indem man Tausende von Stoffen
in ihrer Wirkung auf ein bestimmtes Protein im Labor untersucht, sondern indem man
die Strukturen berechnet. Man kann sich auch die zeitraubenden röntgenkristallografischen
Untersuchungen von Proteinen sparen, weil die neuronalen Netze wie AlphaFold2 ebenso genau, aber um Größenordnungen (Tage anstatt Monate) schneller sind. Mit dieser
„Protein-Revolution“ (im Hinblick auf deren Strukturaufklärung) dürfte ein „goldenes
Zeitalter der strukturellen Biologie“ [1] anbrechen: Von der Sequenz her kennt man 180 Millionen Proteine, deren räumliche
Gestalt man bislang in nur 170 Tausend Fällen experimentell untersuchte und damit
bekannt machte [2], [36]. Das wird sich jetzt ändern und zu einer explosionsartigen Vermehrung der Anzahl
neuer Medikamente führen[
11
] – auch in Psychiatrie und Neurologie.
Zurück also zur Nervenheilkunde. Vieles haben wir gelernt und verstehen z. B. Zustände
wie Meditation, Flow oder Dissoziation mit Hilfe von Mausmodellen auf der Systemebene
immer besser [23]–[34]. Aber noch viel mehr Neues wird uns erreichen: Wir können „kranke Gene“ sowie unsere
Darmflora editieren, werden neue Muster psychopathologischer Gestalten durch die Möglichkeiten
von Big Data finden. Und nicht zuletzt werden aufgrund der mittels neuronaler Netzwerke
möglichen genauen Vorhersagen der Gestalten von Proteinen eine Fülle neuer Medikamente
zu deren Beeinflussung hinzukommen. Das Fach Psychiatrie bleibt also spannend wie
in den Jahrzehnten zuvor, wahrscheinlich wird es aber nochmals viel spannender.