Datenanalysen für empirische Forschungsmethoden in der Kardiologie
Autor:
Prof. Dr. Dr. Guido Strunk
Complexity-Research, Wien
Sie sind bereits registriert?
Loggen Sie sich mit Ihrem Universimed-Benutzerkonto ein:
Sie sind noch nicht registriert?
Registrieren Sie sich jetzt kostenlos auf universimed.com und erhalten Sie Zugang zu allen Artikeln, bewerten Sie Inhalte und speichern Sie interessante Beiträge in Ihrem persönlichen Bereich
zum späteren Lesen. Ihre Registrierung ist für alle Unversimed-Portale gültig. (inkl. allgemeineplus.at & med-Diplom.at)
Neue Methoden der Datenanalyse durch Systeme mit künstlicher Intelligenz (KI) oder durch „machine learning“ beruhen auf hochkomplexen Algorithmen. Das Versprechen, damit der Komplexität von Daten in der Kardiologie besser begegnen zu können, beruht jedoch auf einem Missverständnis hinsichtlich der Funktionsweise dieser Technologien.
Keypoints
-
Die Qualität einer Forschungsmethode besteht in ihrer Homomorphie, mit der die reale Welt in wissenschaftlichen Modellen abgebildet wird.
-
Einfachheit gilt häufig als Ziel und Qualitätskriterium der Wissenschaft.
-
Die Methodik darf jedoch nicht einfacher sein als die Wirklichkeit, die sie abbildet.
-
Komplexität als Grenze der Erkenntnis existiert, ist allerdings nicht völlig strukturlos, sondern ein Erfolgsgeheimnis der Natur.
-
Einige Prozesse in der Kardiologie sind wahrscheinlich komplex, während sich andere einfacher mit linearen Modellen darstellen lassen.
-
Wenn KI-Systeme selbst komplexe Systeme sind, muss ihr Nutzen für Erkenntnisprozesse kritisch hinterfragt werden.
-
Der Nutzen einfacher, linearer Methoden ist begrenzt und möglicherweise bereits ausgereizt.
In Brechts „Leben des Galilei“ fordert Galilei die Gelehrten auf, sich durch einen Blick in das Fernrohr von der Existenz der Jupitermonde zu überzeugen. Der Mathematiker weigert sich: „Man könnte versucht sein zu antworten, dass Ihr Rohr, etwas zeigend, was nicht sein kann, ein nicht sehr verlässliches Rohr sein müsste, nicht?“ Er fährt fort: „Wenn man sicher wäre, dass Sie sich nicht noch mehr erregten, könnte man sagen, dass, was in Ihrem Rohr ist und was am Himmel ist, zweierlei sein kann.“1 Tatsächlich erregt sich Galilei gerade wegen dieser Weigerung, empirische Beweise auch nur eines Blickes zu würdigen. Elegant spielt Brecht Empirie gegen Ideologie aus. Dabei hilft, dass für Brechts Publikum klar ist, wessen Weltsicht korrekt ist.
Homomorphie
Etwa zur gleichen Zeit wie Galilei hatte Descartesden Zweifel zur zentralen Methode der Wissenschaften erklärt.2 Vor diesem Hintergrund erscheint die Kritik des Mathematikers berechtigt: Erst wenn die Funktionsweise eines Fernrohrs vollständig verstanden ist, seine Abbildungsleistung bekannt ist und mögliche Artefakte ausgeschlossen sind, kann es als verlässlich gelten. Erst dann wäre gezeigt, dass das, was in Galileis Rohr ist, und das, was am Himmel ist, nicht zweierlei sind. Es geht um eine Passung von Forschungsgegenstand und Methode. Die Qualität einer Methode besteht darin, dass sie eine wesensähnliche, d.h. homomorphe Abbildung erzeugt.
Zu den Wissenschaften, die bildlich gesprochen Fernrohre im Angebot haben und deren Qualität beurteilen, zählen die Wissenschaftstheorie, die Methodenlehre und die Statistik. Zudem entwickeln sie beständig neue Instrumente, um eine höhere Homomorphie zu erreichen. Dabei hat sich – zur Überraschung zahlreicher naturwissenschaftlicher Fachdisziplinen – die Unterscheidung zwischen einfachen, komplizierten und komplexen Forschungsgegenständen als bedeutsam herausgestellt. Die modernen Naturwissenschaften waren seit Newtons Principia davon ausgegangen, dass sich die „Natur der Einfachheit erfreut“.3 Komplexität galt als „Scheinglanz überschüssiger Gründe“. Wissenschaft wurde als die Entdeckung möglichst einfacher mathematischer Gesetzmäßigkeiten für zunächst komplex erscheinende Naturphänomene verstanden.
Ob Einfachheit als Qualitätskriterium für Wissenschaft gelten könne, wurde in der Folge kontrovers diskutiert.4 Der Mathematiker Henri Poincaré machte alle Hoffnungen zunichte. Sinngemäß schrieb er, dass sich seit Newtons Behauptung über die Einfachheit mehr als nur einmal gezeigt habe, dass das Gegenteil zutreffe.5 Wir wissen heute: Es gibt Phänomene, die irreduzibel komplex sind. Poincaré hatte die Komplexität – ironischerweise – in Newtons Gravitationsgleichungen entdeckt. Diese beinhalten das, was heute als Schmetterlingseffekt bezeichnet wird: Mikroskopisch kleine Störungen werden im (Gleichungs-)System exponentiell verstärkt.6 Prognosen sind nur so lange möglich, solange der Schmetterlingseffekt noch gering ist. Darüber hinaus sind sie unmöglich. Schmetterlingseffekte können in nichtlinearen dynamischen Systemen auftreten. Sie sind das zentrale Kriterium für das Chaos der Chaostheorie: Ein chaotisches System ist ein exponentiell wirkender Verstärker für beliebig kleine Störungen. Da die Welt, in der wir leben, niemals frei von Störungen sein kann – erst recht nicht, wenn diese beliebig klein sein dürfen –, ist eine Prognose für ein chaotisches System unmöglich.7 Hinzu kommt, dass Chaos bereits in einfachen mathematischen Gleichungen auftritt: Dazu sind lediglich drei interagierende Variablen und etwas Schulmathematik nötig. Dass das Chaos über 200 Jahre lang nicht entdeckt wurde, lag weniger an mathematischen Schwierigkeiten als an der Überzeugung, dass etwas nicht sein könne, was nicht sein dürfe. Inzwischen ist klar: Der Schmetterlingseffekt macht vollständige Prognosen für viele reale Systeme unmöglich.
Komplexität ist definiert als eine bewiesene Grenze der Erkenntnis.8 Diese liegt im Chaos zweifellos vor. Das klingt enttäuschend. Gleichzeitig ist Chaos nicht vollkommen strukturlos. Es zeigt selbstähnliche Muster, die allerdings mehrfach gebrochen (fraktal) und damit deutlich komplexer sind, als Newton sich das vorgestellt hätte.9 Damit offenbart Chaos ein zentrales Erfolgsgeheimnis der Natur: Phänomene wie die selbstorganisierte Entstehung fraktaler Strukturen oder die Autopoiese (Selbst-Schöpfung) biologischer Prozesse sind erst mithilfe der Theorien nichtlinearer Systeme (TNDS) mathematisch darstellbar.10 Neuere KI-Systeme bedienen sich dieser Vorarbeiten und bauen nichtlineare dynamische Systeme in neuronalen Netzen nach.11 KI-Systeme nutzen die Erkenntnisse der Komplexitätsforschung und sind erfolgreich, indem sie selbst Komplexität hervorbringen.12
Dynamische Systeme in der Kardiologie
Lebewesen sind besondere dynamische Systeme. Im Vordergrund steht ihre Fähigkeit zur Autopoiese, also zur Selbstherstellung und Aufrechterhaltung eigener Prozesse. Das Ziel der Erforschung dynamischer Systeme ist seit Newton die mathematische Erklärung der Systemprozesse und damit die Prognose zukünftiger Entwicklungen. Die Medizin versteht sich zudem als Wissenschaft, die auf Basis solcher mathematisch-naturwissenschaftlicher Erklärungsmodelle Interventionen vorschlägt, um krankheitswertigen Prozessen entgegenzuwirken.
Im Zentrum stehen also mathematische Modellvorstellungen, die so zu wählen sind, dass sie den Forschungsgegenstand homomorph abbilden. Ein gutes Beispiel für die Frage nach dem geeigneten mathematischen Modellsystem stellt das EKG dar. Empirisch scheint es kaum möglich, ein EKG mittels linearer Methodik befriedigend zu beschreiben. Selbst leistungsfähige lineare Verfahren wie die Fourier-Transformation führen zu unbefriedigenden Ergebnissen. Coch et al. führen dies darauf zurück, dass sich diese Verfahren zwar für lineare oder periodische Systeme eignen, diese Eigenschaften bei der Regulation der Herzfrequenz jedoch nicht vollständig gegeben sind. Sie kommen somit zu dem Schluss, dass neben zufälligem und periodischem auch deterministisch chaotisches Verhalten auftreten kann.13 Bis heute wird kontrovers diskutiert, ob die Herzratenvariabilität ein Zeichen chaotischer Prozesse darstellt oder auf Zufallseinflüsse zurückzuführen ist. Einig ist man sich darüber, dass lineare Modelle an ihre Grenzen stoßen und es deutliche Hinweise auf fraktale Strukturen – und damit auf nichtlineare Prozesse – in vielen physiologischen Prozessen gibt.14 Nicht alle Prozesse in der Kardiologie sind komplex. Oftmals reicht es aus, Risikofaktoren zu identifizieren, um mithilfe einfacher Rechenmodelle Prognosen für kardiologische Ereignisse zu erstellen. In der gängigen Forschungspraxis werden tatsächlich nahezu ausschließlich einfache Prognosemethoden verwendet. Regressionsmodelle – unabhängig davon, ob es sich um Cox-Modelle oder andere Varianten handelt – beruhen auf linear-additiven Ursache-Wirkungs-Mechanismen. Diese sind, wie bereits erwähnt, nicht in der Lage, komplexe Prozesse adäquat abzubilden. Das ist nicht problematisch, sofern der interessierende Prozess nicht komplex ist. Dies sollte jedoch vorher geprüft werden.
Einfache, komplizierte und komplexe Forschungsmethodik
Newtons Mechanik gilt vielfach bis heute als Grundmodell jeder naturwissenschaftlichen Methodik. Diese orientiert sich am Postulat der Einfachheit, indem (a) Systeme und deren Feedbackprozesse in kleinste Ursache-Wirkungs-Einheiten zerlegt (griechisch: Analyse) werden, (b) thermodynamische Einflüsse idealisierend vernachlässigt werden und (c) Linearität als gute Näherung für Nichtlinearität gilt.8 Insbesondere die Linearität gilt aus heutiger Sicht als zentrales Definitionsmerkmal für Einfachheit.15 Allerdings spielen auch die beiden anderen Vereinfachungen eine wichtige Rolle. Sobald eine Forschungsmethode nur eine der drei Vereinfachungen benutzt, geht jede Komplexität verloren. Derartige Modelle führen entweder ohne viel Mühe (einfach) oder mit Aufwand (kompliziert) zu Ergebnissen, die hochgeordnet sind und trivialen mathematischen Modellvorstellungen entsprechen (z.B. Periodik, Geradengleichungen, Wachstumskurve usw.).
Als goldener Weg zur Erkenntnis gilt das Zerlegen von Systemen in Ursache-Wirkungs-Einheiten mittels gezielter Experimente, in denen eine unabhängige Variable systematisch variiert und die Auswirkung auf eine abhängige Variable beobachtet wird, während gleichzeitig alle anderen Variablen des Systems kontrolliert bzw. konstant gehalten werden.16 Man hoffte, dass sich das zunächst zerlegte System später als Summe seiner Teile verstehen ließe (Synthese). Tatsächlich lassen sich bereits Regelkreise nicht mehr sinnvoll in Ursache und Wirkung zerlegen. Tut man es trotzdem, kann eine Homöostase nicht mehr nachvollzogen werden. Noch einmal problematischer wird das Prinzip der Analyse für nichtlineare dynamische Systeme. Diese verhalten sich bei künstlicher Kontrolle ihrer Systemelemente vollkommen anders als in freier Wildbahn.
Methoden aus dem Bereich der TNDS bemühen sich daher, ein System in seiner Gesamtheit zu erfassen. Dabei werden Rand- und Kontextbedingungen der Systeme in ihren realen Lebensumgebungen berücksichtigt. Mathematisch werden nichtlineare Gleichungssysteme verwendet, die gemischtes Feedback enthalten können und in der Regel weit vom thermodynam-ischen Gleichgewicht entfernt sind (thermodynamisch offene, sog. dissipative Systeme).17 Dissipation wird mittels sog. Kon-trollparameter in den Gleichungssystemen modelliert.18
In derartigen Systemen können Phänomene auftreten, die zunächst überraschten und erst später verstanden wurden. Ein Beispiel sind Kipppunkte, die auch im Zusammenhang mit Klimamodellen (ebenfalls formalisiert unter Nutzung der TNDS)diskutiert werden.19 Zu den Eigenschaften dieser Systeme gehört auch die Selbstorganisation komplexer raumzeitlicher Strukturen (sog. Attraktoren), ein Phänomen, das an die Autopoiese lebender Systeme erinnert. Attraktoren sind Fließgleichgewichte und können stabil gegenüber äußeren Einflüssen sein. Bei Veränderungen der Kontrollparameter oder von Rand- und Rahmenbedingungen können Attraktoren instabil werden und durch andere Attraktoren abgelöst werden. Der kritische Übergang zwischen Attraktoren wird als Kipppunkt bezeichnet. Attraktoren können trivial sein und mit dem Verhalten linearer Systeme übereinstimmen. Sie können aber auch chaotisch sein, einen Schmetterlingseffekt enthalten und damit zu fraktalen raumzeitlichen Strukturen führen, wie sie in biologischen Systemen häufig auftreten. Die neuere Komplexitätsforschung – insbesondere unsere Arbeitsgruppe – sucht gezielt nach Kipppunkten und schlägt statistische Kennwerte als Marker für ein bevorstehendes Kipppunktverhalten vor.20
Nutzen für die Kardiologie
Die Komplexitätsforschung bietet einen methodischen Rahmen, der es ermöglicht, die Grenzen der klassischen Mechanik zu überwinden. Da Newton noch keine Computer zur Verfügung standen, war das Zerlegen des Systems oder die Verwendung linearer Gleichungen durchaus hilfreich. Allerdings kommt Komplexität in reduzierten Systemen nicht mehr vor. Die Einfachheit der mechanischen Welt war keine Tatsache, sondern ein Artefakt der Methodik. Die Methode war dem Gegenstand, also der Komplexität der wahren Welt, vielfach nicht angemessen. Die Methoden der Mechanik ergeben keine homomorphe Abbildung komplexer Prozesse.
Welche Methoden sind der Kardiologie angemessen? Es versteht sich, dass einfache Modelle verwendet werden können, wenn sie funktionieren. Mit Kanonen auf Spatzen zu schießen, kann zu unerwünschten Nebenwirkungen führen. Das gilt jedoch auch für unterkomplexe Modelle, denn einfache Lösungen für komplexe Probleme sind in der Regel falsch. Aus methodischer Sicht scheint es bedenklich, wenn Einschränkungen z.B. auf Linearität früh im Forschungsprozess getroffen werden. Denn Komplexität wird dadurch vorab und ohne die Möglichkeit einer späteren Überprüfung ausgeschlossen. Gleichzeitig entwickeln sich die Methodenfächer angesichts der großen Erfolge im Umfeld der künstlichen Intelligenz rasant weiter. Wäre es da nicht angezeigt, auch in der Kardiologie den einen oder anderen methodischen Zugang jenseits linearer Modelle zu erproben?
Möglicherweise sind linear-additive Forschungsmethoden inzwischen auch weitgehend ausgereizt. Vor über 20 Jahren sahen einige in der Psychologie die Grenzen der klassischen Methodologie erreicht. Bewusstsein und Kognitionen seien mit Mechanik, regelbasierten Informationsverarbeitungssystemen und Linearität nicht erklärbar. Denkende Maschinen könnten so nicht programmiert werden.8 Stattdessen wurden Zugänge aus den TNDS propagiert. Heute zeigt sich, dass diese Annahmen korrekt waren. KI-Modelle verlassen die klassische Mechanik und verwenden die Grundprinzipien komplexer Systeme.
Interessanterweise sind KI-Systeme dort vorgesehen, wo zuvor ein geschulter klinischer Blick erfahrener Menschen erforderlich war. Sie ersetzen keine Regressionsmodelle, sondern bilden z.B. komplexe Prozesse der Befundung nach. Aufgaben, die zuvor nur von Menschen mit langjähriger Erfahrung ausgeführt wurden, sollen demnächst von Algorithmen übernommen werden. Das mag angesichts des Fachkräftemangels Vorteile bieten, aber hilft es auch der Wissenschaft der Kardiologie, die dahinterliegenden Vorgänge im menschlichen Körper zu verstehen? KI-Systeme sind derzeit in vielen Fällen keine Forschungsinstrumente, denn je näher sie selbst der Komplexität kommen, die sie simulieren, desto weniger können sie in ihrer Abbildungsleistung verstanden werden. Wenn wir Komplexität – die wir nicht verstehen – von einem ähnlich komplexen System beobachten lassen – das wir ebenfalls nicht verstehen –, worin läge der Erkenntnisgewinn? Ja, auch Menschen sind komplexe Systeme, und auch bei ihnen verstehen wir kaum, wie sie zu ihren Erkenntnissen kommen. Genau aus diesem Grund wurden im Verlauf der Geschichte der Medizin immer wieder Verbesserungen am Erkenntnisprozess vorgenommen. Regelgeleitete Induktions-Deduktions-Zyklen scheinen derzeit der beste Weg zu sein. Ob hochkomplexe Hilfsmittel wie KI-Systeme, „big data“ oder „deep learning“ homomorphe Abbildungen bieten können oder ob sie Verzerrungen oder gar diskriminierende Tendenzen beinhalten, sollte vor ihrer Verwendung geprüft werden.
Diese Fragen weisen in die Zukunft. Sie fragen nach der Verlässlichkeit von KI für die Forschung. Daran wird gearbeitet werden müssen. Weniger fraglich sind die heute bereits bekannten Beschränkungen linearer Modellannahmen. Auch liegen zahlreiche Methoden aus den TNDS vor, die bereits erprobt sind.21 Diese vermehrt zu nutzen, wäre ein logischer nächster Schritt.
Literatur:
1 Brecht B: Leben des Galilei. Schauspiel. Berlin: Suhrkamp 1938/1939 2 Descartes R: Discours de la méthode. Reclam 2001 3 Newton I: The mathematical principles of natural philosophy. New York: Daniel Adee 1846 4 Heisenberg W: Quantentheorie und Philosophie. Reclam 1970 5 Poincaré H: Wissenschaft und Hypothese. Teubner 1904 6 Lorenz EN: Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas? Präsentiert im Rahmen der AAAS Conference am 29.12.1972 7 Maxwell JC: Does the progress of physical science tend to give any advantage to the opinion of necessity (or determinism) over that of the contingency of events and the freedom of the will? London: Macmillian 1884: 357-66 8 Strunk G: Systemische Psychologie. Grundlagen einer allgemeinen Systemtheorie der Psychologie (4.Auflage). Wien: Complexity-Research 2024 9 Ruelle D et al.: On the nature of turbulence. Commun math Phys 1971; (20): 167-92 10 Mandelbrot B: The fractal geometry of nature. W.H. Freeman 1982 11 Chen S et al.: Neural networks for nonlinear dynamic system modelling and identification. Int J Control 1992; 56(2): 319-46 12 Strunk G: Über die Unvereinbarkeit von KI mit einer vollständigen Überprüfbarkeit ihrer Algorithmen. TDHJ 2025; (1): 28-33 13 Coch M et al.: Die fraktale Dimension: eine nichtlineare Analysemethode zur Beschreibung der Herzfrequenzvariabilität. Herzschrittmachertherapie und Elektrophysiologie 1998; 9(3): 212-21 14 Kowalik ZJ et al.: Changes of chaoticness in spontaneous EEG/MEG. Integr Physiol Behav Sci 1994; 29(3): 270-82 15 Küppers G: Der Umgang mit Unsicherheit: zurSelbstorganisation sozialer Systeme. Springer Verlag 1999: 348-72 16 Schlichting H: Physik – zwischen Zufall und Notwendigkeit. Praxis der Naturwissenschaften – Physik 1993; 42(1): 1-35 17 Prigogine I: Introduction to the thermodynamics of irreversible processes. Springfield: Charles C Thomas 1955 18 Haken H: Synergetics. Springer 1990 19 Rind D: Complexity and climate. Science 1999; 284(5411): 105-7 20 Schiepek G et al.: The identification of critical fluctuations and phase transitions in short term and coarse-grained time series. A method for the real-time monitoring of human change processes. Biol Cybern 2010; 102(3): 197-207 21 Strunk G.: Leben wir in einer immer komplexer werdenden Welt? Wien: Complexity-Research 2019
Das könnte Sie auch interessieren:
ESC gibt umfassende Empfehlung für den Sport
Seit wenigen Tagen ist die erste Leitlinie der ESC zu den Themen Sportkardiologie und Training für Patienten mit kardiovaskulären Erkrankungen verfügbar. Sie empfiehlt Training für ...
ESC-Guideline zur Behandlung von Herzvitien bei Erwachsenen
Kinder, die mit kongenitalen Herzvitien geboren werden, erreichen mittlerweile zu mehr 90% das Erwachsenenalter. Mit dem Update ihrer Leitlinie zum Management kongenitaler Vitien bei ...
Inclisiran bei Patienten mit Statinintoleranz wirksam und sicher
Eine Analyse statinintoleranter Patienten aus dem Phase III Studienprogramm ORION zeigt, dass Inclisiran die LDL-Cholesterinspiegel kardiovaskulärer Hochrisikopatienten, die kein Statin ...