Artificial Intelligence in der Bildgebung des Bewegungsapparates
Autoren:
Prof. Dr. Stefan Nehrer
Zentrum für Regenerative Medizin,
Donau-Universität Krems
DIDr. Richard Ljuhar, Philip Meier, Christoph Götz
Research & AI Development,
ImageBiopsy Lab, Wien
Prof. Dr. Catharina Chiari
Universitätsklinik für Orthopädie und Unfallchirurgie, Medizinische Universität Wien
Doz. Dr. Jochen Hofstätter
II. Orthopädische Abteilung
Orthopädisches Spital Speising, Wien
Korrespondierender Autor:
Univ.-Prof. Dr. Stefan Nehrer
E-Mail: stefan.nehrer@donau-uni.ac.at
Vielen Dank für Ihr Interesse!
Einige Inhalte sind aufgrund rechtlicher Bestimmungen nur für registrierte Nutzer bzw. medizinisches Fachpersonal zugänglich.
Sie sind bereits registriert?
Loggen Sie sich mit Ihrem Universimed-Benutzerkonto ein:
Sie sind noch nicht registriert?
Registrieren Sie sich jetzt kostenlos auf universimed.com und erhalten Sie Zugang zu allen Artikeln, bewerten Sie Inhalte und speichern Sie interessante Beiträge in Ihrem persönlichen Bereich
zum späteren Lesen. Ihre Registrierung ist für alle Unversimed-Portale gültig. (inkl. allgemeineplus.at & med-Diplom.at)
Die Anwendung der Artificial Intelligence (Ai) in der Bildgebung des Bewegungsapparates ist die logische Folge der Einführung der digitalen Techniken in der Radiologie und eigentlich längst überfällig. Obwohl wir einen großen Datensatz mit jedem Röntgenbild produzieren, betrachten und beschreiben wir ihn wie ein traditionelles Röntgenbild. AI hilft uns, die volle Information dieser riesigen Datenmengen zu verwerten und damit wesentlich mehr Information aus den Bytes und Pixels herauszuholen. Durch Programmalgorithmen, wie „Machine Learning“, wo man dem Computer durch große Datenmengen lehrt, was er erkennen soll, oder „Deep Learning“ wo der Computer durch Datenschleifen sich selbst beibringt, Charakteristika einer pathologischen Veränderung zu erkennen, gelingt es, Diagnosen – die derzeit oft sehr subjektiv erstellt werden – zu objektivieren und standardisierte Beurteilungsrichtlinien umzusetzen. Der digitale Wandel ist damit auch in der Orthopädie angekommen.
Die Digitalisierung ist ein Phänomen, das uns eigentlich schon seit Jahrzehnten begleitet und sich in vielen Prozessen in unserem sozialen Leben, in der Gesellschaft, Wirtschaft und so auch in der Medizin breit gemacht hat. Der Prozess war schon weit fortgeschritten, als vor wenigen Jahren dann die bewusste Bearbeitung gefordert wurde. Mit der Covid-Pandemie haben digitale Prozesse unsere Welt weiter durchsetzt, so auch in der Diagnostik von Röntgenbildern in der Orthopädie/Traumatologie, wo rasante Entwicklungen von digitalen Bildbearbeitungen und -analysen stattfinden.
Die Befundung von Röntgenbildern erfolgt hier in weiten Teilen aber noch manuell mit narrativen Bildbeschreibungen, die mitunter sehr subjektiv gefärbt sind. Dies äußert sich auch in der hohen inter- und intraindividuellen Variabilität der Befundung und bedingt somit speziell in der Beurteilung von Erkrankungen wie der Osteoarthrose eine geringe Genauigkeit und Vergleichbarkeit. Obwohl wir bei digitalen Röntgenverfahren, wie bei DICOM-Formaten, 5 Megabyte an Bilddaten in Händen halten, werden diese am Bildschirm subjektiv quantifizierend und qualifizierend beurteilt – eigentlich so, wie vor 100 Jahren Röntgenbilder gegen das Licht gehalten und analysiert wurden.
Die künstliche Intelligenz sind Computerprogramme (sogenannte Algorithmen), die aus diesem digitalen Datenmaterial Charakteristika und Muster von typischen Veränderungen durch Erkrankungen extrahieren und erkennen und in der Folge selbstständig lernen, Diagnosen auf Basis objektiver Datenanalyse zu stellen. Dieser Prozess wird als „Machine Learning“ bezeichnet, wobei hier noch Datenmaterial und Information über die Kriterien miteinfließen müssen.
Beim „Deep Learning“ werden darüber hinaus neuronale Netzwerke verwendet, die sich selbstlernend Charakteristika von Datenmaterial erarbeiten und diese in Vorwärts- und Rückwärtsschleifen analysieren und verstärken, sodass die Daten selbstständig lernen, welche Muster sie enthalten. Dadurch wird unser eingeschränktes Aufnahmevermögen deutlich übertroffen, da alle digitalen Daten hier eingehen und nicht nur limitierte Kriterien, die wir bei der manuellen Diagnose einfließen lassen. Das Ergebnis wird dadurch objektiver, genauer und zu fast 100% reproduzierbar. Weiters lassen sich auch Strukturanalysen durchführen, die wir mit freiem Auge nicht feststellen können – auch nicht mit einer Lupe.
Als anschaulicher Vergleich: Wir können am Himmel Sternbilder sehen, wobei wir besonders gut sichtbare Sterne zu einem Symbolbild verbinden. Wenn wir durch ein Hochleistungsteleskop schauen, werden so viele Sterne sichtbar, dass wir diese Sternbilder nicht mehr identifizieren können, obwohl sie natürlich noch da sind und wir eigentlich wesentlich mehr Informationen haben. Daher brauchen wir digitale Verfahren, die uns helfen, diese Informationsflut zu verstehen, und auch Mittel, diese Daten zu interpretieren, um dann ein wesentlich objektiveres Ergebnis zu erhalten, da viel mehr Daten zum Ergebnis beitragen. AI verwendet diese digitalen Daten, lernt selbstständig, was sie an Charakteristika und Muster enthalten, und gibt uns diese Information dann wieder zurück. Wir können auch dann wieder Sternbilder definieren, aber sie basieren dann auf wesentlich mehr Information.
Machine/Deep Learning
„Machine Learning“ ist ein Bereich der Computerwissenschaft und Bestandteil künstlicher Intelligenz. Computerprogramme, die auf „Machine Learning“ basieren, können mittels Algorithmen eigenständig Lösungen für neue und/oder unbekannte Probleme finden. Man unterscheidet verschiedene Typen von Algorithmen:
Abb. 1: „Deep Learning“ ist eine Sonderform des „Machine Learning“, das einen Teil der künstlichen Intelligenz darstellt
-
„Supervised Learning“: Hier werden Algorithmen durch bestimmte Beispiele definiert. Dabei wird versucht, durch die Generalisierung einer Lösung die Lösung für weitere ähnliche Probleme zu finden.
-
„Unsupervised Learning“: Hierbei werden Algorithmen mit beliebigen Beispielen bearbeitet. Ziel ist es, innerhalb des Datensatzes eine Struktur zu erkennen.
-
„Transduction“: Bei dieser Methode wird versucht, neue Lösungen auf Basis von spezifischen Fällen zu finden.
-
„Learning to learn“: Bei dieser Methode ziehen Algorithmen Ableitungen aus bereits gemachten Erfahrungen.
„Developmental learning“: Hier kommt es zu einem nahezu selbstständigen Lernen einer Software durch Austausch mit menschlichen „Lehrern“.1
„Deep Learning“ ähnelt dem „Machine Learning“, geht jedoch noch darüber hinaus. Es nutzt neuronale Netzwerke. Ziel von „Deep Learning“ ist die Verarbeitung und Analyse von großen Datenmengen. Durch die Nutzung von neuronalen Netzen können bereits vorhandene Informationen interpretiert und weiterverarbeitet werden. Dadurch kann Erlerntes mit neuen Inhalten zusammengefügt und für zukünftige Aufgaben verwendet werden.1
Damit neuronale Netzwerke eine Krankheit auf einem Röntgenbild erkennen, müssen möglichst alle Ausprägungen vorher präsentiert werden, damit das Netzwerk später in der Praxis neue Röntgenbilder richtig bewertet. Deshalb müssen am besten alle verschiedenen Krankheitsstadien, Patientenmorphologien und Bildqualitäten in den Trainingsdaten vorhanden sein. Künstlich können zusätzliche Varianzen durch „Augmentation“ erzeugt werden. Um zu trainieren, wird ein Belohnungssystem verwendet, welches numerische Optimierung verwendet. Je mehr die Befundungen in Zahlen und Kategorien vorliegen, desto einfacher kann diese Optimierung vorgenommen werden. Je konsistenter die Trainingsdaten, desto genauer kann auf weniger Daten trainiert werden.
Beispiel 1
Zwei Radiologen haben unterschiedliche Meinungen zum selben Datensatz eines Bildes. Wenn wir auf diesen Daten trainieren, spiegelt das Netzwerk die Meinungsverschiedenheit wider und wird schlecht funktionieren. Eine Lösung wäre die Schlichtung durch einen dritten Radiologen, der die Meinungsverschiedenheiten harmonisiert.
Beispiel 2
Ein Radiologe in Stanford hat vor 10 Jahren begonnen, jedes Röntgenbild mit 1 oder 0 zu annotieren, je nachdem, ob eine Anomalie vorliegt oder nicht. Aus den 40000 konsistent befundeten Bildern ließen sich nun extrem genaue Netzwerke zur Anomaliedetektion trainieren.
Zusammenfassend: Je mehr Varianz im radiologischen Erscheinungsbild oder den Annotationen vorliegt, desto mehr Daten werden benötigt.
In den letzten Jahren wurde ein Portfolio von AI-gesteuerten Tools zur Entscheidungsunterstützung bei Erkrankungen des muskuloskelettalen Bewegungsapparates entwickelt, mit denen Radiologen und Or-thopäden Röntgenaufnahmen des Skeletts schnell und korrekt beurteilen können. Einige dieser Produkte sind schon CE-zertifiziert, wie Module für die Beurteilung des Knochenalters, des Knies, des Ganzbeins und der Hüfte. Somit wird der Großteil der Arbeitsbelastung der Radiologen und Orthopäden für Skelett-Röntgenaufnahmen abgedeckt. Die Berechnungen dauern weniger als eine Minute. Normalerweise wird die Verarbeitung automatisch gestartet und die Ergebnisse sind dann sofort der ursprünglichen Studie als separate Serie beigefügt. Im Folgenden werden nur einige Beispiele der Anwendung von AI beschrieben.
IB Lab KOALA – Beurteilung des Gonarthrosestadiums
Kniearthrose ist eine schmerzhafte und immobilisierende Gelenkerkrankung, die einen Gelenkersatz notwendig machen kann. Das Lebenszeitrisiko beträgt bis zu 45% und wird von zwei Hauptrisikofaktoren bestimmt: Alterung und Fettleibigkeit.2,3 Kniearthrose betrifft weltweit über 200 Millionen Patienten,4 was dazu führt, dass allein in der EU im Jahr 2020 etwa 100 Millionen Knie-Röntgenaufnahmen gemacht wurden.5 Eine konsistente Verfolgung von Röntgenveränderungen über einen längeren Zeitraum könnte zur Früherkennung und Verhinderung des Fortschreitens der Krankheit beitragen.
Die individuelle Diagnose im Kellgren-Lawrence-Score zeigt aufgrund der Semiquantitativität des Scores sehr geringe inter- und intraindividuelle Übereinstimmung und bietet damit ungünstige Voraussetzungen für standardisierte Therapieentscheidungen sowie auch für Wirksamkeitsstudien von Arthrosetherapien.
Radiologen lesen durchschnittlich 10 Knie-Röntgenbilder pro Tag, was ungefähr 40 Minuten der täglichen Arbeitsbelastung entspricht.5
Ein „Deep Learning“-Algorithmus, der auf über 35000 einzelnen Knie-Röntgenaufnahmen trainiert wurde, enthält Daten aus einer Längsschnittstudie mit Zentren in den USA. Jedes Bild wurde von staatlich geprüften Radiologen nach den OARSI-Kriterien und der Kellgren-Lawrence-Skala nach Konsens bewertet. Die AI-gesteuerte Software KOALA bewertet das Stadium der Arthrose gemäß dem Kellgren-Lawrence-Bewertungssystem, ist validiert auf über 10000 Knien sowie CE-zertifiziert und auch in einer ähnlichen FDA-zugelassenen Version erhältlich. KOALA bietet präzise und automatisierte Messungen der minimalen Gelenkspaltbreite und eine Bewertung des Schweregrads der Verengung des Gelenkraums sowie des Vorhandenseins von Osteophyten und Sklerose, basierend auf OARSI-Kriterien für diese Parameter. Die Ergebnisse werden in einem visuellen Ausgabebericht zusammengefasst, dem Original-Röntgenbild beigefügt und automatisch im PACS-System gespeichert.
KOALA erleichtert die Überwachung des Krankheitsverlaufs, indem es den Vergleich der radiologischen Krankheitsparameter über die Zeit erleichtert. Das Ergebnis muss vom begutachtenden Arzt bestätigt oder eben verändert werden, falls die Bewertung unplausibel erscheint. Es ist damit ein Assistenzsystem zur Verbesserung der Effizienz und Standardisierung von Röntgenaufnahmen bei Kniearthrose (Abb.2).
Abb. 2: KOALA – Kniearthrose-Report und am Bildschirm ersichtliche Analyseergebnisse
IB Lab PANDA – Bestimmung des pädiatrischen Knochenalters
PANDA dient zur Beurteilung des Knochenalters zur Prognose der Körpergröße von Kindern. PANDA verwendet ein Ensemble von Entscheidungsmodellen, um das Knochenalter basierend auf dem Greulich-Pyle-Atlas zu bestimmen. Die Standardableitung für ein gegebenes chronologisches Alter wird durch Abrunden auf das nächste Alter in der Brush-Tabelle für das entsprechende Geschlecht bestimmt.8 Trainiert wurde PANDA an über 12000 Hand-Röntgenbildern aus zwei Einrichtungen in den USA (Lucile Packard Children’s Hospital der Stanford University und Children’s Hospital Colorado).8 Validiert wurde mit dem Testset der RSNA-2017-Knochenalter-Challenge. Jedes Bild in diesem Testsatz wurde von 3 in der Pädiatrie ausgebildeten Radiologen überprüft. Das diagnostische Support-Tool von IB Lab PANDA verwendet die „Deep Learning“-Technologie, um das Knochenalter basierend auf der Greulich-Pyle-Skala zu melden, und spart Zeit, indem die Ergebnisse innerhalb von 5 Sekunden präsentiert werden. Die automatisierte Messung des Knochenalters von PANDA ist auf die mittlere absolute Abweichung von 4,3 Monaten genau.6 Die abgeleitete Schätzung der Erwachsenengröße nach Bailey und Pineau ist auf ± 2,5cm genau.7
PANDA liefert genaue Daten für die Entscheidungsfindung bei wachstumsassozierten Erkrankungen. Standardisierte Messungen und Berichtsschemata erleichtern die Überwachung des Behandlungsfortschritts. Die manuelle Schätzung durch Vergleich digitaler Röntgenbilder mit Referenzbildern im Greulich-Pyle-Atlas ist mühsam und weist ein hohes Maß an Variabilität zwischen den Readern auf. PANDA bietet eine schnelle automatisierte Methode zur Schätzung des Knochenalters sowie zur Überwachung des Wachstums und der Entwicklung von Kindern (Abb.3).
Abb. 3: PANDA – Knochenalter-Report und am Bildschirm ersichtliche Analyseergebnisse
IB Lab HIPPO – Vermessung von Hüfte und Becken
Das HIPPO-Modul dient zur Messung der Hüftpositionierung und der Beckenmorphologie hinsichtlich der Vermessung der gängigsten Winkel und Messdistanzen auf einem Röntgenbild des Beckens. Es ist für erwachsene Menschen zwischen 18 und 95 Jahren mit Hüftschmerzen, Verdacht auf angeborene Erkrankungen, femoroacetabulares Impingement oder Arthrose der Hüfte vorgesehen.
HIPPO wurde entwickelt mit „Deep-Learning“-Algorithmen, die an über 4000 einzelnen Röntgenaufnahmen des Beckens und der Hüfte trainiert wurden. Es liefert reproduzierbar anatomisch relevante Orientierungspunkte an Hüfte und Becken (z.B. Tränenfigur), die automatisch erkannt und lokalisiert werden. Die AI folgt dem etablierten radiologischen Arbeitsablauf: Messung anatomischer Abstände und Winkel, Erkennung von Krankheitsmorphologien, standardisierte Klassifizierung und Berichterstattung. Dabei besteht eine Konsensbewertung jedes Röntgenbildes: Jeder Erkennungsschritt wird von einem Ensemble aus drei AI-Modellen durchgeführt, die für das beste Ergebnis stimmen und die Präzision erhöhen. Mithilfe von Hüftwinkelmessungen können Ärzte geeignete Maßnahmen und Therapien für frühe Anzeichen einer Hüfterkrankung, einschließlich Arthritis und Dysplasie, ergreifen. HIPPO führt objektive standardisierte Messungen der wichtigsten Hüftwinkel auf digitalen Röntgenbildern durch. Dazu gehören die CCD- und LCE-Winkel sowie der Tönnis-Winkel (Acetabular-Index), der Sharp-Winkel und der Femoral-Extrusion-Index. Bei bilateralen stehenden AP-Hüftröntgenaufnahmen unterstützt HIPPO den medizinischen Experten bei der Erkennung des Vorhandenseins oder Nichtvorhandenseins von Beinlängenunterschieden. Die Messwerte sind präzise und die Lese- und Berichtszeit kann bei Verwendung von HIPPO von 3,5 Minuten auf 30 Sekunden pro Bild reduziert werden.11
Femoroacetabulares Impingement und Hüftdysplasie sind die beiden Hauptursachen für Hüftdegeneration, wobei sie im Endstadium einen Hüftgelenkersatz notwendig machen. Die Hüftendoprothetik wird von 1,8 Millionen pro Jahr im Jahr 2015 auf 2,8 Millionen pro Jahr im Jahr 2050 in den OECD-Ländern ansteigen,9 was zu einer erhöhten Arbeitsbelastung für Radiologen führt. Das Lesen von Röntgenbildern des Beckens erfordert gründliche Kenntnisse der 3D-Beckenmorphologie, um die 2D-Projektion korrekt zu interpretieren; dies ist schwierig, subjektiv und fehleranfällig. Unstrukturierte Berichterstattung führt weiterhin zu Inkonsistenzen im Diagnoseprozess. Radiologen lesen durchschnittlich 10 Röntgenaufnahmen der Hüfte pro Tag, was ungefähr 40 Minuten der täglichen Arbeitsbelastung entspricht10 (Abb.4).
Abb. 4: HIPPO – Hüft/Becken-Report und am Bildschirm ersichtliche Analyseergebnisse
IB Lab LAMA – Vermessung des Ganzbeins
LAMA dient zur Messung von Beinlängendiskrepanzen und zur Erkennung von Deformitäten der Knieachsen und kann zur Entscheidungsfindung bezüglich Umstellungsosteotomie herangezogen werden.
LAMA ist eine radiologisch vollautomatische Bildverarbeitungssoftware, die Medizinern bei der Messung der Beinachsengeometrie helfen soll. Sie hilft bei der Erkennung von Deformitäten der Knieachsenausrichtung, indem die folgenden Messungen durchgeführt werden: mechanischer lateraler proximaler Femurwinkel (mLPFA), mechanischer lateraler distaler Femurwinkel (mLDFA), mechanischer medialer proximaler Tibiawinkel (mMPTA), mechanischer lateraler distaler Tibia-Winkel (mLDTA), mechanische Achsenabweichung (MAD), Hüft-Knie-Winkel (HKA), anatomisch-mechanischer Winkel (AMA) auf stehenden ap-Röntgenaufnahmen des ganzen Beines.
Abb. 5: LAMA – Ganzbein-Report und am Bildschirm ersichtliche Analyseergebnisse
LAMA hilft bei der Erkennung von Beinlängendiskrepanzen, indem die folgenden Messungen bereitgestellt werden: Femur, Tibia und volle Beinlänge sowie der Unterschied zwischen rechten und linken Beinen auf bilateralen Bildern. Bein- oder Längendiskrepanzen der unteren Extremitäten sind häufige Deformitäten, von denen die meisten Erwachsenen und Kinder betroffen sind; auch hier steigert LAMA die Effizienz des Workflows durch Einsparung von Lese- und Berichtszeit.
Bein- oder Längendiskrepanzen der unteren Extremitäten sind häufige Deformitäten, von denen bis zu 70% der erwachsenen und pädiatrischen Bevölkerung betroffen sind.12 Wenn sie unentdeckt bleiben oder ungenau gemessen werden, leiden die Patienten unter funktionellen und biomechanischen Einschränkungen sowie kosmetischen Beeinträchtigungen. Selbst geringfügige Abweichungen können zu Ungleichgewicht und einseitigen Schmerzen im gesamten Körper führen und passive strukturelle und degenerative Veränderungen in Hüfte, Wirbelsäule, Knien und Muskeln auslösen. Genaue, zuverlässige Messungen der Geometrie der unteren Extremitäten erfordern eine Expertenschulung für etablierte Protokolle, für die häufig eine spezielle Software erforderlich ist. Ein Orthopäde verbringt mehr als 8 Minuten pro Read eines einzelnen Ganzbeinröntgens.13 Standardisierung durch reproduzierbare AI, welche auf Expertenlevel automatisch vermisst, kann hierbei helfen, Fehler zu vermeiden und junge Ärzte zu trainieren.
Das diagnostische Support-Tool LAMA von IB Lab verwendet die „Deep-Learning“-Technologie zur automatisierten und präzisen Messung der Beingeometrie, um Deformitäten der unteren Extremitäten zu bewerten. LAMA hilft bei der Erkennung von Genu varum/valgum durch Messung der mechanischen Achsenabweichung (MAD) und der Erkennung von Beinlängendiskrepanzen durch Vergleich von rechten und linken Beinen auf bilateralen Bildern. Die Lesezeit wird von 8 Minuten auf unter 60 Sekunden verkürzt, die für die Berechnung benötigt werden.11 Die KI erleichtert die Überwachung des Krankheitsverlaufs, indem sie den Vergleich der radiologischen Krankheitsparameter über die Zeit erleichtert.
Interessenskonflikte:
ImageBiopsy Lab ist Kooperationspartnerin in mehreren Forschungsprojekten und Produktentwicklungsprogrammen des Zentrums für Regenerative Medizin der Donau Universität Krems.
Literatur:
1 Sidey-Gibbons JAM, Sidey-Gibbons CJ: Machine learning in medicine: a practical introduction. BMC Med Res Methodol 2019; 19(1): 64 2 Murphy et al.: Lifetime risk of symptomatic knee osteoarthritis. Arthritis Rheum 2008; 59(9): 1207-13 Arthritis Care & Research 3 Losina et al.: Lifetime risk and age of diagnosis of symptomatic knee osteoarthritis in the US. Arthritis Care Res (Hoboken) 2013; 65(5): 703-11 4 GBD 2015 Disease and Injury Incidence and Prevalence Collaborators: Global, regional, and national incidence, prevalence, and years lived with disability for 310 diseases and injuries, 1990–2015: a systematic analysis for the global burden of disease study 2015. 2016; 388(10053): 1545-602 5 IB Lab Market Survey 2020 6 Halabi SS et al.: The RSNA pediatric bone age machine learning challenge. Radiology 2019; 290(2): 498–503 7 Gaskin CM et al.: Skeletal development of the hand and wrist. Oxford University Press 2011; doi: 10.1093/med/9780199782055.001.0001 8 IB Lab Clinical Evaluation Study 9 Pabinger C et al.: Projections of hip arthroplasty in OECD countries up to 2050. Hip Int 2018, 28(5): 498-506 10 Carlisle et al.: Reliability of various observers in determining common radiographic parameters of adult hip structural anatomy. Iowa Orthop J 2011; 31: 52–8 11 IB Lab US Market Study 2020 12 Knutson GA: Anatomic and functional leg-length inequality: A review and recommendation for clinical decision-making. Part I, anatomic leg-length inequality: prevalence, magnitude, effects and clinical significance. Chiropr Osteopat 2005; 13: 11 13 IB Lab US Market Survey 2020
Das könnte Sie auch interessieren:
CROI 2024: „Long-acting“-Konzepte im Fokus der Forschung
Bereits zum 31. Mal fand mit der Conference on Retroviruses and Opportunistic Infections eine der wichtigsten Konferenzen im HIV-Bereich statt. Von 3. bis 6.März 2024 kamen ca. 4000 ...
Einsatz von künstlicher Intelligenz im Bereich E-Mental-Health
Künstliche Intelligenz wird bei E-Mental-Health-Maßnahmen aktuell nur vereinzelt genutzt – ihr Potenzial ist allerdings groß und vielversprechend. Nicht nur für Fachpersonal, sondern vor ...