
Einsatz von KI-Tools in der Ordination
Autorin:
Dr. Elisabeth Weichselberger-Chlap, MA, MBA
Rechtsanwältin, Partnerin LegalPartners
Web: www.LegalPartners.at
E-Mail: office@legalpartners.at
Die Integration künstlicher Intelligenz (KI) in den medizinischen Alltag verspricht Effizienzsteigerungen, präzisere Diagnosen und entlastende Automatisierung. Doch bevor man KI-basierte Tools etabliert, sollten vorab kritische Themen geklärt werden.
Neben der Frage der fachlichen Belastbarkeit, der Einhaltung medizinischer Standards sowie der Validierung und einer möglichen Zertifizierung als Medizinprodukt sind auch wirtschaftliche und ethische Fragen – wie die Hauptforderung, dass die Letztverantwortung beim Menschen selbst liegt – zu beantworten. Parallel dazu ergeben sich auch rechtliche Fragestellungen, die an dieser Stelle weiter ausgeführt werden. Letztlich bleibt KI ein Werkzeug, dessen Wert von der kompetenten und kritischen Nutzung durch den Menschen abhängt. Es ist nicht auszuschließen, dass künftig der Verzicht auf KI-Unterstützung als Verletzung der Sorgfaltspflicht gelten könnte – doch ebenso gefährlich ist ein unreflektiertes Vertrauen in vermeintlich unfehlbare Algorithmen.
1. Rechtliche Compliance: Erfüllt das KI-Tool alle Auflagen?
Seit 2024 gilt die EU-KI-Verordnung, die KI-Systeme nach Risikoklassen einteilt. Bestimmte sogenannte „verbotene KI-Systeme“, die u.a. der biometrischen Kategorisierung, der Manipulation von menschlichem Verhalten und Social Scoring etc. dienen, sind seit 1. Februar 2025 in der EU verboten.
Medizinische KI-Diagnose-Tools fallen meist in die „Hochrisikokategorie“ mit entsprechenden Transparenzpflichten und Dokumentationsanforderungen. Ärzt:innen müssen zudem sicherstellen, dass das gewählte Tool alle regulatorischen Anforderungen erfüllt – einschließlich ggf. CE-Kennzeichnung und Konformitätserklärungen.
2. Datenschutz und Datenintegrität: Wer hat Zugriff auf Patientendaten?
KI-Systeme benötigen oft umfangreiche personenbezogene Daten, um zu funktionieren. Hier stellt sich zunächst die Frage, ob das Tool die datenschutzrechtlichen Vorgaben der Datenschutz-Grundverordnung (DSGVO) und der EU-KI-Verordnung einhält. Ärzt:innen müssen die entsprechenden Einwilligungen der Patient:innen einholen und zusätzlich u.a. prüfen, ob die Daten ausschließlich auf gesicherten Servern innerhalb der EU verarbeitet werden oder ob Drittanbieter außerhalb des europäischen Rechtsraums Zugriff erhalten könnten.
Zudem muss geklärt werden, wie das Tool mit sensiblen Informationen umgeht. Werden Daten anonymisiert (und fallen damit nicht unter die DSGVO) oder lediglich pseudonymisiert (hier ist der Bezug zu einer natürlichen Person unter Zuhilfenahme zusätzlicher Informationen möglich, die Regelungen der DSGVO finden Anwendung)?
3. Geistiges Eigentum: Urheber- und Markenrecht
Während i.d.R. durch KI generierte Texte oder Abbildungen nicht per se urheberrechtlich geschützt sind – zumal sie nicht ein Mensch geschaffen hat –, können solche Texte und Abbildungen sehr wohl fremdes Urheber- oder Markenrecht verletzten, da KI-Modelle mit urheberrechtlich geschützten Daten „trainiert“ werden. Abgesehen davon muss man zudem für das KI-Tool selbst die vertraglichen Bestimmungen wie u.a. Lizenzbestimmungen prüfen und einhalten.
4. Lizenzierung und Kosteneffizienz
Die Anschaffungskosten für KI-Systeme variieren stark. Einfache Chatbots zur Terminvereinbarung sind oft günstig, während komplexe Diagnoseplattformen hohe Lizenzgebühren verlangen. Hinzu kommen versteckte Kosten: Muss die Praxis IT-Infrastruktur nachrüsten? Fallen Wartungsgebühren oder Updatepflichten an? Ein Kosten-Nutzen-Vergleich lohnt sich.
5. Schulung des Personals: Sind alle Mitarbeiter vorbereitet?
Die Einführung von KI erfordert geschultes Personal. Seit 2. Februar 2025 müssen Mitarbeiter:innen für die in der jeweiligen Einheit eingesetzten KI-Systeme nachweislich geschult werden. Ärzt:innen und medizinische Fachangestellte müssen nicht nur die Bedienung des Tools erlernen, sondern auch dessen Grenzen verstehen.
Essenziell: Problembewusstsein und Überblick über genutzte Tools
Jedenfalls ist auch die Haftungsfrage zu klären: Wer haftet, wenn „die KI einen Fehler macht“? In der Regel bleibt der Arzt/die Ärztin verantwortlich, doch Verträge mit Anbietern sollten klare Regelungen enthalten. Um den Überblick über die in der Ordination eingesetzten Tools zu behalten sowie den Nutzungsumfang und interne Verantwortlichkeiten zu definieren, empfiehlt sich die Erstellung interner Richtlinien.
Das könnte Sie auch interessieren:
ALLGEMEINE+ auf universimed.com
Ab sofort finden Sie alle Inhalte von ALLGEMEINE+ auf unserem Portal universimed.com! Sie müssen nichts weiter tun - die Log-in-Daten bleiben dieselben.
Schmerzmanagement bei Kindern und Jugendlichen
Schmerzen im Kindes- und Jugendalter müssen altersgerecht erfasst und behandelt werden. Die Schmerzmessung erfolgt über Skalen zur Selbst- oder Fremdeinschätzung. Die Therapie sollte ...
Basispauschalierung
Zur Basispauschalierung bei selbstständiger Tätigkeit könnte es bereits für das Jahr 2025 Änderungen geben, die fallweise eine Steueroptimierung möglich machen.