DSGVO-konform chatten in der Arztpraxis: Worauf Ärzte achten müssen
Eine Patientin fragt per WhatsApp nach ihrem Laborbefund. Ein Kollege tippt den Entlassbrief in ein KI-Chat-Tool, damit die KI ihn kürzt. Beide Szenarien sind im deutschen Praxisalltag Realität – und beide berühren die sensibelste Datenkategorie, die die DSGVO kennt: Gesundheitsdaten. Dieser Artikel zeigt, wo die Risiken liegen, was die Datenschutzaufsicht dazu sagt und welche Bausteine eine Arztpraxis konkret einsetzen kann.
Gesundheitsdaten: eine Kategorie mit besonderen Regeln
Die DSGVO unterscheidet zwei Ebenen personenbezogener Daten. Name, Adresse, E-Mail-Adresse fallen unter die allgemeinen Regelungen der Verordnung. Dann gibt es die besondere Kategorie nach Artikel 9 DSGVO: Gesundheitsdaten, genetische Daten, biometrische Daten – und weitere Merkmale wie religiöse Überzeugung oder politische Zugehörigkeit.
Artikel 9 Absatz 1 DSGVO verbietet die Verarbeitung dieser Daten grundsätzlich. Die Ausnahmen sind eng gefasst. Für Arztpraxen greift typischerweise Artikel 9 Absatz 2 Buchstabe h DSGVO: Verarbeitung für Zwecke der medizinischen Diagnose, Gesundheitsversorgung oder Behandlung durch Fachpersonal, das einer gesetzlichen Schweigepflicht unterliegt. Diese Rechtsgrundlage gilt für das Praxisteam intern.
Sobald Daten an externe Dritte weitergegeben werden – und das schließt jeden externen Chat- oder KI-Dienst ein – braucht es eine separate Rechtsgrundlage für diese Weitergabe. In den meisten Fällen ist das ohne ausdrückliche Patienteneinwilligung und ohne Auftragsverarbeitungsvertrag mit dem Drittanbieter nicht darstellbar.
Das ist das Kernproblem: Wer Patientendaten in ein Chat-Tool eingibt, gibt sie an einen Dritten weiter – und braucht dafür eine eigene Grundlage, die im Praxisalltag häufig fehlt.
Drei Szenarien, die in deutschen Praxen täglich auftreten
Szenario 1: WhatsApp als Kommunikationskanal
WhatsApp ist auf fast jedem Smartphone installiert, Patienten nutzen es selbstverständlich. Anfragen zu Terminen, Rezepten oder Befunden per WhatsApp kommen täglich – und werden von Praxisteams oft beantwortet, weil der Weg so nah liegt.
Das datenschutzrechtliche Problem ist dabei nicht nur die Nachricht selbst. WhatsApp überträgt Metadaten – wer schreibt wem, wann, wie oft – an Meta-Server in den USA. Selbst wenn Nachrichteninhalte Ende-zu-Ende verschlüsselt sind, fehlen für die Nutzung als Praxiskommunikationskanal regelmäßig der Auftragsverarbeitungsvertrag und die rechtliche Absicherung des Drittstaatentransfers. Die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (DSK) hat in mehreren Beschlüssen klargestellt, dass Messenger-Dienste, die keine vollständige DSGVO-konforme Infrastruktur bieten, für sensible Patientenkommunikation nicht geeignet sind. (Quelle: DSK, Beschlüsse 2021 und 2023, datenschutzkonferenz-online.de)
Szenario 2: KI-Chat-Tools für Arztbriefe und Dokumentation
Ein Entlassbrief enthält Diagnosen, Medikamente, Laborwerte, Anamnese – klassische Artikel-9-Daten. Wird dieser Text in ein Consumer-KI-Tool eingegeben, verlassen diese Informationen den kontrollierten Bereich der Praxis ohne Rechtsgrundlage.
Bei der kostenlosen Version von ChatGPT und vergleichbaren Diensten gilt in der Regel: kein Auftragsverarbeitungsvertrag, kein Transfer Impact Assessment für den USA-Datentransfer, und die Patienteneinwilligung für diese Art der Verarbeitung wurde nicht eingeholt. Alle drei Elemente wären für eine rechtskonforme Nutzung notwendig.
Erschwerend kommt hinzu: Consumer-KI-Dienste können Eingaben für das Modelltraining nutzen, sofern das nicht ausdrücklich deaktiviert wurde. Ob ein Praxismitarbeiter das weiß und geprüft hat, ist in den meisten Fällen nicht dokumentiert.
Szenario 3: KI-gestützte Sprachaufzeichnung im Sprechzimmer
Transkriptions-Tools – manche als App, manche als Webdienst – nehmen Arzt-Patienten-Gespräche auf und wandeln sie in strukturierten Text um. Das spart Zeit bei der Dokumentation. Ohne ausdrückliche, vorab eingeholte Einwilligung des Patienten und ohne klare vertragliche Regelung mit dem Anbieter ist das jedoch eine problematische Verarbeitung von Gesundheitsdaten durch einen Dritten, die Art. 9 DSGVO berührt.
Besonders heikel: Der Patient muss vor dem Gespräch informiert sein – nicht danach. Eine nachträgliche Einwilligung heilt den Verstoß nicht rückwirkend.
Warum das Praxisteam oft nicht der Schwachpunkt ist
In vielen Praxen ist die Nutzung von KI-Chat-Tools keine bewusste Entscheidung der Geschäftsführung – sie entsteht im Alltag. Medizinische Fachangestellte suchen nach Wegen, die Dokumentation zu entlasten. Ärzte wollen einen Arztbrief überarbeiten lassen, bevor er rausgeht. Niemand handelt dabei böswillig.
Das Problem ist strukturell: Viele Praxen haben keine interne KI-Policy, keine Liste genehmigter Tools, keine Schulung zu Datenschutzgrenzen bei KI-Nutzung. Solange das fehlt, entscheidet jede Mitarbeiterin und jeder Mitarbeiter individuell – und damit variiert auch das Risiko täglich.
Eine interne Policy muss nicht lang sein. Ausreichend ist eine klare Antwort auf drei Fragen: Welche Tools sind für welche Aufgaben freigegeben? Welche Daten dürfen nicht eingegeben werden? Wer ist bei Fragen zuständig? Diese drei Punkte schriftlich festzuhalten und im Team einmal durchzusprechen, reduziert das Risiko unkoordinierter Nutzung deutlich.
Was die Datenschutzbehörden konkret sagen
Die DSK veröffentlichte im Oktober 2024 eine Orientierungshilfe zum Einsatz von KI-Systemen unter der DSGVO. Darin wird klargestellt, dass KI-Systeme, die personenbezogene Daten verarbeiten, vollständig unter die DSGVO fallen – unabhängig davon, wie sie vermarktet werden oder welche Benutzeroberfläche sie haben. (Quelle: DSK, Orientierungshilfe KI und Datenschutz, Oktober 2024, datenschutzkonferenz-online.de)
Für den Gesundheitsbereich bedeutet das: Der Einsatz eines KI-Chat-Tools ohne AVV und ohne Rechtsgrundlage für die Verarbeitung von Gesundheitsdaten durch Dritte stellt einen Datenschutzverstoß dar – mit erhöhtem Bußgeldrisiko, weil Artikel 9 DSGVO einen verschärften Maßstab anlegt.
Die Kassenärztliche Bundesvereinigung (KBV) weist in ihrer Praxisinformation zum Datenschutz darauf hin, dass bei jeder Form der Datenverarbeitung durch externe Dienstleister die Patienteneinwilligung explizit, informiert und vor der Verarbeitung einzuholen ist. Eine pauschale Einwilligung in den allgemeinen Behandlungsunterlagen reicht dafür in der Regel nicht aus. (Quelle: KBV, Datenschutz in der Arztpraxis, 2024, kbv.de)
Bußgelder nach Artikel 83 DSGVO können bei Verstößen gegen Artikel 9 bis zu 20 Millionen Euro oder 4 Prozent des weltweiten Jahresumsatzes erreichen. (Quelle: Verordnung (EU) 2016/679, Art. 83, Fassung 25.05.2018, EUR-Lex)
Lösungsansätze: Was in der Praxis funktioniert
Arztpraxen stehen vor einer praktischen Abwägung: KI-Tools steigern die Effizienz spürbar – aber nicht jeder Weg dahin ist rechtlich gangbar. Es gibt mehrere Bausteine, die das Risiko messbar reduzieren.
Pseudonymisierung vor der KI-Eingabe
Wer Arztbriefe oder Gesprächsnotizen in ein KI-Tool eingeben will, kann Patientendaten vorher manuell durch neutrale Bezeichnungen ersetzen: „Frau Müller, 67 Jahre, Diagnose Typ-2-Diabetes" wird zu „Patientin P1, 67 Jahre, Diagnose X". Der KI-Output wird anschließend rückübersetzt. Das reduziert das Risiko der ungeschützten Datenweitergabe deutlich – setzt aber voraus, dass die Pseudonymisierung systematisch und dokumentiert erfolgt. Eine Ad-hoc-Lösung, bei der der Aufwand die Zeitersparnis übersteigt, wird sich im Praxisalltag kaum durchsetzen.
Technischer Pseudonymisierungs-Layer
Eine Möglichkeit, diesen Schritt zu automatisieren, sind Compliance-Proxy-Tools, die die Pseudonymisierung browserseitig vornehmen – also bevor Daten an einen externen KI-Anbieter übertragen werden. Ein solcher Ansatz ist KI-Shield: Der Pseudonymisierungs-Layer erkennt personenbezogene Daten (Namen, Geburtsdaten, medizinische Bezeichnungen) im Browser und ersetzt sie, bevor die Anfrage das Gerät verlässt. Das KI-Modell – in der Standardversion Mistral Le Chat – sieht keine Klardaten.
Der technische Ansatz ist durch ein DPMA-Gebrauchsmuster dokumentiert (Eintragung 13.03.2026). Preise beginnen bei 0 EUR im Testzugang. KI-Shield ist dabei ein Baustein in einem datenschutzkonformen Workflow, keine vollständige Compliance-Garantie – ein AVV mit dem genutzten KI-Anbieter und eine interne Praxis-Policy bleiben erforderlich.
Zertifizierte Plattformen für die Patientenkommunikation
Für die direkte Kommunikation mit Patienten gibt es Alternativen zu WhatsApp, die explizit für das Gesundheitswesen entwickelt wurden: KBV-gelistete Videosprechstunden-Plattformen, Patientenportale mit Zwei-Faktor-Authentifizierung, oder Praxissoftware-integrierte Kommunikationsmodule. Diese sind nicht immer komfortabler – aber sie sind vertraglich abgesichert und gegenüber Aufsichtsbehörden nachweisbar.
On-Premise und EU-Hosting für größere Einrichtungen
Für größere Praxen, MVZ oder Kliniken, die Transkriptions- oder Dokumentations-KI intensiver nutzen wollen, ist eine On-Premise-Lösung oder ein KI-Dienst mit nachgewiesenem EU-Hosting und AVV eine weitere Option. Kein Datentransfer in die USA, kein CLOUD Act-Risiko. Die Implementierungskosten sind höher, die Rechtslage ist klarer.
Mögliche Bausteine sind also: Enterprise-Verträge mit AVV, Pseudonymisierungs-Layer wie KI-Shield (Mistral Le Chat inklusive, ab 0 EUR), On-Premise-Lösungen oder Kombinationen daraus. Welche Kombination passt, hängt von Praxisgröße, Budget und den konkreten Anwendungsfällen ab.
Checkliste: DSGVO-konformes Chatten in der Arztpraxis
- Auftragsverarbeitungsvertrag (AVV) mit jedem genutzten KI- oder Chat-Anbieter vorhanden?
- Rechtsgrundlage für die Verarbeitung von Patientendaten durch externe KI-Dienste dokumentiert?
- Datentransfer in Drittstaaten (insbesondere USA) rechtlich abgesichert – DPF-Zertifizierung des Anbieters oder Standardvertragsklauseln plus Transfer Impact Assessment?
- Werden Patientendaten vor KI-Eingaben pseudonymisiert oder anonymisiert?
- Patienteneinwilligung dort dokumentiert, wo sie für externe Verarbeitung erforderlich ist?
- Interne KI-Policy für das Praxisteam erstellt und kommuniziert?
- Mitarbeitende informiert, welche Tools erlaubt sind und welche nicht?
- KI-Nutzung im Verarbeitungsverzeichnis nach Art. 30 DSGVO erfasst?
Eine ausführlichere Grundlage zu den technischen und rechtlichen Voraussetzungen für KI in der Arztpraxis insgesamt – über Chat-Interfaces hinaus – findet sich im Artikel DSGVO-konforme KI in der Arztpraxis.
Fazit: Chat-Tools ja – aber mit Infrastruktur
KI-Chat-Tools können die Arbeit in Arztpraxen messbar erleichtern: strukturiertere Dokumentation, schnellere Brieferstellung, bessere Vorbereitung auf Patientengespräche. Diese Vorteile müssen aber gegen ein erhöhtes Risiko abgewogen werden. Gesundheitsdaten gehören zur sensibelsten Datenkategorie der DSGVO – Fehler in diesem Bereich haben einen anderen Maßstab als in anderen Branchen.
Wer die oben genannten Bausteine kombiniert – klarer AVV, Pseudonymisierung vor der Eingabe, eine interne Policy und zertifizierte Kommunikationskanäle – kann KI in der Praxis nutzen, ohne dabei das Patientenvertrauen zu riskieren. Die entscheidende Variable ist nicht, ob KI eingesetzt wird, sondern mit welcher Infrastruktur das geschieht.
Quellen
- Datenschutzkonferenz (DSK), Orientierungshilfe KI und Datenschutz, Oktober 2024: datenschutzkonferenz-online.de
- Kassenärztliche Bundesvereinigung (KBV), Datenschutz in der Arztpraxis, 2024: kbv.de
- Verordnung (EU) 2016/679 (DSGVO), Artikel 9 und 83, Fassung 25.05.2018: EUR-Lex
DSGVO-konformes Chatten in der Arztpraxis testen
KI-Shield pseudonymisiert Eingaben browserseitig, bevor sie das Gerät verlassen. Mistral Le Chat inklusive. Kostenloser Testzugang, kein Kreditkartenanforderung.
Mehr erfahren