Zusammenfassung:
Rechtliche Rahmenbedingungen der KI-gestützten E-Mail-Verarbeitung
Die Nutzung von KI-Tools wie ChatGPT zur E-Mail-Verarbeitung bietet Effizienzpotenziale, birgt jedoch erhebliche rechtliche Risiken, insbesondere in Bezug auf Datenschutz (DSGVO), Persönlichkeitsrechte sowie den Schutz von Geschäfts- und Betriebsgeheimnissen. Ein ungeprüfter Einsatz ist in den meisten Fällen nicht zulässig!
Die in dieser Unterlage dargestellten Informationen ersetzen in keinem Fall eine individuelle rechtliche Prüfung oder Beratung durch qualifizierte Fachleute.
1. Zentrale Risikobereiche & rechtliche Einordnung:
- Personenbezogene Daten (DSGVO): E-Mails enthalten fast immer personenbezogene Daten. Das Kopieren und Verarbeiten dieser Daten durch KI stellt eine Verarbeitung im Sinne der DSGVO dar.
- Rechtsgrundlage zwingend erforderlich: Eine Verarbeitung ist nur mit gültiger Rechtsgrundlage (Einwilligung, berechtigtes Interesse nach Abwägung, Vertragserfüllung) zulässig. Eine Einwilligung ist in der Praxis oft nicht einholbar.
- Betroffenenrechte & Transparenz: Rechte auf Information, Auskunft, Berichtigung und Löschung sind bei externen KI-Diensten schwer zu gewährleisten.
- Weitergabe an Dritte & Drittlandtransfer:
- Auftragsverarbeitung: Die Weitergabe an externe KI-Anbieter macht den Nutzer zum „Verantwortlichen“ und den KI-Anbieter zum „Auftragsverarbeiter“. Ein schriftlicher Auftragsverarbeitungsvertrag (AVV nach Art. 28 DSGVO) ist zwingend erforderlich.
- Problem Standard-KI-Dienste: Kostenlose oder Standard-Abonnement-Versionen von ChatGPT bieten keine AVV und sind daher für geschäftliche Zwecke mit personenbezogenen oder vertraulichen Daten ungeeignet.
- Drittlandtransfer (USA): Die Übermittlung von Daten an US-Server ist durch das EU-US Data Privacy Framework (DPF) vereinfacht, erfordert aber weiterhin eine Prüfung der Zertifizierung des Anbieters und ggf. zusätzliche Schutzmaßnahmen. Google (Gemini) ist DPF-zertifiziert, Anthropic (Claude) setzt auf ISO/SOC/SCCs.
- Persönlichkeitsrechte: Das ungefragte Weitergeben von E-Mail-Inhalten an Dritte (KI) kann die Vertraulichkeit der Kommunikation verletzen und zivilrechtliche Risiken sowie Reputationsschäden nach sich ziehen.
- Geschäfts- und Betriebsgeheimnisse: Die Eingabe vertraulicher Unternehmensdaten in externe KI-Dienste ist hochriskant. Es droht der Verlust des Geheimnisschutzes, Verstöße gegen Geheimhaltungsverpflichtungen und arbeitsrechtliche Konsequenzen. Standard-KIs nutzen Eingaben oft zum Training ihrer Modelle.
2. Voraussetzungen für einen zulässigen Einsatz:
Ein rechtlich konformer Einsatz ist primär unter folgenden strengen Bedingungen denkbar:
- 1. Effektive Anonymisierung: Vor der Eingabe in die KI müssen alle personenbezogenen Daten und vertraulichen Details vollständig und irreversibel entfernt werden.
- 2. Explizite Einwilligung: Alle betroffenen Personen (Absender, genannte Personen) haben nach umfassender Information ausdrücklich zugestimmt.
- 3. Berechtigtes Interesse (nur unter strengen Auflagen): Eine detaillierte, dokumentierte und abgewogene Prüfung gemäß Art. 6 Abs. 1 lit. f DSGVO, die darlegt, dass das Unternehmensinteresse die Rechte der Betroffenen nicht überwiegt. Dies ist selten ohne weitere Maßnahmen der Fall.
- 4. DSGVO-konforme KI-Umgebung (Business-Lösungen): Ausschließlich Nutzung von Enterprise-/Business-Versionen von KI-Diensten, die einen rechtsgültigen Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO anbieten und Datennutzung für KI-Training ausschließen.
- 5. Interne Richtlinien & Governance: Klare Nutzungsrichtlinien, Verbot sensibler Eingaben, Mitarbeiterschulungen und technische Kontrollen (z.B. Data Loss Prevention).
3. Ausblick
Der EU AI Act wird die Regulierung von KI-Systemen weiter verschärfen und zusätzliche Transparenz- und Risikomanagementpflichten einführen.
Handlungsempfehlung: Bleiben lassen, wenn du das nicht rechtlich hast prüfen lassen! Das gilt auch für den Einsatz von Microsoft Copilot für den Posteingang.
Denn neben den rechtlichen Aspekten gibt es auch ganz klare Sicherheitsaspekte (prompt-Injection als Angriff auf die IT-Sicherheit des Unternehmens.
Einleitung
Die Idee, E-Mails mithilfe von KI-Tools wie ChatGPT zu bearbeiten – etwa um Nachrichten zusammenzufassen oder Antworten formulieren zu lassen – klingt verlockend. Zahlreiche „KI-Spezialisten“ preisen auf Plattformen wie LinkedIn an, wie einfach die E-Mail-Bearbeitung damit werde. Gleichzeitig warnen Datenschutz- und Rechtsexperten davor, dass das ungeprüfte Weiterleiten von E-Mail-Inhalten an eine KI rechtlich problematisch sein kann. Insbesondere werden Bedenken im Hinblick auf Datenschutz (DSGVO), Persönlichkeitsrechte sowie den Schutz von Geschäfts- und Betriebsgeheimnissen geäußert. Im Folgenden wird analysiert, welche rechtlichen Anforderungen in Deutschland und der EU für eine derartige KI-gestützte E-Mail-Verarbeitung gelten – und unter welchen Bedingungen (falls überhaupt) ein solches Vorgehen zulässig sein kann.
ACHTUNG: Wichtiger Hinweis und Haftungsausschluss:
Diese Unterlage dient ausschließlich allgemeinen Informationszwecken und stellt keine Rechtsberatung dar. Die Inhalte wurden mit größtmöglicher Sorgfalt erstellt, jedoch kann ich keine Gewähr für deren Richtigkeit, Vollständigkeit oder Aktualität (Erstellungsdatum Juli 2025) übernehmen. Sie dienen lediglich als unverbindliche Hinweise zur ersten Orientierung und zur anfänglichen Einschätzung der jeweiligen subjektiven individuellen Situation.
Die in dieser Unterlage dargestellten Informationen ersetzen in keinem Fall eine individuelle rechtliche Prüfung oder Beratung durch qualifizierte Fachleute.
Jede Nutzung der hierin enthaltenen Informationen erfolgt auf eigene Verantwortung. Ich übernehme keinerlei Haftung für direkte oder indirekte Schäden, die aus der Verwendung dieser Unterlage entstehen könnten. Es liegt in Ihrer alleinigen Verantwortung, die relevanten rechtlichen Bestimmungen für Ihre spezifische Situation und Anwendungsfall zu prüfen und entsprechende professionelle Beratung einzuholen.
Datenschutzrechtliche Anforderungen (DSGVO)
E-Mails enthalten nahezu immer personenbezogene Daten, sei es der Name oder die E-Mail-Adresse des Absenders, Kontaktdaten in der Signatur oder Inhalte, die Rückschlüsse auf eine Person zulassen. Nach der Datenschutz-Grundverordnung (DSGVO) gelten all diese Informationen als personenbezogene Daten, da sie sich auf eine identifizierbare natürliche Person beziehen. Wird beispielsweise der Text einer E-Mail in ChatGPT eingefügt, so ist mit hoher Wahrscheinlichkeit personenbezogenes Material enthalten (Namen, Adressen, etc.). Schon das Kopieren und Absenden einer solchen E-Mail an den KI-Dienst stellt eine Verarbeitung personenbezogener Daten dar, die den strengen Vorgaben der DSGVO unterliegt.
Erforderliche Rechtsgrundlage
Gemäß DSGVO ist eine Verarbeitung personenbezogener Daten nur rechtmäßig, wenn eine gültige Rechtsgrundlage nach Art. 6 Abs. 1 DSGVO vorliegt. In der Praxis kommen hier vor allem in Betracht:
- Einwilligung der betroffenen Person – also z. B. der ausdrücklichen Zustimmung des E-Mail-Absenders zur Nutzung seiner Mail in einem KI-System. Diese muss informiert und freiwillig erfolgen. In der Realität wird man eine solche Einwilligung aber nur selten vorher einholen können (und der Absender könnte sie auch verweigern).
- Berechtigtes Interesse des Verantwortlichen – das Unternehmen oder der Nutzer müsste darlegen, dass die KI-Verarbeitung zur Wahrung eigener legitimer Interessen notwendig ist und die Rechte des Betroffenen nicht überwiegen. Diese Abwägung erfordert eine detaillierte Einzelfallprüfung unter Berücksichtigung folgender Faktoren:
- Art und Sensibilität der verarbeiteten Daten
- Zweck und Notwendigkeit der KI-Verarbeitung
- Erwartungen der betroffenen Person
- Implementierte Schutzmaßnahmen (z.B. Anonymisierung, Verschlüsselung)
- Verfügbarkeit alternativer, weniger eingriffsintensiver Mittel
- Vertragserfüllung bzw. rechtliche Verpflichtung – etwa wenn die KI-Verarbeitung unerlässlich ist, um einen Vertrag mit der betroffenen Person zu erfüllen, oder eine gesetzliche Pflicht besteht. Das wird im Kontext von E-Mail-Korrespondenz aber nur in Ausnahmefällen greifen (die Beantwortung einer Mail über KI ist selten „unerlässlich“ zur Vertragserfüllung, da es auch manuell ginge).
Fehlt eine dieser Rechtsgrundlagen, ist die Verarbeitung rechtswidrig. In vielen Fällen dürfte es bereits an einer tragfähigen Rechtsgrundlage für das Einspeisen von fremden E-Mail-Inhalten in ChatGPT mangeln. Datenschutzaufsichtsbehörden betonen, dass ohne eine solche Rechtfertigung die Nutzung von ChatGPT mit personenbezogenen Daten unzulässig ist. Einige Fachleute gehen sogar so weit zu sagen, dass es derzeit praktisch unmöglich sei, ChatGPT DSGVO-konform einzusetzen, wenn man personenbezogene Daten Dritter eingibt.
Anonymisierung und Pseudonymisierung als Lösungsansatz
Ein wichtiger, oft übersehener Aspekt ist die effektive Anonymisierung von E-Mail-Inhalten vor der KI-Verarbeitung. Nach Art. 4 Nr. 1 DSGVO gelten Informationen dann nicht als personenbezogen, wenn die betroffene Person nicht identifiziert werden kann. Vollständige Anonymisierung würde die Anwendbarkeit der DSGVO aufheben.
Praktische Anonymisierungsmaßnahmen:
- Entfernung aller direkten Identifikatoren (Namen, E-Mail-Adressen, Telefonnummern)
- Ersetzung durch generische Platzhalter („Kunde A“, „Unternehmen X“)
- Entfernung von Signaturen und Metadaten
- Abstraktion spezifischer Details, die Rückschlüsse ermöglichen
Herausforderungen:
- Bei komplexen E-Mail-Inhalten ist vollständige Anonymisierung oft schwer umsetzbar
- Der Informationsgehalt für die KI-Verarbeitung kann zu stark reduziert werden
- Pseudonymisierung (reversible Anonymisierung) fällt noch unter die DSGVO
Empfehlung: Entwicklung automatisierter Anonymisierungstools, die vor der KI-Übertragung personenbezogene Daten systematisch entfernen oder ersetzen.
Transparenz- und Betroffenenrechte
Selbst wenn man eine Rechtsgrundlage annimmt (z.B. berechtigtes Interesse), stellt die DSGVO weitere Anforderungen. Betroffene Personen haben Rechte auf Information, Auskunft, Berichtigung und Löschung ihrer Daten. Diese Rechte lassen sich bei einem externen KI-Dienst kaum gewährleisten.
Konkrete Informationspflichten bei systematischer KI-Nutzung:
- Art. 13 DSGVO: Information bei direkter Datenerhebung (z.B. über E-Mail-Signatur)
- Art. 14 DSGVO: Information bei indirekter Erhebung
- Mindestinhalte: Zweck der KI-Verarbeitung, Rechtsgrundlage, Empfänger (KI-Anbieter), Drittlandtransfer, Speicherdauer, Betroffenenrechte
Praktische Umsetzung:
- Ergänzung der E-Mail-Signatur um KI-Nutzungshinweis
- Anpassung der Datenschutzerklärung
- Opt-out-Möglichkeiten für E-Mail-Partner
So müsste man dem Absender einer E-Mail eigentlich transparent mitteilen, dass seine Daten von einer KI verarbeitet werden, und ihm erläutern, was mit den Daten geschieht. Gerade das ist aber schwierig, da die Funktionsweise einer generativen KI eine Blackbox ist – oft ist unklar, was intern mit den Daten passiert. Auch eine nachträgliche Löschung oder Berichtigung der in die KI eingespeisten Informationen kann der Nutzer nicht effektiv vornehmen. OpenAI selbst weist darauf hin, dass ChatGPT falsche Ausgaben erzeugen kann, und es gibt keinen Mechanismus, um eingegebene personenbezogene Daten später gezielt zu entfernen.
Dieser Mangel an Kontrollmöglichkeiten steht im Widerspruch zu den Vorgaben der DSGVO (z.B. Datenrichtigkeit, Zweckbindung, Speicherbegrenzung). Die Landesdatenschutzbehörde Niedersachsen folgert in einer ersten Bewertung, dass in vielen Fällen die Verarbeitung personenbezogener Daten in ChatGPT datenschutzrechtlich unzulässig ist – u.a. weil die erforderliche Transparenz und Kontrolle nicht gegeben sind.
Ausnahme Privatsphäre? Zu beachten ist, dass die DSGVO für rein private oder familiäre Tätigkeiten (Haushaltsausnahme nach Art. 2 Abs. 2 DSGVO) nicht gilt. Wenn also eine Privatperson rein zu persönlichen Zwecken eine KI verwendet, könnten die Datenschutzvorschriften im Einzelfall außen vor bleiben. Allerdings ist diese Ausnahme eng auszulegen. Sobald die E-Mail-Kommunikation beruflicher Natur ist oder Daten außenstehender Personen betroffen sind, findet die DSGVO in der Regel Anwendung. Außerdem entbindet auch eine private Nutzung nicht von allgemeinem Respekt vor den Persönlichkeitsrechten des Kommunikationspartners – dazu mehr im nächsten Abschnitt.
Weitergabe an Dritte und Datenübermittlung ins Ausland
Wird eine E-Mail an ChatGPT übergeben, so ist dies nicht nur eine Datenverarbeitung, sondern auch eine Datenweitergabe an einen Dritten. Der KI-Anbieter (OpenAI) erhält Zugriff auf den Inhalt. Rechtlich gesehen wird der Nutzer, der die E-Mail weiterleitet, zum „Verantwortlichen“, und OpenAI würde zum „Auftragsverarbeiter“ seiner Daten werden. Ein Auftragsverarbeiter darf aber nur eingeschaltet werden, wenn strenge Vorgaben erfüllt sind – insbesondere muss vorab ein Auftragsverarbeitungsvertrag (AVV, englisch Data Processing Agreement) gemäß Art. 28 DSGVO geschlossen werden. Dieser Vertrag stellt sicher, dass der Dienstleister die personenbezogenen Daten nur im Auftrag und nach Weisung verarbeitet, angemessen schützt und keine unbefugten Unterverarbeitungen vornimmt.
Problem der Standard-KI-Dienste: Bei der öffentlich zugänglichen ChatGPT-Version (sowohl der kostenlosen als auch der Plus-Version) besteht nicht die Möglichkeit, einen solchen AV-Vertrag individuell abzuschließen. OpenAI bietet für Endnutzer standardmäßig keinen direkten Vertrag an, der den Anforderungen der DSGVO genügt. Folglich eignen sich ChatGPT Free und Plus nicht für die Verarbeitung personenbezogener oder vertraulicher Daten aus Unternehmenssicht. Setzt man sie dennoch ein, verstößt man gegen Art. 28 DSGVO, da man faktisch einen externen Dienst ohne Vertrag mit personenbezogenen Daten betraut. Für Unternehmen entsteht so eine „Schatten-KI“ im Betrieb, die datenschutzrechtlich hochriskant ist.
OpenAI hat allerdings Business-Lösungen eingeführt (z.B. ChatGPT Team, Enterprise oder Nutzung der API gegen Entgelt). Diese bieten erweiterte Datenschutz-Zusicherungen. Laut OpenAI werden bei den Enterprise-Versionen standardmäßig keine Kundendaten für das KI-Training verwendet, es besteht die Möglichkeit, die Speicherdauer der Daten zu kontrollieren, und die Übertragung erfolgt verschlüsselt. Vor allem wird ein Auftragsverarbeitungsvertrag nach Art. 28 DSGVO bereitgestellt. Nur mit einer solchen vertraglichen Grundlage darf ein Unternehmen personenbezogene Daten an den KI-Dienst weitergeben. Wichtig: Diese AV-Verträge stehen lediglich für die Geschäftskunden-Angebote zur Verfügung; die Standard-AGB der Gratis-Version erfüllen die Anforderungen nicht. Das bedeutet, eine rechtskonforme Nutzung in einem professionellen Umfeld ist nur über diese speziellen Business-Varianten denkbar – und auch dann müssen alle weiteren DSGVO-Vorgaben (Rechtsgrundlage, Rechte der Betroffenen etc.) eingehalten werden.
Drittlandtransfer und Data Privacy Framework
Ein weiterer Aspekt ist die Übermittlung der Daten in ein Drittland außerhalb der EU/EWR. OpenAI hat seinen Sitz in den USA, und die eingegebenen E-Mail-Daten werden typischerweise an US-Server übermittelt und dort verarbeitet.
Aktuelle Rechtslage seit 2023:
Das
EU-US Data Privacy Framework (DPF) wurde im Juli 2023 als Nachfolger des für ungültig erklärten Privacy Shield etabliert. OpenAI ist seit 2023 unter dem DPF zertifiziert, was die Datenübermittlung in die USA rechtlich vereinfacht, aber nicht alle Bedenken ausräumt.
Verbleibende Anforderungen:
- Prüfung der aktuellen DPF-Zertifizierung des Anbieters
- Zusätzliche Garantien durch EU-Standardvertragsklauseln
- Bewertung ergänzender Schutzmaßnahmen (Technical and Organizational Measures)
- Berücksichtigung des Urteils Schrems II bezüglich möglicher Behördenzugriffe
Empfehlung: Regelmäßige Überprüfung der Zertifizierungsstatus und vertraglichen Garantien. Auch bei DPF-Zertifizierung sollten zusätzliche Schutzmaßnahmen implementiert werden.
Ohne geeignete Garantien verstößt der Datentransfer an ChatGPT gegen die DSGVO. Die Fachliteratur spricht hier von der bekannten „Drittlandsproblematik“.
Für Anthropic (Claude.ai) gilt derzeit, dass keine Zertifizierung nach US DPF erkennbar ist. Hier bitte also selbst prüfen.
Für Gemini gilt zu jetzigen Stand, dass Google LLC unter dem EU-US Data Privicy Framework zertifiziert ist. Gemini ist Teil dieser Zertifizierung des Mutterhauses.
Persönlichkeitsrechte und Vertraulichkeit der Kommunikation
Unabhängig vom Datenschutz im engeren Sinne spielen auch allgemeine Persönlichkeitsrechte und das Prinzip der Vertraulichkeit von Kommunikation eine Rolle. E-Mails sind oft nicht für die Öffentlichkeit bestimmt. Wenn ein Geschäftspartner oder Freund mir eine persönliche Nachricht schreibt, vertraut er darauf, dass ich sorgfältig damit umgehe. Diese Vertrauen könnte verletzt sein, wenn ich den Inhalt ungefragt an einen KI-Dienst weitergebe, wo er potenziell von fremden Algorithmen ausgewertet wird.
In Deutschland schützt das allgemeine Persönlichkeitsrecht (Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG) die Privatsphäre und die Vertraulichkeit des Wortes. Zwar bezieht sich der klassische „Brief- und Fernmeldegeheimnis“-Schutz aus Art. 10 GG primär auf den Staat (d.h. vor staatlichem Zugriff auf unsere Kommunikation). Doch auch im Zivilrecht gilt: Das unbefugte Weitergeben fremder Äußerungen kann unzulässig sein. Beispielsweise dürfen private Briefe oder E-Mails ohne Zustimmung des Urhebers nicht einfach veröffentlicht oder an Unbefugte weitergereicht werden, wenn dadurch dessen Rechte beeinträchtigt würden. Das gilt umso mehr, wenn die Nachrichten persönliche oder sensible Inhalte haben (etwa vertrauliche Gespräche, persönliche Daten, Fotos, Meinungen etc.).
Die Einspeisung einer solchen E-Mail in eine KI ist zwar keine Veröffentlichung im klassischen Sinne, aber sie stellt eine Weitergabe an einen externen Dritten dar. Der Absender rechnet in der Regel nicht damit, dass seine Worte in einen globalen KI-Dienst fließen. Hier kann man also zumindest ein rechtliches Risiko sehen, dass der Absender – sollte er davon erfahren – zivilrechtliche Schritte wegen Verletzung seines Persönlichkeitsrechts oder Vertrauens einleiten könnte. Reputationsschäden sind ebenfalls nicht zu unterschätzen: Wenn z.B. ein Kunde erfährt, dass seine Anfrage ohne Erlaubnis „durch die KI-Mühle gedreht“ wurde, fühlt er sich womöglich nicht ernst genommen oder in seiner Privatsphäre verletzt. Das Vertrauensverhältnis kann erheblich leiden.
Praxis-Tipp: Aus Respekt vor der Vertraulichkeit sollte man im Zweifel keine persönlich-identifizierbaren oder sensiblen Details einer fremden E-Mail in einen KI-Prompt packen, ohne das Einverständnis des Betroffenen. Im Grenzfall könnte man neutralisierende Maßnahmen ergreifen (siehe unten: Pseudonymisierung/Anonymisierung), doch die sicherste Herangehensweise bleibt Zurückhaltung mit fremden Inhalten.
Schutz von Betriebs- und Geschäftsgeheimnissen
Neben personenbezogenen Daten bergen E-Mails oft auch vertrauliche Unternehmensinformationen. Das können Geschäftsgeheimnisse im Sinne des Geschäftsgeheimnisgesetzes (GeschGehG) sein – etwa interne Strategie-Dokumente, Finanzzahlen, Kundenlisten, technische Entwicklungen, Quellcode etc. Solche Informationen sind gesetzlich geschützt, sofern der Rechteinhaber sie geheim hält und ein berechtigtes Interesse an der Geheimhaltung hat. Mitarbeiter und Geschäftspartner sind in der Regel vertraglich zur Verschwiegenheit verpflichtet.
Die Eingabe von vertraulichen Unternehmensdaten oder Geschäftsgeheimnissen in ChatGPT ist hochriskant und kann rechtlich problematisch sein. Zum einen verstößt man dadurch möglicherweise gegen vertragliche Geheimhaltungsverpflichtungen oder interne Compliance-Regeln. Zum anderen könnte man dadurch den Schutzstatus des Geschäftsgeheimnisses verlieren: Das GeschGehG verlangt, dass Geheimnisträger angemessene Geheimhaltungsmaßnahmen treffen. Wenn man sensible Daten freiwillig in einen externen Dienst eingibt, der diese Daten auf seinen Servern speichert und evtl. sogar weiterverarbeitet, hat man die Kontrolle darüber verloren – womöglich gilt die Information dann nicht mehr als „geheim“, weil sie einem unbestimmten Personenkreis (den Betreibern der KI und im Worst Case anderen Nutzern über KI-Ausgaben) zugänglich werden kann. OpenAI behält sich bei der Standardnutzung vor, Eingaben zum Training der KI zu verwenden. Dadurch besteht die Gefahr, dass Dritte indirekt Zugang zu den eingegebenen Inhalten erhalten und Geschäftsgeheimnisse dadurch öffentlich werden. Es gab bereits Vorfälle, in denen Mitarbeiter unwissentlich Quellcode oder vertrauliche Daten über ChatGPT preisgaben – was dazu führte, dass diese Informationen nicht mehr unter Kontrolle des Unternehmens waren (bekannt wurde z.B. ein Fall bei Samsung, wo Entwickler interne Informationen in ChatGPT eingegeben hatten, was Alarm schlug).
Rechtlich könnte ein Mitarbeiter, der unbefugt Geheimnisse über eine KI preisgibt, als Rechtsverletzer im Sinne des GeschGehG gelten. Es drohen arbeitsrechtliche Konsequenzen und unter Umständen Schadensersatzansprüche. In bestimmten Fällen kann sogar eine strafrechtliche Handlung vorliegen.
Entsprechend warnen Juristen:
Niemals vertrauliche oder interne Informationen in ChatGPT oder einen vergleichbaren Dienst eingeben! Außer natürlich, es liegt eine ausdrückliche Freigabe vor und der KI-Dienstleister ist vertraglich zur Geheimhaltung verpflichtet. Bei OpenAI Enterprise wird beispielsweise versprochen, dass angemessene Maßnahmen zum Schutz vertraulicher Daten getroffen werden und Daten grundsätzlich nicht an Dritte weitergegeben werden. Dennoch sollte man sich auch hier fragen, ob das Restrisiko tragbar ist – letztlich handelt es sich wie bei jedem externen IT-Dienst um eine Auslagerung, die man im Rahmen des Risikomanagements bewerten muss.
Branchenspezifische Besonderheiten
Regulierte Branchen
Besondere Vorsicht ist in regulierten Branchen geboten:
Finanzdienstleistungen:
- MaRisk-Anforderungen für IT-Auslagerungen
- BaFin-Rundschreiben zu Cloud-Services
- Zusätzliche Meldepflichten bei kritischen Auslagerungen
Gesundheitswesen:
- Verschärfte Anforderungen nach § 203 StGB (Schweigepflicht)
- Besondere Kategorien personenbezogener Daten (Art. 9 DSGVO)
- Berufsspezifische Datenschutzregeln
Rechtsberatung:
- Anwaltliche Schweigepflicht (§ 43a BRAO)
- Mandantengeheimnis
- Standesrechtliche Beschränkungen
Abschließende Bewertung
Fazit: Der Einsatz von KI bei der E-Mail-Bearbeitung ist datenschutzrechtlich nur unter strengen Auflagen möglich. In Deutschland und der EU genießen persönliche Daten und vertrauliche Kommunikation einen hohen Schutz. Ohne Einwilligung oder vertragliche Absicherung ist das „Weiterreichen“ von E-Mails an eine KI in den meisten Fällen rechtswidrig.
Erlaubt ist es im Grunde nur dann, wenn entweder:
- Keine schutzwürdigen Informationen enthalten sind (nach effektiver Anonymisierung)
- Alle notwendigen Vorkehrungen getroffen wurden (Rechtsgrundlage, technische/organisatorische Maßnahmen, DSGVO-konformer Dienst)
- Explizite Einwilligung aller Betroffenen vorliegt
- Dokumentierte Interessenabwägung das berechtigte Interesse belegt
Die konservative Empfehlung der Aufsichtsbehörden lautet daher meist: Verzichten Sie lieber auf die Eingabe personenbezogener Daten in ChatGPT. Sollte man dennoch die Vorteile solcher KI-Tools nutzen wollen, ist höchste Sorgfalt geboten, um innerhalb des rechtlichen Rahmens zu bleiben.
Datenschutz, Persönlichkeitsrechte und Geschäftsgeheimnisse gehen vor – andernfalls riskiert man nicht nur rechtliche Sanktionen (bis hin zu DSGVO-Bußgeldern von bis zu 20 Mio. EUR oder 4% des Jahresumsatzes), sondern auch das Vertrauen der Kommunikationspartner und erhebliche Reputationsschäden.
Handlungsempfehlungen für die Praxis:
Sofortmaßnahmen:
- Stopp der Nutzung von Standard-KI-Diensten für geschäftliche E-Mails
- Implementierung von Datenfiltern und Anonymisierungstools
- Schulung der Mitarbeiter zu Datenschutzrisiken
Mittelfristige Maßnahmen:
- Evaluation DSGVO-konformer KI-Dienste mit AV-Vertrag
- Entwicklung detaillierter KI-Governance-Richtlinien
- Anpassung von Datenschutzerklärungen und Verträgen
Langfristige Strategien:
- Investition in lokale/europäische KI-Lösungen
- Aufbau interner KI-Expertise und Compliance-Kompetenz
- Kontinuierliche Anpassung an regulatorische Entwicklungen
Die rechtlichen Rahmenbedingungen entwickeln sich schnell weiter. Eine regelmäßige Überprüfung und Anpassung der Compliance-Maßnahmen ist daher unerlässlich.
Quellen: Die obigen Ausführungen stützen sich auf aktuelle Einschätzungen von Datenschutzbehörden und Fachanwälten, u.a. Veröffentlichungen des LfD Niedersachsen, Analysen auf eRecht24, juristische Fachbeiträge (Beck-Verlag) sowie Praxisratgeber zum KI-Einsatz im Unternehmensalltag. Diese zeigen ein einhelliges Bild: KI im E-Mail-Verkehr erfordert große Zurückhaltung und klare Regeln, um rechtlich auf der sicheren Seite zu sein. Datenschutzverstöße und Geheimnislecks lassen sich nur vermeiden, wenn die genannten Bedingungen konsequent beachtet werden.
Zusätzliche Quellen für die Erweiterungen:
- EU AI Act (Verordnung 2024/1689)
- Data Privacy Framework (Angemessenheitsbeschluss 2023/1795)
- OpenAI Enterprise Documentation und DPA
- EDPB Guidelines zu KI und Datenschutz
- BSI-Leitfäden zu Cloud Computing und KI-Sicherheit