Wirtschaftsprüfer, Rechtsanwälte, Steuerberater und Unternehmensberater: Vier Perspektiven. Eine Lösung. Weltweit. …
Wirtschaftsprüfung und prüfungsnahe Beratung von Unternehmen ✓ Erfahrene Prüfer ✓ Exzellente Beratung ✓ …
Rechtsberatung für Unternehmen ✓ Erfahrene Rechtsanwälte ✓ Exzellente juristische Beratung ✓ Maßgeschneiderte …
Steuerberatung für Unternehmen und Familienunternehmen ✓ Erfahrene Steuerberater ✓ Exzellente Beratung ✓ …
Unternehmensberatung für Unternehmen ✓ Erfahrene Consultants ✓ Exzellente Beratung ✓ Maßgeschneiderte Lösungen » …
Capmont übernimmt mit Baker Tilly DFH Deutsche Fertighaus Holding AG
Baker Tilly baut Steuerpraxis mit VAT-Spezialisten aus
Unternehmensanteile an Mitarbeitende: Schenkung oder Gehalt?
EU-Omnibus-Paket: Weniger Aufwand bei der Nachhaltigkeitsberichterstattung?
Baker Tilly startet mit 23 neuen Directors ins Jahr 2025
In the News: Baker Tilly greift im Genossenschaftssektor an
BAG kippt Verfallsklausel für Aktienoptionen nach Kündigung
D&O-Versicherung: Keine Deckung bei „Strohmann“-Geschäftsführer
§ 273a ZPO: Mehr Schutz für Geschäftsgeheimnisse im Zivilprozess
NIS-2 und kein Ende: Umsetzung in Deutschland verzögert sich weiter
Neue Anforderungen an die Cloud-Verarbeitung von Gesundheitsdaten
Öffentliche Vergabe: Cyberversicherungen rechtssicher beschaffen
Branchenspezifische Kenntnisse sind unerlässlich, um die besten Voraussetzungen für individuelle Lösungen zu …
Baker Tilly berät Biotech-Startup Real Collagen GmbH bei Investment durch US-Investor
Handelsrechtliche Bilanzierung von Emissionsberechtigungen und des THG-Quotenhandels
Energiestudie: Unsicherheit bremst Investitionen von Industrie und Versorgern in Deutschland
Profitieren Sie von gebündelten interdisziplinären Kompetenzen, Experten-Teams und individuellen Lösungen. Erfahren …
Baker Tilly bietet ein breites Spektrum individueller und innovativer Beratungsdienstleistungen in an. Erfahren …
Braunschweiger Traditionslogistiker Wandt begibt sich mit Baker Tilly in Eigenverwaltung
Dr. Alexander Fridgen zum vorläufigen Insolvenzverwalter der Reha-Klinik Prinzregent Luitpold Bad Reichenhall bestellt
Ein Jahr ist seit der Einführung von ChatGPT vergangen. Eine europäische Regulierung von KI lässt bislang auf sich warten. KI wird dennoch bereits in vielen Unternehmen eingesetzt, beispielsweise in Form von Large Language Models (LLM). Das bekannteste LLM ist ChatGPT. Häufig kommt ein LLM im Unternehmen ohne Vorgaben zur Nutzung zum Einsatz. Dabei sind Richtlinien für den Umgang von LLM für eine rechtssichere Verwendung entscheidend. Der Datenschutz sollte hierbei nicht vergessen werden.
Bei dem Einsatz von LLM spielt die Verwendung von personenbezogenen Daten in den folgenden Phasen eine Rolle:
Eingaben in ein cloudbasiertes LLM werden in der Regel auch für das Training des Systems genutzt. Das Training einer KI ist ein Prozess, bei dem ein untrainiertes Modell mit Trainingsdaten gefüttert wird, um es zu lehren, Muster und Zusammenhänge in den Daten zu erkennen und Vorhersagen zu treffen. Dabei kann es zur Übermittlung und Verwendung von personenbezogenen Daten kommen. Das kann eine Gefahr für die Vertraulichkeit der Daten sowie das Risiko einer unzulässigen Verarbeitung personenbezogener Daten bedeuten.
Welche Regeln hat ein Unternehmen konkret zu beachten?
Einige der Landesbeauftragten für Datenschutz und Informationssicherheit (LfDI) haben Diskussionspapiere sowie Checklisten entwickelt, die Unternehmen einen Überblick verschaffen sollen, welche Anforderungen das Unternehmen selbst sowie dessen Beschäftigte bei einem Einsatz von KI beachten sollten.
Beispielsweise hat das LfDI Hamburg im November eine Checkliste mit 15 Aspekten zum Einsatz LLM-basierter Chatbots veröffentlicht. Diese sind nicht verbindlich, können jedoch Hilfestellungen bieten. Die Checkliste beinhaltet unter anderem:
Vorgabe von Compliance-Regelungen
Unternehmen sollten ihren Mitarbeitern
Dies verhindert eine eigenmächtige und unkontrollierte Nutzung und der Arbeitgeber kann so eine etwaige Haftung für die Handlungen der Beschäftigten vermeiden. Eine Schulung der Beschäftigten zur richtigen Anwendung ist ebenfalls hilfreich.
Bereitstellung eines Funktions-Accounts
Beschäftigte sollten nicht eigenständig und unter Verwendung privater Daten (wie E-Mail-Adresse oder Telefonnummer) ein Konto zur geschäftlichen Nutzung erstellen dürfen. Es entsteht das Risiko, dass der LLM-Anbieter ein Profil zu dem jeweiligen Beschäftigten mit dessen privaten Daten hinterlegt. Wenn die Verwendung im beruflichen Kontext erwünscht ist, sollten berufliche Chatbot-Accounts zur Verfügung gestellt werden.
Datenschutzbeauftragte einbinden sowie Eingabe personenbezogener Daten vermeiden
Für eine umfassende Prüfung des LLM sollten Unternehmen ihre/n Datenschutzbeauftragte/n vor der Nutzung des Tools und bei Erstellung von Richtlinien hinzuziehen. Auf der ersten Ebene sollte diese/r zunächst prüfen, ob personenbezogene Daten überhaupt verarbeitet werden und in der Folge das Datenschutzrecht Anwendung findet. Daher müssen sich Fachbereiche und Geschäftsführung die Frage stellen, zu welchen Zwecken das LLM verwendet werden soll. Sind die Zwecke definiert und ist klar, dass personenbezogene Daten im Rahmen der Nutzung des LLM verarbeitet werden (können), haben Unternehmen stets zu prüfen, ob die Verwendung der personenbezogenen Daten in dem LLM gerechtfertigt ist. Auch dort, wo eine zielgerichtete Verarbeitung personenbezogener Daten nicht erfolgt, ist das Risiko der Preisgabe personenbezogener Daten stets zu prüfen und entsprechend zu berücksichtigen.
Eine Rechtfertigung scheidet regelmäßig aus, wenn sich ein Anbieter eines Chatbots in den Geschäftsbedingungen die Verwendung der Daten für eigene Zwecke einräumen lässt. Personenbezogenen Daten dürfen in den Fällen nicht an das LLM übermittelt werden.
Unternehmen sollten zudem Eingaben untersagen, die unter Umständen auf konkrete Personen bezogen werden können. Auch aus dem Zusammenhang lassen sich gegebenenfalls Rückschlüsse auf Personen im Unternehmen oder Dritten ziehen, bspw. sollte ein/e Beschäftigte/r einen Prompt eingeben, der sich auf Beschäftigte mit eindeutigen Merkmalen oder aus konkreten Abteilungen des Unternehmens bezieht. Bei LLM-Anwendungen, deren Bestimmung es ist, Querbezüge auch aus unstrukturierten Daten herzustellen, ist diese Gefahr besonders hoch.
Zu beachten ist schließlich, dass bei einem Einsatz von LLM eine Datenschutz-Folgenabschätzung zu erstellen sein kann.
Überprüfung der Ergebnisse auf Richtigkeit
Ein wichtiger Punkt bei dem Einsatz von LLMs ist die Überprüfung der ausgegebenen Antworten auf deren Richtigkeit. LLMs erzeugen Texte, die mit mathematischer Wahrscheinlichkeit dem gewünschten Ergebnis nahekommen. Das bedeutet jedoch nicht, dass das Ergebnis auch stets wahren Tatsachen entspricht. Das Gegenteil ist der Fall, denn es kommt regelmäßig vor, dass die KI hinter dem LLM Informationen und Sachverhalte „erfindet“.
Sollte das Ergebnis des Prompts unrichtige personenbezogene Daten enthalten, die das Unternehmen im Anschluss weiterverwendet, würde es sich um eine unzulässige Verarbeitung personenbezogener Daten handeln, die zu den in der DSGVO vorgesehenen Sanktionen, einschließlich Bußgeldern, führen kann.
Keine automatisierte Letztentscheidung
Ausschließlich automatisierte Entscheidungen bezogen auf Personen sind grundsätzlich nicht erlaubt. Eine automatisierte Entscheidung liegt vor, wenn sie „ohne jegliches menschliche[s] Eingreifen“ erfolgt. Ein Beispiel für eine automatisierte Entscheidung ist, wenn allein aufgrund des vergebenen Scoring-Werts ein Vertragsschluss zustande kommt oder abgelehnt wird.
Vor diesem Hintergrund sollten Entscheidungen, die eine rechtliche Wirkung für die betroffene Person entfalten, grundsätzlich nur von Menschen getroffen werden. Andernfalls sind die Voraussetzungen des Art. 22 DSGVO zu beachten. Erarbeitet ein LLM-basierter Chatbot Vorschläge für Beschäftigte, müssen Unternehmen somit darauf achten, dass den Beschäftigten bei ihrer Letztentscheidung ein tatsächlicher Entscheidungsspielraum zukommt. Die Beschäftigten dürfen nicht an die Vorschläge des LLM gebunden sein. Der Einsatz und die Entscheidungsfindung sollte transparent gestaltet und dokumentiert werden.
Opt-out des KI-Trainings & der History
Soweit möglich, sollten Unternehmen gegenüber dem LLM-Anbieter die Option nutzen, die Verwendung der getätigten Eingaben zu Trainingszwecken abzulehnen. Dies minimiert das Risiko, dass weitere Unternehmen, Beschäftigte und sonstige Dritte diese Informationen erfragen können – mit der Folge der ungewollten Offenlegung von persönlichen Daten und Unternehmensdaten.
Gleichzeitig ist es ratsam, das Speichern der bisherigen Eingaben abzuwählen. Insbesondere bei der gemeinsamen Nutzung durch mehrere Beschäftigte ist die Deaktivierung der History zu empfehlen, da Inhalte ansonsten für alle Kolleg/innen einsehbar sind.
Bei ChatGPT ist das Opt-out derzeit möglich über die Einstellungen unter → Setting → Data Controls → Chat history and training.
Authentifizierung
Auch auf die Authentifizierung der Mitarbeiter-Accounts sollten Unternehmen einen besonderen Fokus legen. Betrieblich genutzte Accounts für LLM bieten ein erhebliches Missbrauchspotential. Gelangen Angreifer unberechtigt zur Anwendungsoberfläche, können sie gegebenenfalls bisherige Aktivitäten einsehen. Über eigene Abfragen können Angreifer außerdem persönliche Informationen von Beschäftigten oder Dritten in Erfahrung bringen. Vor diesem Hintergrund sind starke Passwörter und die Integration von weiteren Authentifizierungsfaktoren integraler Bestandteil für den Schutz der Accounts sowie Unternehmensdaten.
Das LfDI Baden-Württemberg hat in seinem Diskussionspapier ebenfalls aus November 2023 die wesentlichen Fragen, die sich Unternehmen bei einem Einsatz von KI stellen sollten, wie folgt zusammengefasst:
Vor dem Hintergrund der vielfältigen Fragen sollten sich Unternehmen im Vorfeld detailliert Gedanken dazu machen, welche LLM-Tools ihre Beschäftigten zu welchen Zwecken einsetzen dürfen und prüfen, ob und welche personenbezogenen Daten betroffen sein können. Nur bezogen hierauf kann eine datenschutzrechtliche Prüfung des LLM-Einsatzes erfolgen und Maßnahmen zum Schutz personenbezogener Daten definiert werden, wie bspw. die Aktivierung des Opt-outs des KI-Trainings sowie die Erstellung einer Richtlinie zur Nutzung des LLM.
Derzeit prüfen die Datenschutzaufsichtsbehörden die am Markt befindlichen Sprachmodelle auf deren Rechtmäßigkeit. Die aktuellen regulatorischen Entwicklungen sollten vor diesem Hintergrund stets im Blick gehalten werden.
Sarah Busch
Senior Manager
Rechtsanwältin, zertifizierte Beraterin im Datenschutzrecht
Jetzt Kontakt aufnehmen
Kontakt aufnehmen
Alle News anzeigen