Wenn man die Nutzung von Künstliche Intelligenz im Geschäftskontext betrachtet, ergeben sich eine Vielzahl von rechtlichen Fragestellungen. Diese erstrecken sich von Urheberrechtsfragen bei der Weiterverwendung generierter Inhalte über datenschutzrechtliche Fragen bei der Verarbeitung personenbezogener Daten, die beispielsweise bei der Eingabe verwendet werden, bis hin zu konkreten Nutzungsregeln für den Einsatz von generativer KI in Unternehmen und Organisationen.
Unternehmen können den Einsatz von KI-Technologien wie ChatGPT unterschiedlich angehen. Die Spanne reicht von einer strikten Verbotskultur bis hin zu überhaupt keinerlei Regelung für den Umgang. Ein Beispiel für die strikte Seite dieser Spanne sind Unternehmen wie Apple und Samsung, die die Nutzung von ChatGPT im Unternehmen generell untersagen. Sie haben erkannt, dass ungezügelte Nutzung von KI potenziell erhebliche rechtliche und datenschutzrechtliche Risiken birgt und daher Vorsicht angebracht ist.
Insbesondere bei der Verarbeitung personenbezogener Daten im Rahmen des Anlernens und des Betriebs der KI gibt es rechtliche Überlegungen. Zum Beispiel landen die Daten, die in den Eingabeaufforderungen (Prompts) in den frei zugänglichen ChatGPT-Modellen eingegeben werden, bei OpenAI und können gemäss der Nutzungsbedingungen auch zur Weiterentwicklung des Modells genutzt werden.
KI-Systeme wie GPT-3 und GPT-4 genieren Informationen basierend auf den Daten, mit denen sie trainiert werden. Sie haben die Fähigkeit, kohärente und oft verblüffend menschenähnliche Texte zu generieren. Es ist jedoch wichtig zu verstehen, dass diese Systeme keine spezifischen Daten oder Dokumente speichern oder sich daran „erinnern“. Stattdessen lernen sie Muster und Strukturen aus den Daten und verwenden diese, um neue Informationen zu generieren. Doch selbst wenn KI-Systeme keine spezifischen Daten speichern, ergeben sich dennoch wichtige Datenschutzfragen. Insbesondere wenn KI-Systeme mit sensiblen oder persönlichen Daten trainiert werden, besteht die Gefahr, dass sie Muster lernen, die hinkünftig auf diese sensiblen Daten hindeuten könnten.
Für eine Verwendung in Unternehmen besteht beispielsweise die Möglichkeit GPT-3.5 und GPT-4 über die Entwickler-Schnittstelle anzusprechen (Unternehmensversion der Software). In diesem Fall werden die eingegebenen Daten zumindest nicht zur Weiterentwicklung und zum Training der Modelle verwendet. Die Herausforderungen einerseits nach einer kritischen Überprüfung der Ergebnisse und andererseits ob und in welcher Form solche Texte in einem Unternehmen gekennzeichnet werden sollen, bleiben dennoch bestehen. Unternehmen, die generative KI einsetzen, sollten einen proaktiven Ansatz zum Datenschutz verfolgen. Sie müssen sicherstellen, dass sie sowohl die technischen Aspekte des Datenschutzes in KI-Systemen verstehen, als auch über ein umfassendes Verständnis der geltenden Datenschutzgesetze verfügen. Nur so können sie das volle Potenzial dieser Technologie nutzen, ohne die Privatsphäre ihrer Kunden oder Mitarbeiter zu gefährden.
Die Frage des Urheberrechts ist ein weiterer wichtiger Aspekt beim Einsatz von Generative KI. Das Urheberrecht schützt die kreativen, schöpferischen Leistungen von Menschen und gilt daher allgemein einmal nicht für von KI erzeugte Inhalte. Es gibt jedoch Grauzonen. Einige interessante Gedankenspiele und Auslegungen deuten darauf hin, dass eine Änderung in der juristischen Qualifikation und Einordnung zukünftig möglich ist.
Ein Beispiel, das diese Diskussion veranschaulicht, ist das faszinierende Fallbeispiel der KI „Aiva“, die klassische Musik komponiert. „Aiva“ wurde 2016 in Luxemburg von einer gleichnamigen Firma entwickelt und hat seitdem mehrere klassische Musikstücke komponiert. In einer wegweisenden Entscheidung hat die Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte (SACEM) in Luxemburg „Aiva“ offiziell als Komponistin anerkannt und die von der KI erstellten Werke urheberrechtlich geschützt. Auch wenn dieses Beispiel noch eine Ausnahme darstellt und sich nicht auf alle KI-Anwendungen übertragen lässt, stellt es dennoch eine interessante Entwicklung dar, die zeigt, dass die Rechtsprechung durchaus offen für eine Anpassung an die neuen technologischen Realitäten sein könnte.
Eine ähnliche Frage der Urheberschaft und des möglichen Urheberrechtsschutzes der «Outputs» stellt sich bei KI-generierten Bildern, wie beispielsweise bei Midjourney, oder bei von ChatGPT erzeugten Texten oder gar Prompts. Es könnte argumentiert werden, dass solche unter das Urheberrecht fallen könnten, wenn ein längerer, kreativer, iterativer Prozess zu dem Ergebnis («Output») geführt hat. Beispielsweise könnte ein sehr detaillierter, kreativer Prompt, der von der KI weiterbearbeitet wird, potenziell unter das Urheberrecht fallen. Bei Bildern wiederum könnte die Argumentation der Analogie zu anderen technischen Hilfsmitteln folgen, wie etwa die Verwendung von Photoshop in der Bildbearbeitung, was lediglich eine Verarbeitung bzw. Weiterentwicklung des (künstlerischen) Werks darstellen und nicht der Werkseigenschaft und Urheberschaft per se entgegenstehen.
Im Kontext von Unternehmen und ihrer Nutzung von KI wie ChatGPT könnte das bedeuten, dass in Zukunft Texte, die von KI erstellt wurden, urheberrechtlichen Schutz genießen könnten. Dies hätte weitreichende Folgen: Unternehmen müssten die Rechte an diesen Texten erwerben, um sie kommerziell nutzen zu können, und die Nutzung dieser Texte unterliegt strengen Regulierungen. Um auf solche möglichen Entwicklungen vorbereitet zu sein, sollten Unternehmen daher eine doppelte Strategie verfolgen: Sie sollten die aktuelle Rechtslage genau beobachten und bei Bedarf anpassen. Gleichzeitig sollten sie in der Entwicklung und Nutzung von KI-Technologien so transparent wie möglich sein, um etwaige Urheberrechtsansprüche von vornherein ausschließen zu können.
Regulierte Unternehmen, wie Finanzinstitute, Unternehmen aus dem Telekommunikations- und Energiesektor oder Anwaltskanzleien, müssen besonders vorsichtig sein. Sie unterliegen beispielsweise Anwälte strengen berufsrechtlichen Vertraulichkeitsanforderungen und können sich daher kaum erlauben, sensible Daten über Drittplattformen zu teilen.
Auf der anderen Seite der Spanne stehen Unternehmen, die sich für einen offeneren Umgang mit KI entscheiden. Diese Unternehmen erstellen dafür oft detaillierte Nutzungsrichtlinien, die klar definieren, was erlaubt ist und was nicht. Sie setzen auf Aufklärung und Schulung ihrer Mitarbeiter, um Risiken zu minimieren. Ein Beispiel hierfür wäre ein Software-Unternehmen, das ChatGPT verwendet, um Kundensupport zu automatisieren oder Marketingtexte zu erstellen. Sie könnten strenge Richtlinien für die Daten eingeben, die in das System eingespeist werden, und ein Überprüfungsprozess könnte implementiert werden, um sicherzustellen, dass keine vertraulichen Informationen versehentlich eingefügt werden.
Um das Potenzial von KI wie ChatGPT voll auszuschöpfen und gleichzeitig die rechtlichen Risiken zu minimieren, können unter anderem folgende unverbindlichen Empfehlungen gegeben werden:
- Erstellung einer Nutzungspolitik für KI
Diese sollte klare Richtlinien enthalten, was erlaubt ist und was nicht. Sie sollte auch Schulungen für Mitarbeiter enthalten, um ein Bewusstsein für die potenziellen Risiken und Verantwortlichkeiten zu schaffen.
- Datenschutz beachten
Vermeiden Sie die Eingabe von personenbezogenen Daten und Betriebsgeheimnissen in KI-Systeme. Diese Daten könnten von Dritten eingesehen und missbraucht werden.
- Einsatz von Datenschutz-Tools
Nutzen Sie Tools und Technologien, die datenschutzfreundlich sind und die Kontrolle über Ihre Daten gewährleisten. Die Verwendung einer Unternehmensversion von ChatGPT, die sicherstellt, dass Daten nicht zur Verbesserung und Trainings des Modells verwendet werden, ist eine solche Möglichkeit.
- Dokumentation des Schaffensprozesses
Dokumentieren Sie detailliert, wie die Ergebnisse generiert wurden, um nachweisen zu können, dass keine Urheberrechtsverletzung vorliegt.
Der Einsatz von KI im Unternehmen bietet erhebliches Potenzial, birgt aber auch neue Herausforderungen. Ein umsichtiger Umgang, eine klare Nutzungspolitik und die Einhaltung datenschutzrechtlicher Vorgaben sind unerlässlich, um die Risiken zu minimieren und die Vorteile von KI zu maximieren.
Dr. Clara Guerra ist Juristin mit interdisziplinärem Fokus auf Hightech und Innovation. Als stellvertretende Leiterin der Stabsstelle für Finanzplatzinnovation und Digitalisierung ist sie bei der liechtensteinischen Regierung für FinTech, Blockchain und Rechtsinnovation zuständig und leistet Pionierarbeit im Bereich der Regulierungsinnovation und staatlichen Innovationsframeworks.
Dieser Gastbeitrag von Dr. Clara Guerra wurde auf dem ChatGPT Expertenforum erstveröffentlicht. Das ChatGPT Expertenforum ist ein deutschsprachiges Onlineportal rund um Künstliche Intelligenz im Unternehmenseinsatz (www.chatgpt-expertenforum.de