Deep Fakes, Daten, Haftung: Wie KI das Recht neu vermisst: Interview mit Gernot Fritz
Business Circle: Sehr geehrter Herr Dr. Fritz, eingangs etwas Persönliches: Sie sind sowohl Diplom-Ingenieur mit Spezialgebiet Computational Intelligence als auch promovierter Jurist. Eine ungewöhnliche Kombination. Was hat Sie dazu bewogen, diesen Weg so einzuschlagen?
Gernot Fritz: Mich haben beide Welten immer gleichermaßen interessiert – Technik und Recht. Deshalb habe ich sie auch bewusst parallel begonnen und irgendwann schlicht beide abgeschlossen. Für mich war das kein Strategiekalkül, sondern eher Neugier und Freude daran, komplexe Probleme aus unterschiedlichen Blickwinkeln zu verstehen. Heute merke ich im Berufsalltag sehr deutlich, wie wertvoll dieses doppelte Verständnis ist. Ich sage Mandanten oft: „Erklären Sie mir das Problem so, wie Sie es einem Kollegen erklären würden.“ Diese Zweisprachigkeit hilft enorm dabei, Missverständnisse zu vermeiden – sowohl in Richtung Technik als auch in Richtung Recht. Gerade bei KI-Projekten scheitert vieles daran, dass Juristen und Techniker aneinander vorbeireden. Mein Ansatz ist, genau diese Lücke zu schließen und beide Perspektiven zusammenzubringen.
BC: Künstliche Intelligenz stellt das Urheberrecht vor grundlegende Herausforderungen. Was ist aus Ihrer Sicht der zentrale Paradigmenwechsel, den KI für das klassische Verständnis von Urheberschaft bedeutet?
Fritz: Das klassische Urheberrecht ist um die menschliche schöpferische Leistung herum gebaut. KI-Systeme verschieben dieses Fundament: Inhalte entstehen zunehmend nicht mehr durch individuelle kreative Entscheidungen, sondern durch statistische Mustererkennung auf Basis großer Datenmengen. Der Paradigmenwechsel liegt darin, dass wir uns von der Idee lösen müssen, jede kreative Leistung klar einer natürlichen Person zuordnen zu können. Stattdessen rückt die Frage in den Vordergrund, wo im Entstehungsprozess noch menschliche Gestaltung stattfindet – und wo nicht.
BC: Wem gehören die Rechte an KI-generierten Inhalten: dem Entwickler des Systems, dem Nutzer, der die Prompts liefert – oder bewegt sich das Recht hier (noch?) in einem Graubereich?
Fritz: Nach geltendem europäischem Urheberrecht gilt: Reiner KI-Output ohne menschliche schöpferische Prägung ist grundsätzlich nicht urheberrechtlich geschützt. Weder der Systementwickler noch der bloße Nutzer „erwerben“ automatisch Rechte am Output. In der Praxis bewegen wir uns aber häufig in einem Graubereich, etwa bei stark gesteuerten Prompts oder kuratierten Workflows. Hier entscheidet weniger die KI als solche, sondern der konkrete menschliche Beitrag. Parallel dazu gewinnen vertragliche Regelungen und leistungsschutzähnliche Konstruktionen massiv an Bedeutung.
BC: Wenn Trainingsdaten, Modelle und Outputs grenzüberschreitend genutzt werden: Wie lassen sich Urheberrechte effektiv und fair durchsetzen, wenn nationale Rechtsordnungen unterschiedlich gestaltet sind?
Fritz: Das ist eine der größten praktischen Herausforderungen. Trainingsdaten, Modelle und Outputs bewegen sich global, während Urheberrecht weiterhin territorial organisiert ist. Effektive Durchsetzung wird daher weniger über nationale Einzelklagen funktionieren, sondern über harmonisierte Regelwerke, Transparenzpflichten und Governance-Mechanismen. Der europäische Ansatz – etwa mit klaren Vorgaben zu Trainingsdaten, Dokumentation und Risikomanagement – setzt hier wichtige Ankerpunkte, auch wenn globale Durchsetzung weiterhin schwierig bleibt.
Bei Deep Fakes: Weniger das „Ob“ als das „Wie schnell“
BC: Deep-Fake-Technologien entwickeln sich rasant. Wo sehen Sie derzeit die größten rechtlichen Lücken bei der Bekämpfung von KI-basierten Fälschungen – insbesondere im Medien- und Politikkontext?
Fritz: Die größten rechtlichen Lücken liegen weniger im „Ob“ als im „Wie schnell“. Das Recht ist grundsätzlich vorhanden, reagiert aber zu langsam auf Inhalte, die binnen Minuten erzeugt, vervielfältigt und viral verbreitet werden können. Klassische Instrumente wie Unterlassungsansprüche oder Gegendarstellungen greifen oft erst, wenn der Schaden bereits eingetreten ist. Besonders im Medien- und Politikkontext ist diese zeitliche Asymmetrie problematisch. Das größte Defizit liegt aber im fehlenden Schutz kollektiven Vertrauens. Das Recht ist traditionell auf individuelle Rechtsverletzungen zugeschnitten, Deep Fakes wirken aber systemisch: Sie untergraben Vertrauen in Medien, politische Kommunikation und visuelle Beweise insgesamt. Für diesen strukturellen Vertrauensschaden bietet das bestehende Instrumentarium bislang nur begrenzte Antworten. Eine weitere Lücke ergibt sich aus der grenzüberschreitenden Verbreitung. Deep Fakes werden häufig außerhalb des Rechtsraums erzeugt, in dem ihre Wirkung entfalten. Nationale Rechtsmittel stoßen hier schnell an ihre Grenzen, während effektive internationale Durchsetzungsmechanismen noch fehlen oder erst im Aufbau sind.
BC: Daran anschließend: Welche rechtlichen Möglichkeiten bestehen heute bereits, um gegen KI-generierte Deep Fakes vorzugehen – und wo ist der Gesetzgeber der technischen Realität noch hinterher?
Fritz: Bereits heute gibt es Ansatzpunkte: Datenschutzrecht, Persönlichkeitsrechte, Urheberrecht, Lauterkeitsrecht, Medien- und Strafrecht bieten Instrumente gegen Deep Fakes. Das Problem ist jedoch die praktische Durchsetzung. Der Gesetzgeber holt aktuell auf, etwa durch Transparenz- und Kennzeichnungspflichten für KI-generierte Inhalte. Was noch fehlt, sind effizientere Durchsetzungsmechanismen, klare Haftungsmodelle und internationale Koordination – insbesondere bei Plattformen und grenzüberschreitender Verbreitung.
BC: Viele KI-Anwendungen stehen und fallen mit der Qualität und Rechtmäßigkeit der verwendeten Daten. Was sind aus Ihrer Sicht die häufigsten rechtlichen Fallstricke bei KI-gestützten Datenprojekten – insbesondere an der Schnittstelle von Urheberrecht, Datenschutz und Geschäftsgeheimnissen?
Fritz: In vielen KI-Projekten wird zuerst über Modelle und Use Cases gesprochen – und erst sehr spät über die Daten. Genau dort liegen aber die größten rechtlichen Risiken. Häufig ist unklar, woher Trainingsdaten stammen, unter welchen Lizenzen sie stehen und ob sie überhaupt für den konkreten Zweck verwendet werden dürfen. Gerade bei Web-Scraping, Open-Source-Datensätzen oder extern zugekauften Daten wird die rechtliche Herkunft oft nur oberflächlich geprüft. Hinzu kommt, dass Datenschutz und Urheberrecht in der Praxis selten sauber zusammengedacht werden. Parallel dazu geraten Geschäftsgeheimnisse in Gefahr, wenn interne Daten unkontrolliert in Trainingsprozesse einfließen oder in Modellen „persistieren“. Erfolgreiche KI-Projekte brauchen daher eine belastbare Daten-Governance, die rechtliche Fragen nicht als nachgelagertes Compliance-Thema, sondern als integralen Teil der technischen Architektur versteht.
BC: Welche typischen Denkfehler oder Annahmen begegnen Ihnen in der Praxis bei KI-Datenprojekten besonders häufig?
Fritz: KI-Projekte scheitern rechtlich selten an einem einzelnen Fehler, sondern an vielen kleinen Annahmen: „Die Daten sind eh öffentlich“, „das ist anonymisiert“, „das nutzen wir nur intern“. In der Summe entsteht daraus ein erhebliches Risiko. Was oft fehlt, ist ein ganzheitlicher Blick auf Daten als rechtlich sensibles Gut. KI zwingt Unternehmen dazu, Daten nicht nur technisch, sondern auch rechtlich zu „verstehen“. Wer diesen Perspektivwechsel nicht vollzieht, baut Systeme, die zwar leistungsfähig sind, aber rechtlich auf unsicherem Fundament stehen.
BC: Zum Schluss und jenseits der Paragrafen: Was steht aus Ihrer Sicht gesellschaftlich auf dem Spiel, wenn kreative Leistungen zunehmend von Maschinen erzeugt oder imitiert werden?
Fritz: Wir verhandeln derzeit neu, was wir als „kreativ“, „authentisch“ und „menschlich“ wahrnehmen. Wenn Maschinen kreativ imitieren oder produzieren, verändert das unseren Blick auf geistige Leistung, Wertschöpfung und Vertrauen. Entscheidend ist, dass wir KI nicht als Ersatz, sondern als Werkzeug begreifen – und dass Transparenz darüber herrscht, wo Maschinen beteiligt sind. Gelingt das nicht, riskieren wir einen schleichenden Vertrauensverlust in Medien, Öffentlichkeit und kulturelle Ausdrucksformen.
BC: Sehr geehrter Herr Dr. Fritz, herzlichen Dank für dieses aufschlussreiche Gespräch und Ihre Perspektiven für die Schnittstelle von Technik und Recht. Wir freuen uns besonders, Sie dieses Frühjahr gleich zweimal bei uns zu begrüßen!




.png)

