Offenlegungspflichten beim Einsatz von KI-Anwendungen

Seit der Veröffentlichung der KI-Verordnung kommt regelmäßig die Frage auf, ob eine Ver­wendung von KI-Anwendungen offengelegt werden müsse. Gehen wir von einem harmlosen Fall aus:

Der Kunde betreibt ein Wellness-Hotel. In ei­ner Darstellung soll ein Parfümflakon zu sehen sein. Um den Bau eines markenlosen Produkts und das aufwendige Shooting zu sparen, wird das Bild mittels künstlicher Intelligenz generiert. Ist die Verwendung generativer KI gegenüber der Allgemeinheit und gegenüber dem Kun­den offenzulegen?

01 – Offenlegung gegenüber der Allgemeinheit

Bei solchen Fällen hört man schnell: „Das ist doch kein Deepfake, also brauche ich es nicht zu kennzeichnen.“ Am besten schaut man in den Maschinentext, nämlich in die europäische KI-Verordnung. In dieser heißt es:

Art. 50 Abs. 4 KI-VO

Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipu­liert, die ein Deepfake sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. Diese Pflicht gilt nicht, wenn die Verwendung zur Aufdeckung, Ver­hütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der In­halt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder ana­logen Werks oder Programms, so beschränken sich die in diesem Absatz festgelegten Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.

In dem Zusammenhang ist der Begriff des „Deepfake“ zu ermitteln, für den die KI-Ver­ordnung eine gesetzliche Definition anbietet:

Art. 3 Ziffer 60 KI-VO

„Deepfake“ einen durch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde;

Auch wenn beide Normen nicht selbsterklärend sind, lässt sich eine Anwendung in dem Beispielsfall nicht so leicht ausschließen. Die Parfümflasche erfüllt die Kriterien eines durch KI erzeugten Bildes, das einen Gegenstand wiedergibt. Weil die Flasche echt wirken soll, wird sie den Betrach­ter_innen als echt erscheinen.

In der Tagespresse wurden Deepfakes nur im Zusammenhang von Pressebeiträgen und Social-Media-Postings erwähnt. Ist das auf werbliche Verwendungen überhaupt übertrag­bar?

Auf das Eingangsbeispiel bezogen, mutet es wirklich befremdlich an. Die Normen geben aber keine Anhaltspunkte für eine eingeschränkte Auslegung. Ich gehe davon aus, dass die werbliche Verwendung KI-generierter Abbildungen von Prominenten leichter unter den Deepfake-Begriff fallen werden, als wir uns das eingestehen wollen. Aus den ersten Stimmen zu diesem Thema werden sogar mit KI erzeugte Sprecher_innen auf einer Lernplattform als Deepfake einge­stuft (Buchholz und Kremer, in Computer und Recht 2025, Seite 57). Auf unser Parfümfläschchen bezogen kann man sich für eine reduzierte Anwendung des Art. 50 Abs. 4 KI-VO durchaus mit dem Argument aussprechen, weil mit der Regelung eigentlich Manipulationen in der Meinungsbildung verhindert werden sollen. Konkrete Beispiele aus der Rechtsprechung werden lange auf sich warten lassen, weil die Norm erst ab August 2026 anzuwenden ist. An dieser Stelle weisen wir auf den AGD-Rechtsfonds hin, der an einer Unterstützung solcher Fällen sicherlich interessiert sein dürfte.

Ich habe gelesen, dass Inhalte erst offengelegt werden müssen, wenn über Angelegen­heiten des öffentlichen Interesses informiert werden soll.

Das ist in der Tat im zweiten Unterabsatz des Art. 50 Abs. 4 KI-VO geregelt; die Norm be­schränkt sich allerdings auf Texte. Das wird im nationalen Persönlichkeitsrecht ähnlich gehandhabt, weil Bilder gegenüber Texten eine höhere Suggestivkraft entfalten.

Wer ist eigentlich zur Transparenz verpflichtet?

Diese Frage ist spannend und auch nicht eindeutig zu beantworten. Die in Art. 50 Abs. 4 KI-VO geregelte Offenlegungspflicht bezieht sich auf die Betreiber eines KI-Systems, wozu De­signer_innen gehören, die KI-Apps zur Erstellung ihrer Inhalte verwenden. Anbieter von KI-Systemen, womit die Produzenten der Apps gemeint sind, sollen stets eine maschi­nenlesbare Kennzeichnung sicherstellen (Abs. 2). Es ist gut denkbar, dass sich die Diskussionen über die Betreiberpflichten schnell erledigen, sofern die Kennzeichnungen der Anbieter durch die weiteren Beteiligten der Nutzungskette nicht gelöscht werden dürfen. Auch nicht ganz einfach zu beantworten ist die Frage, welche Pflichten den Kunden treffen. Ist er Endnutzer oder ebenfalls als Betreiber an­zusehen, in dessen Interesse der KI-Content hergestellt wurde?

Wann gelten die vorgenannten Transparenzpflichten?

Art. 50 KI-VO gilt erst nächstes Jahr, nämlich ab dem 02.08.2026, Art. 113 KI-VO.

02 – Offenlegung gegenüber den Kunden

Zur Frage, inwiefern Kunden über den Einsatz generativer KI zu informieren sind, ist noch weniger in den Kommentierungen zu finden. Bei Designaufträgen läuft es schlichtweg auf eine Gewährleistungsfrage hinaus, § 633 BGB. Erhält ein Kunde eine Arbeit, die er wegen der oben aufgeführten Vorga­ben nicht benutzen darf, wird es als mangelhaftes Design ansehen. Das gilt für die oben genannten Transparenzpflichten aber auch für Rechte Dritter, sofern sie ausnahmsweise zur Anwendung kommen (Bsp. Urheberrecht an einem Ausgangswerke, dessen Elemente wider Erwarten zu erkennen sind).

Ein weiterer Aspekt könnte ein Wegfallen von Urheberrechten sein. Verlässt sich ein Kunde auf ein Exklusivrecht, das gegenüber Nachahmern und Konkurrenten leerläuft, wird man das als vertragswidrige Leistung ansehen müssen. Weil keine Drittrechte gegen den Kunden gerichtet werden, sondern das für die Exklusivität erforderliche Schutzrecht fehlt, wird auch zu klären sein, ob sich der Mangel überhaupt aus § 633 BGB ableiten lässt.

Ab wann sind die Kunden zu informieren?

Sofern die Designs über den 02.08.2026 hinaus verwendet werden sollen, sofort. Aber auch bei dieser Frage sind anders lautende Antworten nicht auszuschließen.

03 – Rechtegarantie gegenüber dem Kunden

Wie oben erwähnt, wollen Kunden die für sie hergestellten Designs frei von Rechten nutzen können. Weil selbst die KI-Anbieter nicht abschließend nachvollziehen können, wie der Content zustande kommt, wird keiner eine Garantie darüber abgeben können, ob die Ergebnisse frei von Rechten Dritter sind. Eine Wiederkennbarkeit urheberrechtlich geschützter Werke bei KI-Tools, die auf mehrschichtigen künstlichen neuronalen Netzwerken beruhen, gilt als unwahrscheinlich, lässt sich aber nicht mit Sicherheit ausschließen (so Buchholz und Kremer, in Computer und Recht, 2025, 202, 204, Rdn. 18). Vor allem Fotos aus Themenbereichen, bei denen es ein geringes Angebot gibt, ist der eine oder andere unwahrscheinliche Fall der Wiedererkennbarkeit denkbar. Auch das wäre ein Case, den sich der AGD-Rechtsfonds mit Interesse anschauen würde.

Zurück zu dem mit dem Kunden bestehenden Auftrag: Auch wenn die Wahrscheinlichkeit einer Urheberrechtsverletzung aus heutiger Sicht als niedrige zu bewerten ist, ist eine vertragliche Klarstellung zu empfehlen. Die übliche Drittrechteklauseln sind an die Verwendung generativer KI anzupassen.

04 – Nutzungsrechte wenn es keine Schutzrechte gibt?

Bei Designaufträgen wird es auch in Zukunft sinnvoll sein, die Kostenkalkulation in die Nutzungsrechte zu verlagern. Kunden können in vielen Fällen bei der Beauftragung den Um­fang der Nutzung der Designs nicht abschätzen; Designer_innen können dagegen mit ins Risiko gehen, sollten aber im Erfolgsfall mehr verdienen. Weil KI-generierte Arbeiten in der Regel keinen Urheberrechtsschutz genießen, laufen automatisch die Nutzungsrechte leer. Für solche Fälle ist es sinnvoll, ein zumindest zwischen den Designer_innen und ihren Auftraggebern geltendes vertragliches Schutzrecht zu formulieren. Weil das Urheberrecht nicht ohne Grund Mindestanforderungen enthält, sind Vertragsvorlagen wenig verbreitet und so­mit nicht so leicht formuliert. Die Diskussionen hierzu laufen innerhalb der AGD. Liegen erste Ergebnisse vor, wird auch an dieser Stelle darüber berichtet.

05 – Fazit

Als Ergebnis lässt sich festhalten, dass bei diesem Thema noch nichts festgelegt ist. Eine Offenlegungspflicht ist zu empfehlen, sofern die Betrachter_innen die Arbeiten als echt ansehen sollen. Wegen der bestehenden rechtlichen Unsicherheiten sind Kund_innen zu informieren, sofern eine Nutzung des KI-Inhalts über den 02.08.2026 hinaus angedacht ist.

Alexander Koch | Justiziar | August 2025