Kennzeichnung von KI-Inhalten: Pflicht oder Kür?


Bald könnte die Kennzeichnung von KI-Inhalten zur Pflicht werden, um sie von menschlichem Content unterscheiden zu können

Die Nutzung von KI-Tools im Marketing ist praktisch. Schnell werden Texte von Chatbots generiert und auch das passende Bild ist mit den richtigen Prompts unkompliziert erstellt. Selbst Gemälde im Stil eines bestimmten Künstlers oder detailgetreue Naturaufnahmen kann die KI generieren. Doch wer hat die Rechte an diesen Bildern? Und muss man KI-Inhalte eigentlich kennzeichnen? Wir beleuchten, inwieweit die Kennzeichnung von KI-Inhalten wichtig und wo sie sogar Pflicht ist.

Immer häufiger begegnen uns in unserem Alltag Prozesse oder Inhalte, hinter denen eine künstliche Intelligenz steht. Wir schreiben mit Chatbots, lesen KI-generierte Werbetexte und Newsletter oder konsumieren Inhalte wie Fotos oder Videos, die von einer künstlichen Intelligenz erstellt oder bearbeitet wurden. In einigen Situationen, oft bei Videos, ist aber gar nicht auf den ersten Blick ersichtlich, dass es sich dabei um KI-generierte Inhalte handelt. Das kann zu einem Problem werden. Vor allem, wenn solche Videos Aussagen realer Personen oder Ereignisse verfälscht wiedergeben. Solche Inhalte können sich schnell ausbreiten und zum Beispiel in einer Krise oder bei Wahlen die Stimmung anheizen.

Dieser Gefahr möchte die Video-Plattform YouTube nun mit verpflichtender Kennzeichnung von KI-Inhalten ein Ende bereiten. Doch auch andere Aspekte sprechen für eine klare Abgrenzung von realen und KI-generierten Inhalten – vom Schutz geistigen Eigentums bis zur ehrlichen Kommunikation mit Kund:innen. Wir klären Dich über die Risiken KI-basierter Inhalte auf und erläutern, warum es schon bald zur Pflicht werden könnte, KI-generierte Inhalte zu kennzeichnen.

Urheberrecht und KIQuelle: herbinisaac auf Pixabay

Die KI und das Urheberrecht

Verletzen KI-Inhalte das Urheberrecht?

Wenn eine KI Inhalte generiert, greift sie auf Texte, Bilder und Videos zu, die von Menschen geschaffen wurden. Da kann es durchaus vorkommen, dass einem KI-generierten Inhalt ein urheberrechtlich geschütztes Werk zugrundeliegt. Eine Verletzung des Urheberrechts liegt nach aktuellen Regelungen aber nur vor, wenn es eine gravierende Ähnlichkeit zum Original gibt oder das Original lediglich bearbeitet wurde. Ist das nicht der Fall, ist der Output der KI nicht nur rechtens, sondern kann auch nach den Nutzungsbedingungen des Anbieters (z.B. Open AI) frei verwendet werden. Vor allem für Kunstschaffende ist das aktuell ein großes Problem.

Wer hat das Urheberrecht über KI-generierte Inhalte?

Im Urhebergesetz heißt es, dass nur „persönliche geistige Schöpfungen“, also menschengemachte Schöpfungen, Werke sind, die im Rahmen des Urhebergesetzes geschützt sind. Eine künstliche Intelligenz kann demnach kein:e Urheber:in sein. Dennoch ist auch der Nutzer oder die Nutzerin der KI nicht Urheber:in des Inhalts. Denn er oder sie hat zwar die Anfrage gestellt, das Ergebnis entsteht aber eher zufällig durch die Algorithmen der KI. Durch künstliche Intelligenz erstellte Bilder oder Texte unterliegen also nicht dem Urheberrecht – auch dann nicht, wenn die KI selbst ihre Lehren aus urheberrechtlich geschützten Werken zieht.

Weil sie zum einen oft aus der Basis urheberrechtlich geschützter Werke geschaffen werden und zum anderen zur Verbreitung von Desinformationen genutzt werden können, sind KI-Inhalte, die als solche nicht erkennbar sind, auch der EU-Kommission ein Dorn im Auge. Sie will daher eine Kennzeichnungspflicht erwirken. Eine Übereinkunft dazu wurde von 44 Unterzeichnern, darunter die Unternehmen Google, Facebook und TikTok, unterstützt. X (Twitter) hingegen kündigte die Zusammenarbeit am Verhaltenskodex gegen Desinformation bereits im Mai auf.

Erste Social Media Plattformen ziehen die Reißleine

Je unkomplizierter es wird, Inhalte per KI zu erstellen, desto mehr KI-Inhalte finden sich nicht nur zu Marketingzwecken auf Unternehmenswebsites, sondern auch auf Social Media oder Video-Plattformen. Größtes Problem sind aktuell vor allem sogenannte Deepfakes, sprich verfälschte Fotos, Video- oder Audioaufnahmen. Diese können für Desinformations- und Verleumdungskampagnen genutzt werden und stellen abgesehen davon ein enormes Sicherheitsrisiko dar: Denn mit ihnen lassen sich biometrische Systeme überwinden und gezielte Phishing-Angriffe durchführen.

Zusätzlich haben vor allem die Portale Instagram und TikTok, die sich eher an ein jüngeres Publikum richten, mit einem weiteren Problem zu kämpfen: Sie erhalten ohnehin schon Kritik wegen der Darstellung unrealistischer Schönheitsideale. Nun könnten virtuelle Influencer.innen dieses Problem noch verschlimmern. Denn diese sind tatsächlich nicht real, jedoch in manchen Fällen nicht einmal als Produkt einer KI erkennbar. Und zuletzt können User:innen sozialer Medien KI-generierte Kunst oder Musik veröffentlichen, an denen sie selbst gar nicht mitgewirkt haben. Um ihre Nutzer:innen zu schützen machen einige Social Media Plattformen die Kennzeichnung von KI-generierten Inhalten nun verpflichtend.

Instagram Channel der virtuellen Influencerin imma.grammQuelle: Instagram: imma.gram
Die Influencerin imma.gram gibt auf ihrem Channel an, dass sie virtuell ist.
Post der virtuellen Influencerin imma.gramQuelle: Instagram: imma.gram
Die einzelnen Beiträge tragen bisher aber kein Label, das sie als KI-generiert erkennbar macht.

1. YouTube will gegen Deepfakes vorgehen:

Über mehrere Updates in den kommenden Monaten möchte YouTube eine Offenlegungspflicht für Inhalte einführen, die durch KI erstellt oder bearbeitet worden sind. Das wird zum einen über ein Label in der Videobeschreibung und bei besonders sensiblen Themen über eine noch sichtbarere Kennzeichnung geschehen. In besonderen Fällen, zum Beispiel bei KI-Videos mit realistischen Gewaltdarstellungen, kann YouTube die Medien auch vollständig entfernen. Zusätzlich können sich User:innen an die Plattform wenden, wenn sie Opfer eines Deepfakes geworden sind oder eines zu erkennen glauben.

2. Instagram setzt KI zur Kennzeichnung KI-generierter Inhalte ein:

Meta, das Unternehmen hinter Facebook und Instagram, nutzt KI in vielen Bereichen. Nicht zuletzt gibt es KI-Optionen für Anzeigen auf den Plattformen und auch User:innen werden mit Filtern & Co. KI-Tools an die Hand gegeben. Dennoch setzt sich auch Gründer Mark Zuckerberg dafür ein, dass KI-generierte Inhalte auf Instagram und Facebook künftig durch ein Wasserzeichen oder anderes Label erkennbar sind. Bei den eigenen KI-Tools passiert das automatisch.

3. TikTok stellt Tool zur Kennzeichnung von KI-Inhalten zur Verfügung:

Die Video-Plattform TikTok unterstützt nach eigenen Angaben die vielfältigen Möglichkeiten, die KI den Creator:innen bietet, um ihrer Kreativität freien Lauf zu lassen. Dennoch möchte man Verwirrung oder Irreführung vermeiden und die mit Hilfe von KI produzierten oder bearbeiteten Inhalte dementsprechend kennzeichnen. Das gilt vor allem für „KI-generierte Inhalte, die realistisches Bild-, Ton- oder Videomaterial enthalten“. Tests zur automatischen Kennzeichnung von KI-Inhalten sind außerdem bereits im Gange.

Muss ich meine KI-generierten Inhalte kennzeichnen?

Vor der Veröffentlichung von KI-basierten Inhalten sollte man diese zunächst einmal einer Prüfung unterziehen: Sind die Inhalte und Informationen korrekt? Könnte das Material Urheberrecht verletzen? Werden reale oder realistisch wirkende Personen, Ereignisse oder auch Orte gezeigt? Können die ersten beiden Fragen zufriedenstellend beantwortet werden, darf man die Inhalte veröffentlichen. Darüber, ob man die Inhalte kennzeichnen muss, entscheidet aktuell aber vor allem die letztere Frage. Viele Plattformen haben bereits eine Kennzeichnungspflicht für Content, der sich nicht eindeutig von realen Inhalten unterscheidet, um User:innen zu schützen. Hier sollte man KI-generierten Inhalt also in jedem Fall kennzeichnen. Doch auch auf den unternehmenseigenen Kanälen ist es sinnvoll, diesem Vorbild nachzukommen und zumindest realistisch wirkende KI-Inhalte zu markieren. Im Rahmen der transparenten Kommunikation mit Kund:innen und Partnern ist die zuverlässige Kennzeichnung jedoch auch abseits davon sinnvoll:

Claudia Kobbenbring„Vor allem gegenüber Geschäftspartnern sollte man als Unternehmen, beispielsweise als Kreativagentur, natürlich transparent sein und klar kommunizieren, wenn KI in den Erstellungsprozess involviert ist. Denn wenn diese Partner für die Leistung geschulter Mitarbeiter:innen bezahlen und dann erfahren, dass ihnen KI-generierte Inhalte zugespielt wurden, werden sie sich vor den Kopf gestoßen fühlen. Das kann das Vertrauensverhältnis von Kund:in und Dienstleister ganz erheblich erschüttern.“

Claudia Kobbenbring, Senior-Beraterin und Team-Lead der PR-Agentur Drunk Octopus Communications.

Wie man KI-Tools zu Marketingzwecken nutzen kann und wo sie ihre Stärken und Schwächen haben, erfährst Du in unserem Beitrag.

Kennzeichnung von KI-Inhalten am besten jetzt schon vornehmen

Aktuell ist es noch die Entscheidung des Hosts der Plattform, auf der die Inhalte hochgeladen werden, ob User:innen KI-generierten Content kennzeichnen müssen. Immer mehr Anbieter entscheiden sich zum Schutz ihrer User:innen sowie ihres Rufs für die Einführung einer solchen Kennzeichnungspflicht. Auf diesen Plattformen sollten Unternehmen also unbedingt offenlegen und mit den dafür bereitgestellten Tools kennzeichnen, wenn sie die hochgeladenen Inhalte per KI erstellt oder bearbeitet haben. Zudem ist es möglich, dass schon bald eine EU-weite Kennzeichnungspflicht für KI-Inhalte beschlossen wird. Wer sichergehen will, alles richtig zu machen, kann also bereits jetzt KI-generierte Inhalte als solche kenntlich machen.

Bildquellen

Previous Whitepaper: KI-Avatare in der Unternehmenspraxis
Next Whitepaper: ERP-Systeme für Dienstleister

No Comment

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

20 + dreizehn =