Mit dem Hype um KI ließen auch die ersten Deepfakes nicht lange auf sich warten. Teils täuschend echt sorgen die KI-generierten Bilder und Videos vor allem in den sozialen Medien für Aufruhr. Die Gefahr für die Verbreitung von Falschinformationen ist groß. Video-Plattform YouTube geht jetzt mit neuer Strategie gegen Deepfakes vor. Diese und weitere YouTube-News erfährst Du im Artikel.
KI-Tools sind immer leichter zugänglich und werden immer besser – auch die Bild- und Video-KIs wie DALL-E, Sora oder Dream Machine. Einige davon sind mittlerweile so gut, dass es den meisten Menschen schwerfällt, den KI-generierten Inhalt als solchen zu identifizieren. Diese täuschend echt wirkenden Bild-, Audio- oder Videoaufnahmen, auch Deepfakes genannt, sind längst im Umlauf. Vor allem in den sozialen Medien, wo sich Inhalte ohnehin rasant verbreiten und Spam-Accounts, Hate-Speech und Fake News den Moderator:innen das Leben schwer machen, können Deepfakes eine echte Gefahr darstellen. Aus diesem Grund möchte die Videoplattform YouTube jetzt härter gegen Deepfakes vorgehen – für die Sicherheit der Nutzer:innen und für deren Vertrauen in die Plattform.
User:innen können Deepfakes melden
Dazu animiert man die User:innen der Plattform, von KI generierte Inhalte zu melden. Diese müssen nicht vollständig KI-generiert sein – es reicht, wenn originale Videos durch die Technologie verändert wurden.
Wird zum Beispiel die Stimme oder das Gesicht einer Userin oder eines Users per KI verändert und so in einem Video veröffentlicht, kann man dies als Verletzung der Privatsphäre melden. Das geht allerdings nur, wenn man selbst davon betroffen ist. YouTube bewertet dann, ob die gezeigte Person identifizierbar ist, ob der Inhalt verändert oder synthetisch ist und ob er für echt gehalten werden könnte. Auch ob es sich um eine Parodie oder Satire handelt, wägt das Unternehmen ab.
Wer Deepfakes hochlädt, muss bisher allerdings wohl nicht mit sensiblen Strafen rechnen, denn Meldungen über die Richtlinien für Privatsphäre ziehen nicht automatisch auch eine Verwarnung für den/ die Creator:in des Videos nach sich. Üblicherweise wird ein Kanal nach drei Verstößen innerhalb von 90 Tagen gesperrt.
Mit Algorithmen gegen YouTube Deepfakes
Neben der Möglichkeit zum Melden von KI-Inhalten durch User:innen geht YouTube auch mit verbesserten Algorithmen zur Erkennung von KI-Inhalten gegen solche vor. Zusätzlich soll die verstärkte Zusammenarbeit mit KI- und Datenschutzexperten Deepfakes aufdecken und die missbräuchliche Verwendung von KI verhindern. Derweil sollen künftige Aufklärungskampagnen den Nutzer:innen der Videoplattform dabei helfen, Deepfakes und andere KI-generierte Inhalte leichter zu erkennen und so zum Beispiel nicht auf Falschinformationen oder Werbelügen hereinfallen. Ein solcher Fall bereitet YouTube zuletzt Sorgen, als angeblich massenweise Prominente auf der Plattform für unseriöse Produkte und Dienstleistungen warben. YouTube löschte hier 1.000 gefälschte Videos auf einen Schlag.
Auch das ist neu bei YouTube
Creator:innen können sich aktuell noch über ein anderes neues Feature auf YouTube freuen: Eine neue Möglichkeit zum Austesten und Vergleichen von Thumbnails. In Form eines A/B/C Tests können die Thumbnails neuer, aber auch älterer, bereits hochgeladener Long-Form-Videos gegeneinander gespielt werden. YouTube ermittelt dann, welche der drei Optionen prozentual am meisten Watchtime generiert. Den Testbericht können User:innen jederzeit einsehen. Der Test selbst kann von wenigen Stunden bis hin zu Wochen andauern. Dabei kommt es darauf an, wie ähnlich sich die Thumbnails sind – YouTube empfiehlt daher, möglichst kontrastierende Bilder zu verwenden. Nicht nutzen kann man den Test für Livestreams oder Videos mit Inhalten für Kinder oder explizit für Erwachsene.
Ergibt sich klar ein erfolgreichstes Thumbnail, wird das betroffene Video nach dem Test mit diesem Titelbild ausgespielt. Ist das nicht der Fall, wird das zuerst ausgewählte Bild genutzt.
Wie die Tests genau funktionieren und welche Tipps YouTube noch für die Thumbnails gibt, kannst Du Dir im folgenden Video anschauen.
Bildquellen
- 2150038886: Image by freepik
No Comment