Metas neue Regel: Strafandrohung für Nutzer von KI-Bildern
Meta plant die Einführung neuer Regeln für KI-generierte Inhalte auf seinen Plattformen wie Facebook, Instagram und Threads, wie in einem Blogbeitrag des Unternehmens am 6. Januar erklärt wurde. Diese Maßnahmen zielen darauf ab, den wachsenden Bedenken hinsichtlich der Authentizität und Transparenz digitaler Inhalte zu begegnen.
Laut der Ankündigung werden alle Inhalte, die als KI-generiert erkannt werden, entweder durch Metadaten oder absichtliche Wasserzeichen, sichtbar gekennzeichnet. Darüber hinaus haben die Nutzer die Möglichkeit, nicht gekennzeichnete Inhalte, bei denen der Verdacht besteht, dass sie künstlich erzeugt wurden, zu markieren und so die Community in die Lage zu versetzen, zur Moderation der Inhalte beizutragen.
Diese Initiative spiegelt den sich entwickelnden Ansatz von Meta bei der Moderation von Inhalten wider und erinnert an die früheren Praktiken vor dem Aufkommen von KI-generierten Inhalten. Indem Meta den Nutzern die Möglichkeit gibt, Verstöße zu melden, und für Transparenz bei der Kennzeichnung von Inhalten sorgt, will das Unternehmen die Integrität seiner Plattformen wahren.
Mit Blick auf das Jahr 2024 nutzt Meta seine große Nutzerbasis, um die Möglichkeiten der Inhaltsmoderation zu verbessern. Indem es den Nutzern ermöglicht, KI-generierte Inhalte zu kennzeichnen, nutzt Meta die Macht des Crowdsourcing, um die neuen Herausforderungen bei der Authentizität digitaler Inhalte anzugehen.
Im Blog-Post heißt es dazu:
„Wir werden von den Nutzern verlangen, dass sie dieses Offenlegungs- und Kennzeichnungstool verwenden, wenn sie organische Inhalte mit einem fotorealistischen Video oder realistisch klingenden Audio posten, die digital erstellt oder verändert wurden, und wir können Strafen verhängen, wenn sie dies nicht tun.“
Verbesserte Erkennung von KI-generierten Inhalten
Urheber, die die Plattformen von Meta nutzen, müssen ihre Inhalte als KI-generiert kennzeichnen, um mögliche Konsequenzen zu vermeiden. Meta implementiert zwar Wasserzeichen und Kennzeichnungen für Inhalte, die mit seinen Tools erstellt wurden, räumt aber ein, dass es bei der Erkennung von KI-generierten Audio- und Videoinhalten in großem Umfang Grenzen gibt.
Um dieses Problem anzugehen, arbeitet Meta mit Branchenpartnern wie Google, OpenAI, Microsoft, Adobe, Midjourney und Shutterstock zusammen. Gemeinsam versuchen sie, Methoden zur Erkennung unsichtbarer Wasserzeichen zu entwickeln und die Überprüfung der Authentizität von Inhalten zu verbessern.
Meta räumt jedoch ein, dass die Erkennung von KI-generierten Audio- und Videoinhalten, einschließlich der Deepfake-Technologie, derzeit nur in begrenztem Umfang möglich ist. Dies unterstreicht die laufenden Bemühungen, die erforderlich sind, um die sich entwickelnde Landschaft der Authentizität und Integrität digitaler Inhalte zu bewältigen.