Anfang Februar kündigte Meta an, Fotos, die mit KI-Tools erstellt wurden, in seinen sozialen Netzwerken zu kennzeichnen. Seit Mai versieht Meta regelmäßig Fotos auf Facebook, Instagram und Threads mit dem Label „Made with AI“ / „Mit KI generiert“.

Diese Praxis hat jedoch den Zorn vieler Nutzer und Fotografen hervorgerufen, da auch Fotos, die nicht mit KI-Tools erstellt wurden, fälschlicherweise gekennzeichnet werden.

Verärgerte Fotografen und unscharfe „Made with AI“-Labels

Ein prominentes Beispiel ist Pete Souza, der ehemalige Fotograf des Weißen Hauses. Eines seiner Fotos wurde fälschlicherweise mit dem neuen Label versehen.

Souza vermutete, dass Adobes neues Beschneidungswerkzeug dafür verantwortlich war, da das Bild vor dem Speichern als JPEG geglättet werden musste, was den Meta-Algorithmus auslöste. Er kritisierte, dass Instagram ihn zwinge, das Label „Made with AI“ zu verwenden, obwohl er es deaktiviert habe.

Auch viele andere Fotografen berichteten, dass ihre Bilder fälschlicherweise mit dem Label versehen wurden. Sie fordern eine klare Unterscheidung zwischen der generativen Erstellung eines Bildes und der bloßen Bearbeitung eines Fotos mit KI-Werkzeugen.

„Meine erste Begegnung mit dem gefürchteten Label „Mit KI generiert“.
Kein einziges Bit generativer Füllung wurde irgendwo auf diesen Bildern verwendet (weil ich KI verdammt noch mal hasse), also ist das ein wenig beunruhigend 🤔.“

Notwendige Differenzierung bei der Kennzeichnung

Das Hauptproblem besteht darin, dass das Label „Made with AI“ sowohl für die Erstellung als auch für die Bearbeitung von Inhalten mit generativer KI verwendet wird. Diese Aussage wird aber erst sichtbar, wenn man auf das Label tippt. Eine gesonderte Kennzeichnung gibt es bislang nicht, sodass es für den Nutzer schwierig ist, zu erkennen, inwieweit KI tatsächlich an der Erstellung des Inhalts beteiligt war.

Lesen Sie auch >   Vorsicht vor gefälschten Finanz-Online-SMS

Überlegungen von Meta zur Verbesserung der Kennzeichnung

Meta hat angekündigt, seinen Ansatz zur Kennzeichnung von Inhalten zu überdenken. Ursprünglich war geplant, branchenführende Tools zu entwickeln, die unsichtbare Marker in großem Maßstab identifizieren können. Dies sollte helfen zu erkennen, wann Bilder künstlich erzeugt wurden – eine wichtige Maßnahme im Kampf gegen Desinformation, insbesondere in Wahlkämpfen. Angesichts der aktuellen Rückmeldungen wird nun daran gearbeitet, den Grad der KI-Beteiligung genauer zu spezifizieren.

Unsicherheiten und Inkonsistenzen beim Labeling

Wie KI-Inhalte genau erkannt werden, darüber gibt Meta bisher wenig Auskunft. Es heißt lediglich, dass „branchenübliche Indikatoren“ verwendet werden. PetaPixel hat untersucht, welche spezifischen Photoshop-Tools das „Made with AI“-Label auslösen:

  • Generative Fill: Selbst eine kleine Anpassung eines Bildes mit diesem KI-Tool führt zum Erscheinen des Labels.
  • Generative Expanding: Dieses Zuschneidewerkzeug basiert auf derselben KI-Technologie wie Generative Fill und löst ebenfalls das Label aus.
  • Generative Removal Tool: Interessanterweise wird dieses Werkzeug, das in Adobe Lightroom und Adobe Camera Raw verwendet werden kann, nicht mit dem Label versehen, obwohl es generative KI-Technologie verwendet.

Schlussfolgerungen

Das „Made with AI“-Label von Meta hat sich bisher als unzuverlässig und fehlerhaft erwiesen. Es besteht ein hoher Bedarf an präziseren Kennzeichnungsmethoden, die zwischen verschiedenen Formen des KI-Einsatzes unterscheiden. Statt nach Hinweisen auf KI-Bearbeitung zu suchen, sollte Meta möglicherweise nach Beweisen für authentische Bilder suchen und diese entsprechend kennzeichnen.

Für die Zukunft ist es wichtig, dass Meta und andere Plattformen eng mit Initiativen wie der Content Authenticity Initiative zusammenarbeiten, um zuverlässige und transparente Kennzeichnungsmethoden zu entwickeln.

Fragen und Antworten

  1. Was sind die Hauptprobleme des Meta-Labels „Made with AI“?
    Das Hauptproblem besteht darin, dass das Label sowohl für die Erstellung als auch für die Bearbeitung von Inhalten mit generativer KI verwendet wird. Diese unscharfe Kennzeichnung führt dazu, dass auch Fotos, die nur minimal mit KI-Werkzeugen bearbeitet wurden, fälschlicherweise als „mit KI erstellt“ gekennzeichnet werden. Fotografen fordern daher eine klarere Unterscheidung und genauere Kennzeichnung.
  2. Wie reagieren Fotografen auf die falsche Kennzeichnung ihrer Bilder?
    Fotografen sind verärgert und fordern eine genauere Kennzeichnung. Viele haben sich öffentlich dazu geäußert, wie sich die Kennzeichnung auf ihren Ruf auswirken könnte. Sie betonen, dass es einen Unterschied zwischen der generativen Erstellung eines Bildes und der bloßen Bearbeitung mit Werkzeugen gibt, und dass diese Unterschiede auch bei der Kennzeichnung berücksichtigt werden sollten.
  3. Welche Photoshop-Werkzeuge führen zum Label „Made with AI“?
    Werkzeuge wie Generative Fill und Generative Expand führen zur Kennzeichnung „Made with AI“. Interessanterweise wird das Tool Generative Remove, das ebenfalls KI-Technologie verwendet, nicht gekennzeichnet. Dies zeigt, dass das Kennzeichnungssystem von Meta inkonsistent ist und verbessert werden muss, um zuverlässiger zu sein.
  4. Welche Schritte unternimmt Meta, um die Kennzeichnung zu verbessern?
    Meta hat angekündigt, seinen Ansatz zur Kennzeichnung von Inhalten zu überdenken und plant, den Grad der KI-Beteiligung genauer zu spezifizieren. Das Unternehmen arbeitet aktiv mit anderen Unternehmen zusammen, die KI-Tools anbieten, um den Kennzeichnungsprozess zu verbessern und transparenter zu gestalten.
  5. Warum ist eine genaue Kennzeichnung von KI-generierten Inhalten wichtig?
    Eine genaue Kennzeichnung ist wichtig, um Fehlinformationen zu vermeiden und das Vertrauen der Nutzer in die Inhalte zu stärken. Insbesondere im Kontext von Wahlkämpfen und anderen sensiblen Themen ist es wichtig, dass die Nutzerinnen und Nutzer wissen, ob es sich bei einem Bild um eine KI-generierte Information handelt oder nicht.
Lesen Sie auch >   Eltern und Kinder: Wie man ein gutes Vorbild in der digitalen Welt ist

Fazit

Der derzeitige Ansatz von Meta zur Kennzeichnung von KI-generierten Bildern ist unzuverlässig und führt zu Verwirrung und Unzufriedenheit bei Fotografen. Es besteht ein dringender Bedarf an präziseren und konsistenteren Kennzeichnungsmethoden, vor allem in Hinsicht auf bevorstehende Wahlen oder Desinformationskampagnen.

Quelle: derStandard, PetaPixel, PetaPixel, Techcrunch

Melden Sie sich für den Mimikama-Newsletter an, um weitere nützliche Tipps und Informationen zu erhalten. Besuchen Sie auch unsere Online-Vorträge und Workshops.

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)