Was ist Hyperrealismus?

Hyperrealismus ist eine Kunstbewegung, die extrem realistische und detaillierte Bilder erzeugt, die wie Fotografien wirken. In der digitalen Welt bezieht sich Hyperrealismus auch auf die Verwendung von KI, um extrem realistische Bilder zu erstellen, die schwer von echten Fotos zu unterscheiden sind.

Australische Forschende haben herausgefunden, dass Menschen Gesichter, die mit künstlicher Intelligenz erstellt wurden, häufiger als real wahrnehmen als echte Gesichter. Diese Entdeckung wirft ernsthafte Bedenken hinsichtlich Täuschungen und Missbrauch der KI-Technologie auf.

Die Studie der Australian National University

Eine Studie der Australian National University (ANU) untersuchte, wie gut Menschen reale Gesichter von durch KI erzeugten Gesichtern unterscheiden können. Die Ergebnisse waren überraschend: Die Teilnehmenden hielten weiße KI-generierte Gesichter öfter für menschlicher als echte Gesichter. Dies liegt daran, dass KI-Algorithmen überwiegend auf weiße Gesichter trainiert werden.

MIMIKAMA
Gesichter, die am häufigsten als (a) menschlich und (b) als KI erkannt wurden. Unter jedem Gesicht stehen der Typ (KI oder menschlich; männlich oder weiblich), die ID (Nightingale & Farid, 2022) und der Prozentsatz der Teilnehmer, die das Gesicht als (a) menschlich oder (b) KI eingestuft haben.

Rassistische Vorurteile durch KI verstärkt

Für Gesichter mit anderen Hautfarben gelten diese Ergebnisse jedoch nicht. „Wenn weiße KI-Gesichter durchweg als realistischer wahrgenommen werden, könnte diese Technologie schwerwiegende Folgen für farbige Menschen haben, da sie letztlich rassistische Vorurteile im Internet verstärkt“, warnt Amy Dawel, Hauptautorin der Studie. Der Hyperrealismus, der bei weißen Gesichtern auftritt, führt dazu, dass Menschen nicht merken, dass sie getäuscht werden. Interessanterweise waren die Studienteilnehmenden, die sich für die KI-Gesichter entschieden, auch am überzeugt davon, dass sie nicht getäuscht wurden.

Risiken und Missbrauchspotenzial von KI-Bildgeneratoren

Ein weiteres Problem bei den immer innovativeren KI-Bildgeneratoren ist die Gefahr des Missbrauchs. Am häufigsten werden sogenannte Text-zu-Bild-Modelle verwendet. Diese ermöglichen es Nutzenden, durch die Eingabe bestimmter Textinformationen digitale Bilder zu generieren, einschließlich menschenverachtendem Bildmaterial und Hass-Memes.

Lesen Sie auch >   „Schön weiterleiten, damit alle sehen, was ins Land geholt wird“ – U-Bahn-Video stammte aus Spanien

Forschende aus dem Team von CISPA-Faculty Dr. Yang Zhang haben untersucht, wie hoch der Anteil solcher „unsicheren Bilder“ unter den vier bekanntesten KI-Bildgeneratoren ist. Die Ergebnisse zeigten, dass 14,56 Prozent der generierten Bilder als unsicher eingestuft wurden. Dies deutet darauf hin, dass die bestehenden Filter, die Missbrauch verhindern sollen, nicht ausreichend sind.

Maßnahmen zur Verhinderung von Missbrauch

Die Studie stellt verschiedene Maßnahmen vor, um dem Missbrauch entgegenzuwirken. Unter anderem könnten die Trainingsdaten während der Trainings- und Abstimmungsphase sorgfältiger kuratiert werden. Eine weitere Möglichkeit besteht darin, die Eingabeaufforderungen der Nutzenden zu regulieren, indem „unsichere“ Schlüsselwörter entfernt werden.

Fragen und Antworten

Wie unterscheidet sich die Wahrnehmung von weißen KI-Gesichtern von der Wahrnehmung anderer Hautfarben?

Die Wahrnehmung von KI-generierten Gesichtern ist stark von der Hautfarbe beeinflusst. Die Studie zeigt, dass weiße KI-Gesichter häufiger als realistischer wahrgenommen werden als echte weiße Gesichter. Dies liegt daran, dass KI-Algorithmen überproportional auf weiße Gesichter trainiert sind. Für Gesichter mit anderen Hautfarben gilt dieses Ergebnis nicht, was darauf hinweist, dass rassistische Vorurteile durch diese Technologie verstärkt werden könnten.

Welche Gefahren birgt die Nutzung von Text-zu-Bild-Modellen?

Text-zu-Bild-Modelle bergen erhebliche Gefahren, da sie missbraucht werden können, um menschenverachtendes Bildmaterial und Hass-Memes zu erzeugen. Eine Untersuchung zeigte, dass ein erheblicher Anteil der generierten Bilder als unsicher eingestuft wurde. Dies deutet darauf hin, dass die bestehenden Filter nicht ausreichend sind, um den Missbrauch zu verhindern.

Welche Maßnahmen können gegen den Missbrauch von KI-Bildgeneratoren ergriffen werden?

Um den Missbrauch von KI-Bildgeneratoren zu verhindern, könnten die Trainingsdaten während der Trainings- und Abstimmungsphase sorgfältiger kuratiert werden. Zudem könnten die Eingabeaufforderungen der Nutzenden reguliert werden, indem „unsichere“ Schlüsselwörter entfernt werden. Diese Maßnahmen könnten dazu beitragen, die Erstellung von unsicherem Bildmaterial zu reduzieren.

Lesen Sie auch >   Die Schreihälse der sozialen Medien: Wenn dein harmloser Post zur Zielscheibe wird

Warum ist es wichtig, die Ergebnisse dieser Studie zu beachten?

Die Ergebnisse dieser Studie sind wichtig, weil sie aufzeigen, wie KI-Technologie rassistische Vorurteile verstärken und missbraucht werden kann. Wenn weiße KI-Gesichter realistischer wahrgenommen werden als echte Gesichter, könnte dies schwerwiegende Folgen für farbige Menschen haben. Zudem zeigt die Untersuchung, dass die bestehenden Filter für KI-Bildgeneratoren nicht ausreichen, um Missbrauch zu verhindern.

Wie können Forschungen wie diese die Entwicklung zukünftiger KI-Technologien beeinflussen?

Forschungen wie diese können die Entwicklung zukünftiger KI-Technologien maßgeblich beeinflussen, indem sie auf bestehende Probleme und Missbrauchspotenziale hinweisen. Durch das Aufzeigen von Schwächen und Risiken können Entwicklerinnen und Entwickler Maßnahmen ergreifen, um sicherere und gerechtere KI-Systeme zu schaffen. Dies könnte dazu beitragen, rassistische Vorurteile zu reduzieren und den Missbrauch von KI-Technologie zu verhindern.

Fazit

Die Forschungsergebnisse der ANU und des CISPA-Teams verdeutlichen die komplexen Herausforderungen und Risiken, die mit der Nutzung von KI-Bildgeneratoren einhergehen. Während die Technologie beeindruckende Fortschritte macht, ist es unerlässlich, sich der potenziellen negativen Auswirkungen bewusst zu sein und entsprechende Maßnahmen zu ergreifen. Die Erkenntnisse dieser Studien sollten Entwicklerinnen und Entwicklern als Grundlage dienen, um sicherere und gerechtere KI-Systeme zu schaffen, die keine rassistischen Vorurteile verstärken und Missbrauch verhindern.

Zur Studie: Psychological Science: AI Hyperrealism: Why AI Faces Are Perceived as More Real Than Human Ones

Melden Sie sich für den Mimikama-Newsletter an, um immer am Laufenden zu bleiben.

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)