KI-App Lensa verwandelt Schweizer Promis in Avatare

Aktualisiert

KI-App LensaPromis fahren auf Avatar-App ab – doch die hat ein Sexismus-Problem

Von künstlicher Intelligenz erstellte Porträts der App Lensa fluten gerade Social Media, auch viele Schweizer Stars und Sternchen machen mit. Doch die App hat ein Problem mit Sexismus und Rassismus.

20 Minuten hat die Trend-App Lensa getestet und aus Roger Federer einen Astronauten gemacht. 
Hier ein Bild von der Tennislegende in der Kategorie «Adventure». 
Dürfen wir vorstellen? Das hier ist «Cosmic»-Roger.
1 / 26

20 Minuten hat die Trend-App Lensa getestet und aus Roger Federer einen Astronauten gemacht. 

Transformed by Lensa 

Darum gehts

  • Um die App Lensa ist ein regelrechter Hype entstanden. 

  • Auch Promis sind von der künstlichen Intelligenz angetan und lassen aussergewöhnliche Porträts von sich erstellen. 

  • Das Ergebnis sind virtuelle Avatare, die aus einem Comic, Film oder Computerspiel zu stammen scheinen. 

  • Einige User berichten allerdings von Problemen mit Sexismus und Rassismus. 

Der Hype um die KI-App Lensa hat längst auch die Promiwelt erreicht. Und diese teilen die entstandenen Werke mit ihren begeisterten Followerinnen und Followern in den sozialen Medien. Die App Lensa gibt es schon seit rund fünf Jahren. Ursprünglich diente sie dazu, Selfies so bearbeiten zu können, wie es sonst nur mit einer Bildbearbeitungssoftware wie Photoshop möglich war.  

Neu verwandelt die App Menschen in Avatare, die manchmal futuristisch, comic-ähnlich oder auch komplett abstrakt in Erscheinung treten. Unter anderem Sänger Baschi, Nacktkünstlerin Milo Moiré und Model Tamy Glauser liessen sich in KI-Kunstwerke verwandeln. So cool die Bilder meistens auch wirken, so sehr fallen aber auch immer wieder Unregelmässigkeiten auf – besonders bei Augen und Händen. 

Letztere wirken oft verzogen und deformiert. Ausserdem macht sich bei einigen Porträts ein sogenannter Silberblick, ein leichtes Schielen, bemerkbar, das es beim Original so nicht gab. In der Bildstrecke oben siehst du alle Werke, die wir bislang von den Promis gefunden haben – oder selber von der App erstellen liessen. 

App sexualisiert Bilder

Einige User berichten auch davon, dass die Lensa-App ihre Bilder sexualisiert hat. Isabelle (30) hat 14 Selfies von sich auf die App hochgeladen. «Die Bilder von mir waren alle von meinem Gesicht und mein Körper war nicht ersichtlich». Nach rund 20 Minuten Wartezeit hat die App 200 «Magic Avatars» von der Schweizerin erstellt. Dafür hat sie acht Franken bezahlt.

Doch der Anblick schockierte sie: «Die App hat Nacktbilder von mir generiert». Auf mehreren Fotos war sie mit grossen und nackten Brüsten zu sehen. So erging es auch unserer Redaktorin Gloria (30) aus Zürich: «Ich hatte plötzlich auf einigen Fotos grosse Brüste und einen Ausschnitt, obwohl ich nur Bilder von meinem Gesicht hochgeladen habe». Sorgen macht sich Isabelle nicht, aber: «Diese App würde ich nicht wieder benutzen und auch nicht weiterempfehlen».

Links eines der Original-Bilder von Isabelle, rechts das von der Lensa-App erstellte und von 20 Minuten zensierte Avatar-Nacktbild.

Links eines der Original-Bilder von Isabelle, rechts das von der Lensa-App erstellte und von 20 Minuten zensierte Avatar-Nacktbild.

Isabelle / Lensa-App

Auch auf Google Play beschweren sich mehrere Nutzerinnen. Eine schreibt: «Die Hälfte meiner Fotos sind nackt». In einem anderen Kommentar steht: «Meine Bilder sehen aus, als hätte ein creepy Mann eine nackte Zehnjährige gezeichnet.» Auch sie haben keine nackten oder anzüglichen Bilder von sich hochgeladen. Das ist gemäss den allgemeinen Geschäftsbedingungen von «Lensa» sowieso verboten.

Auch Redaktor Tarek (37) hat sich mit der App Avatare erstellen lassen. Etwas schockiert hat ihn vor allem ein Bild: Es zeigt ihn mit Nazi-Pose. «Ich war entsetzt, das geht definitiv zu weit.» Glücklicherweise sei auch sein Gesicht ziemlich verformt, sodass er auf dem Bild nicht erkennbar sei.

Redaktor Tarek (37) wurde von der App als Rechtsextremist dargestellt.

Redaktor Tarek (37) wurde von der App als Rechtsextremist dargestellt.

Lensa-App

Auffällig sind in den Bewertungen auch Kommentare, in denen Rassismus thematisiert wird. So schreibt eine Userin: «Ich bin eine schwarze Frau und meine Fotos waren mehrheitlich weisse Frauen.» Ein weiterer kritischer Kommentar lautet: «Auf mehreren Fotos wurde mein Hautton aufgehellt». Sie hat auch Fotos von ihrer Tochter hochgeladen und ihre Avatare sehen aus, als wäre sie Asiatin. Die Enttäuschung bei den Nutzerinnen ist gross: «Es ist schade, denn ich hatte mich wirklich darauf gefreut, es auszuprobieren, nachdem ich gesehen hatte, dass so viele meiner Freunde es machen.»

Die Entwicklerfirma Prisma Lab räumt auf Anfrage ein, dass sporadisch eine Sexualisierung zu beobachten sei, und zwar bei allen Geschlechtern. Das Erzeugen von sexualisierten Bildern erklären sie damit, dass die Entwickler das Programm mit einer grossen Menge ungefilterter Bilder aus dem Internet trainiert haben: «Das Modell wurde aufgrund dieser Bilder mit bestehenden Vorurteilen und Schönheitsidealen vertraut gemacht.»

Die Programmierer seien bereits dabei, das zu ändern: «Um unerwünschte Erfahrungen, die mit dem sporadischen Auftreten unangemessener Inhalte zusammenhängen, zu minimieren, arbeiten wir derzeit an einem Filter zur Alterserkennung und zur Erkennung von NSFW-Inhalten.» NSFW heisst «not safe for work» und bezeichnet Inhalte, die pornografischer oder gewalttätiger Natur sind und deshalb nicht am Arbeitsplatz angeschaut werden sollten.

Was hältst du von den KI-Porträts?

Keine News mehr verpassen

Mit dem täglichen Update bleibst du über deine Lieblingsthemen informiert und verpasst keine News über das aktuelle Weltgeschehen mehr.
Erhalte das Wichtigste kurz und knapp täglich direkt in dein Postfach.

Deine Meinung zählt

46 Kommentare
Kommentarfunktion geschlossen