InternetIls ont vendu leur visage à une IA, mais n'avaient pas tout prévu
Des usagers, qui avaient vendu leur image à une société de marketing, se sont retrouvés à leur insu à relayer des fausses informations et de la propagande politique.

De vrais visages, mais des paroles générées par l'IA: sur les réseaux sociaux, des usagers vendent leur image à des sociétés marketing spécialisées dans l'IA, mais elle se retrouve parfois, à leur insu, dans des «deepfakes» douteux relayant infox ou propagande politique. Moins coûteuse qu'un véritable tournage, mais plus réaliste qu'un avatar entièrement généré par l'IA, cette technologie permet de constituer de vastes catalogues de «mannequins» numériques pour animer des vidéos, la plupart du temps pour vanter des produits ou des services.
Selon Solène Vasseur, consultante en IA, c'est une nouvelle forme de publicité «rapide» et «peu chère». Le procédé est rapide: une demi-journée de tournage sur fond vert. L'acteur d'un jour interprète différentes émotions. Ensuite, l'IA permettra de lui faire dire toutes sortes de propos, dans une infinité de langues.
«La performance d'un être humain reste au-dessus de tout ce que l'IA peut produire», explique Alexandru Voica, responsable des affaires générales chez Synthesia, l'un des leaders du secteur basé au Royaume-Uni. Pour fabriquer une vidéo à sa convenance, le client de la plateforme sélectionne un visage, une langue, un ton (grave, enjoué...), puis insère le texte souhaité. Le tout pour un prix modique.
«Là, c'est clairement une arnaque».
Mais entre jargon juridique, clauses parfois abusives et argent vite gagné, certains peinent à comprendre pleinement ce à quoi ils s'engagent en vendant leur image. L'acteur et mannequin sud-coréen, Simon Lee, en a fait les frais. Présenté comme chirurgien ou gynécologue sur TikTok et Instagram, on voit son avatar vanter des pseudo-remèdes, comme des tisanes de mélisse pour maigrir ou des bains glacés contre l'acné.
«C'est énervant. Si c'était une publicité correcte, ça ne m'aurait pas dérangé. Mais là, c'est clairement une arnaque», confie-t-il à l'AFP. Il aimerait faire retirer les vidéos, mais son contrat stipule que son image «peut être utilisée par des tiers».
«J'avais besoin d'argent».
Mauvaise surprise en 2022, pour le comédien et mannequin anglais, Connor Yeates, qui signe avec la société Synthesia, un contrat de trois ans pour 4600 euros. «Je n'ai pas de parents riches, j'avais besoin d'argent et cela m'a semblé être une bonne opportunité». Il découvre ensuite que son image est utilisée à des fins politiques, pour promouvoir Ibrahim Traoré, président du Burkina Faso, porté au pouvoir par un coup d'État en 2022.
«Il y a trois ans, certaines vidéos ont échappé à notre modération parce que notre système n'était pas bien équipé pour traiter les contenus polarisants ou exagérés», reconnaît M. Voica, chez Synthesia. L'entreprise assure avoir instauré de nouvelles procédures. Mais d'autres plateformes ont depuis vu le jour et appliquent des règles beaucoup moins strictes.
De nombreuses personnes «ignorent la portée réelle de ce qu'elles signent», prévient Alyssa Malchiodi, avocate spécialisée en droit des affaires. Elles «découvrent qu'elles ont cédé des droits étendus, sans contrôle sur les contenus générés». Les contrats contiennent souvent des clauses considérées comme abusives: exploitation mondiale, illimitée. «Le droit ne suit pas la vitesse de développement de l'IA», déplore l'avocate. «Ce ne sont pas des visages inventés», mais des personnes réelles que l'IA n'efface pas, mais expose.