Actualités Hardware

Le nouveau générateur d’images DALL-E 3 d’OpenAI n’est pas autorisé à copier le style d’un artiste vivant par son nom.

Photo of author

Publié par Sacha

Publié le

Les artistes peuvent également refuser que leurs œuvres soient utilisées pour l’entraînement de futurs modèles d’IA.

OpenAI a annoncé une nouvelle mise à jour de son outil de génération d’images, DALL-E. DALL-E 3 promet de générer des représentations plus précises à partir des invites de l’utilisateur, qui peuvent également être créées avec l’aide de ChatGPT.

DALL-E 3 présente un avantage majeur par rapport aux anciennes versions du générateur d’images d’IA : OpenAI affirme qu’il s’agit d’un « bond en avant » dans la compréhension de ce qu’un utilisateur souhaite à partir du langage utilisé dans son message.

OpenAI explique que les systèmes existants ont « tendance à ignorer les mots ou les descriptions, ce qui oblige les utilisateurs à apprendre l’ingénierie des messages ». DALL-E 3 ne nécessite pas ce type d’ingénierie, ce qui le rend plus convivial. Elle affirme également que, pour une même invite, DALL-E 3 produira de bien meilleurs résultats que DALL-E 2.

Une partie de cette amélioration réside dans la façon dont DALL-E 3 utilise le très populaire chatbot d’OpenAI, ChatGPT, pour adapter les messages à l’utilisateur. Il sera possible de demander à ChatGPT de l’aider à générer des messages-guides à partir du langage naturel, de modifier ces messages-guides ou de générer de nouvelles images qui suivent toutes un thème commun.

Dans une vidéo présentant le nouvel outil de génération d’images, OpenAI utilise l’invite d’un « super-hérisson tournesol » dans ChatGPT pour générer des images d’un hérisson pour leur fille, l’utilisateur confirme celle qu’il aime et en demande d’autres dans le même style. ChatGPT, en utilisant DALL-E 3, produit d’autres images, des autocollants et une histoire illustrée pour le coucher.

Sur le site web de DALL-E 3, OpenAI rappelle que les images générées par DALL-E 3 appartiennent à l’utilisateur et qu’il peut en faire ce qu’il veut, voire les vendre. Il s’agit là d’un sujet délicat pour les applications de génération d’images par l’IA, qui sont construites à partir de données d’entraînement provenant de nombreuses sources. Parfois, ces données d’apprentissage peuvent utiliser des images couvertes par le droit d’auteur ou conduire à la reproduction exacte du style d’un artiste particulier, ce qui a déjà donné lieu à des actions en justice pour violation du droit d’auteur. OpenAI ne partage pas ses données d’entraînement, mais de nombreux artistes sont en désaccord avec l’utilisation d’outils de génération d’images par l’IA.

Avec DALL-E 3, OpenAI dit tenter d’apaiser certaines des plaintes des artistes : la société affirme que DALL-E 3 est « conçu pour refuser les requêtes qui demandent une image dans le style d’un artiste vivant » et que les artistes peuvent désormais se retirer des futurs modèles d’entraînement à la génération d’images. Je ne comprends toujours pas pourquoi il faut se retirer d’un service auquel on n’a pas adhéré.

DALL-E 3 refusera également les demandes de représentation d’une personnalité publique. Quant à savoir s’il sera facile de créer une image dans le style d’un artiste sans le nommer, je suppose que nous le découvrirons bien assez tôt.

OpenAI indique qu’elle travaille sur un outil appelé classificateur de provenance pour vérifier si une image a été générée par DALL-E 3 ou non. Il n’est pas toujours facile de savoir si une image a été générée par l’intelligence artificielle, même si l’intelligence artificielle se trompe généralement les mains. Même Google admet qu’il s’agit d’un problème et s’est efforcé de publier des filigranes d’IA pour son propre modèle de conversion de texte en image, Imagen.

DALL-E 3 sera d’abord mis à la disposition des abonnés payants aux services d’OpenAI, ChatGPT Plus et Enterprise, en octobre. On s’attend à ce qu’il soit distribué au grand public à un moment donné, bien qu’il n’y ait pas de confirmation officielle de la date de cette distribution.

Aucune étiquette pour cette publication.

Laisser un commentaire