Le nouvel outil de génération d'images Gemini Flash 2.0 de Google est capable de Élimination des filigranes des images protégées par le droit d'auteurles utilisateurs sur les réseaux sociaux ont trouvé. Le modèle est actuellement dans sa phase «expérimentale», et disponible uniquement pour les développeurs.
Une multitude d'applications capables de retirer des objets des photos et de combler les lacunes sont déjà disponibles. Les nouveaux modèles d'IA génératifs les ont rendus encore plus capables, et des entreprises comme Adobe ont ajouté des outils de déménagement d'objets mis à jour à leurs éditeurs photo. Apple Intelligence comprend un outil appelé «Nettoyer» sur iOS et MacOS qui le permet pour les appareils pris en charge.
Le post ci-dessous sur X montre à quel point Gemini Flash 2.0 est bien en supprimant les objets.
Nouvelle compétence déverrouillée: le modèle Flash Gemini 2 est vraiment génial pour éliminer les filigranes en images! pic.twitter.com/6qik0flfcv
– Deedy (@Deedydas) 15 mars 2025
Les principaux modèles fermés de Google et OpenAI sont généralement «nerfed», ce qui signifie qu'ils ont des restrictions importantes en place pour éviter les problèmes juridiques. Le modèle d'image de Dall-E de ce dernier ne générera pas d'images de caractères protégés par le droit d'auteur, par exemple. Microsoft a récemment poursuivi un groupe d'individus qui ont réussi à tromper ses modèles d'image dans la génération du porno. Ne craignez pas, / r / PhotoshopRequestcomme Google tentera presque certainement de régner dans les déménagements de filigrane.
Comme certains l'ont noté, il est probablement impossible de remettre le chat dans le sac complètement sur celui-ci, car les modèles ouverts ont des garde-corps de sécurité qui peuvent être désactivés. Mais en démontrant qu'il fait des efforts pour empêcher une mauvaise utilisation, Google se protège de la responsabilité juridique. Même les modèles ouverts peuvent être livrés avec des accords de licence, et bien sûr, les forces de l'ordre et les tribunaux peuvent arrêter les abus.
Une chose drôle à noter dans le cas de l'élimination du filigrane est que le modèle de Google ajoute son propre filigrane aux images modifiées ou générées par l'IA, afin de dire aux téléspectateurs clairement qu'il n'est pas authentique. Il pourrait être décrit comme une allégorie de l'IA elle-même: prenez quelque chose qui appartient à quelqu'un d'autre, déposez toute preuve de propriété, puis ajoutez votre propre marque d'identification.
Vous pouvez lire l’article original (en Angais) sur le bloggizmodo.com