Meta Platforms développe des étiquettes pour le contenu généré par l’IA

Cette décision s’inscrit dans le cadre de l’engagement de Meta envers les mesures de sécurité de l’IA, à la suite d’un engagement conjoint de plusieurs entreprises technologiques à mettre en œuvre des garanties, y compris des filigranes.

Meta Platforms développe des étiquettes qui permettent aux créateurs d’identifier les images produites à l’aide de leur technologie d’IA. Alessandro Paluzzi, un développeur, a partagé des captures d’écran d’un message intégré à l’application sur les réseaux sociaux indiquant que les publications Instagram créées avec des outils d’IA générative seront étiquetées comme telles. Les étiquettes préciseront que le contenu a été « généré par Meta AI » et que « le contenu créé avec l’IA est généralement étiqueté pour une détection facile ».

Ce développement fait suite à l’engagement de diverses entreprises, dont Meta, Google, Microsoft et OpenAI, d’adopter des mesures de sécurité de l’IA comme les filigranes. Récemment, Meta et Microsoft ont publié un modèle d’IA appelé Llama 2 pour la recherche et l’utilisation commerciale, mettant en évidence leur approche open source du développement de l’IA. Ils visent à promouvoir la transparence et à fournir des ressources pour une utilisation responsable de l’IA. Le président Biden a salué ces engagements, mais a reconnu la nécessité d’une collaboration et d’un travail supplémentaires dans le domaine de la sécurité de l’IA.

En quoi est-ce important? La communauté internationale s’est dite préoccupée par les défis posés par la capacité des chatbots IA à créer rapidement des contenus et des visuels complexes, ce qui peut contribuer à la propagation de la désinformation. Eric Schmidt, ancien PDG de Google, partage ses inquiétudes quant à la possibilité d’une désinformation généralisée lors des élections américaines de 2024. La mise en œuvre d’un étiquetage pour le contenu généré par l’IA pourrait jouer un rôle crucial dans la prévention de l’utilisation abusive de l’IA à des fins malveillantes, y compris la création de vidéos deepfake et de contenu trompeur. Cette avancée promeut des pratiques d’IA responsables, garantit la transparence dans la création de contenu et favorise la confiance et la sensibilisation des utilisateurs.