Images générées par l’IA : vraisemblance accrue, enjeux et repères pour le décryptage

wpbot_image_KsWs2E

Images générées par l’IA : quand la vraisemblance flirte avec la réalité

Des capsules vidéos entièrement produites par des outils d’intelligence artificielle tels que Sora2, développé par OpenAI, circulent déjà sur les réseaux sociaux. Si Sora2 est pour l’instant disponible uniquement aux États‑Unis et au Canada, ces vidéos générées par l’IA gagnent en visibilité jusqu’en Suisse.

Ces contenus brouillent la frontière entre réel et virtuel et ont suscité plusieurs polémiques, notamment autour de l’utilisation de l’image de célébrités, vivantes ou disparues, ce qui peut enfreindre les droits d’auteur.

Comprendre le mécanisme psychologique

Selon le psychologue Niels Weber, spécialiste des addictions au numérique, le cerveau est relativement facile à tromper par les images produites par l’IA. Il peut être convaincu de la réalité d’une scène même lorsque l’image est artificielle.

Le spécialiste rappelle que ce phénomène n’est pas nouveau et qu’il s’inscrit dans une continuité avec les illusions d’optique, les effets spéciaux et les trompe-l’œil. Pour lui, notre situation actuelle rappelle ce que les premiers effets spéciaux ont provoqué lors de l’émergence du cinéma, lorsque le public s’interrogeait sur ce qu’il voyait.

Les images générées par l’IA s’adaptent simplement aux moyens techniques disponibles aujourd’hui et visent surtout à capter l’attention des utilisateurs, raison pour laquelle elles bénéficient d’une large exposition sur les plateformes.

Comment réagir avec prudence et s’informer

Face à ces contenus, il faut apprendre à douter et à interroger ce que l’on voit sur les réseaux sociaux et les plateformes vidéo. L’éducation aux médias doit être adaptée aussi bien pour les enfants que pour les adultes, afin d’apprendre à décoder et à repérer les informations présentes dans ces vidéos.

Pour aider à les démêler, il faut observer des signes potentiels de crédibilité : mouvements inhabituels, comportements atypiques, ou éléments qui soulèvent des questions logiques. Niels Weber cite l’exemple d’une fausse vidéo de surveillance montrant quelqu’un dans des toilettes, avec un ours qui passe par la fenêtre; même si l’image peut sembler réaliste au premier regard, il faut se demander pourquoi une caméra serait placée dans ces lieux.

Il propose aussi d’utiliser les réseaux sociaux pour trouver des ressources et des conseils permettant de reconnaître les fausses vidéos, afin d’améliorer sa capacité à discerner le vrai du faux.

S’éloigner des réseaux sociaux : une question complexe

En Europe, OpenAI devra se conformer à plusieurs cadres réglementaires pour être autorisé à poursuivre ses activités. Malgré cela, de nombreux experts craignent que, à court terme, des applications similaires émergent sans garde-fous suffisants, augmentant le risque de désinformation et de fake news.

Pour Niels Weber, s’éloigner définitivement des réseaux sociaux n’est peut-être pas une solution universelle, mais cela pourrait devenir une conséquence possible si les questions posées deviennent trop lourdes. Certains utilisateurs pourraient se lasser de devoir sans cesse vérifier ce qu’ils voient et certains pourraient estimer que les réseaux ne répondent plus à leurs attentes.