Avec de grands progrès, une grande responsabilité

Auteur: Roger Morrison
Date De Création: 27 Septembre 2021
Date De Mise À Jour: 11 Peut 2024
Anonim
Avec de grands progrès, une grande responsabilité - La Technologie
Avec de grands progrès, une grande responsabilité - La Technologie

Contenu


Source: Mike2focus / Dreamstime.com

À emporter:

La consommation de médias évolue parallèlement aux avancées technologiques telles que l'intelligence artificielle (IA). Bien que nous acceptions généralement le progrès, nous devons également être conscients des inconvénients de certaines technologies. L’intelligence artificielle a un côté obscur lorsqu’elle est utilisée pour promouvoir de fausses nouvelles.

Le côté obscur de la technologie a été l’un des sujets abordés lors de la deuxième conférence Machines + Media de NYC Media Lab, qui a été sponsorisée et animée par Bloomberg à son siège social mondial situé dans la ville le 15 mai. Cependant, certaines sessions ont été consacrées à la est actuellement disponible pour les médias, même ceux évoquant l'ombre de la manipulation et de la désinformation.


Une bonne histoire est plus convaincante que toute la vérité

Lors de la séance intitulée «State of the Art», Gilad Lotan, vice-président de Buzzfeed, responsable de la science des données chez Buzzfeed, a souligné que le problème des informations fausses ou trompeuses ne peut être attribué uniquement aux sociétés de médias ou aux nouvelles technologies. "Les gens ne recherchent pas nécessairement des faits", a-t-il déclaré. "Les lecteurs veulent des histoires."

Il a ajouté que le fait de nourrir ce désir d'histoires et de récits privilégiés peut aboutir à de fausses nouvelles qui constituent «plus de manipulation que de fausses informations». En fait, le récit livré peut ne comporter aucune fausse. Ce qui est faux, c’est que les faits rapportés sont sélectionnés et retirés du plus gros «con» afin de conduire les «lecteurs vers une conclusion».


Dans le même ordre d'idées, Kelly Born, de l'Initiative pour la démocratie américaine de la Fondation William et Flora Hewlett, a déclaré: «Les gens aiment les informations qui renforcent leurs convictions, et en particulier si elles déclenchent l'indignation.» Elle a mis en garde la capitalisation de ces médias sur cette tendance peut conduire à une «tempête parfaite» qui fait ressortir le pire en nous. Ceci est exacerbé par la possibilité de présentations complètement fabriquées.

Est-ce que voir continue de croire?

La technologie joue un rôle dans la narration de l'histoire au moyen d'images et de vidéos. Nous croyons généralement ce que nous voyons sauf s'il y a des signes évidents de manipulation. Cependant, alors que l'intelligence artificielle améliore le réalisme des fausses vidéos, il est désormais possible de mettre littéralement des mots dans la bouche de personnalités publiques. (L'intelligence artificielle n'est pas uniquement utilisée à des fins néfastes. Découvrez quelques solutions constructives de cinq manières que les entreprises peuvent envisager d'utiliser.)

Le danger de la production par AI de vidéos très crédibles a été démontré lors de la session intitulée «Solutions pour le côté obscur des médias pilotés par la machine». Elle a commencé par une vidéo dans laquelle Barack Obama disait ce que l’ancien président n’avait jamais dit. Le mouvement était toujours légèrement désynchronisé par rapport aux mots. Il porte donc quelques traces d'une vidéo truquée, et la plupart des téléspectateurs ont déclaré pouvoir reconnaître qu'il s'agissait d'un faux.

Cette manipulation vidéo d'Obama n'a pas permis au réalisateur de ressusciter Peter Cushing en tant que Grand Moff Tarkin pour «Rogue One». Comme l'a expliqué un article du New York Times, l'effet a été obtenu si un acteur portait des «images de capture de mouvement sur sa tête». alors qu'il se trouvait devant la caméra "afin que son visage puisse être remplacé par une reconstitution numérique de Cushing". Le directeur de la création / superviseur principal des effets visuels du film l'a qualifiée de "version ultra-technologique et fastidieuse du travail maquillage."

Fakes indétectables

Maintenant, grâce aux avancées de l'IA, en particulier les réseaux générateurs à opposition (GAN), il est plus facile que jamais de réaliser des effets magiques de film. En utilisant les GAN, un système d’IA affine le métrage jusqu’à ce qu’il soit suffisamment bon pour être accepté comme réel par un système d’AI conçu pour détecter les contrefaçons.

Pas de bugs, pas de stress - Votre guide étape par étape pour créer un logiciel qui change la vie sans vous détruire

Vous ne pouvez pas améliorer vos compétences en programmation lorsque personne ne se soucie de la qualité des logiciels.

Dans cette vidéo, vous pouvez voir des chercheurs montrer comment un acteur peut diriger les mouvements du visage d’un personnage public afin de produire une expression ou une prononciation avec un niveau de fidélité qui ne correspond généralement pas aux vidéos truquées.

Bien que tous les utilisateurs de vidéos ne disposent pas d’un tel système à présent, le logiciel sera à la portée de plus de personnes dans un avenir très proche.

Conséquences possibles

Dhruv Ghulati, fondateur et PDG de Factmata, se dit "très inquiet" de la façon dont cette capacité pourrait être appliquée pour mettre non seulement des visages de dirigeants mondiaux, mais aussi de visages de dirigeants et de célébrités sur des vidéos, comme preuve de ce qu'ils n'ont pas dit ou fait. . Les effets destructeurs de la vidéo s’intensifieraient si vous réalisiez un effet viral grâce aux réseaux de zombies.

Cela signifie que nous «ne pouvons plus faire confiance à nos yeux menteurs», a déclaré Mor Naaman, professeur associé en sciences de l'information chez Cornell Tech. Il craignait que cela ne conduise à une perte de confiance.

D'autres s'inquiètent d'attiser les flammes de la violence. Déjà, "des vidéos légèrement modifiées" sont "utilisées pour provoquer la violence dans les pays en développement", a observé Aviv Ovadya, technologiste en chef du Center for Social Media Responsibility. (Les médias sociaux peuvent être un moyen efficace de répandre de fausses informations. Découvrez les quatre principales sources d’aliments les plus dévastatrices.)

Sarah Hudson, associée chez Investing in US, s’inquiète du fait que les images manipulées «à l’échelle» constituent «une menace incroyable pour la sécurité publique».

Planification proactive

Il est impératif de "prévenir autant que possible ces abus", a déclaré Ovadya. C’est pourquoi il est important de «penser à l’avance lors du développement de la technologie» sur «comment atténuer les effets pervers» et de «consacrer des ressources à la résolution de ces conséquences inattendues».

Il est impossible de revenir en arrière sur les progrès accomplis, mais nous devons nous assurer que la direction que nous prenons est réfléchie et planifiée. Cela ne signifie pas seulement travailler sur la technologie pour voir ce qui peut être fait, mais aussi réfléchir à ce qui peut être fait qui devrait être évité.

Pour progresser dans l’innovation technologique, il faut réfléchir aux effets potentiels et prévoir des mesures de protection avant que les dangers ne se matérialisent. Pour ce faire, nous aurons besoin de la coopération des chercheurs, des entreprises de technologie et des agences gouvernementales afin d’établir des normes et des pratiques optimales auxquelles les gens adhéreront. Cela devrait être une priorité pour toutes les personnes concernées.