Intelligence artificielle : alliée ou nouvelle ennemie?
L’année 2016 a mis la lumière sur la problématique des fake news. Le danger de la désinformation et ses impacts nocifs sur nos sociétés démocratiques ne sont plus à présenter. Maintenant, il est temps de trouver des solutions. Une de celles-ci, que Facebook s’est notamment mise à appliquer, est la création d’une intelligence artificielle (IA) qui peut, à l’aide d’algorithmes, repérer les articles de clickbait (article avec des titres souvent trompeurs servant à attirer le lecteur) et les éliminer pour ainsi diminuer la présence de fausses nouvelles circulant sur les réseaux sociaux. Les usages que peuvent avoir les intelligences artificielles pour combattre les fausses nouvelles sont grandes, mais elles pourraient aussi servir à les diffuser.
En effet, les meilleures intelligences artificielles se développent grâce à l’apprentissage profond. Cela signifie qu’elles ont un système d’apprentissage développé sur un circuit neuronal artificiel. Elles peuvent donc apprendre « indépendamment » et s’améliorer grâce aux liens qu’elles forment entre les informations de gigantesques bases de données, au lieu de toujours avoir besoin de nouvelles améliorations manuellement programmées. Quel est le lien avec les fausses nouvelles? C’est très simple; si une IA peut apprendre par elle-même à interpréter de nouvelles données, elle pourrait également apprendre à en créer si elle est programmée avec des algorithmes qui lui montrent comment faire en premier lieu.
Plus concrètement, on peut apprendre à une IA comment fabriquer du matériel audio et vidéo qui imite le réel. Par exemple, on peut citer le cas de la populaire application FaceApp qui permet de modifier les traits d’une personne de manière assez réaliste pour lui donner une apparence plus vieille, plus jeune ou du sexe opposé. Ou encore, la technologie Lyrebird développée à l’Université de Montréal qui est capable d’imiter presque parfaitement des voix humaines déjà existantes. Bien que cela représente de grandes avancées qui peuvent avoir des impacts positifs, cela signifie également qu’il est désormais possible de fabriquer des vidéos ou des enregistrements audio de toutes pièces. Or, dans notre société où l’on accorde une grande importance à l’audiovisuel en tant que preuve matérielle, imaginez comment il serait encore plus facile de fabriquer des fausses nouvelles. Par exemple, vous pourriez voir sur les réseaux sociaux une vidéo montrant un politicien en train de dire des horreurs, mais vous ne pourriez savoir s’il y a eu manipulation ou non. Ou encore pire, comment pourrait fonctionner notre système de justice si on ne pouvait plus faire confiance à certaines preuves, comme une vidéo montrant un suspect sur les lieux d’un crime ou l’enregistrement d’une conversation entre deux membres du crime organisé? Il devient donc impératif pour la communauté scientifique de mettre au point de nouveaux outils pour assurer la validité de l’audio-visuel et, ainsi, gagner la guerre contre les fausses nouvelles.
Leave a Reply