Les avenirs de la création de sens : une crise de la certitude
Il est de plus en plus difficile de distinguer ce qui est vrai de ce qui est faux sur l’internet. Les stratégies utilisées pour évaluer la fiabilité de la presse écrite et des médias traditionnels ne fonctionnent pas toujours avec les technologies de l'information d'aujourd'hui. Ces technologies permettent de nouvelles formes d'expression et facilitent la création de puissantes formes de désinformation.
Ce scénario explore un avenir où la plupart des gens ne peuvent pas faire la différence entre le vrai et le faux. Les principales implications politiques de ce scénario se répartissent en cinq domaines :
- Communications: les canaux de distribution et les stratégies sur lesquels les institutions et les entreprises se sont appuyées peuvent s'effondrer dans un monde où les gens se méfient de la plupart des informations.
- Économie: la désinformation pourrait entraîner une volatilité économique en minant la confiance dans les indicateurs économiques utilisés pour évaluer les entreprises et les marchés. Elle pourrait également créer un marché puissant de la « certitude ».
- Cohésion sociale: l'incertitude quant à ce qui est réel et ce qui est faux pourrait modifier la confiance que les gens accordent à qui et à quoi.
- Responsabilité: il pourrait devenir plus difficile de décourager certaines formes de comportement illégal ou antisocial si les gens se méfient des preuves traditionnellement utilisées pour prouver les actes répréhensibles.
- Institutions démocratiques: une désinformation généralisée pourrait rendre plus difficile la confiance dans les institutions démocratiques et conduire certaines personnes à soutenir des mouvements autoritaires.
Toute personne travaillant dans les domaines suivants pourrait trouver cette note pertinente pour son travail : sécurité, environnement, économie, recherche et développement, santé, réconciliation, droits et justice sociale, écosystèmes d'information, éducation et formation, culture et arts, cohésion sociale, identification et vie privée, affaires internationales et gouvernance.
© Sa Majesté le Roi du chef du Canada, 2024
Pour obtenir des informations sur les droits de reproduction : https://horizons.gc.ca/fr/contactez-nous/
PDF: PH4-202/2024F-PDF
ISBN: 978-0-660-71304-5
AVERTISSEMENT
Horizons de politiques Canada (Horizons de politiques) est le centre d’excellence en prospective du gouvernement du Canada. Notre mandat est de doter le gouvernement du Canada d’une perspective et d’un état d’esprit tournés vers l’avenir afin de renforcer la prise de décisions. Le contenu de ce document ne représente pas nécessairement le point de vue du gouvernement du Canada ou des agences et ministères participants.
Introduction
Les réactions aux récents hypertrucages générés par l'intelligence artificielle (IA) - comme l'image du pape dans un manteau bouffant1 montrent qu'il est de plus en plus difficile pour les gens de faire la différence entre ce qui est réel et ce qui est faux en ligne. Ce défi continue de s'intensifier à mesure que les trolls, les théoricien.ne.s du complot, les leaders populistes, les entreprises de relations publiques sans éthique, les états et les utilisateurs et utilisatrices malveillants des technologies d'IA générative inondent l'environnement d'information de fausses informations et de désinformation.
Comme l'explique le récent rapport d'Horizons de politiques, Création de sens : avenirs (2023), il ne s'agit là que de l'une des nombreuses perturbations technologiques et sociales qui affectent la perception humaine. Collectivement, ces changements font qu'il est plus difficile pour les gens d'être sûrs de tout ce qui se passe en dehors de leur expérience personnelle. Il semble qu'il s'agisse d'un problème de désalignement. Les stratégies héritées pour créer un sens avec les médias traditionnels ne fonctionnent pas nécessairement avec les nouvelles technologies de l'information qui permettent de nouvelles formes d'expression et facilitent la création de contenus trompeurs ou mensongers.2
Il était relativement simple de créer du sens dans un monde où les informations émanant d'expert.e.s tels que les journalistes, les universitaires et les gouvernements étaient considérées comme fiables, où la culture matérielle et les expériences étaient physiques plutôt que numériques et où la plupart des contenus informatifs passaient par des filtres éditoriaux avant d'être diffusés.
Aujourd'hui, l'IA permet de falsifier facilement les fichiers audio et vidéo et les médias sociaux donnent aux fausses informations et à la désinformation une portée mondiale. Les espaces et les biens virtuels séparent l'expérience et la valeur de la réalité matérielle, brouillant ainsi la frontière entre l'authentique et le faux. Les algorithmes de boîte noire des médias sociaux, conçus pour émouvoir les gens plutôt que pour faire avancer les faits ou encourager un débat civil, déterminent de plus en plus les informations auxquelles les gens sont confrontés.
Au cours des cinq prochaines années, le défi consistant à distinguer le vrai du faux pourrait prendre différentes voies. Les outils et les pratiques de création de sens pourraient rattraper les technologies de l'information, de sorte que la situation de la plupart des gens ne serait pas pire qu'auparavant. Par ailleurs, un âge d'or de la création de sens pourrait voir le jour si la forte demande de certitude entraîne l'adoption de nouvelles technologies d'assistance, de nouvelles compétences numériques et de nouveaux modèles d'entreprise.
D'un autre côté, le rythme rapide de la croissance et de l'innovation technologiques en matière de désinformation, ajouté à la fragmentation sociale et à la polarisation politique croissantes, pourrait créer une crise de la certitude. C'est le scénario qu'explore cette note : un avenir où les gens sont incapables de distinguer le vrai du faux parce que les outils et les pratiques de création de sens n'ont pas suivi l'évolution de la désinformation rendue possible par les nouvelles technologies.
Bien qu'il ne s'agisse ni de l'avenir souhaité ni de l'avenir préféré, les recherches en prospective d'Horizons de politiques suggèrent que cela est à la fois plausible et potentiellement perturbateur. Réfléchir à des scénarios futurs aide les décideurs et décideuses politiques à comprendre certaines des forces qui influencent déjà leur environnement politique. Cela peut également les aider à vérifier si les hypothèses intégrées dans les politiques et les programmes d'aujourd'hui sont prêtes pour l'avenir. Enfin, cela permet d'identifier les possibilités de prendre aujourd'hui des décisions qui pourraient être bénéfiques pour le Canada à l'avenir.
Il s'agit d'un avenir où de nombreuses personnes ne peuvent pas faire la distinction entre ce qui est réel et ce qui est faux, car leur environnement d'information est rempli de contenus artificiels et trompeurs. Ces contenus sont faciles et peu coûteux à créer et presque impossibles à détecter à l'aide d'outils facilement disponibles. Voici cinq exemples de ce à quoi pourrait ressembler cet avenir :
- Les canaux de communication traditionnels et les stratégies fondées sur des données probantes sur lesquelles s'appuyaient les institutions ont échoué pour trois raisons. Les gens se méfient de la plupart des informations. Ils ont abandonné les espaces où circulent les messages officiels, comme les réseaux médiatiques et les sites Web des gouvernements. La plupart des gens ne voient les informations qu'après qu'elles ont été filtrées ou manipulées par des couches d’IA.
- Une série de canulars impliquant des hypertrucages a ébranlé la confiance dans les indicateurs de performance économique bien connus des entreprises et des marchés. Il en résulte une forte demande d'outils et de services capables de produire des informations économiques fiables.
- De nouvelles divisions sociales sont apparues à mesure que se répandait l'incertitude sur ce qui est réel et ce qui est faux. Les gens font moins confiance aux autorités traditionnelles et à ceux et celles qui ne font pas partie de leur communauté sociale, religieuse ou idéologique immédiate.
- Les limites floues entre le vrai et le faux ont miné la confiance dans certains types de preuves, comme les photographies et les enregistrements audio et vidéo, traditionnellement utilisés pour prouver des actes répréhensibles.
- La désinformation incontrôlée a affaibli la confiance du public dans les institutions démocratiques et a rendu la culture politique de plus en plus méfiante et conflictuelle.
Implications politiques
Le scénario décrit ci-dessus entraînerait une série de défis et de possibilités en matière de politique. Ces implications relèvent de cinq domaines politiques : les communications, l'économie, la cohésion sociale, la responsabilité et la démocratie.
La liste des implications présentée ici n'est pas exhaustive. Son objectif est d'aider les décideurs et décideuses politiques à élargir leurs modèles de l'avenir. À cette fin, les lecteurs et lectrices devraient se poser les questions suivantes lorsqu'ils ou elles examinent les implications :
- Comment un doute généralisé sur ce qui est réel et ce qui est faux pourrait-il remettre en cause des politiques ou des programmes spécifiques ?
- Comment les suppositions qui sous-tendent les politiques et les programmes actuels résisteraient-elles à une telle incertitude ?
- Quelles actions pourraient être entreprises aujourd'hui pour maximiser les possibilités et réduire les défis liés à l'incertitude dans l'avenir ?
Communications
- L'optimisation de l'IA pourrait devenir la nouvelle optimisation des moteurs de recherche pour ceux et celles qui cherchent à atteindre et à persuader les publics. Les outils d'IA devenant des partenaires quotidiens de la création de sens chez les humains, la compréhension de la manière dont ils trient, synthétisent et génèrent des informations pourrait devenir le facteur le plus important pour concevoir des communications réussies.
- Les facteurs émotionnels peuvent devenir encore plus importants pour une communication efficace, car la méfiance à propos de l'information rend les gens méfiants à l'égard des messages rationnels ou fondés sur des preuves. L'éthique peut empêcher certaines personnes d'utiliser la peur, la haine, la cupidité ou le nationalisme pour faire passer leur message. Cependant, il leur sera peut-être difficile de rivaliser avec les acteurs ou actrices qui ne ressentent pas de telles contraintes.
- Les métavers peuvent offrir de nouveaux moyens d'entrer en contact avec le public et de l'informer par le biais d'expériences incarnées, de sensations et de modélisations fondées sur des données probantes. Ils peuvent également donner lieu à de nouveaux types de fausses informations et de désinformation, sans parler des obstacles techniques, de protection de la vie privée et de sécurité qui se posent au secteur public.
Économie
- De fausses vidéos de conférences de presse de PDG, des états financiers trompeurs, des communiqués de presse mensongers et des rapports d'évaluation frauduleux pourraient ébranler la confiance dans les marchés boursiers, ce qui nuirait aux entreprises et à l'économie.
- Les entreprises et les marques peuvent avoir du mal à maintenir leurs campagnes de marketing, leur réputation et leurs parts de marché face aux campagnes de désinformation orchestrées par des rivaux ou des groupes d'activistes.
- L'instabilité du marché peut créer des possibilités inattendues pour les nouveaux et nouvelles venu.e.s de concurrencer efficacement les acteurs et actrices établi.e.s. Cela pourrait également pousser les investisseurs et investisseuses à se tourner vers des options sûres, ce qui nuirait aux entreprises émergentes innovantes et aux petites et moyennes entreprises avides d'investissements.
- Les états hostiles et d'autres actrices et acteurs malveillants pourraient attaquer leurs rivales et rivaux au moyen de fausses informations et de désinformations destinées à compromettre la base de connaissances sur laquelle s'appuient leurs marchés et leurs économies.
- L'incertitude quant à la santé de l'économie causée par la méfiance à l'égard des indicateurs clés pourrait créer une forte demande d'informations fiables. Cela pourrait inciter les entreprises et les institutions à développer des produits et des services qui offrent des données fiables ou qui protègent contre la désinformation.
- Un « secteur de la certitude », qui commercialise des informations fiables, pourrait voir le jour. Cela pourrait améliorer la prise de décision et réduire l'anxiété du public, avec des retombées positives pour les soins de santé, les institutions démocratiques et l'économie, entre autres.
Cohésion sociale
- Si le public adopte les assistants commerciaux d'IA comme solution à l'incertitude, les entreprises qui construisent et vendent des logiciels d'IA pourraient devenir les autorités ultimes de ce qui est considéré comme un fait, une vérité et un bon sens.
- Les plateformes d'IA individuelles peuvent présenter des versions distinctes de la « réalité » pour les utilisateurs et utilisatrices en raison de la partialité des programmeurs et programmeuses, d'ensembles de données différents ou de l'agenda d'un.e PDG. L'existence de multiples « réalités » désalignées pourrait aggraver la méfiance et la fragmentation sociales.
- L'anxiété causée par l'incertitude quant à la réalité pourrait conduire un nombre beaucoup plus important de personnes à embrasser les « vérités » rassurantes proposées par une série de mouvements idéologiques, philosophiques ou spirituels. Les engagements actuels en faveur du pluralisme pourraient ne pas suffire à prévenir de nouveaux conflits entre des groupes attachés à des « vérités » concurrentes.
- Les désaccords croissants sur les faits et les valeurs pourraient compromettre le consensus sur des questions telles que la réconciliation, le changement climatique et les droits des lesbiennes, des gays, des bisexuels, des transsexuels et des personnes queer ou en questionnement (2ELGBTQIA+). Les conflits sociaux et politiques qui en résulteraient pourraient rendre le Canada moins résilient face aux défis futurs.
Responsabilité
- Il pourrait être plus difficile d'utiliser des preuves provenant de systèmes de surveillance automatisés pour condamner des criminel.le.s dans un monde où les fausses vidéos sont omniprésentes. Ces systèmes risquent également de perdre leur effet dissuasif dans les espaces publics et privés.
- Il pourrait devenir beaucoup plus difficile de tenir les personnalités publiques, telles que les politiciens et politiciennes, les célébrités et les PDG, responsables d'actions contraires à l'éthique ou immorales dans un avenir où les preuves d'un mauvais comportement peuvent être rejetées de manière convaincante comme des fausses nouvelles.
- Il en va de même pour les personnes qui sont loin du regard du public. Une série de comportements antisociaux tels que le harcèlement, les intimidations, le vandalisme, les petits vols et les discours de haine pourraient devenir plus fréquents dans un avenir où la responsabilité n'est pas engagée.
Démocratie
- Des rivales et rivaux étrangers pourraient utiliser les doutes internes concernant l'intégrité ou la santé des processus démocratiques du Canada pour déclencher un conflit politique ou fragiliser le statut international du Canada.
- Les mouvements autoritaires ou antigouvernementaux peuvent se développer lorsque la confiance est faible. Les grèves fiscales, les occupations ou l'exploitation illégale des terres et des ressources de la Couronne pourraient devenir plus fréquentes, mettant à rude épreuve les systèmes de sécurité publique.
- Une période de déclin démocratique et d'intensification des conflits politiques peut avoir un côté positif. Cela pourrait renouveler la croyance en la valeur d'institutions démocratiques solides, entraînant des niveaux de participation plus élevés et une demande accrue d'outils de vérification des déclarations politiques.
Conclusion
Beaucoup plus de personnes pourraient avoir du mal à distinguer le vrai du faux dans un avenir où les nouveaux outils et les nouvelles mentalités ne parviendront pas à relever le défi de la désinformation provoquée par la technologie. Ce scénario crée un large éventail de défis politiques. Il met en évidence le rôle croissant des entreprises technologiques et de leurs produits en tant qu'intermédiaires entre les gouvernements et les citoyen.ne.s. Il révèle de nouvelles vulnérabilités aux attaques d'actrices et d’acteurs malveillants. Il indique que les gouvernements pourraient avoir du mal à faire passer leurs messages, ce qui pourrait empêcher les citoyen.ne.s et les entreprises de prendre des décisions économiques, sociales et démocratiques judicieuses. Les possibilités sont moins évidentes dans un avenir à forte incertitude. Toutefois, il est possible que la demande croissante d'informations fiables dans toute cette incertitude génère des débouchés économiques pour les entreprises et les institutions.
L'avenir décrit dans ce scénario n'est pas inévitable. De nouveaux outils ou des engagements de la part d'entreprises et de plateformes technologiques pourraient réduire considérablement la désinformation et ses effets. Cela pourrait atténuer le sentiment d'incertitude. De telles avancées pourraient même ouvrir une ère de prise de décision radicalement améliorée qui renforcerait la croissance économique, réparerait le tissu social et redonnerait de l'énergie à la démocratie. Pourtant, la crise de la certitude évoquée ci-dessus reste un avenir plausible. En la négligeant, les décideurs et décideuses politiques pourraient ne pas être préparé.e.s aux conséquences potentiellement désastreuses d'un monde où les gens ne peuvent plus distinguer le vrai du faux.
Équipe du projet
Christopher Hagerman, chef de projet et analyste principal, recherche en prospective
Jennifer Lee, analyste, recherche en prospective
Simon Robertson, directeur, recherche en prospective
Steffen Christensen, analyste principal, recherche en prospective
Tieja Thomas, gestionnaire, recherche en prospective
Kristel Van der Elst, directrice générale
Communications
Mélissa Chiasson, conseillère en communication
Laura Gauvreau, gestionnaire, communications
Notes de fin de texte
- D. Bennet, “AI Deep Fake of the Pope’s Puffy Coat Shows the Power of the Human Mind,” Bloomberg, modifié le 6 avril 2023, https://www.bloomberg.com/news/newsletters/2023-04-06/pope-francis-white-puffer-coat-ai-image-sparks-deep-fake-concerns.
- R. Rini, “Deepfakes and the Epistemic Backstop,” Philosopher’s Imprint, vol. 20, (2020): 1-16, https://philpapers.org/archive/RINDAT.pdf. Pour une perspective contraire, voir J. Habgood-Coote, “Deepfakes and the Epistemic Apocalypse,” Synthese vol. 201 no. 3 (2023): 1-23, https://philpapers.org/archive/HABDAT-2.pdf.