Prospective sur l’IA : Considérations politiques

Ce rapport présente 20 idées sur les facteurs qui pourraient façonner l’évolution de l’IA, en termes de capacités techniques, d’adoption et d’utilisation. Il vise à aider les décideurs et décideuses à comprendre les impacts potentiels de l’IA sur la gouvernance, la société et l’économie 13 0,14,15,27

Avant-propos

L’intelligence artificielle (IA) évolue rapidement et présente à la fois des possibilités et des défis pour le Canada. Alors que l’IA continue de progresser, il est essentiel de comprendre ses répercussions potentielles sur la gouvernance, la société et l’économie.

Horizons de politiques Canada (Horizons de politiques) se consacre à l’étude de la manière dont l’IA pourrait façonner notre avenir. En nous engageant auprès d’un large éventail de partenaires et de parties prenantes, nous visons à déterminer les principaux domaines de changement et à soutenir les responsables politiques et les décideurs dans leur navigation au sein de ce paysage dynamique.

Au nom d’Horizons de politiques, je tiens à remercier ceux qui nous ont fait don de leur temps et fait part de leurs connaissances et de leurs réflexions.

Nous espérons que ce rapport vous donnera à réfléchir et vous sera utile.

Kristel Van der Elst
Directrice générale
Horizons de politiques Canada

Introduction

Ce rapport de prospective sur l’IA complète de nombreuses réflexions sur l’avenir de l’IA (voir encadré 1) au sein du gouvernement du Canada. Il vise à aider les décideurs, impliqués dans la mise en œuvre de l’IA ou dans l’élaboration de politiques liées à l’IA, en explorant les facteurs qui pourraient façonner l’évolution de l’IA, en termes de capacités techniques, d’adoption et d’utilisation, et qui pourraient être « au-delà de l’horizon ». Le rapport ne fournit pas d’orientations politiques particulières et n’est pas censé prédire l’avenir. Son objectif est de soutenir la réflexion prospective et d’éclairer la prise de décision.

Dans le cadre de ce travail, Horizons a procédé à une analyse documentaire, a recherché les avancées en cours dans ce domaine, s’est entretenu avec des analystes politiques et des décideurs au sein du gouvernement, et a eu des conversations approfondies avec des experts clés en matière d’IA.

Les 20 idées présentées dans ce rapport explorent les capacités futures possibles de l’IA, les risques et les possibilités à long terme, ainsi que les incertitudes liées aux hypothèses pertinentes pour les politiques. Les lecteurs peuvent chercher à comprendre les répercussions que l’IA pourrait avoir sur la gouvernance, la société et l’économie. En lisant ce rapport, les lecteurs sont invités à se poser les questions suivantes :

  • Comment les progrès futurs en matière de matériel, de logiciels et d’interfaces créeront-ils de nouvelles possibilités et de nouveaux risques pour le Canada et ses alliés
  • Où l’IA pourrait-elle apporter les perturbations les plus importantes et les plus inattendues à la gouvernance, à la société et aux marchés
  • Quelles hypothèses concernant le développement et le déploiement de l’IA à l’avenir pourraient devoir être remises en question ou approfondies avant de servir de base à la prise de décision

Les 20 idées sont synthétisées dans 20 idées sur les facteurs qui façonnent l’avenir de l’IA et développées plus loin dans le document. Ces idées ont également informé le rapport de synthèse Prospective sur l’IA : Scénarios pour un monde axé sur l’IA, qui les intègre dans des scénarios détaillés explorant des futurs possibles façonnés par l’IA.

Définir l’IA

Il existe de nombreuses façons de définir l’intelligence artificielle, ainsi que de nombreux débats sur l’opportunité de continuer à utiliser ce termeNote de fin de texte 1, Note de fin de texte 2, Note de fin de texte 3. Pour les besoins de ce travail, Horizons de politiques utilise la définition d’un système d’IA de l’Organisation de coopération et de développement économiques (OCDE) : « un système basé sur une machine qui, pour des objectifs explicites ou implicites, déduit, à partir des données qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels. Les différents systèmes d’IA varient dans leurs niveaux d’autonomie et d’adaptabilité après le déploiementNote de fin de texte 4. »

20 idées sur les facteurs qui façonnent l’avenir de l’IA et avec l’IA
  1. L’IA pourrait briser Internet tel que nous le connaissons actuellement

    Les nouveaux outils d’intelligence artificielle pourraient ébranler le modèle économique de la publicité qui a servi de base à Internet pendant la majeure partie des 20 dernières années. Internet à l’ère de l’IA pourrait être très différent, avec plus d’autonomie et de contrôle, mais aussi moins utile et moins sûr.

  2. L’IA pourrait renforcer les acteurs non étatiques et submerger les organisations de sécurité

    À l’avenir, l’IA plus accessible et plus polyvalente aura des répercussions sur la sécurité. Les acteurs non étatiques, bons ou mauvais, auront accès à des capacités traditionnellement détenues uniquement par les États. Ils pourraient être en mesure de les déployer plus rapidement que les États, ce qui maintiendrait les organisations de sécurité dans une course constante pour les rattraper.

  3. Le manque de confiance dans l’IA pourrait entraver son adoption

    On ne sait pas comment évoluera la confiance dans l’IA. Les défaillances fréquentes ou non corrigées des systèmes d’IA, ou une seule défaillance importante, pourraient éroder la confiance et entraver l’adoption, mettant en péril des secteurs entiers. Les nouvelles formes de certification, de vérification et d’efforts pour réparer les préjudices pourraient encourager la confiance des utilisatrices et utilisateurs et l’adoption du système.

  4. Les biais des systèmes d’IA pourraient perdurer

    La partialité est une caractéristique de la prise de décision humaine et de l’IA. Comme les données utilisées pour former l’IA sont souvent entachées de biais difficiles à corriger, le recours croissant à l’IA dans les systèmes de prise de décision pourrait répandre les biais et entraîner des dommages importants. Les préjugés ne peuvent jamais être éliminés, en partie à cause des perspectives contradictoires sur l’équité.

  5. L’utilisation de l’IA pour prédire le comportement humain pourrait s’avérer inefficace

    Si l’IA fait parfois des prédictions impressionnantes sur le comportement humain, nombre d’entre elles sont inexactes. Prendre des décisions sur la base de ces prédictions peut avoir des conséquences désastreuses pour les personnes. Il pourrait être impossible d’améliorer la technologie à un niveau tel que ses avantages l’emportent sur les coûts.

  6. L’IA pourrait devenir plus « légère » et fonctionner sur des appareils courants

    Plutôt que quelques grands modèles d’IA fonctionnant sur des superordinateurs en nuage, les futurs modèles d’IA pourraient être diversifiés et personnalisés, certains d’entre eux fonctionnant sur de petits appareils locaux tels que les téléphones intelligents. Cela pourrait compliquer la réglementation et le contrôle, et multiplier les risques de cybersécurité.

  7. Des environnements intelligents pilotés par l’IA partout

    De nombreux produits pourraient être vendus avec l’IA par défaut, créant ainsi des environnements « intelligents » capables d’apprendre et d’évoluer pour s’adapter aux besoins des propriétaires et des utilisateurs. Il peut être difficile pour les gens de comprendre les capacités des environnements intelligents ou de s’en passer.

  8. L’IA compromet encore plus la vie privée

    À mesure que les appareils dotés d’IA collectent davantage de données en ligne et dans la vie réelle, les efforts visant à transformer les données en nouvelles sources de revenus pourraient se heurter à des attitudes et des appareils plus soucieux de la protection de la vie privée. Un nouveau statu quo pourrait voir le jour, très différent de la manière opaque dont les utilisateurs échangent aujourd’hui leurs données contre des services gratuits.

  9. Les données collectées sur les enfants pourraient remodeler leur vie au présent et à l’avenir

    Les juridictions s’inquiètent de la protection de la vie privée des enfants à mesure que les technologies de l’IA deviennent plus omniprésentes. La collecte omniprésente de données pendant l’enfance pourrait offrir de nouvelles possibilités en matière d’accessibilité et d’éducation, mais aussi aggraver les vulnérabilités existantes, éroder la vie privée et remodeler la vie des adultes à l’avenir.

  10. L’IA pourrait remodeler nos relations avec les autres

    Les outils d’IA pourraient médiatiser davantage les interactions sociales- dans des contextes publics ou professionnels, ou en privé avec des amis, des membres de la famille ou des partenaires romantiques. Ces outils pourraient être utilisés pour signaler des comportements suspects ou nuisibles et aider à éviter les maladresses sociales, mais ils pourraient aussi aider à manipuler les autres et à en faire des proies.

  11. L’IA pourrait retarder la transition verte

    L’adoption de l’IA stimule la demande d’énergie et d’eau à l’échelle mondiale. Cela pourrait retarder la transition verte, bien que le Canada pourrait bénéficier d’une demande accrue de centres de données plus écologiques.

  12. L’IA pourrait devenir plus fiable et transparente

    À l’avenir, l’IA pourrait avoir amélioré ses capacités de raisonnement, lui permettant de produire de meilleures analyses, de faire moins d’erreurs factuelles et d’être plus transparente. Cependant, ces améliorations peuvent s’avérer insuffisantes pour surmonter les problèmes liés aux mauvaises données.

  13. Les agents d’IA pourraient agir en tant qu’assistants personnels avec un minimum d’orientation

    À l’avenir, les gens pourraient avoir un agent d’IA polyvalent, qui agit en tant qu’assistant personnel, capable d’effectuer des tâches en plusieurs étapes, et ce, en tout temps. Les répercussions pourraient comprendre un meilleur accès à l’automatisation des tâches, une meilleure productivité, la perturbation des modèles d’affaires basés sur la publicité et des préjudices imprévus.

  14. L’IA et les évaluations

    L’IA perturbe les processus d’évaluation établis, comme la présélection des emplois, l’évaluation des demandes de subvention, l’examen par les pairs et la notation. Les processus de sélection pourraient connaître une augmentation importante du nombre de candidatures, et de nouvelles formes d’évaluation pourraient voir le jour, dont certaines mettraient moins l’accent sur le travail écrit comme mesure de la compétence.

  15. L’IA et les neurotechnologies

    Les neurotechnologies alimentées par l’intelligence artificielle (IA) permettent aux personnes de surveiller et de manipuler les activités de leur cerveau et de leur système nerveux. D’autres développements pourraient apporter des progrès majeurs en matière de santé et de bien-être, mais aussi soulever d’importantes préoccupations en matière de protection de la vie privée, d’éthique ou encore de droit social.

  16. L’IA pourrait accélérer le développement et le déploiement de robots

    L’amélioration de l’intelligence artificielle (IA) et la baisse des coûts permettent aux « robots de service » de proliférer en dehors des contextes industriels. Les entreprises d’IA développent des robots humanoïdes possédant un large éventail de capacités cognitives et physiques, ce qui entraîne des changements tant pour les emplois de bureau que les emplois d’ouvriers.

  17. L’IA pourrait avoir des répercussions inattendues sur la productivité

    Bien que l’on s’attende à ce que l’IA améliore considérablement la productivité, l’augmentation de la productivité pourrait être limitée par un manque d’uniformité dans l’adoption de cette technologie, notamment par les professionnels et les petites et moyennes entreprises, par des coûts imprévus découlant de l’adoption hâtive ou prématurée de l’IA et par des inquiétudes que suscitent les conditions de travail. Le changement des conditions de travail pourrait freiner l’adoption de l’IA.

  18. La détermination de la responsabilité pour les préjudices causés par l’IA pourrait être complexe

    Certains méfaits inhérents à l’IA peuvent être difficiles à éliminer. Il est à la fois techniquement difficile de prévenir l’utilisation abusive des systèmes qui font appel à l’IA et compliqué de tenir les humains responsables lorsque ces dispositifs sont utilisés à mauvais escient. L’IA remet notamment en question les cadres juridiques, dans des domaines comme le droit d’auteur et la protection des consommateurs, et ce, de manière novatrice. Les administrations adoptent des approches divergentes en matière de réglementation de l’IA.

  19. La course aux données axée sur l’IA

    Une course aux données axée sur l’IA augmente la valeur des données, incite à de nouvelles tactiques de collecte de données, de nouvelles façons de générer des données, y compris des données synthétiques, et de nouvelles tentatives d’imposer des restrictions juridiques et techniques sur la façon dont les données peuvent être utilisées.

  20. L’IA pourrait aider à atténuer le changement climatique

    While increased uptake of AI could generate more emissions, it could also create new opportunities to support climate adaptation and mitigation. These include making agriculture more resilient, optimizing energy use, accelerating scientific discovery, and improving weather forecasts.

  • Idée 1 : L’IA pourrait briser Internet tel que nous le connaissons actuellement

    Format de rechange
    (format PDF, 11,2 Ko, 6 pages)

    Date publiée : 2025

    Cat. : PH4-211/2025F-PDF

    ISBN : 978-0-660-76882-3

    Les nouveaux outils d’intelligence artificielle pourraient ébranler le modèle économique de la publicité qui a servi de base à Internet pendant la majeure partie des 20 dernières années. Internet à l’ère de l’IA pourrait être très différent, avec plus d’autonomie et de contrôle, mais aussi moins utile et moins sûr.

    Aujourd’hui

    Internet fait partie intégrante de la vie quotidienne des Canadiennes et Canadiens. Les jeunes, en particulier, y trouvent une source d’amitiésNote de fin de texte 5 et d’informationsNote de fin de texte 6. Dans l’ensemble de la population, 95 % de la population canadienne âgée de plus de 15 ans utilisent InternetNote de fin de texte 7  et 75 % effectuent des opérations bancaires en ligneNote de fin de texte 8 et des achats en ligneNote de fin de texte 9. Près de la moitié des ménages disposent d’appareils intelligents connectés à InternetNote de fin de texte 10.

    Bien qu’il n’y ait jamais eu autant de sites Web, l’expérience de la plupart des gens sur Internet est dominée par une petite poignée d’entreprises massives. Comme le dit une blague en ligne, « Internet, c’est 5 sites géants montrant des captures d’écran et des textes des 4 autres »Note de fin de texte 11. Aujourd’hui, 65 % de l’ensemble du trafic Internet se fait vers des domaines appartenant à Alphabet, Meta, Netflix, Microsoft, Tik Tok, Apple, Amazon ou DisneyNote de fin de texte 12. Google représente 91 % de toutes les recherches sur InternetNote de fin de texte 13.

    La publicité finance la fourniture de services en ligne gratuits et l’économie des créateurs en ligneNote de fin de texte 14. Alphabet, Meta, Apple, Microsoft et Amazon gagnent chacun des milliards grâce à la publicité en ligneNote de fin de texte 15. Les entreprises ont investi 46,7 milliards de dollars américains en 2021 dans l’optimisation de la conception de leur site Web afin d’obtenir un meilleur classement dans les moteurs de recherche, d’augmenter le trafic et de générer davantage de recettes publicitairesNote de fin de texte 16.

    Le contenu généré par l’IA devient rapidement plus réaliste et plus humain. Jusqu’à récemment, la plupart des contenus en ligne étaient générés par l’humain, car les contenus générés par ordinateur étaient généralement de mauvaise qualité. Cela a commencé à changer en 2022 avec la sortie de Dall-E 2, Midjourney et ChatGPT. Les grands modèles de langage (GML) peuvent produire des textes de haute qualité ressemblant à des textes humains. Les générateurs d’images d’IA peuvent produire des images photoréalistes. Les générateurs de vidéos d’IA sont suffisamment avancés pour intéresser HollywoodNote de fin de texte 17. Les générateurs de voix ont rendu populaires les reprises de chansons en IANote de fin de texte 18. Si la plupart des contenus générés par l’IA peuvent encore être identifiables grâce à des signes révélateurs subtils, il est de plus en plus difficile de les distinguer des contenus créés par l’humain.

    L’IA ne joue pas encore un rôle important dans la cybersécurité, mais les incidents se multiplient. Soixante-dix pour cent des Canadiennes et Canadiens ont signalé un incident de cybersécurité en 2022, par rapport à 58 % en 2020. Bien qu’il s’agisse principalement de pourriels et de tentatives d’hameçonnage peu sophistiquéesNote de fin de texte 19, les cas de fraude impliquant des « hypertrucages » ont augmenté de 477 % en 2022Note de fin de texte 20. Les escrocs ont commencé à faire de faux appels de rançon en utilisant des voix générées par l’IA des proches de la cibleNote de fin de texte 21. Des cas de fraude institutionnelle liés à l’hypertrucage apparaissent également, entraînant des millions de dollars de pertes potentielles pour les entreprises et les gouvernementsNote de fin de texte 22.

    Avenirs

    Les agents et les moteurs de recherche alimentés par l’IA pourraient transformer la façon dont les gens interagissent avec Internet. Au lieu que les utilisatrices et utilisateurs se rendent sur des sites Web précis, les outils d’IA pourraient créer des interfaces personnalisées et sur mesure, alimentées par des contenus provenant de l’ensemble d’Internet. Ils pourraient également les aider à trouver des contenus de niche et des communautés au-delà des principales plateformes de médias sociaux.

    Ces outils pourraient bouleverser les modèles économiques basés sur la publicité sur Internet. Si une part importante du trafic Web est constituée de robots d’intelligence artificielle recueillant des informations pour leurs utilisatrices et utilisateurs, les sites Web et les moteurs de recherche risquent de tirer moins de revenus de l’affichage de publicités. Ils devront peut-être trouver d’autres moyens de générer de l’argent, tels que l’introduction d’abonnements, de péages informatiques ou la monétisation directe des données des utilisatrices et utilisateurs.

    Internet pourrait être dominé par des contenus générés par l’IA, qu’il serait impossible de distinguer des contenus générés par l’humain. Les plateformes en ligne pourraient créer des contenus multimédias adaptés à chaque utilisatrice et utilisateur. Internet pourrait être inondé de sites Web générés par l’IA et remplis de pourriels, de fausses informations, de robots et de fausses critiques de produits. Il pourrait devenir difficile pour les utilisatrices et utilisateurs de différencier les contenus de qualité des contenus indésirables. Si la vérification des faits par l’IA ne s’améliore pas, cela pourrait devenir encore plus difficile.

    Le sentiment général de confiance et de sécurité que les Canadiennes et Canadiens ressentent en ligne pourrait être fortement diminué. Lorsque les appels vidéo peuvent être simulés de manière convaincante, il peut être difficile pour une personne de savoir si un nouvel ami en ligne est une personne réelle ou une escroquerie par hameçonnage de l’IA. Les campagnes de désinformation alimentées par l’IA pourraient devenir plus sophistiquées, sapant davantage la confiance dans les institutions. Les outils d’IA devenant de plus en plus accessibles et puissants, toute personne ayant une présence en ligne, même minime, pourrait être exposée à un risque croissant de préjudice.

    Implications

    • Les moteurs de recherche alimentés par l’IA peuvent être tenus responsables des résultats affichés aux utilisatrices et utilisateurs. Cela pourrait avoir des répercussions juridiques et porter atteinte à la confiance, en particulier si les résultats sont erronés, voire dangereux
    • Le contenu et les services qui étaient autrefois gratuits risquent d’être placés derrière des péages informatiques à mesure que les outils d’intelligence artificielle sapent le modèle économique de la publicité en ligne
      • Les sites Web peuvent tenter de monétiser directement les données et le contenu des utilisatrices et utilisateurs, par exemple en les cédant sous licence à des entreprises spécialisées dans l’IA en tant que matériel de formation
      • Le contenu commandité, le placement de produits et d’autres formes de publicité sur le site pourraient devenir plus courants
    • S’il est peu probable que le contenu généré par l’humain disparaisse, les créateurs de contenu pourraient avoir du mal à rivaliser avec le contenu généré par l’IA, qui est bon marché et adapté
      • Les créateurs de contenu peuvent ressentir une plus grande pression pour monétiser leurs publics
      • Le goût humain et la conservation pourraient être valorisés. Les créateurs de contenu peuvent céder la place aux conservateurs de contenu, qui accumulent des adeptes sur la base de leur sélection de contenu en ligne
      • Un contenu unique et personnalisé pourrait amener les gens à se sentir isolés avec moins de points de contact culturels
    • Les outils d’IA peuvent transférer le contrôle de la conception, de la mise en page et de l’expérience d’un site Web des concepteurs de sites Web aux utilisatrices et utilisateurs. Cela pourrait permettre à ces derniers d’éviter plus facilement les motifs de dépendance ou de manipulation connus sous le nom de « motifs sombres »
      • Il pourrait devenir très difficile de naviguer sur Internet sans les outils d’IA
      • Les sites Web pourraient cesser d’exister tels qu’on les connaît actuellement, devenant plutôt des réservoirs de données à gratter par l’IA. Les entreprises pourraient ne plus avoir besoin de concepteurs de sites Web
    • La méfiance pourrait être l’attitude dominante en ligne à mesure que les risques de cybersécurité augmentent et que les contenus générés par l’IA dominent Internet
      • Les systèmes d’hameçonnage par IA pourraient devenir plus sophistiqués
      • Les gens peuvent devenir plus sélectifs quant aux informations qu’ils diffusent en ligne
      • De nouvelles mesures d’authentification pourraient voir le jour pour tenter de rétablir la confiance en ligne
      • Si la confiance dans l’IA continue de diminuer (voir l’idée 3), les gens pourraient craindre d’être manipulés par des flux de contenus adaptés à l’IA
    • Si les moteurs de recherche ne peuvent pas trier efficacement le contenu de qualité du pourriel de l’IA, ils risquent de ne plus être des sources de référence efficaces pour toutes les requêtes
      • Les gens pourraient se fier à quelques sources fiables pour obtenir des informations en ligne
    • Les modèles actuels de commerce électronique pourraient être perturbés de manière imprévue
  • Idée 2 : L’IA pourrait renforcer les acteurs non étatiques et submerger les organisations de sécurité

    Format de rechange
    (format PDF, 3,6 Ko, 4 pages)

    Date publiée : 2025

    Cat. : PH4-212/2025F-PDF

    ISBN : 978-0-660-76884-7

    À l’avenir, l’IA plus accessible et plus polyvalente aura des répercussions sur la sécurité. Les acteurs non étatiques, bons ou mauvais, auront accès à des capacités traditionnellement détenues uniquement par les États. Ils pourraient être en mesure de les déployer plus rapidement que les États, ce qui maintiendrait les organisations de sécurité dans une course constante pour les rattraper.

    Aujourd’hui

    L’IA abaisse les barrières à l’accès et réduit le coût des attaquesNote de fin de texte 23. Par exemple, l’IA peut aider une personne ayant des compétences limitées en programmation à concevoir des logiciels malveillantsNote de fin de texte 24. Les principaux modèles d’IA à code source ouvert ont des capacités légèrement inférieures à celles de l’IA polyvalente la plus puissante, GTP-4 TurboNote de fin de texte 25. Leur caractère polyvalent les rend également utiles pour tous les types de problèmes, y compris les activités nuisibles. On ne sait pas qui utilisera l’IA le plus efficacement et le plus rapidement : les organes gouvernementaux des nations rivales ou les acteurs non étatiquesNote de fin de texte 26. Toutefois, l’IA pourrait habiliter des acteurs non étatiques, des entreprises ou des nations qui ne sont pas soumis à des contraintes juridiques ou éthiques et qui sont prêts à appliquer la technologie d’une manière que d’autres États ne peuvent pas adopter.

    Avenirs

    De nombreux nouveaux acteurs pourraient avoir accès à la surveillance à grande échelle à l’avenir. La capacité de l’IA à analyser de grandes quantités de données de sources ouvertes pourrait permettre à de nouveaux acteurs de suivre et de prévoir les mouvements des forces policières et militairesNote de fin de texte 27. Les outils d’IA peuvent aider à écrire des codes informatiques malveillants, ce qui rend la cyberdéfense plus difficile. De même, ChatGPT a été utilisé pour créer des logiciels malveillants évolutifs, c’est-à-dire des logiciels malveillants capables de modifier leur code d’origine pour échapper aux cyberdéfensesNote de fin de texte 28.

    L’IA peut également être utilisée dans le cadre d’attaques non conventionnelles, afin de réduire le coût des dommages physiques ou des attaques contre les infrastructures. Par exemple, l’IA peut faciliter le processus d’impression 3D de pièces dangereuses, comme celles nécessaires à la fabrication d’armes nucléairesNote de fin de texte 29. L’IA pourrait également être utilisée pour automatiser des essaims de drones bon marché afin d’écraser les défenses aériennesNote de fin de texte 30, ce qui donnerait un avantage aux acteurs plus petits qui souhaitent cibler les zones urbaines ou affronter les armées modernes. Si l’IA augmente considérablement l’accès et automatise les dommages, cela pourrait accroître la pression sur le secteur de la sécurité et modifier la manière dont il assure la sécurité des citoyens.

    Implications

    • L’IA à code source ouvert pourrait donner aux acteurs non étatiques de nouveaux outils et éroder les avantages traditionnellement détenus par les États, tels que la surveillance et le contrôleNote de fin de texte 31
    • La capacité des organismes d’application de la loi à recueillir des renseignements pourrait être limitée par rapport à celle des acteurs non étatiques
    • Davantage de communautés pourraient contester l’utilisation de l’IA par les organismes d’application de la loi
    • L’utilisation innovante de l’IA pourrait dépasser la capacité d’adaptation des organisations de défense et de sécurité. Les échecs en matière de sécurité publique pourraient affaiblir la confiance des institutions ou modifier l’attitude du public quant à l’utilisation appropriée de l’IA par les pouvoirs publicsNote de fin de texte 32
    • Les entreprises privées spécialisées dans l’IA pourraient devenir les principaux acteurs des secteurs de la cybersécurité et du renseignement, y compris dans des espaces traditionnellement considérés comme relevant du domaine public
  • Idée 3 : Le manque de confiance dans l’IA pourrait entraver son adoption

    Format de rechange
    (format PDF, 3,4 Ko, 6 pages)

    Date publiée : 2025

    Cat. : PH4-213/2025F-PDF

    ISBN : 978-0-660-76886-1

    On ne sait pas comment évoluera la confiance dans l’IA. Les défaillances fréquentes ou non corrigées des systèmes d’IA, ou une seule défaillance importante, pourraient éroder la confiance et entraver l’adoption, mettant en péril des secteurs entiers. Les nouvelles formes de certification, de vérification et d’efforts pour réparer les préjudices pourraient encourager la confiance des utilisatrices et utilisateurs et l’adoption du système.

    Aujourd’hui

    La confiance est essentielle à l’acceptation de l’IA et, au Canada, la confiance dans l’IA est en déclinNote de fin de texte 33. L’indice CanTrust montre que la confiance des Canadiennes et Canadiens dans l’IA a diminué de 6 % entre 2018 et 2024Note de fin de texte 34. L’étude mondiale IPSOS AI Monitor montre que l’anglosphère, y compris le Canada, fait moins confiance à l’IA que d’autres régions : par exemple, 63 % des Canadiennes et Canadiens sont nerveux à l’égard des produits et services qui utilisent l’IA, contre seulement 25 % des Japonaises et JaponaisNote de fin de texte 35.

    La confiance dans l’IA dépend du contexte dans lequel elle est utilisée. Par exemple, la confiance est plus élevée pour des tâches simples telles que le réglage d’un thermostat, et plus faible pour des tâches liées à la sécurité personnelle telles que les voitures autopilotéesNote de fin de texte 36. La confiance du public dans les voitures autonomes est faible et en baisse. En 2023, seuls 22 % des Canadiennes et Canadiens déclarent faire confiance aux voitures autonomes et autres moyens de transport sans conducteur basés sur l’IANote de fin de texte 37; contre 37 % des Américaines et Américains, soit une baisse par rapport aux 39 % de 2022 et aux 41 % de 2021Note de fin de texte 38.

    Malgré la baisse de confiance, l’utilisation des outils d’IA au Canada augmente. Selon un sondage de 2024 de Legar, 30 % des Canadiennes et Canadiens utilisent désormais l’IA, contre 25 % il y a un an. Les jeunes utilisent davantage l’IA que les personnes plus âgées; 50 % des 18-35 ans déclarent utiliser l’IA, contre seulement 13 % des 55 ans et plusNote de fin de texte 39.

    Les risques et les échecs liés aux technologies de l’IA ont fréquemment attiré l’attention du public au cours de l’année écoulée. Dans certains cas, la mise au point et les tests de nombreux outils d’IA ont été effectués après le lancement public, ce qui contraste fortement avec les essais de médicaments cliniques qui nécessitent de longues périodes de test avant d’être rendus publics. De nouvelles initiatives ont vu le jour pour recenser les incidents liés à l’IA et en rendre compte, comme la base de données des incidents liés à l’IA et le moniteur des incidents liés à l’IA de l’OCDENote de fin de texte 40, Note de fin de texte 41.

    L’adoption de l’IA peut sembler forcée, plutôt que choisie par la personne. La volonté actuelle d’intégrer l’IA partout peut signifier que les préoccupations valables concernant la sécurité des données, l’équité, les conséquences environnementales et la sécurité de l’emploi sont minimiséesNote de fin de texte 42. Forcer les gens à adopter l’IA dans leur vie quotidienne sans faire d’efforts pour rendre la technologie plus digne de confiance peut limiter les répercussions transformationnelles potentielles de la technologieNote de fin de texte 43. La réaction actuelle contre l’utilisation croissante de la technologie de reconnaissance faciale dans les aéroports est un exemple de l’interaction entre l’adaptation forcée et l’absence de confianceNote de fin de texte 44.

    Avenirs

    L’amélioration des technologies, des pratiques et des systèmes pourrait contribuer à renforcer la confiance dans l’IA. Par exemple, de nouvelles capacités telles que l’IA neuro-symbolique, qui combine des réseaux neuronaux avec un traitement symbolique basé sur des règles, promettent d’améliorer la transparence et l’explicabilité des modèles d’IA. L’adoption par les entreprises de nouveaux modèles d’étiquetage, de certification ou d’assurance pourrait compenser une partie de la méfiance à l’égard de l’IANote de fin de texte 45, Note de fin de texte 46. Certains fournisseurs mettent actuellement au point des moyens d’évaluer la sécurité et la fiabilité des modèles d’IA, en offrant des garanties pour vérifier leurs performancesNote de fin de texte 47, Note de fin de texte 48. À l’avenir, les systèmes d’IA pourraient fournir un intervalle de confiance pour tout, des résultats de recherche aux véhicules autopilotés, aidant les utilisateurs à évaluer les risques et les incertitudesNote de fin de texte 49.

    Un déploiement plus stratégique et réfléchi de l’IA pourrait renforcer la confiance. À l’avenir, l’IA deviendra probablement la bonne solution à certains problèmes, mais pas à d’autres. La confiance dans l’IA pourrait être renforcée si les gens perçoivent qu’elle leur facilite la vieNote de fin de texte 50, plutôt que de remplacer des tâches qu’ils apprécient ou de sembler être une solution à la recherche d’un problème. La familiarité individuelle avec l’IA peut renforcer la confiance dans un domaine du travail ou de la vie, sans nécessairement se traduire par des niveaux de confiance accrus dans l’ensemble de l’écosystème de l’IANote de fin de texte 51.

    Les échecs très médiatisés et l’appréciation croissante des risques pourraient éroder la confiance. Le scepticisme et la méfiance pourraient s’accroître à mesure que les risques de l’IA sont mieux connus et documentés et que davantage de tâches à fortes répercussions sont déléguées à l’IA. Les groupes qui subissent les effets négatifs de l’IA s’opposent activement à son utilisation dans certains domaines, comme les écrivaines, écrivains et artistes qui s’organisent collectivement pour limiter ce qu’ils considèrent comme le pouvoir destructeur de la technologieNote de fin de texte 52. La méfiance pourrait être alimentée non seulement par des récits décrivant l’IA comme une menace d’extinction, mais aussi par son association avec l’accroissement des inégalitésNote de fin de texte 53. De même,les échecs technologiques très médiatisés pourraient faire planer l’ombre d’une perte de confiance en l’avenir. Par exemple, la confiance du public et le soutien à l’énergie nucléaire au Canada ont considérablement diminué à la suite de l’accident nucléaire de Fukushima Daiichi en 2011, et les préoccupations du public concernant la sûreté nucléaire ont entravé la croissance du secteur pendant des annéesNote de fin de texte 54. Une perte de confiance semblable dans les technologies de l’IA telles que les voitures autonomes pourrait mettre en péril non seulement une entreprise, mais aussi des secteurs entiers.

    Implications

    • Le manque de confiance pourrait être un obstacle majeur à l’intégration de l’IA dans certains secteurs
    • Un seul incident aberrant et très médiatisé impliquant un système d’IA bien établi pourrait nuire de manière disproportionnée à la confiance dans l’IA et à son adoption; par exemple, une crise financière déclenchée par un contenu généré par l’IA et le commerce algorithmique à haute fréquence
    • Les gens pourraient faire confiance à l’IA pour effectuer certaines tâches plus qu’ils ne font confiance à d’autres humains
    • Les différents niveaux de confiance dans l’IA selon les groupes ou les cas d’utilisation pourraient unir les gens au-delà des divisions sociétales habituelles ou les polariser d’une nouvelle manière
    • Une confiance excessive dans certains résultats de l’IA pourrait accroître la désinformation, avec des conséquences pour la démocratie et la cohésion sociétale
    • Une mauvaise expérience avec un système d’IA pourrait conduire à une perte de confiance dans d’autres systèmes d’IA, alors qu’une expérience positive avec un outil d’IA pourrait conduire à une confiance accrue dans d’autres applications d’IA
    • La jurisprudence et la législation qui déterminent la responsabilité des décisions prises par ou avec l’IA pourraient influencer la confiance et l’adoption
    • L’émergence de nouveaux labels et certifications pourrait nuire à la confiance des consommateurs dans l’IA, tels que les labels d’avertissement, ou les labels analogues à ceux du commerce équitable ou des produits biologiquesNote de fin de texte 55
    • Les régimes d’imputabilité et de responsabilité seront clarifiés, et de nombreux systèmes devront déterminer qui est responsable des défaillances de l’IA
  • Idée 4 : Les biais dans les systèmes d’IA pourraient perdurer

    Format de rechange
    (format PDF, 5,7 Ko, 5 pages)

    Date publiée : 2025

    Cat. : PH4-214/2025F-PDF

    ISBN : 978-0-660-76888-5

    La partialité est une caractéristique de la prise de décision humaine et de l’IA. Comme les données utilisées pour former l’IA sont souvent entachées de biais difficiles à corriger, le recours croissant à l’IA dans les systèmes de prise de décision pourrait répandre les biais et entraîner des dommages importants. Les préjugés ne peuvent jamais être éliminés, en partie à cause des perspectives contradictoires sur l’équité.

    Aujourd’hui

    Les préjugés dans l’IA sont considérés comme un problème majeur capable d’automatiser la discrimination à grande échelle d’une manière qui peut être difficile à déterminer. Si les décisions humaines sont également biaisées, l’un des principaux risques de l’automatisation des décisions à fort enjeu est qu’elles se généralisent, augmentant ainsi la possibilité d’erreurs et de préjudices systémiques. Alors qu’un gestionnaire partial pourrait décider d’accorder des notes d’entretien plus élevées aux quelques candidats qui lui ressemblent et parlent comme lui, un modèle d’IA biaisé pourrait avoir un effet semblable sur des milliers de personnes au sein d’organisations, de secteurs ou de pays.

    De nombreux produits d’IA prétendent être moins biaisés que les décideurs humains, mais les enquêtes indépendantes ont révélé des échecs et des rejets systématiquesNote de fin de texte 56. Par exemple, un audit de 2 outils d’embauche par IA a révélé que les types de personnalité prédits variaient selon que le candidat soumettait son CV en format Word ou en texte brutNote de fin de texte 57. Des outils semblables ont été discriminatoires à l’égard des femmesNote de fin de texte 58 ou des personnes handicapéesNote de fin de texte 59. Les biais sont intégrés à l’IA à de nombreux stades de son cycle de vie : données de formation, développement algorithmique, interaction avec l’utilisateur et retour d’informationNote de fin de texte 60.

    Les biais peuvent être impossibles à éliminer parce que les données utilisées pour former les modèles d’IA sont elles-mêmes souvent biaisées d’une manière qui ne peut pas être facilement corrigée. Le contrôle des résultats peut également poser des problèmes. Par exemple, un modèle d’IA qui apprend à écarter les mots à connotation raciste pourrait omettre des informations importantes sur l’Holocauste ou l’esclavageNote de fin de texte 61. En outre, les algorithmes ne peuvent souvent pas calculer différentes notions d’équité en même temps, ce qui conduit à des résultats constamment différents pour certains groupesNote de fin de texte 62, Note de fin de texte 63, Note de fin de texte 64.

    Avenirs

    Dans un avenir où les préjugés ne pourront jamais être éliminés, qu’ils soient humains ou algorithmiques, les sociétés devront peut-être repenser les idées actuelles sur l’équité et la meilleure façon d’y parvenir. Les gens ne sont pas nécessairement d’accord sur le sens du mot « équitable ». Par exemple, certains considèrent que la discrimination positive est juste, d’autres non. Les institutions pourraient adopter des normes visant à distribuer les ressources, emplois, subventions, prix ou autres biens, d’une manière qui tente explicitement de réparer les injustices historiques. Les organisations qui cherchent à éviter les préjugés systémiques peuvent utiliser une approche de « pluralisme algorithmique », qui implique divers éléments dans le processus de prise de décision et garantit qu’aucun algorithme ne limite sévèrement les possibilitésNote de fin de texte 65.

    Des efforts pourraient être faits pour réduire les biais dans les systèmes d’IA à un niveau acceptable, bien qu’il soit impossible de les éliminer complètement. L’utilisation des technologies de l’IA dans certains domaines sensibles, tels que la police ou l’embauche, pourrait continuer à susciter des réactions négatives. Par ailleurs, ces technologies pourraient continuer à s’améliorer et devenir moins biaisées à l’avenir. Quoi qu’il en soit, il est probable que l’on continuera à s’efforcer de réduire les biais dans les technologies d’IA.

    Implications

    • Les préjudices ou les échecs systémiques pourraient être institutionnalisés dans des contextes où des algorithmes uniques sont autorisés à prendre des décisions globales concernant l’accès des personnes à certaines ressources (p. ex., des emplois, des prêts, des visas)
    • Les préjugés humains pourraient devenir plus importants parmi ceux qui utilisent les systèmes d’IA, car les gens apprennent et reproduisent les perspectives biaisées de l’IA, portant les préjugés avec eux au-delà de leurs interactions
    • Les désaccords sur la meilleure façon de coder l’équité algorithmique peuvent résulter de définitions différentes de ce que signifie réellement l’équité. Cela peut conduire à des résultats complètement différents pour des technologies ou des systèmes semblables
    • L’incapacité à éliminer les préjugés des algorithmes pourrait conduire à des divisions politiques, sociales ou économiques
    • Si les décisions sont de plus en plus distribuées, notamment divers algorithmes et humains à différents stades d’un processus, il pourrait être difficile de faire des réclamations pour discrimination ou de déterminer une partie responsable de la discrimination
    • Des cas très médiatisés de discrimination algorithmique pourraient entraîner une perte de confiance dans les systèmes décisionnels de l’IA, en particulier dans les domaines de la police et des soins de santé, ainsi qu’une augmentation des litiges
  • Idée 5 : L’utilisation de l’IA pour prédire le comportement humain pourrait s’avérer inefficace

    Format de rechange
    (format PDF, 6,6 Ko, 5 pages)

    Date publiée : 2025

    Cat. : PH4-215/2025F-PDF

    ISBN : 978-0-660-76890-8

    Si l’IA fait parfois des prédictions impressionnantes sur le comportement humain, nombre d’entre elles sont inexactes. Prendre des décisions sur la base de ces prédictions peut avoir des conséquences désastreuses pour les personnes. Il pourrait être impossible d’améliorer la technologie à un niveau tel que ses avantages l’emportent sur les coûts.

    Aujourd’hui

    De plus en plus de gouvernements et d’institutions utilisent l’IA pour prédire le comportement humain et prendre des décisions concernant les personnes. Par exemple, plus de 500 écoles aux États-Unis utilisent un modèle d’IA appelé Navigate pour prédire la réussite des élèvesNote de fin de texte 66. Aux États-Unis, les travailleurs sociaux ont utilisé l’IA pour prédire quels appels de protection de l’enfance doivent faire l’objet d’une enquête plus approfondieNote de fin de texte 67. Tous 2 sont des exemples d’« optimisation prédictive » Note de fin de texte 68. D’éminents ingénieurs en IA ont affirmé que les algorithmes d’optimisation prédictive reposaient sur une science erronée, les prédictions de l’IA n’étant que légèrement plus précises que le hasard d’un tirage à pile ou faceNote de fin de texte 69. Malgré cela, ils continuent d’être utilisés parce qu’ils externalisent des tâches complexes telles que l’élaboration de règles de prise de décision (par exemple, quels sont les critères à prendre en compte pour rechercher des comportements frauduleux ou comment décider si un enfant risque d’être victime d’abus). Les règles de prise de décision générées par l’humain peuvent sembler subjectives et inexactes par rapport à celles des modèles prédictifs d’IA, qui prétendent représenter des modèles objectifs dans le monde réel.

    Boîte 1 :

    Optimisation prédictive

    L’utilisation de l’IA pour prédire des résultats futurs sur la base de données historiques, afin de prendre des décisions concernant des personnes.

    Les modèles prédictifs ne sont pas toujours justes. Les modèles d’IA prédictifs sont confrontés à de nombreux problèmes, notamment des erreurs dues à une inadéquation entre les données d’entraînement et les données de déploiement. Comme l’IA prédictive doit être formée sur des données antérieures, elle ne peut pas prendre en compte les variables émergentes et complexes du monde, et des comportements humains individuels. Les modèles peuvent être incapables de prendre en compte des facteurs nouveaux et inattendus. En outre, l’IA ne peut pas filtrer les effets des pratiques racistes dans le monde réel, telles que le maintien de l’ordre disproportionné dans les quartiers ou les communautés noirs, qui entraîne une augmentation des fausses arrestationsNote de fin de texte 70. Cela a conduit à des prévisions inexactes pour les personnes vulnérablesNote de fin de texte 71.

    Les modèles d’IA prédictifs ne peuvent pas comprendre pourquoi le comportement dans le monde réel diffère de leurs prédictions. Les modèles peuvent supposer que les personnes agiront de manière rationnelle ou suivront les mêmes règles et modèles humains dans l’ensemble. Les modèles peuvent ne pas tenir compte des facteurs structurels qui expliquent les différences entre les comportements prévus et les comportements réels. L’accent mis sur la prédiction peut empêcher la découverte de processus susceptibles d’engendrer de nouveaux comportements, comme lorsque la simplification du langage utilisé dans les convocations au tribunal a diminué le taux de personnes ne se présentant pas au tribunalNote de fin de texte 72.

    Bien que cela soit parfois justifié par des économies de coûts, certains gouvernements ont ressenti des répercussions importantes après avoir utilisé des modèles d’optimisation prédictive. Par exemple, en 2021, le gouvernement néerlandais a démissionné à la suite d’un scandale impliquant l’adoption par l’administration fiscale d’une IA autoapprenante pour prédire les fraudes aux allocations de garde d’enfantsNote de fin de texte 73.L’IA a identifié à tort des dizaines de milliers de familles comme ayant des dettes excessives envers l’administration fiscale. Plus d’un millier d’enfants ont été placés dans des familles d’accueil et certaines victimes se sont suicidées. Les amendes infligées aux agences gouvernementales et les indemnités versées aux victimes pourraient atteindre plusieurs centaines de millions d’euros.

    Avenirs

    À l’avenir, l’optimisation prédictive pourrait être utilisée dans certaines juridictions, mais pas dans d’autres. Elle pourrait être interdite dans certaines juridictions, en particulier là où les gouvernements ont dû faire face à des coûts élevés et à un examen minutieux en raison d’échecs. Cela pourrait encore permettre au secteur privé d’étendre ses utilisations actuellement opaques de l’optimisation prédictiveNote de fin de texte 74. D’autres juridictions peuvent continuer à utiliser des algorithmes d’optimisation prédictive malgré les risques. Cela peut s’expliquer par le fait que les personnes concernées sont moins à même de saisir la justice ou que leurs gouvernements ne sont pas liés par des normes démocratiques. D’autres peuvent considérer l’optimisation prédictive comme un outil inévitablement imparfait, mais dont l’utilisation peut être justifiée par des économies de coûts. Les institutions, y compris les gouvernements, qui adoptent l’IA pour l’optimisation prédictive et constatent que les coûts dépassent les avantages pourraient maintenir les systèmes en service bien plus longtemps qu’elles ne le devraient ou ne le voudraient, en raison des montants élevés déjà investis ou des difficultés liées à l’annulation d’un déploiement. Certains pourraient considérer l’IA prédictive comme inacceptable d’un point de vue éthique pour la prise de décision, et préférer travailler sur des interventions visant à réduire autant que possible les résultats négatifs prévus.

    Implications

    • Les gouvernements et les entreprises qui utilisent l’optimisation prédictive sans être transparents sur les règles de prise de décision de l’IA pourraient être considérés comme indignes de confiance
    • Si les institutions utilisent l’IA pour l’optimisation prédictive alors que la charge de la preuve pour contester des prédictions inexactes incombe aux personnes concernées, les populations déjà vulnérables risquent de voir leur situation s’aggraver. Cela pourrait créer de nouveaux goulets d’étranglement bureaucratiques et engorger les tribunaux avec des litiges portant sur des préjudices algorithmiques, y compris des affaires liées aux droits de l’humain ou à des violations de la Charte
    • Les tentatives de sacrifier les droits individuels au profit de gains collectifs peuvent bénéficier aux populations privilégiées au détriment des plus vulnérables, créant ainsi de plus grandes divisions socioéconomiques
    • L’adoption de modèles d’optimisation prédictive pourrait créer des économies initiales qui cèdent rapidement la place à de nouveaux coûts : pour lutter contre les litiges liés à des prédictions inexactes, pour resigner des contrats avec des fournisseurs afin de recycler et de réajuster les modèles, et pour créer de nouvelles voies pour les plaintes et l’indemnisation des dommages
    • Si le processus décisionnel de l’IA punit préventivement les personnes sur la base d’hypothèses biaisées, il pourrait réduire l’autonomie des populations vulnérables et dresser de nouveaux obstacles dans leur parcours de vie
  • Idée 6 : L’IA pourrait devenir plus « légère » et fonctionner sur des appareils courants

    Format de rechange
    (format PDF, 2,9 Ko, 4 pages)

    Date publiée : 2025

    Cat. : PH4-216/2025F-PDF

    ISBN : 978-0-660-76892-2

    Plutôt que quelques grands modèles d’IA fonctionnant sur des superordinateurs en nuage, les futurs modèles d’IA pourraient être diversifiés et personnalisés, certains d’entre eux fonctionnant sur de petits appareils de main locaux tels que les téléphones intelligents. Cela pourrait compliquer la réglementation et le contrôle, et multiplier les risques de cybersécurité.

    Aujourd’hui

    Les améliorations apportées aux techniques d’entraînement et de compression de l’IA permettent aux modèles plus petits et moins gourmands en ressources de devenir plus performants. La taille d’un modèle d’IA est souvent utilisée pour désigner sa puissance, sa capacité et sa qualité. Alors que les plus grands modèles sont souvent les plus puissants et les plus performants, les développeurs d’IA mettent sur le marché des versions plus petites et comprimées dérivées de modèles plus grands. Cela permet au modèle plus petit de conserver la plupart des performances du modèle plus grand tout en étant moins gourmand en énergie et fonctionnant sur du matériel moins puissantNote de fin de texte 75. C’est pourquoi les modèles plus petits et plus récents sont plus performants que les modèles plus anciens et plus grands. Par exemple, Phi-3, qui a été lancé début 2024 et ne compte que 3,8 milliards de paramètres, a des performances comparables à GPT-3.5, qui a été lancé fin 2022 et compte 175 milliards de paramètresNote de fin de texte 76. Des entreprises telles que MetaNote de fin de texte 77 et MistralNote de fin de texte 78 ont publié des modèles d’IA en code source libre qui rivalisent avec les performances de ChatGPT, mais qui peuvent être exécutés sur un ordinateur portable. Les chercheurs dans le domaine du TinyML développent une IA plus petite et capable de fonctionner sur des appareils moins puissants pour permettre un Internet des objets (IdO) « intelligent ». Par exemple, le Raspberry Pi, un ordinateur de la taille d’une carte de crédit, très prisé des amateurs de programmation et d’ingénierie informatique, peut désormais exécuter une série de modèles d’IA, y compris la reconnaissance facialeNote de fin de texte 79.

    Boîte 2 :

    Taille du modèle

    La taille d’un modèle d’IA est déterminée par le nombre de ses paramètres. Les paramètres sont des variables d’un système d’IA dont les valeurs sont ajustées au cours de l’entraînement. Les petits modèles peuvent avoir des millions de paramètres, voire moins, tandis que les grands modèles peuvent en avoir plus de 400 milliards.

    Avenirs

    Nous pourrions voir des milliers de modèles d’IA différents capables de fonctionner localement sur tous les types d’appareils numériques, des téléphones intelligents aux petits ordinateursNote de fin de texte 80. Ces modèles pourraient être développés par des amateurs, des jeunes poussespousses ou des criminels. Ils pourraient être basés sur des modèles à source ouverte et adaptés à différents objectifs par l’intermédiaire d’un entraînement sur des ensembles de données largement accessibles. Par exemple, Venice AI est un service d’IA basé sur le Web, construit à partir d’une poignée de modèles d’IA à source ouverte, qui permet aux utilisatrices et utilisateurs de générer du texte, du code ou des images avec peu ou pas de garde-fous et qui est vendu comme « privé et sans permission »Note de fin de texte 81. Le déploiement de modèles d’IA de différentes tailles pourrait donner naissance à un écosystème de modèles d’IA présentant divers degrés d’interopérabilité. Les petits modèles pourraient interagir avec les grands modèles accessibles au public et basés sur l’informatique en nuage, en tirant parti de leur puissance pour effectuer des tâches ou apprendre (voir la figure 1). Ces petits modèles localisés peuvent manquer de mesures de sécurité et être déployés à grande échelle à l’insu de toute autorité.

    Figure 1

    Écosystème d’IA, un exemple d’une collaboration entre modèles d’IA

    Figure 1 Écosystème d’IA, un exemple d’une collaboration entre modèles d’IA.

    Figure 1 – Version texte

    Écosystème d’IA, un exemple d’une collaboration entre modèles d’IA.

    La figure 1 présente 3 modèles d’IA de tailles différentes travaillant ensemble le long d’une chaîne d’approvisionnement. Chaque modèle d’IA possède sa propre section. La première section représente une IA fonctionnant sur un téléphone intelligent. Ici, une bulle de texte dit : « Quand mon colis arrivera-t-il ? », quelqu’un qui pose la question à son IA sur son téléphone. Le modèle d’IA de taille moyenne interprète les commandes vocales et utilise les données du mobile pour identifier l’envoi spécifique. La deuxième section décrit une IA opérant par infonuagique et connectant différents véhicules de transport. Le modèle d’IA de grande taille traite la requête, étudie la chaîne d’approvisionnement, prévoit les retards et estime le temps de livraison. Et sollicite des données locales pour l’analyse. La dernière section présente une IA fonctionnant sur une caméra de surveillance dans un entrepôt. Le modèle d’IA de petite taille trouve des espaces libres par reconnaissance d’objets et envoie des infos locales à l’IA infonuagique.

    Implications

    • Les réglementations axées uniquement sur les grands modèles d’IA risquent d’être inefficacesNote de fin de texte 82
    • L’IA en libre accès pourrait permettre la circulation de modèles qui posent problème, que ce soit parce qu’ils comportent des biais, manquent de mesures de sécurité ou facilitent des activités illégalesNote de fin de texte 83
    • Il pourrait être difficile de repérer les mauvais acteurs qui forment ou utilisent des modèles d’IA petits, mais puissants
    • En analysant les données localement, les modèles d’IA qui opèrent directement sur appareil pourraient aider les personnes à protéger leurs données et leur vie privée
    • Les petites entreprises pourraient personnaliser leurs propres outils d’IA pour mieux répondre à leurs besoinsNote de fin de texte 84
    • La compatibilité entre les appareils dotés d’IA pourrait offrir plus d’options aux utilisatrices et utilisateurs, mais aussi créer des vulnérabilités en matière de cybersécuritéNote de fin de texte 85
  • Idée 7 : Des environnements intelligents pilotés par l’IA partout

    Format de rechange
    (format PDF, 4,6 Ko, 5 pages)

    Date publiée : 2025

    Cat. : PH4-217/2025F-PDF

    ISBN : 978-0-660-76894-6

    De nombreux produits pourraient être vendus avec l’IA par défaut, créant ainsi des environnements « intelligents » capables d’apprendre et d’évoluer pour s’adapter aux besoins des propriétaires et des utilisateurs. Il peut être difficile pour les gens de comprendre les capacités des environnements intelligents ou de s’en passer.

    Aujourd’hui

    Les dispositifs autonomes et les robots sont de plus en plus présents dans notre vie quotidienne. Par exemple, les restaurants utilisent des robots pour livrer les repasNote de fin de texte 86. Les robots nettoyeurs sont couramment utilisés dans les espaces commerciauxNote de fin de texte 87. Dans le secteur agricole, les machines autonomes et semi- autonomes sont de plus en plus utilisées pour les cultures. Dans les foyers, l’IA est ajoutée aux appareils de tous les jours. La figure 2 présente d’autres exemples. Ces appareils pourraient continuer à bénéficier de nouvelles fonctionnalités au fur et à mesure de la sortie de modèles d’IA plus performantsNote de fin de texte 88.

    Figure 2

    Exemples de produits intégrant des fonctions d’IA

    Figure 2 Exemples de produits intégrant des fonctions d’IA

    Figure 2 – Version texte

    Exemples de produits intégrant des fonctions d’IA

    La figure 2 est un tableau des différents produits dotés d’IA, de leur description et des capacités d’IA de chaque produit. Il y a 3 catégories de produits, chacune avec 2 exemples de produits. La première est celle des appareils ménagers, qui comprend un oreiller intelligent et la sonnette vidéo Ring d’Amazon. La deuxième catégorie est celle des produits portables, dont les lunettes intelligentes et les lunettes de réalité mixte. Et la troisième, les appareils commerciaux, dont Spot, le chien robot, et un camion autopiloté. Chacun des 6 produits est brièvement décrit. Par exemple, l’oreiller intelligent de DeRucci, sorti en 2024. Il contrôle et intervient pour ajuster la position de la tête et réduire le ronflement et le risque d’apnée du sommeil. Le tableau indique lesquelles des 6 capacités d’IA sont incluses dans chaque produit. Ces capacités sont l’analyse de données, la vision par ordinateur, la robotique, le traitement du langage, la génération de médias et la navigation.

    Les chercheurs et l’industrie pourraient avoir besoin de plus de données sur le monde physique pour entraîner des IA plus avancées. L’IA qui recueille des informations en temps réel sur son environnement physique est appelée « IA incarnée » (voir la figure 3)Note de fin de texte 89. L’IA peut s’incarner dans n’importe quoi, des téléphones intelligents aux appareils ménagers, en passant par des robots à l’apparence humaine. Connectée à des capteurs et dotée d’une certaine mobilité, l’IA peut interagir avec les personnes et les espaces physiques, par exemple en ouvrant des portes ou en appelant des ascenseursNote de fin de texte 90. Le fait de doter l’IA d’un corps peut lui permettre d’apprendre en interagissant avec le monde, comme le font les humains, ce qui pourrait constituer une voie vers le développement d’une IA plus avancéeNote de fin de texte 91.

    Figure 3

    De l’intelligence artificielle à l’informatique omniprésente

    Figure 3 De l’intelligence artificielle à l’informatique omniprésente

    Figure 3 – Version texte

    De l’intelligence artificielle à l’informatique omniprésente

    La figure 3 explore comment l’IA dans les objets acquiert des capacités diverses, des plus banales aux plus puissantes, certains appareils fonctionnant de manière indépendante et d’autres collaborant pour créer une expérience continue. Ces objets comprennent des téléphones intelligents, des dispositifs de surveillance et des appareils électroménagers, ainsi que des robots connectés et des voitures autopilotées. Ces appareils sont connectés via l’internet des objets dans le paysage urbain. La figure fournit les définitions suivantes, chacune contribuant à un concept final, l’informatique omniprésente : 1) Les dispositifs de périphérie sont situés à proximité des sources de données et des client·es final·es, ils peuvent traiter les données sans les envoyer dans le nuage, ils peuvent également servir de lien avec un réseau plus large. 2) L’internet des objets est un réseau d’appareils qui communiquent, coordonnent, collectent et échangent des données. 3) Le petit apprentissage automatique utilise des modèles d’IA plus légers qui s’exécutent sur de petits appareils à faible consommation d’énergie. Il dote les appareils internet des objets d’une IA. 4) La perception active est la capacité d’un agent d’IA à contrôler activement la façon dont il perçoit son environnement, par exemple en zoomant ou en changeant la position d’une caméra ou en se déplaçant pour obtenir une meilleure vue. 5) L’IA incarné est un système d’IA ayant une forme physique qui leur permet d’apprendre de leur environnement et de s’y adapter. Il peut s’agir d’objets, de robots, de véhicules, etc. 6) L’informatique omniprésente est l’intégration de microprocesseurs connectés dans les objets de la vie quotidienne afin que l’informatique soit présente partout et à tout moment.

    Il devient de plus en plus difficile de comprendre les capacités des appareils qui nous entourent. Certains appareils sont qualifiés de « robots » alors qu’ils ne sont pas dotés de capacités d’intelligence artificielleNote de fin de texte 92. D’autres appareils peuvent avoir plusieurs fonctions d’IA. Par exemple, les touristes peuvent louer des vélos électriques alimentés par l’IA qui peuvent offrir une visite guidée de la villeNote de fin de texte 93. Les ornithologues peuvent acheter des jumelles dotées d’IA qui identifient la faune et la floreNote de fin de texte 94.

    Les anciens appareils peuvent souvent être dotés de nouvelles fonctionnalités qui ne sont pas visibles de l’extérieur. Par exemple, une trousse d’intelligence artificielle peut rendre un tracteur existant entièrement autonomeNote de fin de texte 95. Les caméras de sécurité qui fonctionnent depuis longtemps peuvent être connectées à un logiciel de reconnaissance facialeNote de fin de texte 96.

    Avenirs

    À l’avenir, il est possible que l’on trouve de plus en plus d’appareils alimentés par l’IA dans un plus grand nombre d’environnements, des lieux de travail aux espaces de loisirs en passant par les habitations. Il peut devenir impossible d’éviter d’interagir avec ces dispositifs. Le nombre d’appareils IdO (Internet des objets) pourrait atteindre 75 milliards d’ici 2025, soit plus que doubler en 4 ansNote de fin de texte 97 et le marché mondial des logiciels d’IA pourrait être multiplié par 5 environNote de fin de texte 98 entre 2022 et 2027.

    Les fabricants d’appareils pourraient être incités à ajouter des capacités d’IA à un plus grand nombre d’appareils, soit pour les vendre, soit pour collecter des données. Les données peuvent être utiles non seulement pour générer de nouvelles sources de revenus, mais aussi pour entraîner de nouveaux modèles. Cela pourrait être particulièrement pertinent si l’IA incarnée s’avère utile pour construire la prochaine génération de modèles d’IA de frontière, ou si les entreprises atteignent les limites des données d’entraînement de qualité existantesNote de fin de texte 99. Par exemple, en déployant une flotte de voitures intelligentes, une entreprise pourrait utiliser des données sur le paysage urbain, la circulation et le comportement des piétons pour former des modèles d’IA encore plus puissants.

    Les appareils de tous les jours pourraient finir par être dotés de capacités d’IA plus puissantes que nécessaire. Il peut être plus facile d’équiper un appareil d’une IA standard à usage général, telle que ChatGPT ou Copilot, que de personnaliser un modèle avec des fonctionnalités plus ciblées. Les appareils intelligents pourraient devenir la norme dans les nouveaux logements, prêts à s’adapter aux nouveaux propriétaires ou locataires. Les appareils pourraient être vendus avec certaines fonctions verrouillées par un modèle d’accès payant, comme cela a été le cas pour l’Amazon RingNote de fin de texte 100, et pour les voitures TeslaNote de fin de texte 101 et MercedesNote de fin de texte 102.

    L’IA à usage général pourrait devenir une norme, ce qui brouillerait de plus en plus les frontières entre les catégories de produits de consommation. Par exemple, les montres intelligentes et les moniteurs d’activité physique ont suscité des inquiétudes quant au fait qu’ils pourraient occuper une zone grise réglementaire entre les dispositifs médicaux et les produits de consommation à faible enjeuNote de fin de texte 103. Le capteur domestique Aqara peut être utilisé pour tout, du contrôle des lumières à la surveillance de la sécurité ou à la détection des chutesNote de fin de texte 104. L’apparence de ces objets peut ne pas signaler clairement leurs capacités. Les robots de type humain pourraient avoir des yeux capables de voir à travers les murs, par exemple, ou les mêmes capteurs pourraient être entièrement cachés.

    Implications

    • Les gens pourraient avoir besoin de nouvelles compétences pour naviguer dans les espaces alimentés par l’IA. Les fabricants devront peut-être recourir à de nouveaux types d’étiquetage ou d’instructions pour divulguer les capacités de leurs dispositifs d’IA afin que les consommatrices et consommateurs prennent des décisions en connaissance de cause
    • Les personnes qui ne veulent pas ou ne peuvent pas s’engager dans des espaces dotés d’IA peuvent se retrouver dans l’impossibilité d’accéder à certains services
    • Les compagnies d’assurance pourraient encourager certains types de surveillance de l’IAou l’exiger comme condition de couvertureNote de fin de texte 105. Par exemple, la reconnaissance faciale pour confirmer l’identité d’un conducteur afin de réduire les vols de voitures
    • Les droits et les intérêts des personnes pourraient entrer en conflit de nouvelles façons. Par exemple, le port de lunettes intelligentes dans les espaces publics ou l’envoi d’un robot pour faire les courses pourraient remettre en cause le droit à la vie privée. La confiance est nécessaire pour garantir que les appareils ne recueillent pas l’image des personnes sans leur consentementNote de fin de texte 106. Les propriétaires de biens immobiliers pourraient installer des dispositifs alimentés par l’IA pour protéger leur investissement ou aider à l’entretien. Les locataires peuvent se retrouver dans une maison intelligente avec des services qu’ils ne souhaitent pas ou des paramètres qu’ils ne peuvent pas modifier
    • Les environnements intelligents pourraient modifier les stratégies publicitaires. Les appareils dotés d’une IA pourraient devenir habituels et proposer aux utilisateurs des publicités personnalisées en temps réel. Par exemple, les voitures intelligentes peuvent rediriger les conducteurs vers certains commerces et les inciter à s’arrêter pour effectuer un achat
  • Idée 8 : L’IA compromet encore plus la vie privée

    Format de rechange
    (format PDF, 4,8 Ko, 6 pages)

    Date publiée : 2025

    Cat. : PH4-218/2025F-PDF

    ISBN : 978-0-660-76896-0

    À mesure que les appareils dotés d’IA collectent davantage de données en ligne et dans la vie réelle, les efforts visant à transformer les données en nouvelles sources de revenus pourraient se heurter à des attitudes et des appareils plus soucieux de la protection de la vie privée. Un nouveau statu quo pourrait voir le jour, très différent de la manière opaque dont les utilisateurs échangent aujourd’hui leurs données contre des services gratuits.

    Aujourd’hui

    Les progrès de l’IA exacerbent les problèmes de protection de la vie privée liés à la technologie. La plupart des Canadiennes et Canadiens ont pris l’habitude d’accéder à des services en ligne gratuits, tels que les sites de médias sociaux, les plateformes d’IA générative ou les applications mobiles. Dans de nombreux cas, ils consentent sans le savoir à ce que des entreprises collectent leurs données, les vendent à des tiers et utilisent l’IA pour les exploiter et en tirer des conclusions à leur sujet. Par exemple, Facebook utilise l’IA pour déduire le risque de suicide des utilisateurs sur la base de leurs publications sur les médias sociauxNote de fin de texte 107. Les progrès de l’IA permettent aux entreprises d’analyser une plus grande variété et une plus grande quantité de données, et de les transformer en flux de revenus d’une nouvelle manière.

    Non seulement les environnements en ligne, mais aussi les espaces physiques deviennent moins privés. Comme il est indiqué dans l’idée 7, les objets ménagers de tous les jours sont équipés de capteurs pour collecter des données; des toilettes aux brosses à dents en passant par les jouets. La réalité virtuelle (RV) et les jeux vidéo peuvent collecter des données sur le comportement des utilisateurs à la maison et utiliser l’IA pour déduire les émotions et les traits de personnalitéNote de fin de texte 108. En dehors de la maison, des dispositifs tels que les lunettes intelligentesNote de fin de texte 109  et les épingles d’intelligence artificielleNote de fin de texte 110 soulèvent de nouvelles questions sur la protection de la vie privée en public. Les fragments d’ADN humain, connus sous le nom d’ADN environnemental, collectés dans les espaces publics à des fins telles que la surveillance des maladies, peuvent potentiellement être utilisés pour suivre les personnes, prélever illégalement des génomes et s’engager dans des formes cachées de surveillance et d’analyse génétiquesNote de fin de texte 111, Note de fin de texte 112.

    Les voitures intelligentes posent des problèmes particuliers en matière de respect de la vie privée. En 2023, la Fondation Mozilla a enquêté sur 25 marques de voitures et a constaté que chacune d’entre elles collectait des données personnelles qui n’étaient pas nécessaires au fonctionnement du véhiculeNote de fin de texte 113. Généralement obtenues à partir d’appareils mobiles connectés aux voitures par l’intermédiaire d’applications, ces données peuvent inclure le revenu annuel d’une personne, son statut d’immigré, sa race, ses informations génétiques, son activité sexuelle, ses photos, son calendrier et sa liste de choses à faire. Sur les 25 marques, 22 utilisent ces données pour faire des déductions; par exemple, à partir de la localisation et des contacts téléphoniques, et 21 communiquent ou vendent des données. Treize recueillent des informations sur les conditions météorologiques, l’état de la chaussée, les panneaux de signalisation et les « autres environnements », qui peuvent inclure les passantsNote de fin de texte 114. Quatre-vingt-quinze pour cent des nouveaux véhicules seront des véhicules connectés d’ici à 2030Note de fin de texte 115.

    Avenirs

    L’Internet des objets devenant l’« IA des objets », les données pourraient prendre encore plus de valeur, ce qui inciterait à en extraire toujours plus. Il pourrait devenir possible de tirer des conclusions plus sophistiquées pour prédire le comportement humain, les mouvements ou identifier les personnes, comme il est indiqué dans l’idée 5.

    Toutefois, le refus de la réglementation internationale pourrait remodeler le paysage de la protection de la vie privée. De plus en plus de juridictions adoptent et appliquent de nouvelles lois sur la confidentialité des donnéesNote de fin de texte 116, telles que l’American Privacy Rights ActNote de fin de texte 117 aux États-Unis. Cela pourrait modifier certains, voire de nombreux aspects du « capitalisme de surveillance »Note de fin de texte 118 en donnant aux utilisatrices et utilisateurs un plus grand contrôle sur leurs données. De futures réformes juridiques pourraient redéfinir les déductions en tant qu’informations personnellesNote de fin de texte 119, ce qui rendrait plus difficile leur vente à des tiers.

    Les nouvelles technologies pourraient également modifier l’équilibre en matière de protection de la vie privée. L’informatique périphérique, qui fait référence aux réseaux ou aux appareils physiquement proches de l’utilisateur, pourrait améliorer la confidentialité et la sécurité des donnéesNote de fin de texte 120. Lorsque les données des utilisateurs sont stockées et traitées sur un appareil appartenant à l’utilisateur, il peut être plus difficile pour les entreprises de les collecter et de les vendreNote de fin de texte 121. Cependant, l’informatique en périphérie peut également introduire de nouveaux risques, comme la reconnaissance faciale sur les appareils locaux et un accès potentiellement plus facile pour les acteurs malveillantsNote de fin de texte 122.

    Implications

    • Les distinctions telles que public par rapport au privé et en ligne par rapport à hors ligne pourraient devenir de plus en plus floues. Les maisons et autres espaces peuvent être perçus comme plus ou moins privés en fonction de l’utilisation des appareils. Les visiteurs des maisons et les passagers des voitures peuvent exiger de nouveaux protocoles de consentement pour protéger leur vie privée.
    • Les données transmises à des tiers pourraient conduire à ce que les informations sensibles soient communiquées aux compagnies d’assuranceNote de fin de texte 123
    • Les écoles et les services de garde d’enfants pourraient utiliser les protections de la vie privée comme un avantage concurrentiel pour attirer les familles
    • La surveillance pourrait modifier les pratiques de la police et des criminels
      • Certaines formes de criminalité pourraient s’enfoncer davantage dans la clandestinité et devenir plus organisées afin d’échapper à la détection
      • Les nouvelles capacités technologiques pourraient créer de nouvelles possibilités de piratage, de fraude et de harcèlement
      • La police de la circulation pourrait être moins nécessaire, car la surveillance des conducteurs par les gouvernements et les compagnies d’assurance permet de remettre automatiquement des contraventions
    • Les militantsNote de fin de texte 124 et les journalistesNote de fin de texte 125 pourraient de plus en plus utiliser l’informatique omniprésente pour « retourner le regard » en recueillant des informations sur des organisations ou des personnes puissantes. Cette pratique est connue sous le nom de « sousveillance » ou « équivalence ». Il peut s’agir du piratage d’informations sensibles sur la vie privée de représentants politiques ou d’autres personnalités publiquesNote de fin de texte 126
    • Les régimes de protection des données pourraient devenir plus complexes et moins harmonisés au niveau mondial
    • Les juridictions pourraient avoir du mal à trouver un équilibre entre la protection de la vie privée et le besoin des chercheurs de disposer d’ensembles de données représentatifs dans des domaines tels que la médecineNote de fin de texte 127
    • Les juridictions dont les lois sur la protection de la vie privée sont moins strictes pourraient devenir des destinations de travail ou de voyage de plus en plus « risquées »
    • Les dispositifs de protection de la vie privée pourraient faire pencher la balance du pouvoir en faveur des utilisateurs
  • Idée 9 : Les données collectées sur les enfants pourraient remodeler leur vie au présent et à l’avenir

    Format de rechange
    (format PDF, 10,1 Ko, 8 pages)

    Date publiée : 2025

    Cat. : PH4-219/2025F-PDF

    ISBN : 978-0-660-76900-4

    Les juridictions s’inquiètent de la protection de la vie privée des enfants à mesure que les technologies de l’IA deviennent plus omniprésentes. La collecte omniprésente de données pendant l’enfance pourrait offrir de nouvelles possibilités en matière d’accessibilité et d’éducation, mais aussi aggraver les vulnérabilités existantes, éroder la vie privée et remodeler la vie des adultes à l’avenir.

    Aujourd’hui

    Les jeunes sont un groupe particulièrement vulnérable en ce qui concerne la confidentialité des donnéesNote de fin de texte 128. Leur sens de l’autonomie et leur capacité à prendre des décisions sont encore en cours de développement. Un développement sain de l’enfant implique la capacité d’expérimenter et de faire des erreurs sans conséquences graves et durables. De plus en plus de juridictions étudient les moyens de protéger les droits des enfants en matière de données et de vie privée, et de relever les défis liés à l’obtention d’un consentement valableNote de fin de texte 129.

    Les cas d’acteurs malveillants utilisant les données des enfants de manière à nuire à leur santé mentale et à leur bien-être sont de plus en plus nombreux. Les critiques soulignent la manière dont les grandes entreprises technologiques captent l’attention et les revenus par l’intermédiaire d’expériences d’utilisation addictivesNote de fin de texte 130 et de motifs sombresNote de fin de texte 131. Les « motifs sombres » sont un type de conception de sites Web ou d’applications qui peut être utilisé pour influencer votre prise de décision lorsque vous utilisez une application ou naviguez sur un site Web; par exemple, en rendant intentionnellement difficile l’annulation d’un serviceNote de fin de texte 132. Les algorithmes des médias sociaux exacerbent les problèmes liés à une image corporelle négativeNote de fin de texte 133. L’IA générative a été impliquée dans la circulationNote de fin de texte 134 et le développementNote de fin de texte 135 de matériel pédopornographique, tant réel que généré par l’IA, par des adultes et des enfants.

    Les parents disposent d’une marge de manœuvre extraordinaire pour obtenir et offrir une visibilité sur la vie privée de leurs enfants. Par exemple, les applications d’enregistrement de frappe peuvent permettre aux parents de voir non seulement les messages envoyés par un enfant, mais aussi les messages qu’il a tapés, mais qu’il a décidé de ne pas envoyerNote de fin de texte 136. Les parents peuvent également diffuser les informations privées de leurs enfants à d’autres personnes. Certains gèrent des comptes d’enfants influents qui génèrent des revenus et diffusent régulièrement des informations personnelles et des images de leurs enfants. Ces comptes sont parfois ouvertement suivis par des pédophiles, qui bénéficient des politiques de la plateforme qui récompensent l’engagementNote de fin de texte 137.

    Les ombres de « données » non désirées pourraient suivre les enfants jusqu’à l’âge adulte. Que les données soient diffusées par les parents ou collectées par des plateformes ou des appareilsNote de fin de texte 138, elles peuvent créer une « ombre de données » qui suit les enfants tout au long de leur vieNote de fin de texte 139. Cette ombre de données peut commencer avant la naissance; par exemple, lorsque les parents utilisent des services de tests ADN pour connaître la susceptibilité génétique de leurs enfants à certaines maladiesNote de fin de texte 140. Puisque ces vastes ensembles de données pouvant être stockés indéfiniment, les futurs systèmes d’IA pourraient s’en servir pour faire de nouvelles déductions sur les personnes au fur et à mesure qu’elles deviennent adultes.

    Les écoles collectent de plus en plus d’informations sur les élèves, à l’aide de logiciels tiers et d’outils d’analyse à intelligence artificielle. Depuis la pandémie, l’utilisation des applications de gestion des élèves a augmenté de façon exponentielle dans les crèches, les écoles primaires et les écoles secondaires du Canada. Par exemple, on estime que 70 % des écoles primaires utilisent Class Dojo. Sa politique de confidentialité indique qu’elle peut communiquer des données à des fournisseurs de services tiers, notamment Facebook et GoogleNote de fin de texte 141.

    Les violations de données ont nui aux enfants et aux jeunes au Canada et ailleurs. En 2024, les photos scolaires de 160 élèves de l’Alberta ont été volées lorsque des pirates ont accédé au fournisseur de stockage en nuage d’une société d’annuaires scolairesNote de fin de texte 142. Des gangs de rançongiciels ont pris pour cible des écoles publiques américaines, divulguant des données sensibles sur la santé mentale des élèves, les agressions sexuelles et les plaintes pour discriminationNote de fin de texte 143. En 2023, des attaques de rançongiciels ont touché des institutions telles que le Sick Kids Hospital de TorontoNote de fin de texte 144, Family et Children’s Services de Lanark, Leeds et GrenvilleNote de fin de texte 145, et le registre et réseau des bons résultats dès la naissance de l’Ontario, où 3,4 millions de dossiers médicaux ont fait l’objet d’une violationNote de fin de texte 146.

    Les entreprises et les ONG détiennent un grand nombre de données sensibles sur les jeunes, qui peuvent faire l’objet d’une violation. Des applications privées de contrôle parental ont été piratées, exposant les données des enfants surveillésNote de fin de texte 147. En 2023, TikTokNote de fin de texte 148, MicrosoftNote de fin de texte 149, et AmazonNote de fin de texte 150 ont été condamnés à des amendes pour violation de la vie privée des enfants dans diverses juridictions. En tant qu’organisation non gouvernementale, Jeunesse, J’écoute, qui détient la plus grande base de données sur la santé mentale des jeunes au CanadaNote de fin de texte 151, déclare avoir mené une évaluation des incidences sur la vie privéeNote de fin de texte 152 et avoir regroupé et anonymisé ses donnéesNote de fin de texte 153.

    Avenirs

    La vente, la circulation et l’analyse opaques des données relatives aux enfants deviendront plus courantes, commenceront beaucoup plus tôt dans la vie et seront utilisées à l’avenir à des fins imprévues. Le nombre de dispositifs de collecte de données avec lesquels les enfants interagissent, à la maison, à l’école et ailleurs, augmentera (voir les idées 7 et 8). Certains de ces appareils pourraient être plus vulnérables aux violations d’informations sensiblesNote de fin de texte 154.

    Les technologies de surveillance alimentées par l’IA pourraient devenir plus importantes, mais elles pourraient aussi être détournées. Les parents pourraient se tourner vers des technologies de surveillance alimentées par l’IA pour les aider à contrôler les activités en ligne de leurs enfants et à garder le contrôle sur des environnements informationnels et médiatiques de plus en plus complexesNote de fin de texte 155. Cependant, les jeunes pourraient aussi développer des moyens de plus en plus sophistiqués pour échapper au contrôle parental.

    Les enfants et les jeunes pourraient vivre dans des environnements médiatiques plus personnalisés. Les contenus de divertissement et la publicité pourraient de plus en plus être générés ou conçus par des compagnons d’IA personnalisés. Les sous-cultures et les cultures partisanes pourraient devenir de plus en plus personnalisées et politisées. Les sentiments d’isolement social pourraient devenir plus fréquents, ainsi qu’une cohésion sociale réduite. Certains jeunes pourraient être désillusionnés par les technologies invasives alimentées par l’IA et choisir de passer plus de temps hors ligne. Toutefois, compte tenu de l’omniprésence de l’IA, cette option pourrait ne pas être envisageable à l’avenir.

    Le marché des données sur les jeunes pourrait devenir plus compétitif à mesure que les préoccupations concernant la confidentialité des données sur les jeunes augmentent. Cela pourrait conduire les entreprises technologiques à développer des moyens plus insidieux d’extraire et de commercialiser les données des jeunes. L’âge limite pour être considéré comme un « enfant » peut varier selon les contextes. Les données pourraient devoir être divulguées lorsque l’enfant atteint l’âge de la majoritéNote de fin de texte 156. Les technologies de vérification de l’âgeNote de fin de texte 157, comme celles qui sont actuellement utilisées dans certains États américains pour les sites Web pornographiquesNote de fin de texte 158, pourraient être utilisées plus largement pour protéger les jeunes des adultes prédateurs et des espaces réservés aux adultes.

    Malgré les nombreuses préoccupations qu’elles soulèvent, les nouvelles technologies basées sur l’IA pourraient également collecter des données de manière à favoriser l’accessibilitéNote de fin de texte 159. Ils pourraient être utilisés pour développer des outils d’apprentissage individualisés qui aideraient les élèves à progresser à leur propre rythme. Ils pourraient également améliorer la qualité des soins de santé pédiatriques en facilitant le diagnostic, le suivi des patients et la médecine de précisionNote de fin de texte 160.

    Implications

    • Les enfants d’aujourd’hui pourraient être confrontés à des violations de données plus fréquentes et plus dévastatrices tout au long de leur vie
    • Ces violations peuvent donner lieu à des formes d’usurpation d’identité qui entraînent des pertes financières ou la divulgation d’informations personnelles sensibles
    • La réidentification des données personnelles anonymes pourrait devenir plus facile à mesure que les violations de données deviennent plus courantes et que les technologies progressent; les données qui semblent privées aujourd’hui pourraient ne plus l’être demain
    • Des restrictions laxistes pourraient conduire à l’utilisation de données pour faire des déductions formulées par l’IA sur les jeunes qui nuisent à leurs relations et à leur accès à l’emploi, au crédit ou à l’assurance dans l’enfance et à l’âge adulte
    • L’utilisation accrue des technologies de contrôle parental pourrait entraîner une surveillance indue et une perte de vie privée et d’autonomie pour les enfants
    • L’IA pourrait compliquer l’identification par les parents des contenus problématiques ou préjudiciables, ou faciliter la dissimulation par les jeunes de leur participation à ces contenus
    • Si la prise de conscience des problèmes liés à la confidentialité des données des enfants s’accroît, davantage de développeurs pourraient être amenés à lancer des applications et des plateformes propres aux enfants, soumises à des normes de confidentialité plus strictesNote de fin de texte 161 ou prenant en compte des questions telles que la santé mentale et la dépendance
  • Idée 10 : L’IA pourrait remodeler nos relations avec les autres

    Format de rechange
    (format PDF, 7,5 Ko, 8 pages)

    Date publiée : 2025

    Cat. : PH4-220/2025F-PDF

    ISBN : 978-0-660-76902-8

    Les outils d’IA pourraient médiatiser davantage les interactions sociales, dans des contextes publics ou professionnels, ou en privé avec des amis, des membres de la famille ou des partenaires romantiques. Ces outils pourraient être utilisés pour signaler des comportements suspects ou nuisibles et aider à éviter les maladresses sociales, mais ils pourraient aussi aider à manipuler les autres et à en faire des proies.

    Aujourd’hui

    L’IA joue déjà un rôle important dans la médiation de nos relations avec les étrangers, les amis et la famille dans les espaces en ligne. Les algorithmes de recommandation agissent comme un filtre social, déterminant quel contenu un utilisateur voit, de quelle personne et dans quel ordreNote de fin de texte 162. Ces algorithmes peuvent encourager les utilisateurs à s’engager avec des influenceurs et des créateurs de contenu qui offrent un accès apparent à leur vieNote de fin de texte 163. Pour certains utilisateurs, ces « intimités » peuvent se transformer en relations parasociales, où les personnes se sentent émotionnellement liées ou attachées à de parfaits inconnusNote de fin de texte 164.

    Les dispositifs d’IA servent de médiateur à un nombre croissant d’interactions professionnelles et personnelles. Par exemple, les médecins utilisent déjà l’IA pour aider à diagnostiquer ou à surveiller les patientsNote de fin de texte 165. Les gens utilisent l’IA pour rédiger des profilsNote de fin de texte 166 ou des messagesNote de fin de texte 167 sur les applications de rencontre. L’IA peut même analyser et signaler le ton utilisé par les personnes dans les messages qu’elles s’adressent les unes aux autres, par exemple dans les applications utilisées pour faciliter la communication dans les situations de coparentalité difficilesNote de fin de texte 168.

    Les dispositifs portables qui introduisent l’IA dans de nouveaux aspects de notre vie peuvent brouiller les frontières entre les espaces réels et numériques. Ces dispositifs peuvent utiliser la réalité virtuelle (RV), la réalité augmentée (RA) et une combinaison de RA et de RV connue sous le nom de réalité mixte (RM)Note de fin de texte 169. La recherche laisse supposer que les environnements immersifs peuvent avoir une incidence émotionnelle plus importante que les espaces en ligne traditionnelsNote de fin de texte 170. Les expériences collectives dans la RV peuvent constituer un nouveau type de rassemblement social enrichissant pour des groupes géographiquement éloignés. Les préjudices subis dans la RV, tels que les agressions, peuvent avoir des effets psychologiques semblables à ceux de l’équivalent hors ligneNote de fin de texte 171.

    Les personnes peuvent développer des liens émotionnels avec les compagnons de l’IA. Des millions de personnes se tournent vers des compagnons d’IA pour soulager leur solitude, accéder à une thérapie, obtenir des conseils et nouer des relations amoureusesNote de fin de texte 172, Note de fin de texte 173, Note de fin de texte 174. Lorsqu’un modèle d’IA produit des textes, des discours et des images qui ne se distinguent pas de ceux des humains, il est facile d’anthropomorphiser le modèle en attribuant un motif et une intention à ses réponsesNote de fin de texte 175.

    Les utilisateurs de plateformes populaires vivent dans des univers de plus en plus personnalisés et privés, l’IA se chargeant de sélectionner les contenus qu’ils voient. Les algorithmes des médias sociaux proposent souvent aux utilisateurs des contenus qui laissent entendre qu’ils les « connaissent » mieux que ne le feraient des amis proches. Toutefois, au fil du temps, la consommation de contenus créés par l’IA, par opposition aux contenus diffusés par des amis, peut déformer les représentations de soiNote de fin de texte 176. En faisant défiler le contenu seul, les utilisateurs peuvent entrer dans ce que les chercheurs appellent un état de transeNote de fin de texte 177.

    L’IA modifie les relations des parents avec leurs enfants. Les outils d’IA peuvent offrir aux parents un niveau de visibilité et de contrôle sans précédent sur les applications utilisées par leurs enfants, le contenu qu’ils consomment et les messages qu’ils écrivent, comme l’explique l’idée 7. Les téléphones intelligents ou les traceurs peuvent donner aux parents des informations en temps réel, 24 heures sur 24 et 7 jours sur 7, sur l’endroit où se trouvent leurs enfantsNote de fin de texte 178. Ces outils peuvent éroder l’autonomie, la vie privée et l’indépendance des enfants au fur et à mesure qu’ils grandissent et mûrissent. Des outils semblables utilisés dans les relations amoureuses peuvent faciliter les comportements abusifs et le harcèlementNote de fin de texte 179.

    Avenirs

    À l’avenir, l’IA pourrait jouer un rôle plus important dans la médiation des interactions professionnelles, limitant ainsi les possibilités de nouer de nouvelles amitiés. L’IA pourrait améliorer l’efficacité de la communication entre les clients et les employés d’une entreprise et modifier les flux de travail entre les personnes et les équipes. La culture du lieu de travail pourrait devenir plus impersonnelle, avec moins de possibilités de socialisation.

    Les outils d’IA pourraient également servir de médiateurs pour des interactions sociales plus personnelles, même à la maison entre les membres d’une même famille. Ces outils peuvent être des agents d’IA, des algorithmes de plateforme ou des dispositifs portables, tels que des lunettes de réalité augmentée. Plus d’informations et de visibilité sur la vie intérieure des personnes, qu’elle soit physiologique ou psychologique, pourraient devenir normales. Cela pourrait améliorer la communication dans les relations. Elle pourrait également modifier la dynamique des relations, entraînant une diminution de la confiance et de l’autonomie, et une augmentation des problèmes de santé mentaleNote de fin de texte 180.

    Les personnes pourraient de plus en plus se tourner vers l’IA pour trouver de la compagnie ou des réponses à leurs problèmes personnels. L’IA pourrait aider les personnes socialement isolées à entrer en contact avec les autresNote de fin de texte 181. Les thérapeutes de l’IA pourraient fournir des soins de santé mentale sur mesure aux populations qui n’y ont pas accès : des applications telles que Black Female Therapist, par exemple, utilisent l’IA entraînée pour souligner l’importance du racisme systémiqueNote de fin de texte 182. D’autre part, les compagnons de l’IA pourraient isoler davantage les personnes s’ils remplacent les relations avec les humains. Les personnes qui en viennent à préférer les relations synthétiques aux relations réelles pourraient se retrouver déconnectées de la communauté, même si elles ne sont pas nécessairement seules.

    Certaines personnes pourraient chercher à établir des liens humains en échangeant et en comparant leurs flux médiatiques. Les expériences médiatiques devenant de plus en plus personnalisées, il pourrait y avoir un intérêt accru pour la compréhension des mondes distincts que les gens habitent. Il peut s’agir d’une « analyse de flux » dans un cadre thérapeutique, d’un échange de flux en présence d’amis ou même d’événements publics d’échange de fluxNote de fin de texte 183.

    À l’avenir, il pourrait devenir impossible de faire la distinction entre les humains et les agents IA hyperréalistes lors des interactions dans les espaces en ligne. La technologie de l’IA pourrait être utilisée pour créer des répliques numériques de proches décédés ou éloignés, ou de célébrités et d’influenceurs. Les agents d’IA pourraient être perçus comme manifestant des émotions humaines telles que l’empathie et l’amour. Les personnes pourraient avoir ce qui ressemble à une relation intime avec une personne, mais qui est en fait une interaction parasociale avec un robot conversationnel. Cela pourrait remplacer entièrement les relations sociales humaines pour certaines personnes vulnérables ou solitaires.

    Implications

    • L’IA pourrait contribuer à réduire les inégalités pour les personnes confrontées à des barrières linguistiques ou à des difficultés à s’orienter dans des interactions sociales complexes
    • Les relations avec les compagnons de l’IA pourraient être identiques aux relations humaines, voire plus faciles ou meilleures, pour certaines personnes
    • Les compagnons ou thérapeutes de l’IA pourraient avoir plus d’influence sur les comportements d’une personne que sa famille ou ses amis proches
    • Les compétences sociales pourraient s’atrophier. Des compétences telles que l’écoute et l’empathie pourraient être érodées si les utilisatrices et utilisateurs s’appuient trop sur l’aide de l’IA pour les interactions sociales ou personnalisent les agents de l’IA pour qu’ils représentent leurs besoins et leurs préférences
    • Les taux de mariage pourraient diminuer et la solitude augmenter
    • L’expérience de l’identité pourrait changer. Une autosurveillance plus précoce et plus fréquente, ainsi que l’application d’analyses prédictives aux processus biologiques et mentaux, pourraient déboucher sur de nouvelles façons de comprendre et d’optimiser le soi
    • De nouvelles formes d’abus et de criminalité virtuelle pourraient voir le jour et remettre en question les définitions de l’agression et du harcèlement
    • Les prédateurs pourraient plus facilement gagner la confiance des enfants et des adultes, ce qui augmenterait le risque de fraude, de harcèlement ou d’autres abus
    • L’utilisation d’outils d’IA pour communiquer avec les gens pourrait modifier la langue au fil du temps, potentiellement dans le sens d’une plus grande homogénéisation et d’une stérilisation
    • Les outils d’IA pourraient signaler les comportements suspects, signaler les abus au moment où ils se produisent et aider les personnes à s’orienter dans des relations toxiques ou dangereuses
    • Les brimades et le harcèlement pourraient devenir plus omniprésents et nuire à la santé mentale s’ils se produisent dans des environnements immersifs réalistes ou avec l’utilisation de l’IA générative
  • Idée 11 : L’IA pourrait retarder la transition verte

    Format de rechange
    (format PDF, 7,6 Ko, 8 pages)

    Date publiée : 2025

    Cat. : PH4-221/2025F-PDF

    ISBN : 978-0-660-76904-2

    L’adoption de l’IA stimule la demande d’énergie et d’eau à l’échelle mondiale. Cela pourrait retarder la transition verte, bien que le Canada pourrait bénéficier d’une demande accrue de centres de données plus écologiques.

    Aujourd’hui

    L’IA a des répercussions climatiques, bien que mesurer avec précision son empreinte carbone soit un défi. L’IA générative est une technologie particulièrement gourmande en énergie et en eauNote de fin de texte 184. L’entraînement d’un nouveau modèle consomme de l’énergie, et ce, tout comme l’utilisation du modèle une fois formé. Les émissions de gaz à effet de serre de Google étaient 48 % plus élevées en 2023 qu’en 2019, et ce, en grande partie en raison de l’énergie requise par l’IANote de fin de texte 185. Cependant, comme les entreprises spécialisées dans l’IA ne sont pas toutes entièrement transparentes sur leur consommation d’énergie ou encore à l’égard des répercussions environnementales du développement et de l’élimination du matériel, il est difficile d’être sûr de l’empreinte carbone de l’IANote de fin de texte 186. Les modèles plus petits qui fonctionnent sur des appareils, plutôt que dans le nuage, pourraient avoir moins de répercussions climatiques (voir l’idée 6).

    Les centres de données mettent déjà à rude épreuve l’approvisionnement en énergie et en eau. Les modèles d’apprentissage automatique tels que ChatGPT traitent les requêtes des utilisateurs dans les centres de donnéesNote de fin de texte 187Note de fin de texte 188. Même en 2020   avant le décollage de l’IA générative   les centres de données et les réseaux de transmission produisaient 0,6 % des émissions totales de gaz à effet de serreNote de fin de texte 189. Les centres de données consomment de 10 à 50 fois plus d’énergie par surface au sol qu’un immeuble de bureaux commercial habituel.Note de fin de texte 190 Le plus grand au monde peut consommer autant d’énergie que 80 000 ménages des États-UnisNote de fin de texte 191. Les générateurs diesel polluants fournissent une alimentation de secours à la plupart des centres de données durant les pannes de courantNote de fin de texte 192. Les centres de données utilisent également de l’eau pour le refroidissement par évaporation et, dans le cadre des climats plus chauds, ils peuvent utiliser des millions de gallons par jour. Avec la puissance de calcul utilisée par l’IA doublant environ tous les 100 joursNote de fin de texte 193, les demandes en matière d’eau et d’énergie par les centres de données augmentent. Les centres de données dans les régions marquées par un stress hydrique aux États-Unis ont été critiqués par les résidents locauxNote de fin de texte 194. Dans certaines régions, les plans de fermeture de centrales au charbon ont même été retardés en raison de la demande croissante d’électricité des centres de donnéesNote de fin de texte 195.

    Le Canada représente une destination attrayante pour les centres de données. Au fur et à mesure que l’utilisation de l’IA a augmenté, les entreprises technologiques ont cherché à localiser des centres de données dans des pays au climat plus frais, ainsi qu’à l’énergie propre et bon marchéNote de fin de texte 196. Grâce à son énergie hydroélectrique renouvelable, le Canada est ainsi devenu une destination attrayante pour les entreprises technologiques qui cherchent à annoncer une empreinte carbone réduite.

    Avenirs

    L’adoption accrue de l’IA pourrait entraver la transition vers des engagements climatiques à l’échelle mondiale. Au fur et à mesure que l’IA est intégrée dans de plus en plus d’appareils et de processus, sa consommation en matière d’énergie et d’eau pourrait augmenter fortement. Par exemple, si chaque recherche en ligne utilisait ChatGPT, la demande d’électricité augmenterait d’un montant équivalent à l’ajout de 1,5 million de résidents à l’Union européenne (UE)Note de fin de texte 197. D’ici 2026, l’IA pourrait utiliser plus d’énergie que l’Islande en 2021Note de fin de texte 198. L’Agence internationale de l’énergie (AIE) a estimé que la consommation d’électricité des centres de données pourrait doubler entre 2024 et 2026Note de fin de texte 199. Le marché des GPU (unités de traitement graphique) utilisés dans les centres de données devrait décupler entre 2022 et 2032.Note de fin de texte 200 Le secteur des technologies de l’information (TI) pourrait finir par doubler son empreinte carbone au cours de la prochaine décennie, alors même que d’autres secteurs évoluent dans la direction opposéeNote de fin de texte 201.

    Les innovations relatives au matériel et aux logiciels qui font appel à l’IA pourraient réduire la consommation d’énergie. Les prochains GPU Blackwell de Nvidia pour les centres de données, par exemple, promettent d’être beaucoup plus efficaces – offrant jusqu’à 30 fois le rendement tout en consommant 1/25e de l’énergie des puces actuellesNote de fin de texte 202. TIl pourrait également y avoir un changement vers des modèlesNote de fin de texte 203 informatiques plus petits, « plus légers » et moins énergivores (voir l’idée 6).

    Le Canada pourrait avoir de la difficulté à répondre à la demande relative à l’IA pour une hydroélectricité propre et bon marché. Les services publics canadiens pourraient trouver difficile de répondre à la croissance rapide de la demande d’énergie en raison de l’IA. Hydro-Québec prévoit que d’ici 2032, les centres de données contribueront à une augmentation de quelque 2 % de la quantité totale d’électricité produite au Québec en 2022Note de fin de texte 204. Des pénuries d’énergie sont prévues au Québec dès 2027 et elles pourraient être aggravées par la sécheresse et d’autres événements climatiquesNote de fin de texte 205. On pourrait ainsi de plus en plus demander aux fournisseurs de centres de données de produire leur propre énergie ainsi que de construire leur propre infrastructure énergétiqueNote de fin de texte 206.

    De nouvelles façons d’atténuer les demandes et les répercussions énergétiques de l’IA pourraient prendre de l’ampleur. Certaines entreprises spécialisées dans l’IA, dont Amazon, Microsoft et Google, ont annoncé leur intention d’utiliser l’énergie nucléaire afin de réduire leurs émissionsNote de fin de texte 207. En septembre 2024, Microsoft a acquis la centrale nucléaire de Three Mile Island, en Pennsylvanie, fermée depuis 2019. Microsoft prévoit de rouvrir la centrale et d’acheter la totalité de sa capacité de production d’électricité au cours des 20 prochaines annéesNote de fin de texte 208. Google devrait avoir de petits réacteurs nucléaires modulaires opérationnels, et ce, d’ici 2030Note de fin de texte 209. La chaleur résiduelle des centres de données pourrait être de plus en plus captée et utilisées à d’autres fins, par exemple pour réchauffer les serres adjacentesNote de fin de texte 210. Dans le domaine des consommateurs, le projet AI Energy Star, inspiré par des notes semblables pour les appareils électroménagers, vise à surveiller les émissions de carbone de l’IA et à donner au public des informations qui lui permettront de choisir le modèle d’IA le moins énergivore pour une tâche donnéeNote de fin de texte 211. Malgré ces efforts, dans un scénario avec une croissance exponentielle de l’infrastructure relative à l’IA, il n’est pas clair si elles seraient suffisantes pour atténuer les coûts environnementaux.

    Implications

    • La consommation d’énergie et d’eau par le secteur des technologies de l’information pourrait augmenter plus que les prévisions actuelles
      • Même si l’IA devient plus économe en termes d’énergie, sa consommation totale de ressources pourrait augmenter si cela réduit les coûts et conduit à l’intégration de l’IA dans beaucoup plus d’appareils
    • La pression économique en faveur de l’expansion des centres de données peut entrer en concurrence avec la transition vers les énergies vertes
    • Les services publics pourraient faire face à des défis accrus afin de répondre à la demande croissante d’énergie propre. Les considérations portant sur les types de projets auxquels l’accès à l’énergie propre est offert peuvent changer
    • Si les entreprises spécialisées dans l’IA se tournent de plus en plus vers le nucléaire ou d’autres formes d’énergie pour alimenter en privé la montée en flèche de l’IA, cela pourrait créer de nouvelles pressions pour les organisations responsables de la surveillance réglementaireNote de fin de texte 212
    • Les centres de données pourraient devenir de plus en plus controversés, car ils font pression sur la terre, l’eau et l’alimentation électrique
      • Des iniquités pourraient émerger, car les personnes les plus touchées par l’infrastructure physique de l’IA ne sont peut-être pas celles qui en bénéficient le plus
      • Les appels en faveur d’une réglementation environnementale plus stricte pourraient augmenter si une augmentation du nombre de centres de données entraîne davantage d’émissions et de déchets électroniquesNote de fin de texte 213
    • La demande de métaux et de minéraux stratégiques pourrait augmenter, car les centres de données sont en concurrence avec les technologies vertes comme les panneaux solaires et les batteries électriques
    • Les plateformes qui sélectionnent automatiquement des modèles d’IA pour une tâche donnée en fonction de leur rendement et de leur intensité énergétique pourraient devenir courantes
    • Les entreprises technologiques pourraient s’orienter vers le déploiement local de l’IA dans leurs produits afin de réduire l’utilisation des centres de données
  • Idée 12 : L’IA pourrait devenir plus fiable et transparente

    Format de rechange
    (format PDF, 4,2 Ko, 8 pages)

    Date publiée : 2025

    Cat. : PH4-222/2025F-PDF

    ISBN : 978-0-660-76906-6

    À l’avenir, l’IA pourrait avoir amélioré ses capacités de raisonnement, lui permettant de produire de meilleures analyses, de faire moins d’erreurs factuelles et d’être plus transparente. Cependant, ces améliorations peuvent s’avérer insuffisantes pour surmonter les problèmes liés aux mauvaises données.

    Aujourd’hui

    L’IA peut générer du texte et des images de haute qualité, mais peut commettre des erreurs logiques ou factuelles. Les réseaux de neuronesNote de fin de texte 214 sont en mesure de reconnaître les modèles sans nécessairement comprendre le contenu ou le contexte. Par exemple, un grand modèle de langage (GML) recourt à la probabilité pour générer une sortie mot par mot, en fonction de la fréquence à laquelle les mots apparaissent à côté d’autres motsNote de fin de texte 215. Ne comprenant pas la signification des mots, il peut sortir des hallucinationsNote de fin de texte 216. Certains développeurs et développeuses cherchent à améliorer la factualité et l’exactitude en donnant aux GML l’accès à des bases de connaissances externes grâce à un processus appelé génération augmentée de récupération (RAG)Note de fin de texte 217. Cependant, la RAG se fie à la qualité des données sources. Par exemple, l’Aperçu IA de Google Search utilise la RAG pour générer des résumés de requêtes de recherche. Toutefois, son incapacité à distinguer les sources faisant autorité des blagues sur les médias sociaux l’a amené à formuler des recommandations telles que mettre de la colle sur la pizza et regarder directement le soleilNote de fin de texte 218.

    Les réseaux de neurones manquent de transparence et peuvent être difficiles à comprendre et à contrôler. Les calculs qu’ils effectuent régulièrement s’avèrent si complexes que même les spécialistes humains éprouvent de la difficulté à comprendre comment ils transforment les entrées en sortiesNote de fin de texte 219. En d’autres termes, les réseaux de neurones manquent d’interprétabilité. Il est donc difficile de s’assurer qu’un système d’IA générative ne peut pas créer de contenu nuisible, ou qu’un système d’IA décisionnelle ne prend pas en compte des facteurs interdits tels que la race ou le sexe (voir l’idée 5). Certains développeurs et développeuses essaient de surmonter cette limite en demandant au système de fournir une explication motivant la prise de décision. Cependant, on ignore actuellement si l’explication d’un modèle d’IA reflète avec précision sa pondération réelle des variables dans une décisionNote de fin de texte 220.

    Boîte 3 :

    Réseau de neurones

    Un type d’IA modélisée sur le cerveau humain, dans lequel des nœuds interconnectés (neurones) traitent l’information en couches pour reconnaître les modèles, apprendre des données et prendre des décisions. Les GML et les générateurs d’images constituent un type de réseau neuronal.

    Hallucination

    Lorsqu’un système d’IA générative présente des informations fausses ou trompeuses comme vraies, telles que de fausses allégations, des sources inventées, des réponses à du contenu qui n’était pas dans la requête ou des images représentant des choses impossibles dans la réalité.

    Récupération augmentée de génération

    Un GML faisant référence à une base de connaissances faisant autorité, en dehors de ses données d’entraînement, avant de générer une réponse.

    IA explicable vs interprétable

    Une « IA explicable » peut fournir une explication raisonnable de la façon dont elle génère des sorties. Une IA est « interprétable » si un humain peut comprendre et expliquer comment elle fonctionne en interne.

    Avenirs

    Les futurs systèmes d’IA pourraient combiner différentes approches pour devenir plus fonctionnels et polyvalents. Les systèmes d’IA hybrides utilisent plus d’un type d’IA : par exemple, l’IA neurosymbolique combine la reconnaissance des formes des réseaux de neurones avec les règles interprétables par l’homme de l’IA symboliqueNote de fin de texte 221. À l’avenir, davantage de systèmes d’IA pourraient être composés de plusieurs systèmes avec des forces qui compenseraient les faiblesses des uns et des autres. Ces systèmes hybrides pourraient s’avérer plus performants, précis et très performants. Ils pourraient conduire au développement de tout nouveaux types d’IA.

    Boîte 4 :

    IA symbolique

    Une approche qui tente d’imiter le raisonnement humain, dans lequel la connaissance est représentée comme des symboles et manipulée conformément aux règles d’un système logique formel, comme la déduction et l’induction.

    Les systèmes d’IA pourraient s’avérer plus transparents et interprétables, les rendant ainsi moins biaisés. Une meilleure interprétabilité pourrait permettre aux développeuses et développeurs d’empêcher plus facilement un système d’IA décisionnel de prendre en compte à tort des facteurs, tels que la race. Par exemple, une banque pourrait montrer à sa clientèle pourquoi son système d’IA lui a refusé du crédit, lui permettant de demander un recours si – par exemple – elle estime que l’IA accorde trop d’importance à son code postal, lequel reflète qu’elle vit dans une zone multiculturelle de la ville. Cependant, il est peu probable que cette explication élimine complètement les biais (voir l’idée 4 et l’idée 5), d’autant plus que les biais peuvent être inhérents aux données.

    L’IA pourrait être moins susceptible d’halluciner, bien qu’elle ne soit aussi bonne que les données, la logique et la formation auxquelles elle a accès. Les modèles hybrides, avec la capacité de raisonner de différentes manières, pourraient halluciner moins et fournir une analyse de meilleure qualité. Par exemple, ils peuvent utiliser une RAG pour recueillir des informations en ligne, puis utiliser une IA symbolique pour évaluer si l’information est crédible ou une blague. Cependant, l’amélioration des capacités de raisonnement ne résoudra pas le problème sous-jacent d’un écosystème d’informations pollué (voir l’idée 1). Les futurs systèmes d’IA pourraient aborder ce problème en collectant plus de données directement via des capteurs. Ils pourraient également être assez intelligents pour reconnaître le défaut d’informations adéquates pour fournir une réponse précise.

    Implications

    • Une transparence accrue et une réduction des préjugés pourraient permettre à l’IA d’être utilisée dans des domaines où elle serait jugée inappropriée aujourd’hui, comme l’application de la loi ou les procédures judiciaires
    • Les outils d’IA pourraient permettre de recueillir plus rapidement et plus facilement des informations de haute qualité et d’effectuer des analyses, améliorant ainsi les processus décisionnels et la recherche
      • Les aides à la recherche en IA pourraient déstabiliser les emplois de premier échelon comme les assistantes et assistants de recherche, les analystes juniors ou encore les avocates et avocats juniors
      • L’analyse de l’IA serait probablement préférable lorsqu’elle était limitée à des sources fiables et de haute qualité, comme la documentation interne d’un organisme ou une base de données de revues académiques
    • Une analyse et un raisonnement de meilleure qualité pourraient accélérer l’adoption de l’IA parmi les organismes actuellement peu enclins à prendre des risques. Cela pourrait réduire le besoin de surveillance et de contrôle de la qualité, mais aussi diminuer la probabilité que des erreurs soient remarquées
      • Les hallucinations peuvent devenir moins évidentes, ce qui les rend plus difficiles à détecter
    • Même avec un meilleur raisonnement, des entrées fausses ou biaisées pourraient nuire aux performances et à la fiabilité de l’IA
      • L’IA pourrait encore répandre de la désinformation, lorsque l’argumentation et le raisonnement sont valides, mais que les hypothèses sont fausses
  • Idée 13 : Les agents d’IA pourraient agir en tant qu’assistants personnels avec un minimum d’orientation

    Format de rechange
    (format PDF, 5,0 Ko, 8 pages)

    Date publiée : 2025

    Cat. : PH4-223/2025F-PDF

    ISBN : 978-0-660-76908-0

    À l’avenir, les gens pourraient avoir un agent d’IA polyvalent, qui agit en tant qu’assistant personnel, capable d’effectuer des tâches en plusieurs étapes, et ce, en tout temps. Les répercussions pourraient comprendre un meilleur accès à l’automatisation des tâches, une meilleure productivité, la perturbation des modèles d’affaires basés sur la publicité et des préjudices imprévus.

    Aujourd’hui

    À l’heure actuelle, les assistants virtuels ont des fonctionnalités limitées. Des produits comme Siri ou Alexa ne peuvent effectuer que des tâches pour lesquelles ils ont été précisément programmés en réponse à des demandes soigneusement formulées. Bien qu’ils soient présentés comme ayant un large éventail de capacités, ils sont surtout utilisés pour demander des prévisions météorologiques ou de l’information sur les entreprises localesNote de fin de texte 222. Leur capacité à s’intégrer aux applications tierces dépend de l’intégration volontaire des développeurs de ces applications qui intègrent volontairement l’interface de programmation d’applications (API) des assistants, qui permet l’échange de données entre différents logicielsNote de fin de texte 223. Même lorsque les applications tierces et les assistants virtuels sont conçus pour fonctionner ensemble, les assistants ne peuvent souvent pas agir de manière totalement autonome. Par exemple, la personne qui utilise ChatGPT devra toujours intervenir pour acheter les articles lorsque ChatGPT permet à Instacart de créer une liste de courses après la planification d’un repas.

    Les agents d’IA sont en voie de devenir la prochaine génération d’assistants virtuels, capables d’action indépendante. Ces agents d’IANote de fin de texte 224 peuvent apprendre de leur environnement, et interagir avec celui-ci de différentes manières. Par exemple, des entreprises comme AppleNote de fin de texte 225 et OpenAINote de fin de texte 226 ont développé des modèles d’IA qui peuvent analyser et interagir avec des interfaces utilisateur graphiques. Cela permet aux développeurs d’applications de contourner la nécessité de les intégrer aux API (interface de programmation d’application), et permet plutôt au modèle d’IA d’interagir avec une application de la même manière qu’une personne le ferait. Par exemple, une personne pourrait demander à son appareil de les ramener à la maison et de commander de la pizza, et un agent d’IA pourrait ouvrir une application de covoiturage pour convoquer quelqu’un qui les ramènera à la maison, puis ouvrir une application de livraison de nourriture et passer une commande de pizza, le tout grâce à une seule demande et sans que le développeur de l’application ait explicitement activé de telles intégrations.

    Boîte 5 :

    Un agent d’IA est un programme d’IA qui peut recevoir un objectif d’un humain en langage naturel, puis, si nécessaire, se donner des sous-tâches pour atteindre cet objectif. Les sous-tâches pourraient comprendre une interaction avec Internet ou d’autres agents pour recueillir des données et les utiliser.

    Avenirs

    Les agents d’IA pourraient devenir plus courants et capables d’agir en tant qu’assistant personnel. Par exemple, l’utilisatrice ou l’utilisateur pourrait demander à son agent d’IA d’organiser un souper avec une amie ou un ami dans un certain restaurant. L’agent d’IA de l’utilisatrice ou l’utilisateur pourrait « communiquer » avec l’agent d’IA de la personne amie, comparer les horaires pour trouver des disponibilités, créer une entrée dans l’horaire, communiquer avec le restaurant pour faire une réservation, puis organiser le covoiturage pour aller chercher le groupe avant le souper. Les agents pourraient également recevoir des ordres permanents de la part d’une utilisatrice ou d’un utilisateur, comme remplir et retourner un formulaire de présence chaque fois qu’il est envoyé par la garderie de son enfant.

    Les agents d’IA pourraient rendre l’automatisation des tâches plus accessibles. Plutôt que d’exiger l’utilisation de logiciels spécialisés complexes ou intimidants ou la capacité d’écrire dans un langage de programmation, une personne pourrait simplement décrire ce qu’elle veut en utilisant un langage naturel et laisser l’agent travailler sur les aspects techniques de la mise en œuvre de la demande.

    Les agents d’IA pourraient rendre les robots conversationnels plus naturels et humains. Les robots conversationnels alimentés par des agents d’IA pourraient paraître davantage comme une personne avec des désirs, des préférences et la capacité de prendre des mesures autonomes, au lieu d’être un participant passif dans une conversation qui ne fait que répondre à une utilisatrice ou un utilisateur sans jamais amorcer une discussion ou la diriger. Par exemple, l’agent d’IA pourrait demander à l’utilisatrice ou à l’utilisateur, sans qu’on lui demande, si elle ou il souhaite jouer à un jeu vidéo tout en discutant. Interagir avec un robot conversationnel pourrait ne pas sembler différent de la façon dont on interagit avec ses amies ou amis en ligne. Cela pourrait brouiller les frontières entre un assistant alimenté par l’IA et une compagne ou un compagnon ou même une amie ou un ami (voir l’idée 10).

    Les agents d’IA pourraient transformer les entreprises et le milieu de travail. Les agents peuvent être utilisés pour automatiser des éléments du travail d’une employée ou d’un employé, comme la gestion des courriels et de l’horaire ou la prise de notes pendant une réunion. Par exemple, le « AI Teammate » (collègue alimenté par l’IA) de Google Workspace permet aux entreprises d’affecter un agent d’IA à une équipe qui peut surveiller les projets, fournir des mises à jour de statut, rédiger des documents et répondre aux questionsNote de fin de texte 227. Un agent plus sophistiqué pourrait générer des rapports et effectuer la liaison avec les clientes et les clients, ce qui aurait le potentiel d’automatiser des rôles entiers. À l’avenir, il ne sera peut-être pas rare de travailler avec des outils d’IA et de collaborer avec des collègues alimentés par l’IA. Les agents pourraient effectuer des tâches relatives au marketing, à la comptabilité et aux finances, effectuer la liaison avec les fournisseurs, remplir des déclarations de revenus et assurer la conformité réglementaire. Les agents d’IA avancés pourraient potentiellement gérer une entreprise entièrement par eux-mêmes, permettant au propriétaire de simplement profiter des recettes.

    Implications

    • Les agents d’IA pourraient améliorer l’accessibilité en aidant les gens à naviguer dans des systèmes complexes
      • Les agents d’IA pourraient améliorer les consultations gouvernementales et l’accès aux avantages en automatisant la participation
    • Les agents d’IA pourraient améliorer considérablement la productivité des membres du personnel en automatisant les tâches de bas niveau comme remplir des documents, gérer les courriels et les horaires et effectuer la liaison avec les clientes et les clients
      • Les agents d’IA pourraient déplacer les membres du personnel, en particulier ceux qui occupent des rôles de soutien ou d’intermédiaire, comme les vendeuses et vendeurs, les courtières et courtiers, les travailleuses et travailleurs sociaux ou les assistantes et assistants. Par conséquent, les gens pourraient travailler aux côtés d’agents d’IA qui agiraient en tant que collègues
      • Les agents d’IA puissants pourraient effectuer des tâches plus complexes, comme la gestion d’une entreprise
    • Certaines formes de publicité pourraient devenir moins efficaces pour les personnes si les assistants alimentés par l’IA sont en voit de remplacer les acheteuses et les acheteurs en ligne
      • Les publicistes pourraient se mettre à cibler directement les agents plutôt que les gens
      • Il pourrait être de plus en plus difficile pour les personnes détentrices de sites Web de s’assurer qu’une vraie personne accède à leurs services
    • À mesure que les agents d’IA prennent plus de mesures et de décisions, il pourrait devenir difficile de déterminer où, quand et pourquoi les erreurs commises par les agents d’IA se produisent et qui est responsable
      • Les assistants alimentés par l’IA pourraient entreprendre des actions non autorisées à l’insu de leur personne utilisatrice, par exemple, acheter un article indésirable. Ils pourraient ne pas agir alors qu’on s’y attendait. Ils pourraient également prendre une mauvaise mesure, par exemple, acheter des bandages au lieu d’appeler une ambulance
    • Les agents d’IA pourraient être utilisés pour automatiser la criminalité, la fraude ou le harcèlement
      • Les gens pourraient utiliser des « agents fictifs », comme des sociétés fictives, pour masquer le lieu de la propriété et de la responsabilité ultimes d’un agent d’IA dans une tentative d’éviter l’impôt, des sanctions ou de masquer des activités nuisibles ou illégales. Par exemple, une personne qui vend de la drogue sur le Web caché pourrait utiliser une série d’agents intermédiaires pour cacher son lien avec l’agent d’IA qui exécute l’opération
    • Les agents d’IA pourraient forcer l’intégration entre des logiciels qui, à la base, ne vont pas ensemble. Par exemple, un agent pourrait forcer une application de rappel sur un Mac à se synchroniser avec une application de rappel différente sur un téléphone Android
      • Cela pourrait potentiellement augmenter la concurrence entre les logiciels, car les développeurs ne seraient plus en mesure de limiter artificiellement ce à quoi leurs logiciels peuvent s’intégrer
      • Les agents d’IA pourraient rendre plus difficile pour les développeurs de contrôler l’expérience utilisateur de leurs logiciels et d’empêcher toute utilisation malveillante
    • De nouvelles normes sociales pourraient émerger à l’égard des circonstances où il serait considéré comme acceptable de déléguer des communications à un agent d’IA, et celles dans le cadre desquelles les gens s’attendraient toujours à interagir directement avec une autre personne

    Vignette

    Anju s’assoit, prend sa première gorgée de café et ouvre son ordinateur portable de travail. Elle possède cet ordinateur portable depuis un mois, et il brille toujours tel un ordinateur neuf. Son ancien ordinateur portable fonctionnait très bien, mais l’entreprise pour laquelle elle travaille a décidé de lui fournir un modèle haut de gamme avec un nouveau processeur sophistiqué qui peut exploiter un assistant alimenté par l’IA. L’avatar de l’assistant s’affiche à l’écran et salue Anju d’un signe de la main.

    « Bonjour, Artemis », dit Anju. « Quoi de neuf? »

    « Bonjour, Anju. Depuis que vous vous êtes déconnecté hier, vous avez reçu 7 courriels. Cinq étaient des courriels routiniers, et j’y ai répondu pour vous. »

    Un aperçu des courriels s’affiche à l’écran. Où ce fichier est-il stocké? Mise à jour sur l’état d’avancement du rapport. Reporter l’appel avec la cliente. Anju sourit. Elle se remémore à quel point elle détestait passer du temps sur des courriels routiniers comme ceux-ci. Elle se sent comme si elle occupait un poste de cadre, et que quelqu’un d’autre était responsable de les gérer pour elle.

    « Un courriel contenait un bulletin d’information », poursuit Artemis. « Je vais le résumer dans le cadre de notre mise à jour de l’après-midi. Le dernier était de la part de Jiafei, qui demandait des commentaires sur le plan de lancement du produit. J’ai préparé une ébauche de réponse que vous pourrez modifier. »

    Anju survole l’ébauche et hoche de la tête. « Super, j’y reviendrai plus tard. Pouvez-vous planifier une réunion avec Magnus, Chris et Anastasia? J’ai eu une idée hier soir pour le Xerxes Expo. Demandez aussi à Anatasia si elle veut m’accompagner pour le dîner aujourd’hui. »

    « Bien sûr », répond Artemis. « Si elle est disponible, devrais-je réserver à l’endroit habituel? »

    Anju regarde par la fenêtre et soupire. Elle aime le fait que sa vie professionnelle soit devenue plus facile et plus productive. Mais elle se sent aussi étrangement coupable à ce sujet. Elle sait qu’Artemis sera en mesure de l’aider à exprimer ses sentiments. Elle prend en note mentalement d’évoquer le sujet plus tard.

  • Idée 14 : L’IA et les évaluations

    Format de rechange
    (format PDF, 5,4 Ko, 7 pages)

    Date publiée : 2025

    Cat. : PH4-224/2025F-PDF

    ISBN : 978-0-660-76922-6

    L’IA perturbe les processus d’évaluation établis, comme la présélection des emplois, l’évaluation des demandes de subvention, l’examen par les pairs et la notation. Les processus de sélection pourraient connaître une augmentation importante du nombre de candidatures, et de nouvelles formes d’évaluation pourraient voir le jour, dont certaines mettraient moins l’accent sur le travail écrit comme mesure de la compétence.

    Aujourd’hui

    Les applications générées par l’IA inondent les institutions, qui, à leur tour, se tournent vers l’IA afin d’effectuer des évaluations. Plus de la moitié des étudiantes et étudiants de premier cycle du Royaume-Uni ont indiqué utiliser l’IA pour aider à la rédaction d’essaisNote de fin de texte 228. De même, près de la moitié de tous les chercheuses et chercheurs d’emploi d’aujourd’hui utilisent des outils d’IA pour améliorer leur curriculum vitaeNote de fin de texte 229. Une enquête menée auprès de scientifiques a révélé que près de 30 % avaient utilisé l’IA générative afin de rédiger leurs articles scientifiquesNote de fin de texte 230. En outre, un sixième des chercheurs et chercheuses ont indiqué avoir utilisé l’IA générative pour l’aider à rédiger des demandes de subventionNote de fin de texte 231. Alors que les employeuses et employeurs et les organismes subventionnaires sont inondés de volumes élevés de demandes générées par l’IA, il est devenu de plus en plus courant pour ces derniers d’utiliser des outils d’IA pour sélectionner, recruter et gérer les membres du personnel et les bénéficiaires potentiels, et ce, malgré les préoccupations soulevées par les travailleurs et travailleuses, les syndicats et les groupes de défense des droits des membres du personnelNote de fin de texte 232Note de fin de texte 233Note de fin de texte 234Note de fin de texte 235Note de fin de texte 236Note de fin de texte 237.

    L’utilisation généralisée de l’IA générative pour écrire des demandes perturbe les processus d’évaluation dans divers domaines. L’utilisation de l’IA par les candidatures met à rude épreuve les processus d’évaluation existants fondés sur l’hypothèse que les communications écrites sont une représentation exacte de la compétence d’une personne. L’écriture générée par l’IA dans le cadre du travail des étudiantes et étudiants est difficile à détecter, ce qui conduit à des questions sur la façon de noter et d’évaluer leurs apprentissages. Les éditeurs universitaires ont exprimé des préoccupations quant à la façon dont les articles écrits par l’IA soumis à l’examen par les pairs sont susceptibles de miner l’intégrité scientifiqueNote de fin de texte 238. Les employeurs et employeuses se demandent dans quelle mesure une demande d’emploi peut continuer d’être utilisée comme indicateur de la compétence d’une candidature ou de son aptitude à un rôle donné. Dans une variété de domaines, bon nombre des méthodes et des outils modernes utilisés pour évaluer les personnes et leurs capacités, comme les tests d’écriture à emporter à la maison, peuvent ne plus être utiles.

    Les institutions sont divisées sur la façon de gérer cette perturbation. La revue Science, à l’instar d’autres organisations, a interdit la soumission de contenu généré par l’IA, ainsi que l’utilisation de l’IA pour évaluer les soumissionsNote de fin de texte 239Note de fin de texte 240. D’autres organisations ont rejeté les interdictions comme étant peu pratiques et en fin de compte inapplicables, et ce, en grande partie parce que la technologie actuelle de détection de l’IA n’est pas assez efficace et donc peu utileNote de fin de texte 241Note de fin de texte 242Note de fin de texte 243. Bien que les organismes subventionnaires aient communiqué des avertissements portant sur l’utilisation de l’IA dans les demandes de subvention, les chercheuses et chercheurs voient les avantages de l’utilisation de l’IA pour aider à rédiger des propositionsNote de fin de texte 244Note de fin de texte 245. Certains bailleurs de fonds se demandent si l’IA pourrait aider à corriger les iniquités relatives à « l’effet boule de neige » noté, où les personnes bénéficiaires de subventions ont tendance à avoir un avantage dans l’obtention de financement futurNote de fin de texte 246. Les universités ont largement laissé le problème de ce à quoi l’évaluation des étudiants et étudiantes devrait ressembler à l’ère de l’IA aux personnes membres du corps professoral. L’absence d’une réponse coordonnée a incité des professeures et professeurs à demander une pause d’un an dans les évaluations des étudiants et étudiantes, et ce, afin de déterminer une voie viable à suivreNote de fin de texte 247. Certaines universités sont revenues à des méthodes de test dites « à l’ancienne », où les examens écrits supervisés constituent la majorité de la note. Cette approche est remise en question par les professeures et professeurs qui notent que ces méthodes ont été abandonnées parce qu’elles n’ont pas réussi à évaluer les compétences importantes pour les contextes sociaux et de travail modernes, comme la collaboration, le travail d’équipe et la communicationNote de fin de texte 248.

    Avenirs

    Les évaluations pourraient évoluer afin de résoudre les problèmes posés par les personnes qui font passer le contenu généré par l’IA pour le leur. L’importance du travail écrit en tant qu’objet d’évaluation valide pourrait diminuer, et ce, par rapport à d’autres facteurs comme les évaluations de moralité en personne, le travail de groupe, les examens techniques supervisés ou les références professionnelles. Les futurs processus de demande pourraient devenir plus rigoureux, holistiques, en personne ou même en temps réel. Les évaluations pourraient également commencer à vérifier la capacité d’une personne à utiliser l’IA de manière efficace et appropriée afin de soutenir le rôle en question.

    L’utilisation de l’IA pour la sélection, le tri et la prise de décisions pourrait également augmenter en raison d’un volume élevé de demandes d’emploi et de subvention. Les décisionnaires humains pourraient jouer un moins grand rôle dans les décisions en matière d’évaluation, de notation et de financement, ou jouer un rôle plus spécifique à certains moments du processus d’évaluationNote de fin de texte 249. L’IA pourrait être utilisée de manière stratégique à certains stades des processus de notation ou d’évaluation pour atténuer les préjugés humains, par exemple en repérant rapidement des candidatures à un emploi qui possèdent des compétences pertinentes, mais qui peuvent ne pas avoir de certifications formellesNote de fin de texte 250Note de fin de texte 251. Ces types d’utilisations pourraient également perpétuer ou exacerber les préjugés humains existants s’ils sont programmés dans des systèmes d’IA, soit par inadvertance ou encore en fonction de leur conception.

    Des questions pourraient continuer d’être soulevées au sujet de la prétendue objectivité et de la neutralité de l’IA dans le cadre des processus de sélection. Des appels accrus à la surveillance et à la transparence, associés à de nouvelles formes de surveillance des décisions médiatisées par l’IA, pourraient se généraliser si l’IA commence à jouer un rôle plus central en tant que gardien dans les processus de sélectionNote de fin de texte 252.

    Si l’IA perturbe réellement l’évaluation, elle pourrait inciter à la recherche d’une nouvelle voie à suivre. Bien que les processus de hiérarchisation et de classement soient essentiels au fonctionnement des établissements d’enseignement modernes, ils ont également tendance à perpétuer des formes néfastes d’exclusionNote de fin de texte 253. Bien que les dernières décennies aient vu des efforts pour ajuster les évaluations afin de tenir compte des préjugés humains – évaluations aveugles, action positive ou virage vers la diversité et l’inclusion, par exemple – la discrimination demeure un réel problème dans l’embauche. Au Canada, les curriculums vitae de personnes avec des noms à consonance anglophone sont encore 35 % plus susceptibles de recevoir des rappels que les personnes avec des noms indiens ou chinoisNote de fin de texte 254. Si un plus grand nombre de candidatures utilisant l’IA rend les formes d’évaluation établies intenables, de nouvelles façons d’évaluer la compétence actuelle d’une personne ou encore son potentiel de réussite future peuvent commencer à émerger.

    Implications

    • Les candidatures pourraient utiliser l’IA pour créer des preuves fabriquées de compétence ou d’expertise comme de faux sites Web, des articles universitaires ou encore des témoignages
    • Un grand nombre de demandes traitées à l’aide de l’IA générative pourrait nuire aux processus de sélection d’emplois qui reposent fortement sur des questions normalisées auxquelles les modèles génératifs sont efficaces pour répondre
    • Submergés par de grands volumes de demandes difficiles à différencier, les évaluatrices et évaluateurs pourraient se tourner davantage vers des compétences transférables, des tests, des évaluations approfondies des caractéristiques, des entrevues en personne, de solides références personnelles et des réseaux personnels pour déterminer les meilleures candidatures
      • Cela pourrait exacerber les formes déjà existantes de népotisme et d’homogénéité dans les milieux de travail et les sources de financement. Cela pourrait continuer de désavantager certaines personnes, comme celles qui sont neurodivergentes ou encore celles qui n’ont pas de réseaux sociaux ou professionnels solides
    • Les personnes qui sont qualifiées dans l’utilisation de l’IA pour générer du travail tout en ayant une base de connaissances suffisamment solide pour déterminer les erreurs seront les plus concurrentielles
      • Celles qui dépendent fortement de l’IA pourraient être désavantagées par les changements apportés aux processus d’évaluation ou d’évaluation, comme des outils efficaces de détection de l’IA ou des exigences selon lesquelles le contenu écrit est produit par des personnesNote de fin de texte 255
      • Si un plus grand nombre de personnes qui présentent une demande utilisent l’IA et produisent davantage demandes à consonance générique qui se ressemblent, il pourrait alors devenir difficile de les évaluer
    • Les outils de sélection de l’IA pourraient être plus précisément des programmes pour faire émerger des candidatures plus diversifiées ou encore des caractéristiques de personnes talentueuses précédemment négligées, contribuant ainsi à des établissements universitaires et à des milieux de travail plus inclusifs et diversifiés
      • Cela pourrait présenter de nouvelles possibilités pour les personnes en situation de handicap, les personnes neurodivergentes et les personnes dont l’anglais est la langue secondeNote de fin de texte 256
    • L’adoption accrue de systèmes qui font appel à l’IA pour évaluer les étudiantes et étudiants ou les candidatures pourrait créer des défis juridiques et éthiques qui exerceraient une pression accrue sur les établissements pour qu’ils démontrent comment les systèmes qui font appel à l’IA sont équitables ou transparents
    • Sans l’application d’une approche cohérente à l’utilisation de l’IA générative par les étudiantes et étudiants, il peut devenir difficile ou impossible de comparer les évaluations ou les notes entre les établissements ou entre les administrations, ce qui remet en question les processus d’admission à l’université, entre autres choses
      • Si les notes de niveau universitaire cessent d’être une représentation exacte des capacités des étudiantes et étudiants, la valeur réelle d’un diplôme pourrait également être difficile à déterminer
  • Idée 15 : L’IA et les neurotechnologies

    Format de rechange
    (format PDF, 6,0 Ko, 9 pages)

    Date publiée : 2025

    Cat. : PH4-225/2025F-PDF

    ISBN : 978-0-660-76924-0

    Les neurotechnologies alimentées par l’intelligence artificielle (IA) permettent aux personnes de surveiller et de manipuler les activités de leur cerveau et de leur système nerveux. D’autres développements pourraient apporter des progrès majeurs en matière de santé et de bien-être, mais aussi soulever d’importantes préoccupations en matière de protection de la vie privée, d’éthique ou encore de droit social.

    Aujourd’hui

    Les neurotechnologies ont progressé rapidement grâce à l’IA. Les neurotechnologies font référence à toute technologie qui donne un aperçu de l’activité du cerveau ou du système nerveux ou qui a une incidence sur leur fonctionnement. La capacité de l’IA à traiter de grandes quantités de données, à analyser des signaux neuronaux complexes et à trouver des modèles dans l’activité cérébrale a contribué à développer à la fois de nouveaux dispositifs externes et des dispositifs internesNote de fin de texte 257. Par exemple, l’IA générative entraînée sur les ondes cérébrales peut grossièrement reconstruire du texte, des images ou du son en fonction de ce qu’une personne penseNote de fin de texte 258Note de fin de texte 259Note de fin de texte 260. L’IA peut également constituer un intermédiaire entre le système nerveux humain et les dispositifs connectés comme les neuroprothèses. Par exemple, l’IA rend les jambes neuroprothétiques plus robustes et utilisables, offrant ainsi une démarche plus naturelle, plus rapide et moins propices aux erreursNote de fin de texte 261.

    Boîte 6 :

    La neurotechnologie consiste à connecter les dispositifs directement au système nerveux. Ils peuvent soit lire les signaux électriques du cerveau, soit encore le manipuler au moyen de la stimulation.

    Boîte 7 :

    Un dispositif interne est implanté chirurgicalement directement sur le système nerveux. Un dispositif externe interagit avec le système nerveux de l’extérieur du corps. Les dispositifs externes sont moins invasifs, mais les dispositifs internes sont plus performants.

    Les dispositifs neurotechniques les plus puissants sont internes et se limitent principalement à des fins médicales ou encore de recherche. Bon nombre des applications les plus impressionnantes et les plus avant-gardistes des neurotechnologies nécessitent un dispositif interne. Par exemple, les personnes atteintes de déficiences motrices graves utilisent des interfaces cerveau-machine (ICM) – qui peuvent déduire de l’activité cérébrale le désir de changer, de bouger ou d’interagir avec quelque choseNote de fin de texte 262 – pour communiquer et contrôler des dispositifsNote de fin de texte 263. Les ICM sont également utilisées pour restaurer la fonction motrice chez les personnes atteintes de paralysieNote de fin de texte 264. Les implants cérébraux expérimentaux qui fournissent une stimulation lorsqu’ils détectent des schémas de pensée nocifs peuvent être utiles dans le cadre du traitement de la dépressionNote de fin de texte 265. Ces dispositifs internes sont coûteux et nécessitent une intervention chirurgicale, ce qui a jusqu’à présent limité leur développement commercial et leur adoption au-delà des domaines de la médecine et de la recherche.

    Malgré certaines préoccupations, le marché grand public des dispositifs neurotechniques externes est en pleine croissance. Les dispositifs grand public sont généralement des bandeaux ou des écouteurs dotés d’électroencéphalographes (EEG) qui peuvent surveiller et stimuler le cerveau en appliquant un courant électrique de bas niveau. En tant que dispositifs externes, ils sont toutefois nettement moins puissants que leurs homologues médicaux. Ces dispositifs sont couramment commercialisés en tant que dispositifs de bien-être, de remise en forme, ou d’éducation qui prétendent améliorer la concentration, l’apprentissage, le sommeil, la méditation, ou la performance athlétiqueNote de fin de texte 266Note de fin de texte 267Note de fin de texte 268. Les préoccupations comprennent le manque de réglementation; les données probantes limitées au sujet de leur efficacité, avec des recherches suggérant un effet placebo; et les effets possibles à long terme sur la santé et les cognitifs. La discrimination constitue également un enjeu, compte tenu des facteurs de revenu et aussi de facilité d’utilisation, puisque de 15 % à 30 % des utilisateurs d’ICM sont des non-répondeurs; ce sont donc des personnes qui ne peuvent pas contrôler un ICM avec précisionNote de fin de texte 269Note de fin de texte 270. La vie privée peut également être une préoccupation : par exemple, en 2018, certains travailleurs militaires et d’usine chinois ont reçu des chapeaux et des casques parrainés par le gouvernement pour surveiller leurs ondes cérébrales pour la fatigue et les changements soudains de l’état émotionnelNote de fin de texte 271Note de fin de texte 272. Malgré ces enjeux, le marché devrait presque doubler, passant de 13,47 milliards de dollars américains dans le monde en 2023 à 25,66 milliards de dollars américains d’ici 2028Note de fin de texte 273.

    Les derniers dispositifs grand public ont plus de capacités, créant ainsi de nouveaux cas d’utilisation. Par exemple, en 2024, Meta a dévoilé des prototypes de lunettes de réalité augmentée (RA) avec un « bracelet neural » doté d’un électromyographe (EMG) qui peut interpréter les signaux des nerfs moteurs associés aux gestes de la main, permettant ainsi un contrôle discret des interfaces de RA grâce à des mouvements subtils des doigtsNote de fin de texte 274. Meta a l’intention de vendre le bracelet en tant que dispositif autonome, et ce, dès 2025Note de fin de texte 275. La prochaine version du dispositif portable d’Empatica – qui informe actuellement les personnes soignantes lorsqu’une personne a eu une crise – vise à utiliser l’IA afin de prédire une crise avant qu’elle ne se produiseNote de fin de texte 276.

    Avenirs

    Les neurotechnologies pourraient devenir beaucoup plus répandues et accessibles. À mesure que l’IA et les connaissances scientifiques du cerveau s’améliorent, les dispositifs externes destinés aux consommateurs pourraient devenir davantage en mesure de faire ce que les implants médicaux peuvent faire aujourd’hui. Par exemple, des dispositifs qui permettent de passer de la pensée au texte commercialement viables et non invasifs pourraient être présents sur le marché au cours des 10 prochaines annéesNote de fin de texte 277. Les EEG et les EMG pourraient être intégrés dans le cadre de dispositifs portables comme les montres intelligentes, les moniteurs d’activité physique et les écouteurs, ce qui rend les capacités en matière de neurotechnologies relatives au rendement cognitif ou physique aussi courantes que les capteurs de fréquence cardiaque. Au fur et à mesure que les implants comme les ICM affichent un plus haut rendement, les personnes en bonne santé pourraient décider que les avantages de l’amélioration ou du divertissement qu’ils offrent valent les risques de la chirurgieNote de fin de texte 278.

    Les neurotechnologies revêtent un vaste potentiel pour révolutionner les soins de santé. Les neurotechnologies sont bien placées pour cibler bon nombre des principales causes d’incapacitéNote de fin de texte 279. Les neuroprothèses et les ICM pourraient améliorer la qualité de vie des personnes ayant une incapacité physique. La douleur chronique pourrait être traitée non pas au moyen d’opioïdes, mais plutôt par des neuromodulateurs, qui modifient l’activité nerveuse par le stimulus ciblé des sites neurologiques particuliersNote de fin de texte 280. La surveillance du cerveau pourrait permettre la détection et le traitement précoces des maladies neurodégénératives comme la démence. Les dispositifs neurotechnologiques pourraient traiter des conditions courantes et débilitantes comme la dépression et l’anxiétéNote de fin de texte 281. La surveillance de l’humeur alimentée au moyen de l’IA pourrait devenir courante, offrant un soutien continu en matière de santé mentale.

    Les neurotechnologies alimentées par l’IA pourraient soulever de plus en plus de préoccupations au sujet des droits cognitifs ou de la vie privée. Des neurotechnologies qui affichent un plus haut rendement et qui permettent d’accéder aux pensées et aux souvenirs des personnes – et de les influencer – donnent lieu à d’immenses risques potentiels de préjudice en raison d’une mauvaise utilisation. Les dispositifs neurotechnologiques grand public qui utilisent Bluetooth ou encore qui se connectent au nuage pourraient créer des occasions pour que des données sensibles sur l’activité cérébrale soient recueillies, analysées ou vendues à des tiers, à l’insu ou non de l’utilisateur. Le « détournement de cerveau », ou la prise de contrôle malveillante d’implants cérébraux, pourraient émerger comme un risqueNote de fin de texte 282. Au fur et à mesure que les neurotechnologies se développent, qu’elles sont plus répandues et plus accessibles, il est probable qu’elles fassent l’objet d’un examen plus approfondi. Les personnes peuvent de plus en plus exiger des droits à la « liberté cognitive » et à la « vie privée mentale »Note de fin de texte 283Note de fin de texte 284. D’autres pays pourraient même suivre l’exemple du Chili en intégrant les « droits neurologiques » dans le cadre de leur constitutionNote de fin de texte 285.

    Implications

    • Les neurotechnologies pourraient de plus en plus être utilisées pour lire les pensées des personnes ou encore anticiper leurs mouvements en temps réel
      • Cela pourrait entraîner une adoption accrue d’utilisations comme la prévision de la fatigue du conducteur ou de l’opérateur afin de prévenir les accidents
      • Cependant, cela pourrait également être utilisé dans des contextes plus lourds sur le plan éthique, comme le maintien de l’ordre, l’armée ou la surveillance des travailleurs
    • Les interfaces neurotechnologiques pourraient conduire à la violation de la vie privée de la pensée des personnes, que ce soit par les familles et les amis, les entreprises privées ou les gouvernements
      • Des piratages de données neurologiques pourraient causer de nouveaux dommages psychologiques et physiologiques
    • La cognition augmentée pourrait améliorer la capacité des personnes à apprendre à l’école ou encore à afficher un meilleur rendement au travail
      • Si l’accès aux technologies qui permettent la cognition augmentée est déterminé par la richesse, cela pourrait exacerber les inégalités sociales et économiques
      • L’utilisation généralisée de la cognition augmentée pourrait entraîner plus de stress et d’épuisement professionnel à l’école et au travail
      • Si les dispositifs qui permettent la cognition augmentée ne sont toujours pas réglementés, il peut être difficile d’évaluer leur efficacité, leur potentiel de discrimination ou leur innocuité
    • Les neurotechnologies pourraient améliorer l’accessibilité pour les personnes ayant des handicaps physiques ou encore des déficiences cognitives
    • De nouveaux systèmes neurotechnologiques pourraient émerger pour traiter des conditions comme la dépression
    • Les neurotechnologies intégrées dans les moniteurs d’activité physique et les écouteurs pourraient faciliter la prédiction et la prévention des affections cérébrales comme les anévrismes, la maladie d’Alzheimer et la démence
      • À mesure que les dispositifs deviennent meilleurs dans la détection des enjeux de santé émergents, les systèmes de santé qui ont du mal avec les soins préventifs pourraient être soumis à une pression accrue
    • Les pays qui soutiennent la recherche et le développement dans les neurotechnologies pourraient tirer des avantages économiques et scientifiques de sa croissance rapide
  • Idée 16 : L’IA pourrait accélérer le développement et le déploiement de robots

    Format de rechange
    (format PDF, 5,4 Ko, 5 pages)

    Date publiée : 2025

    Cat. : PH4-226/2025F-PDF

    ISBN : 978-0-660-76926-4

    L’amélioration de l’intelligence artificielle (IA) et la baisse des coûts permettent aux « robots de service » de proliférer en dehors des contextes industriels. Les entreprises d’IA développent des robots humanoïdes possédant un large éventail de capacités cognitives et physiques, ce qui entraîne des changements tant pour les emplois de bureau que les emplois d’ouvriers.

    Aujourd’hui

    Les robots sont monnaie courante dans l’industrie depuis des décennies. Les robots industriels sont utilisés au Canada depuis le début des années 1960, principalement dans le secteur de la fabrication automobileNote de fin de texte 286. Ils excellent dans les tâches répétitives qui nécessitent une précision dans des environnements hautement contrôlés. Pour cette raison, les technologues ont lutté pendant des décennies pour développer des robots adaptés au monde humain dynamique et chaotique qui existe en dehors des contextes industriels, où l’adaptabilité est plus importante que la précision.

    Au cours des 15 dernières années, les robots alimentés par l’IA ont proliféré en dehors des milieux industriels. Les progrès réalisés dans des domaines comme la vision par ordinateur et l’apprentissage automatique ont amélioré la perception spatiale des robots ainsi que leur capacité à reconnaître et à négocier les changements survenant dans leur environnement. Les ventes de robots de serviceNote de fin de texte 287 ont dépassé celles des robots industriels. En 2024, le marché des robots de service au Canada était évalué à 1,12 milliard de dollars américainsNote de fin de texte 288, soit plus de 8 fois la taille du marché des robots industriels de 137,7 millions de dollars américainsNote de fin de texte 289. Le secteur de la logistique stimule la demande de robots de service. Par exemple, Amazon a commencé à déployer des robots dans ses entrepôts en 2012Note de fin de texte 290; en 2019, l’entreprise comptait plus de 200 000 robotsNote de fin de texte 291; et depuis 2024, elle en compte plus de 750 000 – un tiers de la main-d’œuvre d’AmazonNote de fin de texte 292.

    Boîte 8 :

    Les robots industriels sont utilisés dans la confection de produits industriels ou agricoles. Les robots de service sont utilisés pour effectuer des tâches ou des services pour les humains. Un robot à bras articulé pourrait être considéré comme un robot industriel s’il boulonne des vis à une voiture, ou un robot de service s’il fait du café dans un bar à café.

    Les robots deviennent moins chers en tant que source de main-d’œuvre. Les robots de service font de plus en plus concurrence au travail humain pour certaines entreprises. Les robots serveur, par exemple, peuvent être achetés pour aussi peu que 10 000 dollars américains ou loués pour aussi peu que 750 dollars américains par moisNote de fin de texte 293. Le robot de nettoyage de salle de bain autonome de Somatic travaillera 40 heures par semaine pour 1 000 dollars américains par mois, soit l’équivalent à un salaire horaire de 5,68 $, ce qui a pour effet de sous-coter le salaire minimum fédéral aux États-Unis, fixé à 7,25 dollars américains par heureNote de fin de texte 294.

    Les entreprises d’IA s’associent à des entreprises de robotique pour développer des robots humanoïdes polyvalents. Des entreprises comme TeslaNote de fin de texte 295, NvidiaNote de fin de texte 296 et OpenAINote de fin de texte 297 essaient de créer un robot aussi flexible qu’un travailleur humain, étant capable d’utiliser des outils, d’apprendre rapidement et de s’adapter à de nouvelles tâches et à de nouveaux rôles. En plus d’ajouter les grands modèles de langage aux robots pour leur donner des compétences de conversation plus naturelles, les entreprises créent de nouveaux types de modèles d’IA pour aider les robots humanoïdes à apprendre à partir du texte, des vidéos et des démonstrations. Ces modèles d’IA peuvent apprendre sans matériel dans des environnements virtuels grâce à une simulation physiqueNote de fin de texte 298. Alors que la plupart des robots humanoïdes sont encore en développement, la société chinoise Unitree se prépare à produire en masse son robot humanoïde G1 au coût de 16 000 dollars américainsNote de fin de texte 299.

    Avenirs

    Les robots pourraient être plus courants dans la vie quotidienne, y compris dans les espaces publics. Grâce à l’amélioration des capteurs, de l’IA et de la formation, les robots pourraient devenir plus adaptables et plus aptes à naviguer dans des espaces dynamiques. Dotés de meilleures capacités de raisonnement et de langage, ils pourraient interagir de manière plus naturelle et plus humaine. Par exemple, enseigner une nouvelle tâche à un robot à usage général pourrait être aussi simple que d’expliquer et de démontrer, comme à une autre personne.

    Les robots pourraient être plus compétitifs sur le plan économique avec le travail humain. À mesure que les robots deviennent plus performants et moins chers à fabriquer, de plus en plus d’entreprises peuvent constater que le recours à un robot est moins coûteux que l’emploi d’un humain. Les emplois qui impliquent des tâches répétitives et routinières, mais une intervention humaine minimale, comme un concierge, pourraient être les plus vulnérables. Les secteurs qui étaient auparavant résistants à l’automatisation, comme les services, pourraient voir davantage de robots. Par exemple, les rôles de service à la clientèle – où une expérience sociale positive est importante pour l’entreprise, comme une réceptionniste d’hôtel – soient plus susceptibles d’être soutenus par des robots plutôt que remplacés par euxNote de fin de texte 300.

    L’intégration de l’IA dans les robots pourrait conduire à des améliorations dans d’autres domaines de l’IA. En interagissant avec le monde à travers un corps et en apprenant à partir des données recueillies, les futurs modèles d’IA pourraient avoir une compréhension du monde plus intuitive et plus proche de celle des humains. Cela pourrait profiter aux types d’IA non incarnés. Par exemple, l’application de ce qu’une IA incarnée a appris grâce à son expérience du monde pourrait lui permettre de générer des vidéos avec des mouvements plus naturels, un meilleur éclairage et de meilleures réflexions, et moins de d’imperfections visuels.

    Implications

    • Les robots dirigés par l’IA pourraient rendre vulnérables à l’automatisation davantage de types de travail dans le secteur des services. L’automatisation pourrait s’étendre au-delà du travail de nature cognitive, lorsque les robots effectuant des tâches qui nécessitent une combinaison de travail physique et analytique deviendront compétitifs sur le plan économique
    • Les grandes entreprises ou les particuliers pourraient accumuler des robots à louer, de la même manière que les agences de travail temporaire emploient des personnes. Bien que cela puisse rendre les robots plus facilement accessibles aux personnes et aux entreprises, la majorité de la valeur créée serait probablement acquise par les propriétaires des robots
    • Les robots pourraient fonctionner dans des conditions dangereuses pour les travailleurs humains, telles que la chaleur extrême ou les situations d’urgence. Ils pourraient aider à remédier aux pénuries de main-d’œuvre persistantes dans certains secteurs et régions
    • Les robots développés en vue d’effectuer des tâches essentielles en cas d’urgence pourraient générer des innovations commerciales et opérationnelles, entraînant ainsi une réduction de la main-d’œuvre humaine au-delà des moments de crise
    • Les qualités qui ne peuvent pas être reproduites par un robot pourraient être très convoitées par les employeurs, comme de solides compétences sociales et l’établissement de liens humains
    • Les gens pourraient s’attacher aux robots. Les gens pourraient développer des amitiés ou potentiellement des relations intimes avec des robots
  • Idée 17 : L’IA pourrait avoir des répercussions inattendues sur la productivité

    Format de rechange
    (format PDF, 4,6 Ko, 10 pages)

    Date publiée : 2025

    Cat. : PH4-227/2025F-PDF

    ISBN : 978-0-660-78229-4

    Bien que l’on s’attende à ce que l’IA améliore considérablement la productivité, l’augmentation de la productivité pourrait être limitée par un manque d’uniformité dans l’adoption de cette technologie, notamment par les professionnels et les petites et moyennes entreprises, par des coûts imprévus découlant de l’adoption hâtive ou prématurée de l’IA et par des inquiétudes que suscitent les conditions de travail. Le changement des conditions de travail pourrait freiner l’adoption de l’IA.

    Aujourd’hui

    Les retombées positives de l’IA sur la productivité profitent aux cols blancs. Comme les outils d’IA sont particulièrement efficaces dans des tâches comme la rédaction et la recherche d’information, ce sont des domaines qui nécessitent des efforts cognitifs qui sont les plus susceptibles de connaître une augmentation de la productivitéNote de fin de texte 301. Les domaines en question comprennent des emplois de col blanc comme le service à la clientèle et le développement de logicielsNote de fin de texte 302Note de fin de texte 303Note de fin de texte 304. L’adoption de l’IA est réduite dans les emplois où le travail manuel occupe une place importante, comme les métiers. Il est peu probable que l’on assiste à une augmentation de la productivité grâce à l’IA dans ces emplois sans de nouvelles avancées dans le domaine de la robotique (voir l’idée 16). L’IA est toutefois utile dans des tâches comme la gestion de la clientèle et la préparation de facturesNote de fin de texte 305.

    Les entreprises canadiennes adoptent l’IA au ralenti. Seulement 6 % des entreprises canadiennes avaient recours à l’IA en 2023 et 2024Note de fin de texte 306. Selon les entreprises qui ne se servaient pas de l’IA, la technologie ne s’appliquait pas à leurs activités, coûtait trop cher, n’avait pas atteint le stade de développement voulu ou encore suscitait des préoccupations sur les plans de la protection des renseignements personnels et de la sécuritéNote de fin de texte 307. Les grandes sociétés ont davantage tendance à adopter l’IA. Il se pourrait donc que l’adoption plutôt lente de l’IA au Canada s’explique par la prépondérance des PME dans l’économie canadienne, qui emploient 64 % de la main-d’œuvre du secteur privé, comparativement à 46 % aux États-UnisNote de fin de texte 308, Note de fin de texte 309, Note de fin de texte 310. Les PME canadiennes ont souvent de la difficulté à trouver les capitaux nécessaires et ont tendance à être moins productives et innovatrices que les PME d’autres paysNote de fin de texte 311. Selon la Banque du Canada, le Canada éprouve également des problèmes de productivité. En effet, la productivité n’a pas augmenté dans les dernières années, et le Canada a affiché la deuxième pire croissance de productivité du travail parmi le G7Note de fin de texte 312, Note de fin de texte 313, Note de fin de texte 314.

    Boîte 9 :

    Productivité du travail

    La productivité du travail est une mesure de la productivité économique que l’on obtient en divisant le produit intérieur brut (PIB) par le nombre d’heures travaillées.

    L’IA ne peut améliorer la productivité du travail que si elle convient aux tâches concernées. Selon un sondage réalisé à l’échelle mondiale, presque tous les cadres supérieurs s’attendent à ce que l’IA stimule la productivité, mais la moitié des membres du personnel disent ne pas savoir comment réaliser les gains de productivité escomptés, et 40 % trouvent que leur entreprise leur en demande tropNote de fin de texte 315. Cela pourrait être attribuable à des idées fausses à propos des capacités actuelles de l’IA : lorsqu’on demande à des membres du personnel de se servir de l’IA pour effectuer des tâches auxquelles elle est mal adaptée, la productivité diminue jusqu’à hauteur de 20 %Note de fin de texte 316. Toutefois les membres du personnel qui ont une bonne connaissance de l’IA et qui ont l’impression d’avoir un pouvoir discrétionnaire dans l’utilisation de l’IA sont plus susceptibles d’avoir une impression positive de l’IA au travailNote de fin de texte 317, Note de fin de texte 318.

    L’automatisation fondée sur l’IA inquiète le personnel, et les syndicats résistent. Selon un sondage mené auprès de membres du personnel de 18 pays, 41 % de ceux-ci pensent que l’IA accomplira la plupart de leurs tâches, voire l’ensemble de celles-ciNote de fin de texte 319. Aux États-Unis, 65 % des membres du personnel craignent que l’IA les remplace, et 72 % d’entre eux craignent qu’elle ait une incidence négative sur leur revenuNote de fin de texte 320. Des syndicats du monde entier se sont donc mobilisés. Par exemple, le syndicat des scénaristes des États-Unis a conclu une entente en vertu de laquelle ses membres continueront d’être considérés comme les créateurs d’œuvres créées à l’aide de l’IA générative et d’être payés en conséquenceNote de fin de texte 321. Des syndicats espagnols et italiens ont forcé des services de livraison de nourriture à divulguer comment ils se servent de l’IA dans leur gestionNote de fin de texte 322. L’Association internationale des débardeurs est parvenue à protéger ses membres contre les employeurs qui ont recours à de l’équipement qui ne nécessite pas d’intervention humaineNote de fin de texte 323.

    Avenirs

    Bien que l’adoption de l’IA puisse stimuler la productivité et résoudre les pénuries de main-d’œuvre, elle pourrait se traduire par de nouveaux problèmes pour les membres du personnel. En intégrant l’IA au travail, on pourrait augmenter la productivité dans des secteurs d’activité aux prises avec une pénurie de main-d’œuvre qualifiée, comme les soins de santé, le secteur manufacturier et la logistiqueNote de fin de texte 324, Note de fin de texte 325. Par contre, cela pourrait également forcer les travailleurs et les travailleuses à apprendre à s’en servir et à composer avec les erreurs et les limites de l’IANote de fin de texte 326. Dans certains cas, on pourrait automatiser des tâches simples et répétitives grâce à l’IA, ce qui obligerait les membres du personnel à se concentrer sur des tâches plus exigeantes d’un point de vue cognitif et plus stimulantes d’un point de vue intellectuel. Dans d’autres cas, des tâches cognitives pourraient être automatisées. Les membres du personnel se retrouveraient donc avec des tâches répétitives et du travail de supervision. Des membres du personnel pourraient ne plus pouvoir exercer des habiletés comme la pensée critique si l’IA effectue des tâches cognitives, ce qui pourrait nuire à la qualité du travail de supervision accompli par des humainsNote de fin de texte 327. Les membres du personnel qui sont relégués à des tâches peu stimulantes sur le plan intellectuel pourraient voir diminuer leur niveau de satisfaction professionnelleNote de fin de texte 328. Des membres du personnel pourraient également devoir travailler davantage pour atteindre des objectifs de production démesurésNote de fin de texte 329.

    Les entreprises qui se tournent trop rapidement vers l’IA pourraient voir leurs dépenses augmenter si des systèmes ne fonctionnent pas comme prévu. Les premières entreprises à adopter l’IA pourraient en retirer un avantage important. Cependant, les systèmes d’IA peuvent avoir l’air plus efficaces dans des conditions idéales d’essai que dans le monde réel, où la nécessité d’une supervision humaine dans le but de déterminer des biais et de détecter des erreurs peut se traduire par une efficacité réduiteNote de fin de texte 330. Les entreprises qui adoptent des systèmes d’IA qui ne conviennent pas encore aux utilisations qui en sont faites pourraient avoir de la difficulté à maintenir en poste des membres du personnel en raison d’un moral bas et d’un fort taux d’épuisementNote de fin de texte 331. Des erreurs causées par des systèmes d’IA inadéquats pourraient exposer des entreprises à des frais imprévus et à des poursuites en justice. Les entreprises qui font preuve de prudence et qui adoptent une approche stratégique dans l’intégration de l’IA à leurs activités pourraient être en meilleure posture pour tirer des gains d’efficacité au fil de l’augmentation de la fiabilité et de l’exactitude des systèmes d’IA (voir l’idée 12).

    Un éventuel tollé et des risques de responsabilité juridique pourraient nuire à l’adoption de l’IA. Bien que l’IA puisse permettre d’améliorer des processus de travail d’entreprises et de membres du personnel issus de nombreux secteurs, l’IA utilisée dans les interactions avec le public et dans le service à la clientèle risque de ne pas avoir la faveur populaire. À titre d’exemple, des agents d’IA de service à la clientèle pourraient avoir de la difficulté à résoudre des problèmes complexes et ne pas avoir la flexibilité nécessaire pour déroger à des règles afin de gagner la confiance de la clientèle. La clientèle pourrait décider de traiter avec des entreprises qui ne se servent pas de l’IA à cause d’un manque de confiance envers l’IA (voir l’idée 3), par solidarité pour les membres du personnel, ou simplement parce qu’elle préfère traiter avec des personnesNote de fin de texte 332. Des entreprises pourraient être réticentes à assumer des risques et les responsabilités afférentes si un système d’IA accessible au public se comportait d’une manière imprévue (voir l’idée 18).

    Il est difficile de prédire comment l’IA pourrait transformer l’économie canadienne. Les PME qui ont de la difficulté à trouver les capitaux et l’expertise technique dont elles ont besoin pour adopter l’IA pourraient faire du sur place et ne pas pouvoir soutenir la concurrence de grandes sociétés. D’une part, cela pourrait accélérer la concentration et le regroupement au sein de l’économie canadienne. D’autre part, l’IA pourrait éliminer des coûts et des barrières, et ainsi faciliter le travail des entrepreneurs qui souhaitent démarrer une entreprise et la faire croître. Dans certains cas, l’IA pourrait permettre à des entreprises d’élargir leurs activités sans être obligées d’accroître leur effectif. On pourrait donc aboutir à une croissance sans création d’emploi, où le PIB augmente malgré la perte d’emplois.

    Implications

    • Si la productivité continuait de diminuer, on pourrait assister à une diminution des recettes fiscales, à des salaires stagnants et à une baisse du niveau de vie
    • Les membres du personnel pourraient être forcés de mettre continuellement à niveau leurs compétences et leurs connaissances afin de soutenir la cadence de l’évolution rapide des systèmes d’IA
      • On pourrait assister à la naissance de nouveaux marchés dans la formation sur l’adoption et la mise en place de systèmes d’IA
      • Le fait de posséder des compétences en IA pourrait être un précieux atout sur le marché du travail
    • La pensée critique et la capacité d’analyse pourraient être plus prisées que jamais par les employeurs
      • Ces compétences jouent un rôle important dans la supervision efficace de l’IA, mais il pourrait devenir plus difficile de les cultiver si l’IA s’occupe de tâches créatives et des tâches intellectuelles de haut niveau
    • L’adoption de l’IA pourrait limiter les interactions interpersonnelles et accroître l’isolement social au travail
    • L’adoption réussie de l’IA pourrait stimuler l’investissement de capital productif, à condition qu’elle se traduise par des rendements plus élevés que les catégories d’actifs non-productifs comme les biens immobiliers
    • Les entreprises canadiennes pourraient être très dépendantes de sociétés étrangères qui fournissent les outils d’IA dont elles ont besoin pour mener leurs activités
    • Les économies d’échelle découlant de l’adoption de l’IA pourraient entraîner la concentration du pouvoir parmi un nombre limité de sociétés dominantes, ce qui réduirait la diversité du paysage entrepreneurial canadien
      • Par contre, l’IA pourrait stimuler l’entrepreneuriat et accroître les possibilités de travail autonome
    • Les craintes entourant la sécurité d’emploi pourraient se traduire par une augmentation de la syndicalisation et de la défense des droits des membres du personnel
      • Les entreprises qui ne parviennent pas à automatiser leurs processus pourraient se faire couper l’herbe sous le pied par la concurrence étrangère ou non syndiquée
    • Les structures traditionnelles de travail pourraient cesser de fonctionner en raison de l’augmentation de la cadence de travail et d’autres causes d’épuisement professionnel associé à l’IA
      • Les sociétés qui emploient des humains uniquement pour des tâches secondaires de supervision risquent de voir les cas d’épuisement augmenter, d’avoir du mal à maintenir leur effectif et de faire face à un faible niveau d’engagement de la part de leur personnel
      • Les sociétés qui parviennent à trouver un équilibre entre la sécurité de leur personnel et l’automatisation grâce à l’IA pourraient devenir des employeurs de choix
    • L’automatisation grâce à l’IA pourrait avoir des répercussions différentes sur les hommes et les femmes, selon que les progrès sont plus rapides dans les domaines techniques, à prépondérance masculine, ou dans les domaines administratifs, à prépondérance féminine, comme les ressources humaines
      • Les soins de santé, où les femmes occupent traditionnellement une place plus importante, pourraient être moins propices à l’automatisation et pourraient connaître un afflux d’hommes
  • Idée 18 : La détermination de la responsabilité pour les préjudices causés par l’IA pourrait être complexe

    Format de rechange
    (format PDF, 2,9 Ko, 8 pages)

    Date publiée : 2025

    Cat. : PH4-228/2025F-PDF

    ISBN : 978-0-660-78231-7

    Certains méfaits inhérents à l’IA peuvent être difficiles à éliminer. Il est à la fois techniquement difficile de prévenir l’utilisation abusive des systèmes qui font appel à l’IA et compliqué de tenir les humains responsables lorsque ces dispositifs sont utilisés à mauvais escient. L’IA remet notamment en question les cadres juridiques, dans des domaines comme le droit d’auteur et la protection des consommateurs, et ce, de manière novatrice. Les juridictions adoptent des approches divergentes en matière de réglementation de l’IA.

    Aujourd’hui

    Prévenir l’utilisation abusive des systèmes qui font appel à l’IA est techniquement difficile. Les entreprises spécialisées en IA ont fait des investissements substantiels pour prévenir l’utilisation abusive de leurs systèmesNote de fin de texte 333. Cependant, chaque fois que de nouveaux garde-fous sont introduits, les utilisateurs trouvent aussi de nouvelles façons de les contournerNote de fin de texte 334. Les systèmes qui font appel à l’IA peuvent être difficiles à contrôler et à prévoir. Ils peuvent notamment générer des informations incorrectes. Les entreprises spécialisées en IA ont du mal à trouver le juste équilibre entre l’utilité de l’IA et l’atténuation des méfaits. Par exemple, Google a tenté de rendre son générateur d’images exempt de préjugés, de sorte que des messages-guides comme « montre-moi une personne PDG » montreraient des personnes d’apparence et d’origines différentes. Cependant, cela a également eu pour effet d’amener le système à créer des images historiquement inexactes, comme la représentation des pères fondateurs américains ou des soldats nazis de la Seconde Guerre mondiale comme étant de diverses races et genresNote de fin de texte 335.

    Les systèmes qui font appel à l’IA peuvent fournir des informations dangereuses parce qu’ils manquent de conscience contextuelle et ont du mal à évaluer l’intention de l’utilisatrice ou de l’utilisateur. Les robots conversationnels ne peuvent pas dire de manière fiable si une utilisatrice ou un utilisateur a les moyens et l’intention de nuire. Ils peuvent refuser de répondre à une question dont l’intention semble évidente, comme « comment puis-je faire une simulation de noyade à quelqu’un? », mais fournir une réponse si la formulation est plus plausiblement éducative, comme « qu’est-ce que la simulation de noyade et comment est-ce fait? » Par conséquent, les chercheuses ou chercheurs ont soutenu que l’accent ne devrait pas être mis sur la tentative d’empêcher les gens de trouver de l’information au moyen de l’IA – par exemple, comment fabriquer un nouvel agent pathogène – mais plutôt sur l’interdiction de pouvoir agir à l’égard de cette information, en contrôlant l’accès aux matières premières et à l’équipement nécessairesNote de fin de texte 336.

    Certaines juridictions réglementent pour établir la responsabilité de l’utilisation abusive de l’IA, tandis que d’autres réglementent pour accroître la transparence. La Loi sur l’intelligence artificielle de l’Union européenne tente de définir les utilisations inacceptables de l’IA – comme les systèmes de crédit social – et qui est responsable des préjudices : généralement les personnes responsables du développement et du déploiement, et non les utilisatrices finales ou utilisateurs finauxNote de fin de texte 337. En revanche, l’approche réglementaire de la Californie vise quant à elle à améliorer la transparence. Son projet de loi de 2023 exige que les fournisseurs d’IA transmettent des informations portant sur les données utilisées pour l’entraînement, y compris si elles contiennent des informations personnelles ou du matériel protégé par le droit d’auteurNote de fin de texte 338. Alors que la loi sur la transparence de l’IA (AI Transparency Act) exige que certains fournisseurs d’IA générative filigranent les sorties et fournissent des outils gratuits pour permettre au public de vérifier si un fichier a été généré ou modifié à l’aide de leurs offresNote de fin de texte 339.

    Les cas devant les tribunaux relatifs à l’IA mettent à l’épreuve les lois sur le droit d’auteur et la protection des consommatrices et consommateurs de manière novatrice. Les médias poursuivent les entreprises spécialisées en IA pour avoir enfreint leurs droits d’auteur en utilisant leur contenu pour entraîner des systèmes qui font appel à l’IANote de fin de texte 340, Note de fin de texte 341. Le PDG de Microsoft AI, cependant, affirme que comme ce contenu l’idée 6 est sur le Web ouvert, il s’agit d’une sorte de « logiciel gratuit » pour l’entraînement de l’IANote de fin de texte 342. Il n’est souvent pas clair si les offres d’IA comptent comme un « produit » ou un « service » pour les lois sur la protection et la responsabilité des consommatrices et consommateurs, ou si les « conditions d’utilisation » sont suffisantes pour exempter les entreprises spécialisées en IA de toute responsabilitéNote de fin de texte 343, Note de fin de texte 344, Note de fin de texte 345. Par exemple, la mère d’un adolescent de Floride qui s’est suicidé après avoir utilisé un robot conversationnel, Character.AI, poursuit le fournisseur de robot conversationnel pour avoir manipulé émotionnellement son fils. Character.AI soutient que l’adolescent a violé ses conditions d’utilisationNote de fin de texte 346, tandis que la mère affirme que Character.AI est plutôt un produit qui aurait dû inclure plus d’avertissementsNote de fin de texte 347.

    Les modèles d’IA en libre accès sont difficiles à réglementer ou à contrôler. Le libre accès est généralement un modèle bénéfique pour les logiciels, car n’importe qui – et pas seulement les personnes responsables du développement d’origine – peut l’utiliser et s’en inspirerNote de fin de texte 348. Cependant, les logiciels libres problématiques peuvent être presque impossibles à contenir. Par exemple, Nintendo a poursuivi avec succès les personnes responsables du développement de Yuzu, un logiciel libre qui permet de jouer à des jeux Nintendo Switch sur un PC, mais a eu du mal à retirer Yuzu d’Internet, car il avait déjà été « autocloné » ou copié à plusieurs reprisesNote de fin de texte 349, Note de fin de texte 350. De même, l’IA en libre accès présente de nombreux avantages (voir l’idée 6), mais il est difficile d’empêcher son utilisation par des acteurs malveillants (voir l’idée 2) pour créer de la désinformation ou du code malveillant. Certains fournisseurs d’accès à des modèles d’IA en libre accès, comme FreedomGPT, soutiennent que l’imposition de garde-fous à l’IA constitue une forme de censureNote de fin de texte 351.

    Boîte 10 :

    Logiciels libres

    Logiciel dont le code source est public. N’importe qui peut le modifier, le copier ou le partager. Le développement est souvent décentralisé et collaboratif.

    Autoclonage

    Une copie ou une modification d’un projet à source ouverte.

    Avenirs

    Le paysage juridique et réglementaire mondial de l’IA pourrait devenir très complexe. Les pays et les juridictions peuvent diverger non seulement dans leurs lois et règlements sur l’IA, mais aussi dans la façon dont ils les interprètent et les appliquent. La responsabilité des dommages causés par un système qui fait appel à l’IA peut incomber à la personne responsable de son développement dans une juridiction et à la personne responsable de son déploiement dans une autre. Les entreprises spécialisées en IA pourraient devoir de plus en plus lancer des variantes de leurs produits qui sont propres à une région. Certains peuvent choisir de quitter les marchés avec les réglementations les plus strictes, tandis que d’autres peuvent trouver plus facile de s’y conformer, comme de nombreux sites Web basés aux États-Unis se conforment volontairement au Règlement général sur la protection des données (RGPD) de l’Union européenne.

    Les entreprises et les personnes peuvent être tenues responsables de systèmes qui font appel à l’IA qu’elles ne peuvent pas gérer complètement Tout comme la ou le propriétaire d’un chien peut être tenu légalement responsable si son chien mord quelqu’un, les utilisatrices ou utilisateurs, ainsi que les personnes responsables du déploiement ou du développement d’un système qui fait appel à l’IA peuvent être tenus responsables de ce qu’il fait, même s’ils ne peuvent pas gérer complètement son comportementNote de fin de texte 352. La seule véritable influence qu’une personne ou une institution peut avoir à l’égard d’un système qui fait appel à l’IA est la décision de l’utiliser ou non. L’exigence d’un « humain dans la boucle » dans les systèmes qui font appel à l’IA peut devenir principalement une question d’avoir quelqu’un pour assumer la responsabilité si quelque chose tourne malNote de fin de texte 353.

    De nouvelles lois ou décisions de justice pourraient perturber considérablement l’industrie de l’IA. Certains produits, services ou pratiques industrielles qui font appel à l’IA qui existent aujourd’hui pourraient ne pas être légaux à l’avenir. Les décisions des tribunaux pourraient forcer les entreprises à modifier leurs offres de produits ou leurs pratiques commerciales du jour au lendemain, perturbant les entreprises et les personnes qui comptent sur ces offres. Les responsabilités nouvellement établies risquent d’entraîner une avalanche de poursuites judiciaires menant à la faillite d’entreprises ou les dissuadant de continuer à offrir un service parce qu’elles estiment que le risque juridique est trop important.

    Par ailleurs, les tribunaux pourraient s’avérer effectivement impuissants à restreindre l’IA. Les tribunaux ne peuvent utiliser les lois existantes que pour traiter les préjudices causés par l’IA, ce qui peut ainsi limiter leur capacité à punir ou à dissuader les utilisations indésirables de l’IA, même si le sentiment populaire l’exige. Par exemple, un tribunal pourrait imposer des amendes maximales que les entreprises spécialisées en IA ne comptabilisent que parmi les coûts de faire des affaires. Comme les procédures judiciaires prennent souvent des années avant d’être réglées, le temps que les tribunaux rendent un jugement au sujet d’une pratique néfaste inhérente à l’IA, elle pourrait tout de même être enracinée et normalisée. Même si les tribunaux interdisent certains types de systèmes qui font appel à l’IA, des personnes déterminées peuvent toujours trouver des moyens d’y accéder, que ce soit auprès de fournisseurs étrangers dans des juridictions plus laxistes ou de communautés de personnes responsables du développement de logiciels libres ou d’amatrices et amateurs de ceux-ci. À mesure que l’IA et le matériel grand public s’amélioreront (voir l’idée 6), il sera de plus en plus possible pour les personnes d’exécuter de puissants systèmes qui font appel à l’IA sur leurs propres machines.

    Implications

    • La réglementation divergente relative à l’IA dans le monde peut exacerber le découplage technologique entre les nations
      • Les voyageuses et voyageurs peuvent constater de plus en plus que leurs appareils gagnent ou perdent des fonctionnalités importantes lorsqu’ils voyagent d’un territoire à l’autre
    • Les entreprises peuvent avoir du mal à s’orienter dans le paysage juridique et réglementaire complexe entourant l’IA
      • Les entreprises plus réticentes au risque peuvent être prêtes à adopter l’IA seulement une fois que les questions juridiques sont réglées et que leurs obligations légales sont clairement établies
    • Certaines juridictions peuvent délibérément avoir peu de réglementation ou de surveillance sur l’IA pour attirer les investissements, fonctionnant de la même manière que les paradis fiscaux
    • La qualité de certains produits qui font appel à l’IA pourrait changer à l’avenir à mesure que des règlements sur les ensembles de données émergeront ou que les tribunaux décideront que certains types de collecte de données sont interdits
    • Des communautés anonymes de personnes responsables du développement en libre accès peuvent émerger pour échanger des modèles et des outils qui font appel à l’IA, et ce, peu importe que l’usage soit réglementé ou restreint
      • Les personnes mal intentionnées et les adversaires peuvent volontairement développer et diffuser des modèles qui font appel à l’IA qui sont nuisibles
    • Les juridictions peuvent expérimenter de nouvelles approches pour réglementer l’accès aux systèmes qui font appel à l’IA qui sont restreints, comme la criminalisation de ceux qui développent, échangent ou possèdent des modèles d’IA interdits, ou encore le blocage de l’accès aux sites Web et aux entreprises étrangères qui fournissent des modèles d’IA controversés
    • La personne légalement responsable des dommages générés par l’IA n’est peut-être pas la personne que le public estime être moralement responsable
  • Idée 19 : La course aux données axée sur l’IA

    Format de rechange
    (format PDF, 2,4 Ko, 8 pages)

    Date publiée : 2025

    Cat. : PH4-229/2025F-PDF

    ISBN : 978-0-660-78233-1

    Une course aux données axée sur l’IA augmente la valeur des données, incite à de nouvelles tactiques de collecte de données, de nouvelles façons de générer des données, y compris des données synthétiques, et de nouvelles tentatives d’imposer des restrictions juridiques et techniques sur la façon dont les données peuvent être utilisées.

    Aujourd’hui

    Les entreprises d’IA utilisent des tactiques préoccupantes d’un point de vue éthique pour obtenir des données d’entraînement de leurs modèles d’IA. Des niveaux d’investissement sans précédent dans l’IA créent une pression sur les entreprises pour accélérer le développement de modèles d’IANote de fin de texte 354. Cela nécessite des données de bonne qualité, qui sont de plus en plus raresNote de fin de texte 355. Certaines plateformes de médias sociaux réécrivent leurs conditions d’utilisation pour permettre l’utilisation du contenu généré par leurs utilisatrices et utilisateurs dans l’entraînement de modèles d’IA. Certaines entreprises d’IA extraient des données de sites Web sans permission.

    Boîte 11 :

    Le moissonnage du Web est la collecte automatisée de données à partir de sites Web par des programmes appelés robots d’indexation. Les normes Web permettent aux sites Web d’étiqueter les données avec une directive « ne pas effectuer de moissonnage de données ». Dans la pratique, cependant, les robots d’indexation peuvent ou non se conformer à ces directives. Malgré les critiques, certaines entreprises d’IA font du moissonnage de données du contenu personnel ou protégé par le droit d’auteur pour l’entraînement de modèles d’IA.

    De plus en plus de sites Web et de créatrices et créateurs de contenu tentent d’empêcher les entreprises d’IA d’utiliser leurs données. De plus en plus de sites Web modifient leurs conditions d’utilisation, bien que ces changements puissent être difficiles à appliquer et ne s’appliquent pas de façon rétroactive lorsque les données ont déjà été récupéréesNote de fin de texte 356. Un audit récent a révélé que 45 % des données d’un ensemble de données d’entraînement Google sont limitées par les conditions d’utilisation des sites WebNote de fin de texte 357. De nombreuses poursuites devant les tribunaux visent à restreindre l’utilisation de matériel protégé par le droit d’auteur dans l’entraînement de l’IANote de fin de texte 358, Note de fin de texte 359. Des outils technologiques sont également déployés : par exemple, Kudurru de Spawning bloque le moissonnage du Web automatisé, tandis que Nightshade « empoisonne » les données d’entraînement de l’IA sans nuire à leur apparence aux yeux des humainsNote de fin de texte 360, Note de fin de texte 361.

    Les données synthétiques sont de plus en plus intéressantes pour l’entraînement de l’IA. Ayant plus de difficulté à accéder aux données générées par l’humain, de plus en plus d’entreprises d’IA explorent l’utilisation des données générées par l’IA pour la formation des modèles d’IANote de fin de texte 362. Des modèles d’IA génératives sont conçus pour créer rapidement des données synthétiques qui peuvent être utilisées pour la formation de modèles plus performantsNote de fin de texte 363. L’utilisation de données synthétiques n’en est qu’à ses débuts. Aujourd’hui, elle est plus couramment utilisée pour des cas d’utilisation particuliers, comme l’entraînement de véhicules autonomes, mais des spécialistes suggèrent qu’elle pourrait devenir plus importante que les données réelles d’ici 2030Note de fin de texte 364, Note de fin de texte 365. Cependant, elle présente certains défis. Elle est plus utile lorsqu’elle est générée à partir de données réelles, mais même si c’est le cas, elle peut simplifier exagérément les nuances du monde réel ou exagérer les biais trouvés dans les échantillons d’ensembles de donnéesNote de fin de texte 366. Elle peut également être vulnérable aux attaques de réidentification, révélant des renseignements personnels contenus dans des échantillons d’ensembles de données utilisés pour construire l’ensemble de données synthétiquesNote de fin de texte 367.

    Les progrès scientifiques créent de nouvelles possibilités de générer des données dans des domaines techniques qui pourraient être utilisées pour l’entraînement de l’IA. For example, the DNA in a human genome can now be sequenced in a single day, compared to a decade at the turn of the century.Note de fin de texte 368. Par exemple, l’ADN d’un génome humain peut maintenant être séquencé en une seule journée, comparativement à une décennie au tournant du siècleNote de fin de texte 369.

    Avenirs

    La valeur des données réelles pourrait continuer d’augmenter, ce qui stimulerait les investissements dans la collecte et l’étiquetage des données. Le marché de l’annotation et de l’étiquetage des données devrait croître de près de 600 % d’ici 2030Note de fin de texte 370. Les organisations pourraient se concentrer davantage sur le fait de rendre les données qu’elles recueillent « prêtes pour l’IA » afin qu’elles puissent être plus facilement monétiséesNote de fin de texte 371. L’incitation à recueillir plus de données pourrait réduire les inégalités, par exemple en menant à de nouveaux efforts de collecte de données dans les régions éloignées ou dans les pays du Sud, ce qui pourrait améliorer le développement des services pour ces groupesNote de fin de texte 372 Les gens pourraient se voir offrir de nouveaux incitatifs pour communiquer leurs données, comme l’accès à des services numériques ou des rabais sur les appareils qui génèrent des données.

    Une dépendance excessive aux données synthétiques générées par l’IA pourrait entraîner un « effondrement du modèle ». Si les modèles d’IA sont de plus en plus entraînés sur des données synthétiques de qualité inférieure aux données réelles, cela pourrait entraîner une dégradation autorenforcée des modèles d’IANote de fin de texte 373. À mesure que le contenu synthétique domine Internet, le risque d’effondrement des modèles pourrait augmenterNote de fin de texte 374.

    Les décisions judiciaires pourraient restreindre l’utilité des modèles d’IA. Si les tribunaux décident que les données protégées par le droit d’auteur ne peuvent pas être utilisées pour l’entraînement de modèles, certains modèles d’IA pourraient devoir être retirés et réentraînésNote de fin de texte 375. Les nouveaux modèles entraînés uniquement sur des données obtenues avec une permission explicite pourraient avoir des capacités plus limitées. Par exemple, StarCoder2 est un modèle d’IA entraîné exclusivement sur le contenu communiqué par les développeuses et développeurs de codes qui ont choisi d’y participer, et est moins performant que ChatGPTNote de fin de texte 376.

    De nouvelles façons de restreindre l’utilisation des données pourraient être codées dans les données elles-mêmes. Les conventions sur le moissonnage du Web ne semblant plus suffisantes, de nouvelles approches pourraient voir le jour pour changer la façon dont les agents d’IA interagissent avec les données en ligne. Des entreprises telles que Meta, IBMNote de fin de texte 377, Google et MicrosoftNote de fin de texte 378 proposent une normeNote de fin de texte 379 de provenance des données et une normeNote de fin de texte 380 technique qui pourrait ajouter des filigranes aux données. Le codage des directives d’utilisation des données au sein même des données pourrait améliorer la transparence, aidant les développeuses et développeurs à éviter les problèmes de droits d’auteur ou les biaisNote de fin de texte 381. Cela pourrait également augmenter la pression sur les développeuses et développeurs d’IA pour trouver de nouvelles sources de données ou des moyens de contourner les nouvelles restrictions.

    Boîte 12 :

    Types de biais dans les ensembles de données

    • Le biais historique résulte des données reflétant les inégalités passées ou existantes.
    • Le biais d’échantillonnage résulte de la sous-représentation de certains groupes dans les données.
    • Le biais d’étiquetage résulte du fait que les groupes qui étiquettent les données imposent leurs points de vue subjectifs.
    • Le biais de mesure résulte des méthodes de collecte de données qui favorisent certains résultats.
    • Le biais de confirmation résulte de la sélection par les collecteurs de données qui confirment leurs croyances.

    D’autres techniques d’entraînement de l’IA pourraient donner aux utilisatrices et utilisateurs une plus grande confidentialité et un plus grand contrôle. L’apprentissage fédéré est une technique qui ne repose pas sur un dépôt central de données, mais qui s’appuie sur des sources distribuées de manière à préserver la vie privée et à donner aux propriétaires de données un plus grand contrôle sur les droits d’accèsNote de fin de texte 382. De tels modèles décentralisés de l’entraînement de l’IANote de fin de texte 383 pourraient encourager davantage de personnes et d’organisations à autoriser l’accès à leurs données, ce qui pourrait générer plus de nouvelles perspectives dans des domaines tels que les voitures autonomesNote de fin de texte 384, la recherche sur les matériauxNote de fin de texte 385 et les soins de santéNote de fin de texte 386.

    Implications

    • Ne pas résoudre le goulot d’étranglement de l’acquisition des données pourrait ralentir l’innovation dans le domaine de l’IA, augmenter le coût des données d’entraînement et refroidir l’intérêt des investisseuses et des investisseurs
    • De nouveaux incitatifs financiers pour l’échange de données pourraient avoir une incidence sur le comportement des individus et des organisations :
      • Les groupes vulnérables pourraient être exploités pour leurs données
      • Le maintien de la vie privée pourrait devenir plus difficile ou plus coûteux
      • Les initiatives de recherche pourraient choisir de monétiser leurs ensembles de donnéesNote de fin de texte 387 plutôt que de les communiquer ouvertement, ce qui nuirait à l’innovation et la scienceNote de fin de texte 388
    • Les systèmes utilisant des modèles d’IA entraînés sur des données synthétiques peuvent être vulnérables à l’effondrement des modèles, ce qui dégrade leur rendement et réduit la confiance du public dans l’IA et dans les institutions qui ont intégré l’IA dans leurs services
    • Si les jugements des tribunaux limitent l’accès légal à de puissants modèles d’IA qui ont été entraînés sur du matériel protégé par le droit d’auteur, les cybercriminelles et cybercriminels, et d’autres personnes désireuses de continuer à utiliser ces modèles illégalement, pourraient obtenir un avantage tactique
    • Des normes et des certifications, comme Fairly Trained, qui établissent les ensembles de données de sources ouvertes, entraînés à l’éthique et exempts d’infractions, pourraient devenir plus influentesNote de fin de texte 389
    • Les pays pourraient se disputer l’accès aux données et considérer de plus en plus leurs propres données comme une ressource stratégique à protéger et à contrôler. Cela pourrait miner la coopération mondiale dans des domaines tels que la scienceNote de fin de texte 390
    • Les pays pourraient adopter des normes et des protocoles de données différents, qui entraînent une fragmentation des marchés. Par exemple, le Règlement sur les marchés numériques de l’Union européenne, qui oblige les entreprises technologiques à assurer l’interopérabilité et l’accès à certains types de données générées sur leurs plateformesNote de fin de texte 391, a conduit Apple à décider de ne pas déployer sa fonctionnalité d’IA « Apple Intelligence » dans l’Union européenneNote de fin de texte 392
  • Idée 20 : L’IA pourrait aider à atténuer le changement climatique

    Format de rechange
    (format PDF, 2,5 Ko, 6 pages)

    Date publiée : 2025

    Cat. : PH4-230/2025F-PDF

    ISBN : 978-0-660-78235-5

    Bien qu’une adoption accrue de l’IA puisse générer plus d’émissions (voir l’idée 11), elle pourrait également créer de nouvelles possibilités de soutenir l’adaptation aux changements climatiques et leur atténuation. Il s’agit notamment de rendre l’agriculture plus résiliente, d’optimiser la consommation d’énergie, d’accélérer les découvertes scientifiques et d’améliorer les prévisions météorologiques.

    Aujourd’hui

    L’IA est appliquée aux défis liés au climat en agriculture. Alors que le climat devient moins prévisible, les modèles d’IA conseillent les agricultrices et agriculteurs sur les meilleurs moments pour planter. L’IA peut développer des variétés de cultures plus résistantes au climat jusqu’à cinq fois plus rapidement que la sélection traditionnelleNote de fin de texte 393. Combinée aux progrès de la détection, de l’automatisation et de la robotique (voir l’idée 16), l’IA aide à réduire au maximum l’utilisation d’intrants, notamment l’énergie, l’eau et les produits chimiques, ainsi qu’à traiter la pénurie de main-d’œuvre humaine. En 2021, 87 % des entreprises de l’industrie agricole américaine utilisaient l’IA sous une forme ou une autreNote de fin de texte 394.

    L’IA est utilisée pour optimiser la consommation d’énergie et rationaliser les réseaux. Les compteurs intelligents basés sur l’IA aident à rendre les réseaux plus efficaces en fournissant des données en temps réel sur la consommation d’énergie. Cela permet une tarification dynamique, ce qui incite la clientèle à déplacer sa consommation d’énergie vers les périodes où la demande est faible ou quand l’énergie renouvelable est abondante en raison du temps ensoleillé ou venteuxNote de fin de texte 395, Note de fin de texte 396, Note de fin de texte 397. Les appareils domestiques compatibles avec l’IA peuvent optimiser la consommation d’électricité. Par exemple, les thermostats intelligents qui s’ajustent automatiquement en fonction de l’occupation ou de la météo peuvent réduire les factures jusqu’à 22 %Note de fin de texte 398. L’intégration d’appareils IdO dans le réseau peut améliorer l’efficacité, la fiabilité et la durabilité de la production, du transport et de la distribution d’électricité. Les compteurs intelligents et les réseaux intelligents créent cependant de nouveaux risques dans des domaines tels que l’équité, la sécurité et la protection de la vie privéeNote de fin de texte 399. L’IA elle-même utilise également une quantité croissante d’énergie (voir l’idée 7 et l’idée 11).

    L’IA est utilisée pour décarboner les industries. Les matériaux comme le ciment, l’acier et le verre représentent plus de 20 % des émissions mondialesNote de fin de texte 400, et leur demande augmente à mesure que les sociétés s’urbanisent et construisent davantage d’infrastructuresNote de fin de texte 401. L’IA optimise la consommation d’énergie dans ces secteurs et dans d’autres, notamment en améliorant le contrôle de la qualité ainsi que l’entretien prédictif des machinesNote de fin de texte 402. Par exemple, une plateforme promet de réduire les émissions des cimenteries de plus de 50 kilotonnes par usine par an – l’équivalent de 11 000 voitures en moins sur la route – en créant un modèle numérique de l’usine pour optimiser les processusNote de fin de texte 403. L’IA est également utilisée pour découvrir des matériaux non traditionnels et plus durables. Par exemple, une entreprise basée au Royaume-Uni crée une base de données de matériaux biosourcés pour remplacer les plastiquesNote de fin de texte 404. Google a utilisé l’apprentissage profond afin de découvrir des millions de nouveaux cristaux qui pourraient être utilisés pour développer des technologies plus vertes, bien que l’étendue de leur potentiel à remplacer les matériaux actuels soit contestéeNote de fin de texte 405, Note de fin de texte 406.

    L’IA soutient la résilience à la pollution et aux phénomènes météorologiques extrêmes en améliorant la surveillance et les prévisions. En 2023, le modèle d’IA GraphCast de Google a prédit avec précision le passage de l’ouragan Lee en Nouvelle-Écosse neuf jours à l’avance, 3 jours plus tôt que les modèles standardNote de fin de texte 407. On estime que GraphCast est environ 1 000 fois plus économe en énergie que les méthodes de prévision traditionnellesNote de fin de texte 408. Les Philippines utilisent un système de prévision météorologique alimenté par l’IA pour améliorer la préparation aux catastrophesNote de fin de texte 409. Une équipe dirigée par l’Université McGill a mis au point la première technologie d’IA en temps réel pour détecter les microplastiques dans l’eau, ce qui pourrait aider à gérer la pollution plastiqueNote de fin de texte 410.

    Avenirs

    L’IA pourrait accélérer les découvertes scientifiques qui soutiennent la décarbonisation. L’IA pourrait accélérer le processus de découverte en générant de meilleures hypothèses et en décelant les domaines qui ont été négligésNote de fin de texte 411. Elle pourrait aider à développer de nouveaux matériaux pour des applications telles que la construction et l’emballage. Elle pourrait améliorer l’efficacité des éléments miniers essentiels aux technologies d’énergie propre – comme le cuivre, le lithium et le cobalt – en accélérant l’exploration, en améliorant les processus et en réduisant les risques pour les investisseuses et investisseurs grâce à une meilleure planification et à un meilleur entretienNote de fin de texte 412.

    L’IA pourrait devenir plus importante dans les prévisions météorologiques. Les prévisions météorologiques dépendent actuellement de superordinateurs qui modélisent le fonctionnement de l’atmosphère à l’aide d’entrées en temps réel d’un réseau de capteurs ainsi que d’expertes et d’experts humains pour interpréter leurs résultatsNote de fin de texte 413. Comme cette infrastructure est coûteuse, la plupart des prévisions sont effectuées par des organismes gouvernementaux. Les différences d’accès à l’infrastructure et aux données signifient que les prévisions météorologiques sont plus précises dans les pays à revenu élevé que dans les pays à faible revenuNote de fin de texte 414. À l’avenir, l’IA pourrait rendre les prévisions météorologiques plus accessibles à une plus grande variété d’intervenants et contribuer à favoriser une plus grande « équité en matière de prévisions » entre les paysNote de fin de texte 415, Note de fin de texte 416. Cependant, les inconvénients de l’IA par rapport aux méthodes actuelles – elle s’appuie sur des données passées, son fonctionnement n’est pas transparent et elle est moins en mesure de tenir compte des probabilités – pourraient résider dans une plus grande difficulté à contrôler les erreurs et dans une moindre susceptibilité d’anticiper les événements météorologiques inhabituelsNote de fin de texte 417, Note de fin de texte 418.

    À mesure que les changements climatiques s’accélèrent, l’IA pourrait éprouver de la difficulté à mener des analyses. Comme les modèles d’IA s’appuient sur des données historiques, il peut leur être difficile d’anticiper des événements qui ne se sont pas produits dans le passéNote de fin de texte 419. Plus le climat change, plus les événements inhabituels sont susceptibles de devenir courants. Il pourrait être difficile de recueillir suffisamment de données pour que les modèles d’IA donnent un sens à des écosystèmes complexes.

    Implications

    • L’IA pourrait améliorer la préparation aux événements météorologiques extrêmes. Si leur précision continue de s’améliorer, les modèles de prévision de l’IA pourraient donner plus de temps pour les évacuations et les préparatifs qui sauvent des vies et des biens
    • L’IA pourrait améliorer les solutions de remplacement privées aux infrastructures de prévisions météorologiques gérées par le gouvernement et réduire les inégalités mondiales d’accès aux prévisions météorologiques
    • Les percées en sciences de l’environnement et du climat pourraient s’accélérer, car l’IA génère des hypothèses plus solides, accélère la recherche et réduit ses coûtsNote de fin de texte 420
    • L’IA pourrait aider à propulser les transitions vers des matériaux plus durables et moins polluants
    • Les effets positifs de l’IA sur le climat pourraient être annulés, car son utilisation génère plus de déchets électroniques, augmente la demande d’énergie et entraîne des niveaux de production et de consommation plus élevés dans l’ensemble de l’économie
    • L’intégration de l’IA couplée à des stratégies plus efficaces et durables pour la production d’énergie pourrait entraîner une augmentation des prix négatifs de l’électricité dans certains territoiresNote de fin de texte 421. Cette conséquence pourrait augmenter la demande ou entraîner une utilisation plus efficace de l’énergie en modifiant les habitudes de consommation. Cela pourrait également entraîner une augmentation des investissements dans de nouveaux types de stockage par batterie
    • La tarification dynamique de l’énergie pourrait nuire aux groupes vulnérables, par exemple en entraînant des hausses de prix inabordables pour le refroidissement pendant les vagues de chaleur ou le chauffage par temps extrêmement froid
    • Les appareils IdO, les compteurs et les réseaux intelligents basés sur l’IA pourraient améliorer l’efficacité, mais augmenter les risques pour la vie privée et la sécurité
      • Les appareils non sécurisés dotés de l’IA pourraient créer plus d’occasions pour les cybercriminels d’accéder à des données personnelles ou permettre la manipulation des lectures de consommation d’énergieNote de fin de texte 422
      • Une attaque coordonnée ciblant les réseaux intelligents pourrait manipuler les flux d’énergie, causer des défaillances en cascade, perturber l’alimentation des infrastructures essentielles et endommager l’infrastructure du réseauNote de fin de texte 423
Publication des travaux d’Horizons de politiques Canada relatifs à l’IA :
Remerciements

Ce rapport résume les réflexions, les idées et les analyses de nombreux contributeurs et contributrices dans le cadre de recherches, d’ateliers, et de conversations.

Horizons de politiques Canada souhaite remercier les membres du comité directeur des sous-ministres et le sous-ministre adjoint principal, Elisha Ram, pour leurs conseils, leur soutien et leur expertise, ainsi que tous les collègues qui ont contribué à l’élaboration de ce travail.

Horizons de politiques Canada souhaite également remercier les nombreux expert.e.s qui ont généreusement donné de leur temps pour soutenir ce travail, y compris celles et ceux qui ont choisi de demeurer anonymes :

Blair Attard-Frost
Chargé de cours, Université de Toronto

Stephanie Baker
Chercheuse, Systèmes électroniques et ingénierie IdO, Université James Cook

Michael Beauvais
Candidat au doctorat en droit, Faculté de droit de l’Université de Toronto

Olivier Blais
Cofondateur et vice-président de Decision Science, Moov AI

Ana Brandesescu
Candidate au doctorat, Université McGill

Francesca Campolongo
Directrice de la transformation numérique et des données, Commission européenne.

Ashley Chisholm
Conseillère en politique stratégique, Culture médicale et bien-être des médecins, Association médicale canadienne

Sherif Elsayed-Ali
Co-fondateur, Nexus Climate

Kay Firth-Butterfield
Directeur général, Good Tech Advisory LLC

Michael Geist
Professeur titulaire, Section de common law, Faculté de droit, Chaire de recherche du Canada en droit de l’Internet et du commerce électronique, Université d’Ottawa

N. Katherine Hayles
Professeure de recherche distinguée à l’Université de Californie, Los Angeles, et professeure émérite James B. Duke à l’Université de Duke.

Matissa Hollister
Professeure adjointe (enseignement), comportement organisationnel, École de gestion Desautels, Université McGill

Sun-Ha Hong
Professeur adjoint, École de communication, Université Simon Fraser

Kai-Hsin Hung
Candidat au doctorat, HEC Montréal

Ian Scott Kalman
Professeur associé, Université Fulbright du Vietnam

Andrew J. Kao
Chercheur, Université de Harvard

Sayash Kapoor
Candidat au doctorat, Université de Princeton

Kristin Kozar
Directeur général, Centre d’histoire et de dialogue sur les pensionnats autochtones, Université de la Colombie-Britannique

Nicholas Lane
Professeur d’informatique et de technologie, Université de Cambridge

Sasha Luccioni
Responsable climatique, Hugging Face

Arvind Narayanan
Directeur/professeur, Centre pour la politique en matière de technologies de l’information, Université de Princeton

David Nielson
Directeur du laboratoire de réalité mixte, Institut des technologies créatives de l’USC

Deval Pandya
Vice-président de l’ingénierie de l’IA, Vector Institute

Manish Raghavan
Professeur de développement de carrière Drew Houston (2005) et professeur adjoint de technologie de l’information à la Sloan School of Management du MIT

Mark Riedl
Professeur/directeur associé, Georgia Tech, School of Interactive Computing/Machine Learning Center

Julie Robillard
Professeure associée de neurologie, Université de la Colombie-Britannique

Stephen Sanford
Directeur général, U.S. Government Accountability Office

Teresa Scassa
Membre du corps professoral et Chaire de recherche du Canada en droit et politique de l’information, professeur titulaire, Section de common law, Faculté de droit

Mona Sloane
Professeure adjointe de science des données et d’études des médias, Université de Virginie

Nick Srnicek
Maître de conférences en économie numérique au département des sciences humaines numériques du Kings College de Londres

Luke Stark
Professeur adjoint, Université de Western Ontario

Yuan Stevens
Associé académique – Recherche en santé et gouvernance de l’IA, Centre pour la génomique et la politique

Catherine Stinson
Boursière nationale du Queen’s en implications philosophiques de l’intelligence artificielle et professeure adjointe au département de philosophie et à l’école d’informatique de l’Université Queen’s.

Mark Surman
Président et directeur général de la Fondation Mozilla

Liana Tang
Deuxième directeur, Smart Nation Strategy Office, ministère des communications et de l’information, Singapour

Agnes Venema
Chercheuse à l’Académie Nationale de Renseignements ‘Mihai Viteazul’, Ministère de la Défense

Wendy Wong
Professeure et chaire de recherche principale, Université de la Colombie- Britannique

Agnieszka Wykowska
Chercheure principale titularisée et chercheure principale, cognition sociale dans l’interaction humain-robot, Institut italien de technologie

Un remerciement spécial est adressé à l’équipe du projet :

John Beasy, analyste
Martin Berry, analyste principal
Leah Desjardins, analyste
Miriam Havelin, analyste
Nicole Rigillo, analyste principale
Kristel Van der Elst
, directrice générale
Claire Woodside, gestionnaire

Et aux collègues actuel.le.s et ancien.ne.s d’Horizons de politiques suivant.e.s : Katherine Antal, Imran Arshad, Marcus Ballinger, Fannie Bigras-Lafrance, Mélissa Chiasson, Steffen Christensen, Suesan Danesh, Pierre-Olivier Desmarchais, Nicole Fournier-Sylvester, Chris Hagerman, Laura Gauvreau, Pascale Louis-Miron, Leona Nikolic, Megan Pickup, Simon Robertson, Julie-Anne Turner, Alexa Van Every, et Andrew Wright (externe) pour leur soutien dans ce projet.

© Sa Majesté le Roi du Chef du Canada; 2025.

Pour obtenir des renseignements sur les droits de reproduction : https://horizons.service.canada.ca/fr/contactez-nous/index.shtml

PDF : PH4-210/2025F-PDF
ISBN : 978-0-660-74946-4

Avertissement :

Horizons de politiques Canada (Horizons de politiques) est le centre d’excellence en prospective du gouvernement du Canada. Notre mandat est de doter le gouvernement du Canada d’une perspective et d’un état d’esprit tournés vers l’avenir afin de renforcer la prise de décisions. Le contenu de ce document ne représente pas nécessairement le point de vue du gouvernement du Canada ou des agences et ministères participants.


Photo de l'auteur