Sélection de la langue

Recherche

Liberté de la presse et intelligence artificielle

Julia Haas, Bureau du Représentant pour la liberté des médias de l’OSCE

Avis : Les vues et les positions exprimées dans le présent rapport n’engagent que leur auteur et ne représentent pas nécessairement celles du ministère des Affaires étrangères, du Commerce et du Développement ou du gouvernement du Canada. Ce document est la traduction de l’original anglaise.

Résumé

Le présent article traite des répercussions de l’utilisation de l’intelligence artificielle (IA) sur la liberté d’expression et la liberté de la presse. Bien que l’IA puisse améliorer à bien des égards la communication et l’accès à l’information, y compris dans les médias traditionnels, il est surtout question dans cet article des principales préoccupations que soulève le déploiement de l’IA lorsqu’il ne se fait pas dans le respect des droits de la personne.

L’IA peut servir d’outil pour censurer les médias et surveiller illicitement des citoyens et des journalistes indépendants. Par ailleurs, dans l’environnement virtuel d’aujourd’hui, quelques intermédiaires dominants de l’Internet jouent un rôle de contrôleurs en ce qui concerne la conservation, la diffusion et la monétisation de l’information, y compris des nouvelles. Ces intermédiaires déploient de plus en plus l’IA pour régir les discours public et privé.

Les outils d’IA, qui soutiennent une bonne partie de la diffusion des contenus à l’heure actuelle, font souvent partie intégrante d’un modèle d’entreprise fondé sur la publicité ciblée. L’utilisation de l’IA pour diffuser du contenu en fonction des préférences présumées des utilisateurs repose sur l’élaboration de profils établis à partir d’une grande quantité de données. Pour maximiser leurs revenus, les intermédiaires peuvent prioriser les contenus qui augmentent la participation des utilisateurs au détriment des contenus qui donnent accès à une information diversifiée d’intérêt public ou à un journalisme indépendant de qualité. Cette tendance peut réduire la capacité des utilisateurs d’avoir accès à une information diversifiée et peut influencer leurs réflexions et leurs croyances.

En matière de surveillance du discours, les États et les intermédiaires ont souvent recours à l’IA pour déceler et supprimer les contenus considérés comme illégaux ou indésirables. L’immense quantité de contenu qui circule dépasse toute capacité humaine de surveillance. Bien que le filtrage par l’IA des contenus générés par les utilisateurs puisse sembler intéressant à cet égard, les outils de l’intelligence artificielle sont sujets à erreurs. En plus de déployer eux-mêmes l’IA, les États demandent à des acteurs du secteur privé de surveiller et de supprimer des contenus, en fonction de définitions vagues et dans des délais contraignants. Une telle sous-traitance de la protection des droits de la personne à des acteurs du secteur privé qui sont motivés par le profit peut inciter ceux-ci à bloquer de façon exagérée des discours légitimes, ce qui soulève des préoccupations supplémentaires quant à la primauté du droit et à la discrimination.

La possibilité d’utiliser l’IA pour faciliter la surveillance et la censure, que ce soit à des fins économiques ou politiques, constitue une menace au droit de chercher et d’obtenir de l’information et met en péril la diversité des médias. Ce danger est amplifié par le pouvoir et l’influence qu’exerce une poignée d’intermédiaires, et par le fait que la plupart des outils d’IA fonctionnent de façon opaque et sans trop de réglementation ou de surveillance.

Cet article montre également de quelle manière les préjugés présents dans les jeux de données et chez les développeurs de ces systèmes risquent de perpétuer les inégalités actuelles. Il décrit la façon dont l’IA touche les médias traditionnels et dont la pandémie de COVID‑19 exacerbe les inquiétudes décrites ci-dessus. En guise de conclusion, l’article recommande des orientations que devraient prendre les États et le secteur privé pour garantir le respect des droits de la personne dans la conception et le déploiement de l’IA, et pour que la transparence et la responsabilisation soient assurées à toutes les étapes.

Liberté de la presse et intelligence artificielle

Les nouvelles technologies offrent des possibilités inédites pour l’exercice de la liberté d’expression et de la liberté de la presseNote de bas de page 1. L’intelligence artificielle (IA) joue un rôle important dans la transformation de notre façon de communiquer ainsi que de consommer du contenu médiatique et d’interagir avec ce contenu. L’IA propose des solutions attrayantes pour filtrer et classer le contenu généré par les utilisateurs et l’information en ligne, lesquels sont apparemment infinisNote de bas de page 2. Comme de nombreux progrès technologiques, l’IA est susceptible de déboucher sur le meilleur, mais elle peut aussi constituer une véritable menace pour les droits de la personne – en particulier la liberté d’expression et la liberté de la presse.

En l’absence d’une définition universellement reconnue, le terme générique « IA » est couramment utilisé pour désigner les processus automatisés et fondés sur des donnéesNote de bas de page 3. Certains outils d’IA peuvent être de simples instructions programmées par des humains, alors que d’autres sont plus avancées et comportent de l’apprentissage automatique. Étant donné que l’IA repose sur des architectures et des données fournies par des humains, les résultats qu’elle produit sont forcément façonnés par des valeurs culturelles ainsi que des expériences et des croyances subjectives, notamment des préjugés fondamentauxNote de bas de page 4.

Certains États déploient l’IA pour surveiller illicitement leur population et pour contrôler les communications publiques d’une manière qui va à l’encontre du droit international en matière de droits de la personne. Par ses possibilités inédites de surveillance, l’IA peut faciliter la censure et réprimer le journalisme indépendant ainsi que la dissidence, aussi bien en ligne que hors ligne. Par conséquent, certains États se servent de l’IA pour exercer une coercition contre la presse et, en fin de compte, resserrer leur autoritarisme numériqueNote de bas de page 5.

Par ailleurs, des acteurs du secteur privé, en particulier les fournisseurs de moteurs de recherche et de plateformes de médias sociaux, utilisent l’IA afin de filtrer les contenus pour déceler ceux qui sont jugés indésirables et les supprimer ou en réduire la visibilité (« modération de contenu »), ainsi que pour classer et diffuser une information sur mesure (« édition de contenu »)Note de bas de page 6. Dans les deux cas, le discours est régulé dans le but de faciliter la communication en ligne, de fournir des services conviviaux et, essentiellement, d’accroître les profits.

Le filtrage et le classement du contenu au moyen de l’IA sont rendus possibles par la surveillance à grande échelle du comportement des utilisateurs. Pour évaluer et prédire la pertinence du contenu, l’IA a besoin d’une grande quantité de données fines, lesquelles facilitent également la publicité, fondement du modèle d’entreprise de nombreux intermédiaires de l’Internet. La marchandisation des données personnelles aux fins du ciblage publicitaire, qui se traduit par des profits, vient encourager des activités exhaustives de collecte et de traitement des données, un phénomène désigné sous le nom de « capitalisme de surveillance »Note de bas de page 7. Les intermédiaires, qui proposent des services « gratuits », tirent leurs profits de l’élaboration de profils et de la commercialisation de l’espace public. Ces pratiques intrinsèquement invasives ouvrent la porte à des risques d’abus de pouvoir et à un contrôle étatique omniprésentNote de bas de page 8. Même si toutes les formes de surveillance ont un effet paralysant sur la liberté d’expression et sur les médiasNote de bas de page 9, l’IA peut imposer des contraintes qui portent atteinte aux journalistes d’enquête et à la protection des sourcesNote de bas de page 10.

Fréquemment comparée à une boîte noireNote de bas de page 11, l’IA est souvent opaqueNote de bas de page 12, et son utilisation reste invisible, ce qui peut donner l’impression trompeuse qu’elle produit des résultats neutres et une représentation objective de la réalité. L’utilisateur peut très bien ignorer qu’un système d’IA est utilisé et la façon dont ce système obtient les résultats d’une recherche ou encore favorise ou supprime du contenu. De la même façon, il n’est pas toujours évident de savoir à quel moment et de quelle manière l’IA est déployée pour entraver le travail des médias, que ce soit par la surveillance ou par d’autres formes d’ingérenceNote de bas de page 13. L’opacité et la méconnaissance entourant l’IA constituent les principaux défauts de toute utilisation de cette technologieNote de bas de page 14.

L’IA opaque qui régit la diffusion de l’information au profit d’intérêts commerciaux peut avoir de lourdes conséquences pour le discours public, d’autant plus que le marché est dominé par une petite poignée d’intermédiaires. Ces oligopoles sont devenus les arbitres privés de la parole, qui dictent les modalités d’utilisation de la communication en ligne et de l’accès à l’information à l’échelle mondiale. Ceux qui souhaitent faire partie du cyberespace n’ont guère d’autres choix que d’accepter les règles et la surveillance imposées par ces intermédiaires dominants. En outre, de tels systèmes privés d’IA et l’étendue des empreintes numériques peuvent aussi faciliter la surveillance étatique et la censure politique de la presseNote de bas de page 15.

Les modèles d’entreprise basés sur la publicité, qui sont au cœur de la structure actuelle de l’Internet, ont profondément ébranlé la viabilité des médias traditionnels en changeant les structures mêmes des rapports de pouvoir au détriment d’un journalisme de qualitéNote de bas de page 16. L’utilisation des technologies d’IA accentue ce déséquilibre, en particulier dans les pays dont les populations ont un accès limité à Internet ou dont les médias de service public ne sont pas solidement établisNote de bas de page 17.

Que ce soit par la censure ciblée, la surveillance généralisée des journalistes d’enquête ou l’usage de robots pilotés par l’IA pour attaquer et museler certains journalistes, toute utilisation de l’IA avec l’intention d’entraver le journalisme indépendant constitue une grave menace à la liberté de la presseNote de bas de page 18. Même en l’absence de mauvaise foi, le recours général à l’IA pour surveiller et restreindre certains contenus ou pour diffuser de l’information comporte des risques majeurs. Bien que de nombreuses questions fondamentales quant à la suppression ou à l’organisation des contenus ne mettent pas en cause exclusivement l’IA, l’utilisation de celle-ci pour façonner et modérer l’information à grande échelle amplifie bien des défis actuels et en soulève de nouveaux. Dans les sections qui suivent, il sera question du déploiement de l’IA aux fins de modération et d’organisation du contenu, et de ses répercussions possibles sur la liberté d’expression et la liberté de la presse.

Modération du contenu

La prédominance de certains contenus, comme les messages trompeurs, haineux ou qui prônent l’extrémisme violent, détériore la qualité du discours publicNote de bas de page 19. L’IA sert à évaluer les contenus afin de signaler, de démonétiser ou de supprimer certains d’entre eux, ou d’en réduire la visibilité, ou encore afin d’exclure des comptes en particulierNote de bas de page 20. L’IA est couramment déployée comme outil préalable de modération, sous la forme de filtres de téléversement, et pour analyser du contenu une fois que celui-ci est en ligne ou qu’il a été signalé par des utilisateursNote de bas de page 21. À ce stade, soit l’IA intervient de façon autonome, soit le contenu est ultimement soumis à une vérification humaineNote de bas de page 22.

La capacité de l’IA à analyser du contenu demeure limitée. L’évaluation du discours dépend grandement du contexte et exige une compréhension des nuances culturelles, linguistiques et politiquesNote de bas de page 23. Par conséquent, l’IA manque souvent d’exactitudeNote de bas de page 24. Les faux positifs restreignent le discours d’une manière injustifiée alors que les faux négatifs peuvent causer un effet paralysant qui mène à l’autocensure et réduit au silence des personnes marginaliséesNote de bas de page 25.

L’utilisation de l’IA par des intermédiaires pour modérer les contenus de façon proactive est une forme d’autorégulation dans laquelle les décisions pilotées par l’IA reposent généralement sur les conditions d’utilisation ou les règles de conduite propres à une communauté d’utilisateursNote de bas de page 26. Les États demandent de plus en plus souvent aux intermédiaires d’éliminer des messages précis et leur imposent de supprimer certaines catégories de contenu, souvent en fonction de définitions vagues, ce qui peut mener au blocage de nouvelles d’intérêt publicNote de bas de page 27. Cette sous-traitance de l’application de la loi et des responsabilités juridiques force les acteurs du secteur privé à déployer l’IA, surtout lorsque des délais stricts leur sont imposésNote de bas de page 28. Non seulement ce phénomène suscite-t-il d’importantes inquiétudes au sujet de la primauté du droit et de l’application régulière de la loi, mais il entraîne également une dépendance à l’égard de quelques entreprises déjà puissantesNote de bas de page 29. Somme toute, l’IA semble accélérer la tendance vers une surveillance généralisée des communications, ce qui nuit profondément à la liberté de la presseNote de bas de page 30.

Pendant la pandémie de COVID-19, le confinement des modérateurs humains et le besoin grandissant de contrer la désinformation ont amené les États et les intermédiaires à se tourner de plus en plus vers l’IA. La pandémie a illustré l’importance de pouvoir compter sur une information fiable et diversifiée, mais elle a aussi fait ressortir la nécessité de réduire les effets secondaires de l’IA elle-même, car les erreurs qui s’accumulaient tardaient à être corrigéesNote de bas de page 31.

Organisation du contenu

L’abondance du contenu en ligne disperse de plus en plus l’attention des utilisateurs. Les intermédiaires d’Internet se servent de l’IA pour diffuser de l’information en fonction des préférences personnelles présumées de chaque utilisateurNote de bas de page 32. Toutefois, l’intention des intermédiaires lorsqu’ils réalisent leurs prédictions est de monnayer les données aux fins du ciblage publicitaireNote de bas de page 33. Par conséquent, l’organisation des fils d’actualité et des résultats de recherches, lorsqu’elle est alimentée par l’IA, vise à inciter les utilisateurs à s’investir davantage dans ces services respectifs et à leur consacrer plus de tempsNote de bas de page 34. Les contenus controversés ou sensationnalistes peuvent attirer davantage l’attention, comme c’est le cas pour les propos misogynes, racistes, haineux ou qui attisent la peurNote de bas de page 35. Ainsi, les systèmes de classement par IA qui accordent plus de poids à la capacité de générer des clics qu’à l’intérêt réel pour de l’information peuvent entraîner une polarisation, une radicalisation et la diffusion de messages trompeurs ou haineuxNote de bas de page 36.

Par ailleurs, les médias traditionnels, étant donné qu’ils dépendent de plus en plus de l’accès à leurs contenus et du partage de ceux-ci en ligne, doivent aussi se disputer l’attention des utilisateurs. Ils peuvent ainsi être obligés de mettre l’accent davantage sur l’« infodivertissement » que sur l’intérêt public, ce qui accroît d’autant la pression que subit le journalisme de qualitéNote de bas de page 37.

En personnalisant le contenu, y compris les nouvelles, l’IA peut conforter les utilisateurs dans leurs opinions, créant ainsi des chambres d’écho et des bulles de filtrageNote de bas de page 38, et diminuant du même coup la probabilité qu’ils soient exposés à un contenu médiatique diversifiéNote de bas de page 39. Il en résulte une perception déformée de la réalité, laquelle peut renforcer les déséquilibres de pouvoir et amplifier le sentiment d’altérité, tout en menaçant gravement la diversité des médiasNote de bas de page 40.

La structure actuelle de l’Internet n’offre aux intermédiaires que peu d’incitatifs économiques pour les amener à proposer un contenu diversifié ou, à plus forte raison, factuel. L’IA conçue pour servir des intérêts commerciaux ou politiques favorise immanquablement certains types de contenus susceptibles d’influencer et de réorienter les comportements à des fins d’optimisation des profits ou de persuasion, ou dans le but de réprimer intentionnellement le journalisme indépendantNote de bas de page 41. Les systèmes d’IA des intermédiaires peuvent être utilisés à mauvais escient par des régimes autoritaires ou autres, par exemple en recourant à des robots qui propagent des messages précis ou qui masquent la visibilité de contenus journalistiquesNote de bas de page 42. Les outils d’IA peuvent servir à attaquer les journalistes dans le but de les faire taire, par exemple au moyen de campagnes de harcèlement orchestrées pour simuler un mouvement populaire. Cette méthode est particulièrement répandue pour cibler les femmes journalistes, et les systèmes de diffusion pilotés par l’IA peuvent même donner une impulsion à de telles attaques en les rendant viralesNote de bas de page 43.

Bien que l’ampleur des répercussions de l’IA sur le discours public soit encore incertaineNote de bas de page 44, il ne fait aucun doute que l’IA est souvent déployée dans le but d’influencer les perceptions ou le comportement des gens. Les intermédiaires de l’Internet sont devenus des gardiens de l’information qui utilisent l’IA pour gérer le contenu médiatique et les flux d’information, ce qui façonne inévitablement les opinions et le comportement des utilisateursNote de bas de page 45. Les structures de l’IA peuvent être utilisées pour exercer un contrôle sur la presse, que ce soit en remplissant une fonction de blocage de l’information sous forme de censure ou, au contraire, de vecteur de propagande ou d’attaquesNote de bas de page 46. En l’absence de garanties démocratiques, la surveillance du discours et la diffusion du contenu par IA mettent en péril la liberté de la presse, l’accès à l’information et la liberté d’expression, tout en soulevant des inquiétudes au sujet de la primauté du droit et de la discrimination systémique.

Recommandations

De tout temps, l’humanité a fait appel aux technologies pour résoudre des problèmes de société. Pourtant, des questions qui soulèvent des controverses depuis longtemps ne peuvent pas être résolues simplement en sous-traitant les processus décisionnels à l’IANote de bas de page 47. Au-delà de cet aspect, les technologies peuvent servir d’outils de surveillance, de censure et de répression des médias d’une ampleur sans précédent. Même si bon nombre de ces sujets d’inquiétude ne sont pas spécifiques à l’IA, l’utilisation de celle-ci aggrave les menaces qui pèsent déjà sur la liberté d’expression et la liberté de la presse. Pour contrer efficacement ces menaces, il est crucial de tenir compte du contexte sociotechnique dans lequel se déploie l’IA, de ses utilisateurs et des objectifs qu’ils poursuivent. Bien qu’il n’existe aucune solution universelle, on ne saurait évaluer ni traiter l’incidence de l’IA de manière judicieuse sans faire preuve de transparence et de sens des responsabilitésNote de bas de page 48.

Puisqu’ils ont une obligation formelle de protéger la liberté d’expression et la liberté de la presse, les États doivent promouvoir un environnement propice à la diversitéNote de bas de page 49. Lorsque les autorités publiques déploient elles-mêmes l’IA, elles doivent se conformer aux normes internationales en matière de droits de la personne, en s’assurant que toute restriction de la liberté d’expression ou de la liberté de la presse est nécessaire et proportionnéeNote de bas de page 50. Le fait de collecter ou de fusionner à outrance des données dans le cadre de partenariats public-privé va à l’encontre de ces critères. Souvent, cela facilite au contraire un autoritarisme numérique qui pratique la surveillance de masse, cible autant des journalistes que des particuliers et impose une censure sans précédentNote de bas de page 51. Les États ne doivent pas tirer parti de l’IA pour manipuler l’opinion publique, harceler les journalistes ou exercer d’autres mesures répressives, mais plutôt pour déterminer les limites acceptables de l’utilisation d’une telle technologie.

Les mesures réglementaires et les politiques en matière d’IA doivent reposer sur des faits probants et ne doivent pas entraîner de répercussions négatives sur la liberté de la presse. Les États doivent s’abstenir de déléguer aveuglément la protection des droits de la personne à l’IANote de bas de page 52. En outre, tous les efforts déployés à cet égard doivent être encadrés par des règles strictes de protection des donnéesNote de bas de page 53. Il ne devrait pas être nécessaire de consentir à des pratiques intrusives de surveillance pour pouvoir participer au discours public en ligne.

Il incombe aussi aux entreprises de respecter les droits de la personneNote de bas de page 54. Elles doivent empêcher que leurs systèmes d’IA soient utilisés à mauvais escient pour réduire au silence les dissidents et la presse. Même si de nombreuses entreprises s’engagent à faire preuve d’éthique, elles ne le font pas forcément en respectant les droits de la personneNote de bas de page 55. Néanmoins, les initiatives privées en matière d’éthique sont importantes, et les codes de déontologie jouent un rôle crucial dans la responsabilité sociale des entreprises. Or, ces codes et principes ne pouvant généralement pas s’appuyer sur des garanties démocratiquement légitimées ni sur des règles d’application de telles garanties, ils ne peuvent à eux seuls assurer une protection efficaceNote de bas de page 56.

La transparence est une condition essentielle de toute surveillance publiqueNote de bas de page 57. Chacun doit être en mesure de savoir de quelle manière ont été prises les décisions qui influent sur sa vie, quelles données ont été traitées et dans quel butNote de bas de page 58. Les autorités de réglementation et la société en général doivent être au courant de l’incidence de l’IA sur le discours public et médiatique. Toutefois, en raison de l’asymétrie fondamentale qui caractérise l’information, ce domaine demeure très peu étudiéNote de bas de page 59. Il faut donc encourager la recherche indépendante sur les conséquences sociétales de l’IA. Pour qu’un tel examen soit possible, l’IA doit être explicable et interprétableNote de bas de page 60. Ainsi, les États devraient envisager de rendre obligatoire la divulgation de l’usage de l’IA et de ses fonctions sous-jacentes, tout en étant transparents quant à leurs propres déploiements d’IA. De telles exigences pourraient se décliner par niveaux, selon l’objectif poursuivi, le rôle de l’intervenant et le stade de développement ou d’utilisation de l’IA, ainsi que le risque de violation des droits de la personneNote de bas de page 61. En outre, il convient d’établir des règles claires pour garantir que l’information sur le déploiement de l’IA peut faire l’objet de comparaisonNote de bas de page 62, et que les renseignements personnels sont protégés à toutes les étapesNote de bas de page 63.

La transparence doit aller de pair avec un renforcement de la capacité d’action des utilisateurs. Ces derniers doivent pouvoir exercer un choix et un contrôle sur la collecte, la surveillance et l’analyse des données utilisées pour personnaliser le contenu qui leur est destiné, ainsi que sur la conception des interfaces utilisées par les intermédiairesNote de bas de page 64. Pour augmenter le pouvoir des utilisateurs et accroître la résilience des citoyens, il faut renforcer la littératie numériqueNote de bas de page 65.

La transparence est indispensable pour que l’on sache quels outils d’IA sont déployés et comment sont prises les décisions automatisées. Elle est aussi nécessaire pour qu’il soit possible de remettre en question les processus problématiques. Ceux qui tirent profit de l’IA doivent être tenus responsables de toutes les conséquences négatives de son utilisation. Pour assurer cette responsabilisation, des normes de gouvernance strictes sont cruciales. Des règles doivent garantir que les profits que réalise une entreprise lui imposent des responsabilités et que les décideurs peuvent être tenus responsables de leurs gestesNote de bas de page 66. Les États doivent envisager de mettre en place une structure de surveillance de l’IA par niveauxNote de bas de page 67, et étudier des modèles d’autoréglementation et de coréglementation, assortis de mécanismes de règlement des différends, d’organismes consultatifs sur les médias sociaux ou de tribunaux électroniques appelés à trancher rapidement les cas d’infractionNote de bas de page 68.

Pour garantir l’indépendance du contrôle, il faudrait accorder aux institutions nationales de défense des droits de la personne le pouvoir d’exercer elles aussi une supervision de l’IA. Un moyen important d’y parvenir consiste à évaluer périodiquement et avec rigueur l’incidence de l’IA sur les droits de la personne tout au long de son cycle de vie, et de rendre ces évaluations accessibles au grand publicNote de bas de page 69. Par ailleurs, les outils d’IA devraient être soumis à des audits périodiques indépendantsNote de bas de page 70 assortis d’une analyse minutieuse visant à déterminer si l’IA est utilisée abusivement pour entraver la liberté de la presse.

L’accès à des mesures correctives et à une réparation doit être garanti tant aux journalistes qu’aux utilisateurs dont le contenu a été restreint par l’IA, de même qu’à ceux qui relaient du contenu ou, encore, à ceux qui ont été lésés par des interfaces pilotées par l’IANote de bas de page 71. Il faut également que ces mesures soient prises en temps opportun et qu’on leur alloue des ressources suffisantesNote de bas de page 72. En ce qui concerne certaines décisions automatisées, il faut prévoir une intervention humaine pour examiner le processus et le renverser au besoinNote de bas de page 73.

Il est possible aussi de s’inspirer de pratiques exemplaires qui ont cours dans d’autres domaines, dont les médias traditionnels, en vue d’assurer la transparence et la responsabilisationNote de bas de page 74.

De plus, il faut contrer le danger persistant de laisser des éléments discriminatoires entacher la conception et le déploiement de l’IANote de bas de page 75. Seule une démarche globale et interdisciplinaire peut répondre efficacement à cette exigence. Les discussions à cet égard doivent être ouvertes à tous les interlocuteurs et à toutes les sphères de la société, notamment les utilisateurs finaux touchésNote de bas de page 76, la société civile, le milieu universitaire et les médiasNote de bas de page 77.

La plupart des problèmes sont étroitement liés au fait qu’une poignée d’entreprises dominantes exercent un pouvoir et un contrôle considérables sur l’écosystème de l’information en ligne. La concentration du pouvoir, que ce soit entre les mains de l’État ou d’une entreprise, comporte toujours un risque considérable d’entrave aux libertésNote de bas de page 78. Les États doivent veiller à ce que le marché de l’IA soit concurrentiel pour inciter les intermédiaires à se doter de modèles d’entreprise différents pour offrir leurs servicesNote de bas de page 79. Soutenir le développement d’outils d’IA qui ne sont pas basés sur un système d’exploitation des données et de publicité ciblée permettrait de promouvoir la diversité du marché, de démocratiser l’IA et de favoriser des espaces en ligne publics axés sur des valeursNote de bas de page 80.

Enfin, vu le caractère transnational et hautement interrelié des défis que pose l’IA, il est primordial de faire converger les efforts et de viser des solutions mondiales. Il existe différentes initiatives importantes à cet égard, par exemple celles de l’Organisation pour la sécurité et la coopération en Europe (OSCE), de l’UNESCO, du Conseil de l’Europe ou de l’Union européenneNote de bas de page 81.

Si l’IA n’est pas une panacée aux problèmes de la société, elle ne devrait pas non plus être le bouc émissaire de toutes les difficultés auxquelles se heurtent la liberté d’expression ou la liberté de la presse. L’IA ne doit faciliter ni l’autoritarisme numérique ni la répression des médias au moyen de la haute technologie. Pour que l’IA permette l’accès à une information diversifiée et favorise la liberté d’expression et la liberté de la presse plutôt que de les compromettre, il est impératif que tous les interlocuteurs veillent à la mise en place d’un cadre fondé sur les droits de la personne pour assurer la transparence et la responsabilité à l’égard de l’IA. Puisque l’IA touche de plus en plus tous les aspects de nos communications et de notre consommation médiatique, il est plus que temps d’intégrer des mesures de protection quant à son développement et à son utilisation, afin que puisse s’imposer la liberté de la presse.

Signaler un problème sur cette page
Veuillez cocher toutes les réponses pertinentes :

Merci de votre aide!

Vous ne recevrez pas de réponse. Pour toute question, s’il vous plaît contactez-nous.

Date de modification: