Hostname: page-component-78c5997874-lj6df Total loading time: 0 Render date: 2024-11-13T03:17:02.307Z Has data issue: false hasContentIssue false

Twitter ou l'avènement d'un « Frankenstein 2.0 » ? L'impact des géants de la technologie sur la société et le poids des gouvernements face aux dérives technologiques

Published online by Cambridge University Press:  30 May 2023

Lahcen Fatah*
Affiliation:
Centre interuniversitaire de recherche sur la science et la technologie (CIRST), Université du Québec à Montréal (UQÀM), Montréal, QC, Canada
Rights & Permissions [Opens in a new window]

Résumé

Depuis l'annonce du rachat de Twitter par Elon Musk, les risques quant à l'avenir du réseau social laissent entrevoir l'avènement d'un « Frankenstein 2.0 » – une notion qui fait référence aux grandes entreprises de technologie dont le contrôle échappe à leurs créateurs. Derrière cet événement se pose la question des dérives technologiques et de leurs impacts sur la société. C'est une occasion pour les gouvernements et en particulier celui du Canada, qui encourage l'ouverture des données et les politiques en faveur des technologies, de redéfinir les règles du jeu. En ce sens, quelques recommandations sont proposées en vue de consolider l'encadrement normatif des technologies au Canada. La loi sur l'intelligence artificielle et les données (LIAD), actuellement en discussion au sein du Parlement, devrait en effet aller plus loin concernant la transparence des systèmes automatisés et renforcer ses exigences en matière de gouvernance des données « algorithmiques ».

Abstract

Abstract

Since the announcement of the purchase of Twitter by Elon Musk, the risks for the future of the social network suggest the advent of a “Frankenstein 2.0” – a notion that refers to large technology companies whose control escapes their creators. Behind this event, the question of technological drifts and their impact on society arises. This is an opportunity for governments, and in particular the Canadian government, which promotes open data and technology policies, to redefine the game rules. In this sense, some recommendations are proposed, especially to consolidate the normative framework of technologies in Canada. The Artificial Intelligence and Data Act (AIDA), currently in discussion at the Parliament, should go further in terms of the automated systems transparency and strengthen its requirements for the “algorithmic” data governance.

Type
Questions d’actualité/Currents
Creative Commons
Creative Common License - CCCreative Common License - BY
This is an Open Access article, distributed under the terms of the Creative Commons Attribution licence (https://creativecommons.org/licenses/by/4.0/), which permits unrestricted re-use, distribution, and reproduction in any medium, provided the original work is properly cited.
Copyright
Copyright © The Author(s), 2023. Published by Cambridge University Press on behalf of the Canadian Political Science Association (l’Association canadienne de science politique) and/et la Société québécoise de science politique

Le rachat de Twitter par Elon Musk inquiète plus qu'il ne rassure et cela en dit long sur les stratégies de développement parfois problématiques des géants de la technologie. Twitter est l'un des plus influents réseaux sociaux d'information au monde et a, par conséquent, un impact direct sur la société. Or, si Elon Musk souhaite faire de Twitter le nouveau sanctuaire de la liberté d'expression en vue de nourrir les réflexions et les débats sur l'avenir de l'humanité, rappelons que la production d'informations sur l'avenir va de pair avec une prolifération d'avenirs possibles, rendant l'avenir plus opaque (Brown et Michael, Reference Brown and Michael2003). Et cela n'est pas sans risque : une potentielle perte de contrôle du réseau social laisse entrevoir celle, plus globale, d'autres grandes entreprises du secteur technologique, dont l'influence sur la société ne cesse de d'augmenter.

C'est la raison pour laquelle les gouvernements, à commencer par le Canada, doivent agir sur ce terrain.Footnote 1 Les autorités publiques devraient effectivement chercher à prévenir les dérives des grandes entreprises de technologie sur leur territoire, parce que « tout État a son rôle à jouer dans la réglementation de l’activité économique ainsi que de l’utilisation et de la propagation des nouvelles technologies » (Acemoglu, Reference Acemoglu2019). À cet égard, Pierre Trudel (Reference Trudel2006) rappelait qu’à l'image du droit, la technologie « habilite, permet, autorise, interdit ». La nécessité d'encadrer les technologies par le biais de normativités efficaces devient alors urgente, si l'on veut être en mesure de faire face à des logiques de gestion et de répartition des risques qui échappent de plus en plus aux États (Trudel, Reference Trudel2006).

Dans cette perspective, cet article revient en premier lieu sur le phénomène de « Frankenstein 2.0 » (Martin, Reference Martin, Régis, Benyekhlef and Weinstock2017) à travers le cas de Twitter, avant d'aborder la question plus générale des risques engendrés par les grandes entreprises de technologie sur la société. Puis, dans le but de pallier d’éventuelles dérives technologiques, des recommandations sont proposées. Elles visent notamment à renforcer l'encadrement normatif des technologies et, plus précisément, des systèmes d'intelligence artificielle (IA) au Canada.

Twitter : un potentiel Frankenstein 2.0 ?

Les risques de potentielles dérives technologiques sont notamment mis en lumière dans l'analyse des « super entreprises de technologie » (Martin, Reference Martin, Régis, Benyekhlef and Weinstock2017). Ce faisant, Dominic Martin mettait en garde contre la perte de contrôle grandissante des géants de la technologie, conduisant à l'avènement du phénomène qu'il nomme « Frankenstein 2.0 ». Inspirée du populaire roman de Mary Shelley (Reference Shelley1818) et de l’ouvrage Frankenstein, Incorporated de Maurice Wormser (Reference Wormser1931), l'expression Frankenstein 2.0 renvoie aux grandes entreprises de technologie dont le contrôle échappe à leurs créateurs.

La volonté d'Elon Musk d'instaurer une liberté « absolue » d'expression au sein de Twitter pourrait, selon nous, conduire à une concentration substantielle de ressources informationnelles incontrôlées. En retour, cela risque d'accroître une désinformation d'ores et déjà bien présente (Verma et al., Reference Verma, Rohilla, Sharma, Gupta, Tiwari, Trivedi, Kolhe and Singh2023) et non souhaitée par les nouveaux gestionnaires du réseau social mis en place par le milliardaire. Qui plus est, si les fausses nouvelles ont un impact significatif sur la société (Verma et al., Reference Verma, Rohilla, Sharma, Gupta, Tiwari, Trivedi, Kolhe and Singh2023), il est difficile d'en cerner l'ensemble des effets négatifs, et ce, malgré les outils réglementaires en place. Cette perte de contrôle à portée de main semble faire de Twitter un potentiel Frankenstein 2.0 de premier ordre.Footnote 2

Derrière cette problématique, un enjeu plus général se profile : celui du pouvoir croissant des grandes entreprises de technologie, dont les dérives sont difficiles à contrôler par les gouvernements. Nikos Smyrnaios (Reference Smyrnaios2016) qualifie à ce titre les GAFAMFootnote 3 d'oligopole de l’internet, dans lequel « les acteurs oligopolistiques contrôlent un large éventail de technologies et de services, ce qui leur permet de dominer la quasi-totalité des activités en ligne ». À ce sujet, l'inventeur du web sémantique Tim Berners Lee s'inquiétait déjà en 2016 du pouvoir grandissant de l'internet, qui permet à la fois de contrôler ce que les utilisateurs voient et de créer des mécanismes pour influencer la façon dont les individus interagissent sur l'espace web. Cela est d'autant plus inquiétant, selon lui, qu'on observe « la domination d'un seul moteur de recherche [Google], d'un seul grand réseau social [Facebook] et d'un Twitter pour le microblogging » (cité dans Hardy, Reference Hardy2016). D'après Tim Berners Lee, le problème n'est alors pas seulement technologique, il est également social (cité dans Hardy, Reference Hardy2016). D'où l'importance pour les gouvernements de prendre des mesures adéquates destinées à prévenir toute dérive technologique défavorable à la société.

Quelques impacts des grandes entreprises de technologie sur la société

Dominic Martin (Reference Martin, Régis, Benyekhlef and Weinstock2017) propose de distinguer parmi les cinq particularités que partagent les « super entreprises de technologie » : des ressources économiques colossales, un accès privilégié aux données personnelles des individus, la maîtrise de technologies en lien avec l'intelligence artificielle (IA), et le développement actif de l'IA. Nous croyons pertinent de faire intervenir une sixième spécificité : la super entreprise de technologie est guidée par une stratégie de production mondialisée (Fontanel et Sushcheva, Reference Fontanel and Sushcheva2019). Autrement dit, ces entreprises font souvent appel aux profils les plus prometteurs dans le développement de logiciels, mais aussi à l’utilisation d'une main-d’œuvre à moindre coût, délocalisée, pour la production de matériel informatique. Cela leur permettrait d'optimiser leur capacité d'adaptation face à la demande des entreprises, des ménages et des institutions. Or, le concept de main-d’œuvre à moindre coût s’étend désormais de l'industrie de la production vers l'industrie de service, et ce mouvement vient bouleverser divers aspects socio-économiques.

Prenons l’exemple de l’entreprise Uber, une application de mise en relation d'utilisateurs avec des conducteurs réalisant des services de transport à l’origine de l'expression « uberisation », laquelle se rapproche de ce qu'on entend ici par « Frankenstein 2.0 ». D’abord accueillie comme un espoir de relance du marché du travail pour les chauffeurs, l'application Uber a rapidement conduit à l’émergence de « travailleurs précaires » ainsi qu’à la remise en cause de certains droits sociaux et ce, loin de l'idéalisme de l’économie du partage initialement prôné par les fondateurs de la compagnie (voir Euzen, Reference Euzen2017).

En conséquence, syndicats, gouvernements, militants et entreprises s’affrontent dorénavant régulièrement sur le terrain juridique, où les travailleurs de ces nouvelles plateformes, souvent chauffeurs ou livreurs, tentent de faire valoir leurs droits. Si bien qu’en France, l’Assemblée nationale a abordé la question des droits des chauffeurs Uber et autres livreurs, dans son projet de loi d’orientation des mobilités (LOM) du 3 juin 2019. Même scénario en Californie (États-Unis), où le Sénat a adopté un projet de loi qui vise à contraindre des entreprises comme Uber à accorder un statut d'employé à leurs chauffeurs. De plus, le modèle d’affaires d’Uber conduit à une exploitation du travail en tant que pilier d’une rentabilité accrue des grandes entreprises de technologie, ce qui ajoute une pression sur les coûts (Smyrnaios, Reference Smyrnaios2016). Aussi, l’absence de droits sociaux dans le cadre de ces emplois contribue à une dégradation considérable des conditions de travail (Smyrnaios, Reference Smyrnaios2016).

Au-delà des problématiques sociales engendrées par les activités de ces entreprises, la question de la technologie et des algorithmesFootnote 4 doit attirer notre attention. En 2017, l'entreprise Uber a ainsi été accusée d'avoir mis en place un système automatisé biaisé, lui permettant de contrôler l’activité des chauffeurs afin de manipuler le système de tarification et les données de navigation.Footnote 5 En employant un itinéraire souvent plus long à la fois en distance et en temps, l'application reversait moins aux chauffeurs, tout en augmentant les prix pour les passagers.

Möhlmann et Zalmanson (Reference Möhlmann and Zalmanson2017) ont quant à eux découvert que, pour échapper au contrôle d'Uber, des chauffeurs sont parvenus à déjouer les algorithmes de l'application. Pour ce faire, ces derniers ont trouvé un moyen de s'associer afin d'opérer une déconnexion de masse et, ainsi, forcer la « recrudescence » du prix des courses, en leur faveur. Avec ce stratagème, les chauffeurs annulaient les courses au tarif non attractif pour eux, notamment en évitant l'option UberPOOL. Footnote 6 Cela montre, selon Möhlmann et Zalmanson (Reference Möhlmann and Zalmanson2017), que la gestion algorithmique adoptée par Uber peut non seulement nuire à l'entreprise elle-même, mais également être éthiquement critiquable.

Dans le cas de Facebook, récemment rebaptisé Meta, le marché ne garantit pas que le modèle d'affaires et les technologies utilisées par cet acteur majeur de la technologie ne seront pas à l'origine de conséquences encore imprévisibles à ce jour (Acemoglu, Reference Acemoglu2019). Cela est particulièrement vrai vis-à-vis de la gestion des données personnelles des utilisateurs et des nouvelles en ligne, orchestrée par le réseau social. De son côté, Twitter, en promettant un contrôle moins accru de la nature des informations qui y circuleront et en rétablissant des milliers de comptes auparavant bannis (Chopra, Reference Chopra2023), pourrait donner libre cours à une désinformation massive propulsée par des algorithmes favorisant les contenus les plus partagés. Tous ces éléments peuvent nous conduire à imaginer un avenir dans lequel les grandes entreprises de technologie imposeront un pouvoir technologique de plus en plus autoritaire. En effet, les manifestations de l'autoritarisme ne sont pas réservées aux États ; elles peuvent se retrouver dans la volonté des grandes entreprises de changer notre monde à travers les technologies, dans une dynamique afférente au « haut modernisme » (Acemoglu, Reference Acemoglu2019). Développée par James Scott (Reference Scott1998), cette notion fait référence aux efforts en direction de la transformation de l’existence par l’intermédiaire de la science.

L'ouverture de la technologie et le renforcement de l'encadrement normatif des technologies pour réguler l'impact des géants du secteur technologique sur la société

Afin de pallier ces dérives technologiques, deux solutions proposées par Dominic Martin méritent d’être discutées. L’option de se tourner vers le logiciel libreFootnote 7 ou encore les technologies dites ouvertesFootnote 8 s'avère être une avenue encourageante, puisque le partage des connaissances semble à certains égards stimuler l’innovation et les avancées scientifiques.Footnote 9 Par ailleurs, un modèle ouvert pourrait tout aussi permettre d’éviter la prise de contrôle totale des technologies par des acteurs privés et, ainsi, empêcher que ces derniers n'abusent de leur pouvoir (Martin, Reference Martin, Régis, Benyekhlef and Weinstock2017). Quant à la seconde option, celle de réformer les lois existantes pour mieux encadrer certaines pratiques commerciales, on peut observer que le Règlement général sur la protection des données (RGPD), entré en vigueur dans l'ensemble des 28 États membres de l'Union européenne le 25 mai 2018, répond partiellement à cette proposition.

S’agissant de la réglementation et de l'encadrement normatif des technologies, on peut dans le même temps espérer une adaptation des lois pour renforcer les droits des gouvernements et des citoyens face aux grandes entreprises de technologie. Au Canada, quelques mesures sont à l’étude, à l'image du projet de loi sur les nouvelles en ligne (PL C-18, 2021), dite loi C-18, concernant les plateformes de communication en ligne rendant disponible du contenu de nouvelles aux personnes se trouvant au Canada, et visant à soutenir le secteur canadien de l'information.Footnote 10 Selon la porte-parole du ministre du Patrimoine canadien Pablo Rodriguez, l'objectif du projet de loi C-18 serait de faire en sorte que « les géants du web paient équitablement les éditeurs canadiens et les journalistes pour leur travail » (cité dans La Presse canadienne, 2022). Jean-Hugues Roy (Reference Roy2022) y voit quant à lui une mesure nécessaire « favorable à la redistribution de la richesse pour soutenir l'information » .

Une autre modalité législative visant à réglementer l'usage de la technologie et, plus précisément, des systèmes automatisés, a récemment été présentée au Parlement du Canada. Il s'agit du projet de loi C-27 sur la mise en œuvre de la Charte du numérique (PL C-27, 2022), dont l'objectif est de renforcer la législation canadienne sur la protection de la vie privée s'appliquant au secteur privé, d'établir des règles pour le développement et la mise en œuvre responsable de l'intelligence artificielle (IA) et de poursuivre la mise en œuvre de la Charte canadienne du numérique.Footnote 11 Trois nouvelles lois y sont proposées, à commencer par la « Loi sur la protection de la vie privée des consommateurs », la « Loi sur le Tribunal de la protection des renseignements personnels et des données » et la « Loi sur l'intelligence artificielle et les données (LIAD) ».Footnote 12 Toutefois, les mesures normatives visant à encadrer les pratiques des systèmes d'IA proposées au sein de la LIAD restent relativement timides face à d'autres propositions récentes, comme on peut le voir au niveau européen ou aux États-Unis.

La proposition de règlement (2021) du parlement européen et du conseil établissant des règles harmonisées concernant l'IA, dite législation sur l'intelligence artificielle (IA) ou AI Act, vise à traiter les risques liés à des utilisations spécifiques de l'IA de façon plus complète et à travers une méthodologie plus détaillée que la LIAD. Cette législation européenne sur l'IA classe en effet ces risques en fonction de trois niveaux distinctsFootnote 13 : inacceptable (interdisant les systèmes d'IA concernés) ; élevé (autorisant les systèmes d'IA concernés sous réserve d'une évaluation des exigences de conformité) ; et faible ou minimal (autorisant les systèmes d'IA concernés sans restriction), ce qui signifie tout de même un risque limité, nécessitant notamment des obligations de transparence lorsque les systèmes d'IA interagissent avec des humains. Cette proposition de réglementation européenne représente, à bien des égards, l'outil de régulation le plus avancé en matière d'IA jusqu’à maintenant.

Dans la lignée des mesures qui nous apparaissent comme adéquates, on retrouve également le projet de loi de 2022 sur la Responsabilité algorithmique, dit Algorithmic Accountability Act of 2022 (H.R.6580), présenté le 3 février 2022 à la Chambre des représentants et au Sénat américain. Il propose d’ordonner à la Federal Trade Commission (FTC) de promulguer des règlements qui obligent toute « entité couverte » à effectuer des évaluations d’impact et à satisfaire à des exigences concernant les « processus de décision critique augmentés », ou de toute autre utilisation de « systèmes de décision automatisés » susceptible d’avoir des effets juridiques ou plus généralement des impacts importants sur un consommateur.Footnote 14

Consolider la Loi sur l'intelligence artificielle et les données (LIAD) canadienne : éléments de comparaison et recommandations

Les mesures européennes et américaines semblent pour le moment plus détaillées que la LIAD canadienne, qui aurait intérêt à présenter une version plus aiguisée de sa proposition actuelle. Force est de constater qu’à l'inverse de la législation européenne sur l'IA, la LIAD n'interdit pas la création de potentiels systèmes de notation sociale de personnes physiques à l'initiative ou pour le compte des autorités publiques. Elle ne condamne pas non plus les systèmes prohibitifs de reconnaissance biométrique à distance et en temps réel. Or, ces deux pratiques, que l'on peut qualifier de dérives en la matière, portent pourtant atteinte au principe de non-discrimination et au droit à la dignité. Elles vont à l'encontre des valeurs de justice et d'égalité et interfèrent avec les libertés et les droits des personnes visées. De fait, il est urgent que la LIAD intègre ces spécificités et interdise les systèmes destinés aux pratiques similaires.

Au sujet des exigences relatives aux systèmes d'IA, le projet de loi de 2022 sur la Responsabilité algorithmique américaine (Bill H.R.6580, 2022) apparaît, là encore, plus complet que la LIAD. Il impose, entre autres, une évaluation et une documentation de la durée de stockage des informations d'identification pertinentes des systèmes d'IAFootnote 15 (et des décisions critiques issues de ces systèmes), ou encore d’éventuels impacts positifs et négatifs actuels et futurs de ces systèmes sur la confidentialité ou encore la sécurité. De son côté, la LIAD exige que le responsable d'un système d'IA évalue, conformément aux règlements, si ce dernier s'inscrit dans les systèmes à incidence élevée. Si cela est avéré, le responsable d'un tel système doit alors établir des mesures, conformes aux règlements, dans l'objectif de cerner, évaluer et atténuer les risques de résultats biaisés ou d'hypothétiques préjudices résultant de l'utilisation de ce système.

En somme, plusieurs arguments militent en faveur d'un renforcement des exigences de la LIAD au niveau de la gouvernance des données « algorithmiques ». En l’état actuel, elles se concentrent principalement sur la manière dont ces données sont anonymisées et sur l'utilisation des données anonymes que l'on retrouve dans les systèmes d'IA. En comparaison, la législation européenne encadrant les pratiques relatives aux systèmes d'IA est plus sévère et holistique. Elle s'intéresse, par exemple, à l'analyse des biais potentiels ou encore à la façon dont les données sont choisies, collectées et utilisées. La LIAD devrait, au minimum, en faire autant.

En matière de transparence, la LIAD introduit une transparence nuancée pour les systèmes à fort impact, ce qui englobe à la fois l'utilisation prévue et réelle. Dès lors, les gestionnaires des fonctions d'un système d'IA devront divulguer une explication claire de l'utilisation réelle d'un tel système, ainsi que de toutes les décisions, recommandations ou prédictions que ce système exécute. Or, la LIAD devrait aller plus loin et demander l'ouverture, c'est-à-dire l'accès, aux donnéesFootnote 16 – y compris d'apprentissage – utilisées par les algorithmes dont les décisions seraient susceptibles d'avoir une incidence sur les droits humains et/ou être éthiquement discutables, dans le respect du secret industriel et des restrictions réglementaires.

Dans ce cadre, si, effectivement, les algorithmes d'apprentissage automatiqueFootnote 17 nécessitent, en amont, un entraînement via l'utilisation de données jouant un rôle fondamental dans leur capacité de déduction, alors il est primordial de favoriser l'accès aux bases de données à l'origine de ces données d'apprentissage et aux modalités de leur sélection. Cela serait un moyen efficace et légitime de contrôler la portée de ces systèmes d'IA et d'en comprendre les biais, le cas échéant. La transparence par l'ouverture des données de traitement algorithmique, à laquelle on introduit ici la notion de « données algorithmiques ouvertes »,Footnote 18 permettrait de nous assurer que les systèmes d'IA concernés s'inscrivent dans une dynamique éthique et de prévenir une part substantielle des dérives technologiques présentes et à venir.Footnote 19 N'oublions pas que la plupart des systèmes d'IA les plus sophistiqués sont entre les mains de grandes entreprises de technologie, au pouvoir exponentiel et transnational, parmi lesquelles celles évoquées précédemment. En définitive, cela représente une occasion pour le gouvernement du Canada, qui encourage l’ouverture des données et les politiques en faveur des technologies, de redéfinir les règles du jeu.

Conclusion

À travers le cas de Twitter, cet article analyse les éventuelles dérives des nouvelles technologies sur la société, sous l'angle du concept de « Frankenstein 2.0 ». Il revient ensuite sur les particularités potentiellement néfastes que peuvent partager les « super entreprises de technologie » comme Uber ou Facebook. Puis, afin de réguler l'impact des géants du secteur technologique sur la société, il expose deux solutions que sont l'ouverture de la technologie et le renforcement de l'encadrement normatif des technologies. Pour ce faire, un exercice de comparaison d'initiatives réglementaires encourageantes à destination des systèmes d'IA au niveau européen, américain et canadien a été proposé. Cela a permis d'identifier certaines lacunes existantes au sein de l'encadrement normatif canadien en matière d'IA : le projet de loi C-27 dans lequel figure la loi sur l'intelligence artificielle et les données (LIAD).

De surcroît, dans l'objectif de consolider la LIAD, des recommandations ont été suggérées. Elles visent d'une part à encourager l'interdiction des systèmes prohibitifs de reconnaissance biométrique et la création de systèmes de notation sociale de personnes physiques à l'initiative ou pour le compte des autorités publiques. Elles incitent, d'autre part, à renforcer les exigences de la LIAD au niveau de la gouvernance des données « algorithmiques » et préconisent l'ouverture de l'ensemble des données utilisées par les algorithmes dont les décisions seraient susceptibles d'avoir une incidence sur les droits humains et/ou être éthiquement discutables. En ce sens, nous avons introduit le concept de « données algorithmiques ouvertes », dans l'optique d'obvier la majorité des dérives technologiques et faire du Canada l'un des pays précurseurs quant à l'encadrement normatif des technologies.

Remerciements

Je tiens à remercier Dominic Martin pour ses clarifications sur le concept de « Frankenstein 2.0 » ainsi que Félix Mathieu pour ses précieux commentaires.

Footnotes

1 On parle, par exemple, d'une intervention du pouvoir exécutif, à l'image du projet de loi canadien C-18, Loi sur les nouvelles en lignes, émanant du gouvernement.

2 Twitter est, à ce titre, l'une des plateformes les plus fréquemment utilisées pour propager de fausses informations, spécifiquement en période de campagnes électorales (Verma et al., Reference Verma, Rohilla, Sharma, Gupta, Tiwari, Trivedi, Kolhe and Singh2023).

3 GAFAM est l'acronyme de Google, Apple, Facebook, Amazon, Microsoft.

4 Selon Cambridge Dictionary, un algorithme est : « un ensemble d'instructions ou de règles mathématiques qui, surtout si elles sont données à un ordinateur, aideront à calculer une réponse à un problème : Les applications musicales utilisent des algorithmes pour prédire la probabilité que les fans d'un groupe particulier en aiment un autre. ». Source : https://dictionary.cambridge.org/dictionary/english/algorithm.

5 Une action collective a été intentée en 2017 contre Uber devant un tribunal fédéral de Los Angeles (Sophano Van v. Rasier, LLC, Rasier-CA, LLC et Uber Technologies, Inc, [2017]). Le lien vers le document est disponible au sein de la bibliographie.

6 UberPOOL est une option « impopulaire » de l'application Uber, qui « contraint » les conducteurs à prendre plusieurs passagers se dirigeant dans la même direction (Möhlmann et Zalmanson, Reference Möhlmann and Zalmanson2017).

7 Selon Foray et Zimmermann (Reference Foray and Zimmermann2001): « Un logiciel libre est un logiciel dont le code-source, c'est-à-dire la série d'instructions qui forme le programme avant la compilation, est rendu ouvertement disponible et ne peut faire l'objet d'une appropriation privative. Le développement des logiciels libres est fondé sur le volontariat et le bénévolat des participants, dans un mode d'organisation coopératif qui s'appuie largement sur les commodités organisationnelles issues d'Internet ».

8 Dominic Martin (Reference Martin, Régis, Benyekhlef and Weinstock2017) fait référence ici à l'ouvrage The Future of the Professions: How Technology Will Transform the Work of Human Experts de Richard et Daniel Susskind (Reference Susskind and Susskind2015), dans lequel les auteurs opposent deux modèles de technologie à l'origine des systèmes automatisés : « un modèle fermé basé sur les technologies propriétaires, et sur la force des brevets et des droits d'auteurs ; ou un modèle ouvert mettant l'accent sur la propriété publique du savoir et des technologies. ».

9 Bien qu’à envisager avec précaution en raison des potentielles inégalités et autres conséquences auxquelles l'ouverture peut conduire. À ce sujet, voir par exemple Philip Mirowski (Reference Mirowski2018).

10 Le projet de loi C-18 a été adopté par la Chambre des communes du Canada le 14 décembre 2022 et est actuellement en attente d'une seconde lecture auprès du Sénat canadien : https://www.parl.ca/LegisInfo/fr/projet-de-loi/44-1/c-18.

11 Voir le texte détaillé du projet de loi C-27, actuellement en deuxième lecture au sein de la Chambre des communes du Canada : https://www.parl.ca/DocumentViewer/fr/44-1/projet-loi/C-27/premiere-lecture.

12 Le projet de loi C-27 vise par ailleurs à apporter des modifications corrélatives et connexes à d'autres lois (PL C-27, 2022).

13 Voir le Document 52021PC0206 de la Commission Européenne, relatif à la Proposition de règlement du Parlement Européen et du Conseil établissant des règles harmonisées concernant l'intelligence artificielle (législation sur l'intelligence artificielle) et modifiant certains actes législatifs de l'Union (COM/2021/206) : https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A52021PC0206.

14 Voir les détails du projet de loi de 2022 sur la responsabilité algorithmique (Bill H.R.6580, 2022), exposées sur le site du Congrès américain : https://www.congress.gov/bill/117th-congress/house-bill/6580/text.

15 Les systèmes d'IA sont qualifiés dans le texte du projet de « système de décision automatisé » ou de « processus de décision critique augmenté » (Bill H.R.6580, 2022). Pour plus de détails, consulter le site du Congrès américain : https://www.congress.gov/bill/117th-congress/house-bill/6580/text.

16 Dans un format anonymisé si nécessaire. Quant à la liberté de réutilisation et d'exploitation, sous licence libre, des données ouvertes, prônée dans la définition de l'ouverture des données – au départ, publiques (Fatah, Reference Fatah2021), elle devrait être discutée dans le cas des données de traitement algorithmique, au regard notamment des caractéristiques des algorithmes à l'origine de leur utilisation et de différents facteurs déterminants. De même, les conditions d'accès à ces données pourraient éventuellement être examinées.

17 L'apprentissage automatique est un « Processus par lequel un algorithme évalue et améliore ses performances sans l'intervention d'un programmeur, en répétant son exécution sur des jeux de données jusqu'à obtenir, de manière régulière, des résultats pertinents ». Légifrance, Vocabulaire de l'intelligence artificielle (liste de termes, expressions et définitions adoptés), NOR : CTNR1832601K, Texte n° 58 : https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000037783813.

18 Les données algorithmiques ouvertes font référence à l'ensemble des données ouvertes, y compris d'apprentissage, utilisées par les algorithmes dont les décisions seraient susceptibles d'avoir une incidence sur les droits humains et/ou être éthiquement discutables, à l'exception des données liées au secret industriel et/ou faisant l'objet de restrictions réglementaires.

19 Dans un autre contexte et à plus forte raison, l'ouverture des données publiques de traitement algorithmique, assurant la transparence des données utilisées par les algorithmes opérant dans le secteur public ou pour le compte des autorités publiques, devrait être imposée, toujours à l'exception des données sensibles qui font l'objet de restrictions réglementaires. On qualifiera ces données de « données publiques algorithmiques ouvertes », puisqu'elles concernent exclusivement le secteur public.

References

Bibliographie

Acemoglu, Daron. 2019. « La dérive moderniste des géants technologiques ». La Presse (Montréal), 19 août.Google Scholar
Bill H.R.6580. [2022]. Algorithmic Accountability Act of 2022, 2e sess, 117e Congrès, Washington.Google Scholar
Brown, Nik, et Michael, Mike. 2003. « A Sociology of Expectations: Retrospecting Prospects and Prospecting Retrospects ». Technology Analysis and Strategic Management 15 (1) : 318.CrossRefGoogle Scholar
Chopra, Anuj. 2023. « Le rétablissement de milliers de comptes sur Twitter menace de faire exploser la désinformation ». Le Devoir (Montréal), 10 janvier.Google Scholar
Euzen, Philippe. 2017. « Uber crée une nouvelle population de travailleurs pauvres et mal couverts ». Le Monde (Paris), 16 janvier.Google Scholar
Fatah, Lahcen. 2021. « Les données ouvertes, un objet de l’économie des promesses technologiques ? ». Communication préparée pour le Colloque international « Les économies de la promesse », session du 3 novembre 2021. Centre interuniversitaire de recherche sur la science et la technologie, Université du Québec à Montréal, Montréal.Google Scholar
Fontanel, Jacques, et Sushcheva, Natalia. 2019. « La puissance des GAFAM : réalités, apports et dangers ». Dans Annuaire français de relations internationales XX. Paris : La Documentation française. ⟨hal-02196915⟩.Google Scholar
Foray, Dominique, et Zimmermann, Jean-Benoît. 2001. « L'économie du logiciel libre. Organisation coopérative et incitation à l'innovation ». Revue économique 52 (7) : 7793.Google Scholar
Hardy, Quentin. 2016. « The Web's Creator Looks to Reinvent It ». The New York Times (New York), 7 juin.Google Scholar
La Presse canadienne. 2022. « Projet de loi C-18, Google écrit aux législateurs canadiens ». La Presse (Montréal), 1er juin.Google Scholar
Martin, Dominic. 2017. « Frankenstein 2.0 ». Dans Sauvons la justice!, dir. Régis, Catherine, Benyekhlef, Karim et Weinstock, Daniel. Montréal : Del Busso.Google Scholar
Mirowski, Philip. 2018. « The Future(s) of Open Science ». Social Studies of Science 48 (2) : 171203.CrossRefGoogle ScholarPubMed
Möhlmann, Mareike, et Zalmanson, Lior. 2017. « Hands on the Wheel: Navigating Algorithmic Management and Uber Drivers' Autonomy ». Proceedings of the International Conference on Information Systems (ICIS 2017), December 10-13, Seoul, South Korea.Google Scholar
PL C-18. [2021]. Loi concernant les plateformes de communication en ligne rendant disponible du contenu de nouvelles aux personnes se trouvant au Canada, dite Loi sur les nouvelles en ligne, 1e sess, 44e leg, Ontario 2021 (adopté par la Chambre des communes le 14 décembre 2022 et est actuellement en attente d'une seconde lecture auprès du Sénat).Google Scholar
PL C-27. [2022]. Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l'intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d'autres lois, dite Loi de 2022 sur la mise en œuvre de la Charte du numérique, 1e sess, 44e leg, Ontario 2022 (actuellement en deuxième lecture au sein de la Chambre des communes du Canada).Google Scholar
Proposition de règlement (CE). [2021]. Proposition de règlement du Parlement Européen et du Conseil établissant des règles harmonisées concernant l'intelligence artificielle (législation sur l'intelligence artificielle) et modifiant certains actes législatifs de l'Union, Bruxelles, COM/2021/206, 21.04.2021, n° de procédure : 2021/0106(COD).Google Scholar
Roy, Jean-Hugues. 2022. « Projet de loi C-18 : en a-t-on vraiment besoin ? », billet de l'Institut de recherche et d'informations socioéconomiques (IRIS). Consulté le 9 mai 2023 sur le lien : https://iris-recherche.qc.ca/blogue/economie-et-capitalisme/projet-de-loi-c-18-en-a-t-on-vraiment-besoin/.Google Scholar
Scott, James. 1998. Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed: New Haven : Yale University Press.Google Scholar
Shelley, Mary. 1818. Frankenstein; or, The Modern Prometheus. London : Lackington, Hughes, Harding, Mavor & Jones.Google Scholar
Smyrnaios, Nikos. 2016. « L'effet GAFAM : stratégies et logiques de l'oligopole de l'internet ». Communication & langages 188 (2) : 6183.Google Scholar
Sophano Van v. Rasier, LLC, Rasier-CA, LLC et Uber Technologies, Inc, [2017]. Case no° : 2:17-cv-02550. United States District Court for the Central District of the State of California, Class action complaint. Consulté le 9 mai 2023 sur le lien : https://cdn.arstechnica.net/wp-content/uploads/2017/04/uberdrversuit.pdf.Google Scholar
Susskind, Richard E., et Susskind, Daniel. 2015. The Future of the Professions: How Technology Will Transform the Work of Human Experts. Oxford : Oxford University Press.CrossRefGoogle Scholar
Trudel, Pierre. 2006. « L'encadrement normatif des technologies : une gestion réseautique des risques ». Rapport présenté lors du 30e congrès de l'Institut international de droit d'expression et d'inspiration françaises, Le Caire (Égypte), 16–18 décembre 2006.Google Scholar
Verma, Vijay, Rohilla, Mohit, Sharma, Anuj et Gupta, Mohit. 2023. « Fake News Detection on Twitter ». In Advances in Data and Information Sciences, eds., Tiwari, Shailesh, Trivedi, Munesh C., Kolhe, Mohan L., Singh, Brajesh Kumar. Lecture Notes in Networks and Systems, vol 522 : 141–149. Springer, Singapore. https://doi.org/10.1007/978-981-19-5292-0_13Google Scholar
Wormser, I. Maurice. 1931. Frankenstein, Incorporated. New York : McGraw-Hill Book Co.Google Scholar