Menu
Log in
Log in


NOUVELLES

  • 20 Jul 2022 5:22 PM | CAN-TECH Law (Administrator)

    La demanderesse, la Corporation de développement de l’Étang Burbank (Corporation) demande une licence de tirage. La Régie des alcools, des courses et des jeux la convoque devant le Tribunal.  La Régie remet en cause la participation d’un tiers, Loto-cacao inc., une entreprise à but lucratif, dans la conduite et l’administration du tirage qui met à la disposition de la Corporation sa plateforme numérique. Celle-ci permet la mise en vente de billets de participation et la détermination du billet gagnant.  Le Tribunal de la Régie des alcools, des courses et des jeux doit déterminer si  l’utilisation d’une plateforme numérique pour la conduite et l’administration d’un tirage est conforme avec la législation et la réglementation applicables.

    En ce qui a trait à la délivrance d’une licence de tirage, le Tribunal constate que la Corporation remplit les exigences de la loi, et c’est à elle, le cas échéant, que la licence serait délivrée.

    En ce qui a trait au tirage en lui-même, trois éléments se dégagent de la lettre et de l’esprit des dispositions applicables : celui-ci doit se faire manuellement, c’est la titulaire de la licence qui doit l’effectuer et il ne peut se faire de manière virtuelle, mais bien à l’aide d’un baril, ou autre objet semblable, dans lequel sont placés des talons de billets imprimés. Loto-cacao inc. assimile son rôle à celui de l’imprimeur. À cet effet, l’article 42 des Règles sur les systèmes de loterie  mentionne que le certificat attestant du nombre et de la numérotation de billets imprimés doit être complété par l’imprimeur. L’impression des billets infère que ce sont des billets « papier » qui sont remis au titulaire de la licence de tirage.

    Le paragraphe 1o de l’article 41 des Règles prévoit aussi que les billets de tirage doivent être constitués de deux parties, dont un talon qui doit être conservé par la titulaire de la licence après la vente du billet. Le « tirage » consiste donc à la pige « manuelle » au sort d’un talon parmi tous les talons de billets vendus. Le baril, ou autre accessoire similaire, et le brassage des talons de billets représentent la garantie que doit comporter la pige au hasard d’un talon. En outre, le tirage au sort doit être public et tenu devant au moins trois témoins selon le libellé de l’article 38 des Règles. Un tirage virtuel, qui consiste à « appuyer sur le bouton » du tableau de bord de la plateforme numérique élaborée par Loto-cacao inc., ne répond pas à cette exigence qu’il soit exécuté à partir des bureaux de Loto-cacao inc. ou à partir de ceux de la Corporation.

    L’exigence du tirage public et devant témoins vise à garantir l’intégrité de celui-ci par le fait que le public ou les témoins qui y assistent sont à même de constater et d’attester de la pige, de façon aléatoire et selon le fruit du hasard, d’un talon de billet parmi les autres talons de billets. Or, le recours à une plateforme numérique pour la désignation d’un gagnant, même si cela se fait devant témoin et en public, ne permet pas d’attester que le tirage est le fruit du hasard, mais seulement qu’une personne X a appuyé sur un bouton et que la plateforme a identifié un billet gagnant.

    La demanderesse prétend que le principe de « l’équivalence fonctionnelle » énoncé dans la Loi concernant le cadre juridique des technologies de l’information permet d’écarter les obstacles au recours aux billets électroniques puisque la valeur juridique de ces billets de tirage est la même, quel que soit leur support ou la technologie qui les porte. De même, rien dans la loi n’imposerait le « tirage à la main » d’un billet gagnant.

    Or, les systèmes de loteries prévus aux Règles sont fondés sur des « systèmes » complets d’encadrement, où chaque élément permet d’assurer et de garantir l’intégrité des systèmes dans leur ensemble. Dans le cas d’un tirage, il s’agit du billet papier, du certificat de l’imprimeur, du talon de billet, du tirage au sort « à la main » d’un talon et la présence du public ainsi que des témoins pour attester de l’intégrité du tirage au sort. Il ne s’agit donc pas simplement de remplacer un billet de tirage « papier » par un billet « électronique » et un « tirage à la main » par un « tirage électronique ». Il faut s’assurer que la modification d’un des éléments du système ne compromet pas l’intégrité de ce système dans son ensemble.

    La désignation d’un gagnant par un « tirage électronique » fait perdre toute valeur à sa tenue en public et à la présence de témoins, puisque ceux-ci ne peuvent attester de la valeur aléatoire du tirage. Un « tirage électronique » s’opère à l’intérieur d’une « boîte noire » sans que quiconque ne soit en mesure ni de constater ni d’attester ce qui s’y déroule. 

    Les règles en place et le mandat de la Régie visent à assurer l’intégrité des systèmes de loteries et la protection du public. Ces règles sont fondées sur des façons de faire ayant fait leurs preuves et qui sont connues de tous. Le projet de tirage proposé par la Corporation s’éloigne des règles existantes, ce qui fait en sorte que la Régie ne peut en attester l’intégrité. 

    La Corporation a fait valoir que son projet ne diffère guère de la mesure d’accommodement temporaire instaurée par la Régie qui tolère, dans le contexte de la pandémie, la numérisation de billets papier pour leur envoi uniquement par courriel à l’acheteur. Le Tribunal souligne que cet accommodement ne permet pas de produire des billets par l’intermédiaire d’un site ou d’une plateforme Web, puisque les billets papier existent déjà.

    L’intégrité du système de loterie est fondée sur le hasard qui en est le cœur. Le tirage doit être le fruit du hasard. Tous les participants doivent avoir une chance de gagner. Le baril, ou autre outil semblable, et le brassage des talons de billets représentent la garantie associée au hasard. C’est pourquoi il doit exister des mécanismes de contrôle afin de vérifier, entre autres, comment est programmée la plateforme numérique et d’assurer l’intégrité de tout système de tirage. Il en va de la confiance des participants. Ces mécanismes contribuent à garantir l’absence de stratagèmes visant à soustraire le hasard du jeu en retirant ou en limitant les chances de gagner des participants, le jeu devenant ainsi inéquitable.

    Le recours à une plateforme numérique pour mener un tirage ne permet pas d’assurer l’intégrité du système de loterie, en l’occurrence le tirage, d’autant plus que cette plateforme se trouve sur les serveurs d’un tiers. Le constat serait le même si la plateforme était celle de la Corporation. Dans un contexte où les cas de fraude avec des outils informatiques sont nombreux, il est primordial pour la Régie, dans le cadre de son mandat de la protection du public, de s’assurer de l’intégrité de l’outil. Les personnes qui participent de bonne foi à un tirage pour notamment appuyer financièrement un organisme doivent avoir l’assurance que la loterie n’est pas truquée.

    Corporation de développement de l'Étang Burbank inc., 2022 QCRACJ 48 (CanLII), 15 mars 2022, <https://canlii.ca/t/jnfd3>

  • 20 Jul 2022 5:21 PM | CAN-TECH Law (Administrator)

    Il s’agit d’une demande d’autorisation d’exercer une action collective.  Le demandeur reproche à la défenderesse deux pratiques illégales : d’avoir procédé, via l’application Google Photos, à l’extraction, à la collecte, à la conservation et à l’utilisation des données biométriques faciales des résidents du Québec et d’avoir omis de décrire avec précision, voire d’informer le consommateur qu’elle procédait à l’extraction, la collecte, la conservation et l’utilisation de renseignements personnels sensibles sous forme de données biométriques faciales à partir des photos conservées sur sa plateforme Google Photos. Ceci aurait été fait sans fournir de préavis suffisant, sans obtenir un consentement éclairé et sans publier de politiques de conservation des données biométriques et ce, depuis octobre 2015.

    Le demandeur soutient que la défenderesse a agi illégalement en portant sciemment atteinte aux droits à la vie privée et à l'inviolabilité des membres protégés par la Charte des droits et libertés de la personne.  Il ajoute que la défenderesse a manqué aux obligations qui lui incombent en vertu du Code civil du Québec et de la Loi sur la protection des renseignements personnels dans le secteur privé. Le demandeur soutient également que la défenderesse a fait des représentations trompeuses aux utilisateurs de Google Photos au sujet de ses pratiques et politiques de confidentialité, et ce, en violation de la Loi sur la protection du consommateur

    À l’étape de l’autorisation d’un recours collectif, l’exercice auquel le Tribunal est convié en est un de filtrage dont l’objectif est de se satisfaire de l’existence d’une cause défendable, d’une apparence sérieuse de droit.  Quant à la première pratique factuelle alléguée par le demandeur, soit l’extraction, la collecte, la conservation et l’utilisation des données biométriques faciales par la défenderesse, le Tribunal est d’avis qu’aucune des allégations du demandeur dans sa demande n’est supportée par un quelconque élément de preuve, sauf un article d’un auteur sur un site Internet.  Cet auteur indique que la version 1.8 de Google Photos va pouvoir reconnaître les données biométriques faciales des utilisateurs de Google Photos au Canada et les regrouper et qu’avec cette version, le marquage facial a été étendu au Canada.

    Mais de l’avis du Tribunal, cela est nettement insuffisant pour établir l’existence d’une pratique généralisée par la défenderesse d’extraction, de collecte, de conservation et d’utilisation des données biométriques faciales par la défenderesse. De l’avis du Tribunal, deux phrases tirées d’un article d’un auteur dont on ne connaît aucunement la compétence, le statut ou les qualifications, et sur un site Internet dont on ne connaît rien quant au statut ni à la diffusion, ne permettent pas de constituer une preuve suffisante à établir une allégation factuelle qu’on peut tenir pour avérée. Cet article constitue tout simplement l’opinion d’un auteur dont on ne sait rien; on ne peut conclure qu’il s’agit d’une publication scientifique rigoureuse ou d’une enquête journalistique suffisante. On ne sait pas s’il s’agit d’un vrai journaliste ou d’un bloggeur ou d’une personne dans son sous-sol qui écrit ce qu’il lui passe par la tête. Sans nécessiter une preuve ou description étendue, le demandeur devait quand même expliquer ces éléments.

    Même en supposant qu’il soit valide comme « certaine preuve » – ce qu’il n’est pas - le texte de l’article est plutôt laconique et avare de détails spécifiques quant à l’extraction, la collecte, la conservation et l’utilisation des données biométriques faciales. De l’avis du Tribunal, son absence de détail confirme qu’il s’agit de l’opinion personnelle de l’auteur.  Accepter cet article comme étant une « certaine preuve » n’est pas possible dans ces circonstances. Conclure autrement signifierait qu’il serait possible de déclencher une action collective sur de simples soupçons ou d’articles d’opinion d’auteurs inconnus et invérifiables.

    Le Tribunal conclut que, dans ces circonstances, les allégations du demandeur concernant la première pratique factuelle de la défenderesse ne peuvent être tenues pour avérées. Le demandeur n’a donc pas démontré une cause défendable quant à l’extraction, la collecte, la conservation et l’utilisation des données biométriques faciales par la défenderesse. 

    Homsy c. Google, 2022 QCCS 722 (CanLII), 1er mars 2022, <https://canlii.ca/t/jmrj3>

  • 20 Jul 2022 5:19 PM | CAN-TECH Law (Administrator)

    Le Conseil de discipline de l’Ordre des architectes statue sur une plainte fondée sur l’article 59.2 du Code des professions interdisant à un professionnel de poser un acte dérogatoire à l’honneur ou à la dignité de la profession ou à la discipline des membres de l’Ordre.  L’intimé aurait entre autres apposé ou a permis que soit apposé son sceau et sa signature sur des plans relatifs à l’exercice de sa profession sans utiliser l’une ou l’autre des 3 méthodes permises pour sceller et signer des documents prévue à l’article 33 du Code de déontologie.

    La première méthode prévue au Code consiste en ce que l’architecte signe à la main un document puis y appose son sceau manuellement. La seconde méthode est hybride, en ce que le sceau est numérisé et apposé sur le document avant son impression, puis, une fois le document imprimé, l’architecte le signe à la main.  La troisième méthode est totalement numérique, en ce que tant le sceau que la signature sont apposés par l’architecte avant l’impression d’un document. Le document n’a pas à être imprimé pour constituer un document dûment signé. Pour pouvoir utiliser cette troisième méthode, l’architecte doit utiliser un procédé technologique garantissant l’intégrité de sa signature. Une référence dans le Code est faite à cet égard à la Loi concernant le cadre juridique des technologies de l’information.  Cette loi prévoit le fonctionnement pour établir le lien entre une personne et un document technologique.

    À cet égard, l’Ordre privilégie la signature électronique de l’entreprise Notarius.  L’entreprise offrant la plateforme de signature numérique procède à la vérification de l’identité de l’architecte, avant de lui attribuer un mot de passe. Ce mot de passe doit être inscrit par l’architecte à chaque fois qu’il utilise sa signature numérique. Étant donné que ce mot de passe est personnel, l’architecte ne peut le prêter, le céder, ni même autoriser quiconque à s’en servir. Or, l’intimé ne possède pas une telle signature numérique.

    Ce qu’il a plutôt fait, ou permis d’être fait par les techniciennes, a été d’apposer son sceau sur une feuille de papier, de signer sur le sceau, puis de numériser le tout dans l’ordinateur des techniciennes du client. Ces dernières apposent ensuite ce sceau et cette signature sur les plans avant de les imprimer. Une telle méthode n’offre aucune garantie quant à l’intégrité de la signature de l’intimé ni des plans ainsi signés et n’est pas conforme aux exigences de la Loi concernant le cadre juridique des technologies de l’information ni de l’article 33 du Code de déontologie.

    Le Conseil de discipline conclut qu’il y a eu contravention à l’article 33 du Code de déontologie. De plus, en agissant de la sorte, l’intimé manque d’intégrité et de rigueur, pourtant des valeurs fondamentales de la profession, et commet ainsi un acte dérogatoire à l’honneur et à la dignité de la profession.  Pour cette raison le Conseil déclare l’intimé coupable d’avoir contrevenu à l’article 59.2 du Code des professions.

    Architectes (Ordre professionnel des) c. Leblanc, 2022 QCCDARC 2 (CanLII), 2 mars 2022, <https://canlii.ca/t/jmsh8>

  • 21 Mar 2022 5:16 PM | CAN-TECH Law (Administrator)

    Le Chili entend prémunir sa population contre de potentielles dérives émanant des neurotechnologies. Il serait le premier État au monde à anticiper les conséquences du recours aux neurotechnologies.

    Les implants dans le cerveau humain sont envisagés comme un moyen prometteur de guérir un jour la surdité et la cécité, de lutter contre la maladie de Parkinson ou la maladie d’Alzheimer. Mais ces technologies font aussi l’objet de toutes les rêveries, issues d’expériences sur les animaux destinées à inventer des interfaces homme-machine. Au Chili, la Chambre des députés a voté le 29 septembre 2021 une loi sur les droits du cerveau, ou «neurodroits». Cette loi établit que, dans le respect de «l’intégrité physique et psychique» d’une personne, «aucune autorité ou individu » ne pourra, à partir des technologies sur le cerveau humain, « augmenter, diminuer ou perturber cette intégrité individuelle sans le consentement approprié». Quatre domaines fondamentaux sont légalement définis: la sauvegarde des données de l’esprit humain ou « neurodonnées », l’établissement des limites de la neurotechnologie de la lecture et surtout de l’écriture dans le cerveau, la détermination d’une distribution équitable de l’accès à ces technologies et la fixation des limites des « neuroalgorithmes ».

    Françoise LAUGÉE, « Antidystopie : le Chili veut inscrire les «neurodroits» dans sa constitution », (2021) 59 Revue européenne des médias et du numérique, <https://la-rem.eu/2022/01/antidystopie-le-chili-veut-inscrire-les-neurodroits-dans-sa-constitution/>

  • 21 Mar 2022 5:15 PM | CAN-TECH Law (Administrator)

    Le rapport analyse la création et la diffusion d’hypertrucages (deepfakes) dans le cadre d’échanges entre particuliers. C’est une démarche afin de déterminer la mesure dans laquelle l’actuel cadre juridique peut prendre adéquatement en charge les nouvelles expressions illicites ou délictueuses que rend possible le recours à la technologie. Il examine également la mesure dans laquelle les législations et les règlementations nationales doivent être mises à niveau afin de lutter contre les répercussions négatives de cette technologie.

    Le rapport anticipe une croissance exponentielle du volume de contenus audiovisuels manipulés car la technologie sophistiquée permettant de réaliser des hypertrucages est de plus en plus accessible au grand public. Le recours à ces technologies peut servir des finalités éminemment démocratiques en permettant, par exemple, la création de contenus satiriques. Mais l’usage de ces technologies à des fins malveillantes peut engendrer d’importantes conséquences sociétales.  Ainsi, les médias et les journalistes pourraient hésiter à utiliser des éléments de preuve vidéo faute de capacité de vérifier l'authenticité des contenus. Le déroulement des procédures judiciaires pourrait être entravé en raison de la nécessité d’enquêtes plus longues afin d'écarter les éléments de preuve falsifiés. De même, les élections pourraient être perturbées par la diffusion de fausses séquences vidéo afin de discréditer des opposants. De même, il est à craindre que le développement de contenus pornographiques par le recours aux hypertrucages pourrait avoir des répercussions négatives sur la sécurité et le respect des droits des femmes.

    Le rapport conclut que la plupart des applications d’hypertrucages qui posent des difficultés sont déjà interdites ou limitées par la législation. Le droit pénal néerlandais semble en effet généralement adapté pour faire face aux deepfakes spécifiquement utilisées pour l'usurpation d'identité, la fraude et la diffusion de contenus pornographiques non autorisés. En outre, le règlement général de l'Union européenne relatif à la protection des données et la Convention européenne des droits de l'homme prévoient des dispositions générales sur le traitement des données et le respect de la vie privée qui peuvent s’appliquer à la production et la diffusion de certains contenus hyper truqués, par exemple ceux qui incluent des données personnelles sensibles ou qui portent indument atteinte à la réputation et/ou à l'honneur d'une personne.

    Bien que des ajustements soient envisageables pour renforcer l’actuel cadre juridique et les modalités procédurales en vigueur, c’est l’application effective de la législation qui demeure un défi de taille. Le rapport s’attache à élucider des questions comme la compétence juridictionnelle, les moyens techniques et le rôle des intermédiaires en ligne.

    Le rapport identifie plusieurs options réglementaires que les instances gouvernementales devraient envisager. Notamment des modifications afin de garantir une surveillance et une application effective des nouvelles dispositions législatives concernant l’introduction de preuves devant les tribunaux. Aussi, on met de l’avant des exigences de vérification préalable imposées aux plateformes de même que la mise en place de législations réglementant et même prohibant la production, distribution ou la possession de certains dispositifs technologiques destinées à produire des hypertrucages. Le renforcement des règles sur la protection de la vie privé et de l’image des personnes est aussi envisagé. Notamment rendre plus strictes les lois protégeant la vie privée et la réputation des personnalités publiques.

    B. van der SLOOT, Y. WAGENSVELD et B.J. KOOPS, Deepfakes: The legal challenges of a synthetic society (résumé en anglais) (2022), November 2021, Tilburg Institute for Law, Technology, and Society,
    <https://www.tilburguniversity.edu/sites/default/files/download/Deepfake%20EN.pdf>

  • 21 Mar 2022 5:14 PM | CAN-TECH Law (Administrator)

    La transformation numérique de l’administration et des services publics s’est poursuivie entrainant une évolution profonde de la relation à l’usager. Dans le même temps, les politiques d’inclusion numérique ont tenté d’accompagner ces changements, particulièrement auprès des publics les plus vulnérables.

    Le Défenseur des droits continue de recevoir des réclamations toujours plus nombreuses, preuve que le mouvement de numérisation des services se heurte encore aux situations des usagers. Le Défenseur des droits a fait le suivi sur les inégalités d’accès aux droits provoquées par des procédures numérisées à marche forcée. Le rapport fait état des évolutions – parfois des progrès, parfois des reculs – observées ces dernières années.

    Le rapport constate que « La transformation numérique de l’administration, telle qu’elle est menée aujourd’hui, et la politique d’inclusion numérique qui l’accompagne, impliquent une transformation du rôle de l’usager dans la production même du service public : il en devient le coproducteur malgré lui. (…) Sur les épaules de l’usager ou de ses “aidants” reposent désormais la charge et la responsabilité du bon fonctionnement de la procédure ».

    Le rapport encourage les services publics à développer le partage des données et le pré-remplissage des formulaires. Le recours à une ergonomie adaptée à tous et notamment aux personnes ayant des limitations de même que le développement de tutoriels et d’explications en langage clair sont au nombre des approches à privilégier pour assurer un réel accès aux services publics en ligne.

    DÉFENSEUR DES DROITS, Rapport-Dématérialisation des services publics : trois ans après, où en est-on?, 2022, <https://defenseurdesdroits.fr/fr/rapports/2022/02/rapport-dematerialisation- des-services-publics-trois-ans-apres-ou-en-est-on>

  • 21 Mar 2022 5:13 PM | CAN-TECH Law (Administrator)

    Le rapport sur l’utilisation responsable de l’intelligence artificielle (IA) dans le domaine des services financiers s’appuie sur les conclusions de travaux d’experts du domaine et sur les préoccupations exprimées par des consommateurs de produits et services financiers. La participation de citoyens à ce projet ajoute à la profondeur de la réflexion et distingue clairement cette approche des autres travaux menés à ce jour sur l’utilisation responsable de l’intelligence artificielle en finance.

    Le rapport contient une série de dix recommandations pour favoriser le développement et le déploiement de l’intelligence artificielle en finance de façon responsable: trois d’entre elles sont formulées à l’attention de l’Autorité des marchés financiers, alors que les sept autres sont dédiées à l’industrie. Ces recommandations sont appuyées sur un recensement de cas d’utilisation et sur une discussion détaillée des risques et des défis du déploiement responsable de l’IA en finance. Les recommandations s’appuient également sur une interprétation des principes de la Déclaration de Montréal pour un développement responsable de l’IA dans le contexte propre aux activités du secteur financier.

    AUTORITÉ DES MARCHÉS FINANCIERS, « L’intelligence artificielle en finance: recommandations pour une utilisation responsable », novembre 2021, 
    <https://lautorite.qc.ca/grand-public/salle-de-presse/actualites/fiche-dactualite/lautorite-devoile-un-rapport-important-sur-lutilisation-responsable-de-lintelligence-artificielle-en-finance>

  • 21 Mar 2022 5:12 PM | CAN-TECH Law (Administrator)

    Plusieurs organisations internationales jouent un rôle dans la gouvernance d’Internet et des secteurs du numérique. Certaines organisations internationales sont plus influentes que d’autres, car il existe des relations de pouvoir qui structurent et déterminent leur importance relative tout comme leur influence dans les régulations des communications du XXIe siècle. D’autres restent en marge des organisations internationales publiques et conservent un pouvoir structurant incontestable. Dans cet article, les auteurs dressent un portrait succinct de l’évolution de la gouvernance d’Internet et plus généralement de tout ce qui touche les communications électroniques et les plateformes numériques. Cet article est structuré en trois temps distincts et en analysant les moments, les controverses et les organisations ayant marqué l’évolution de cette gouvernance hybride, multiniveaux et multidimensionnelle. Le premier temps aborde la gouvernance technique, le deuxième discute de la dimension commerciale alors que le troisième se penche sur les enjeux politiques.

    Michèle RIOUX et Olivier DAGENAIS, « Le rôle des organisations internationales dans la gouvernance d’Internet et des secteurs numériques », Hors-série (2021) Revue québécoise de droit international, 357.
    <https://www.sqdi.org/fr/le-role-des-organisations-internationales-dans-la-gouvernance-dinternet-et-des-secteurs-numeriques/>

  • 21 Mar 2022 5:11 PM | CAN-TECH Law (Administrator)

    Cet article examine les enjeux juridiques soulevés par le recours, de plus en plus marqué, aux outils algorithmiques par les autorités gouvernementales et administratives. Ces technologies, qui font miroiter une amélioration de l’efficacité et de l’objectivité des processus décisionnels, s’accompagnent d’effets délétères qui heurtent les garanties fondamentales de l’État de droit.

    Premièrement, l’utilisation d’algorithmes d’exploration des données par l’Administration caractérise un nouveau modèle de gouvernance axé sur la modélisation algorithmique des justiciables. Guidée par les inférences tirées de l’analyse des données numériques des citoyens, l’action étatique est portée à ne plus raisonner en fonction de leur situation singulière, mais plutôt selon celle de leur « double statistique ». Les décisions prises sur la base de telles prédictions constituent une normativité algorithmique qui cherche à personnaliser la règle juridique jusqu’au point de prescrire, à chaque citoyen, le comportement approprié en toutes circonstances. À l’heure actuelle, l’encadrement d’un tel usage des algorithmes oscille entre des principes empreints de bonne volonté, mais non contraignants et un droit positif applicable quoi qu’anachronique. De nombreux cas d’utilisation d’outils algorithmiques par différentes administrations à travers le monde illustrent comment ceux-ci peuvent se retourner contre les justiciables, souvent parmi les plus vulnérables, en portant atteinte à leurs droits fondamentaux. En outre, l’aura « scientificité » qui entoure ces outils leur confère une présomption de rationalité qui conduit à un dangereux phénomène de déresponsabilisation des décideurs publics. Phénomène qui ne fait qu’exacerber le risque que les algorithmes mènent à des décisions discriminatoires lorsque des biais s’infiltrent à l’étape de leur conception ou lors de leur utilisation. Il ne serait d’ailleurs pas étonnant que les tribunaux canadiens viennent à reconnaître que la prise de décision sur la base de recommandations algorithmiques biaisées constitue une violation du droit à l’égalité. Les outils algorithmiques ont néanmoins un réel potentiel de contribuer positivement à l’État de droit en améliorant l’accès à la justice tant formelle qu’informelle. En effet, une implantation raisonnée de l’intelligence artificielle permettrait de bonifier l’expérience des justiciables et accroître l’efficacité des tribunaux et des plateformes de résolution en ligne des conflits. Il faut toutefois faire preuve de précaution lorsqu’il est question d’introduire des outils algorithmiques dans les processus décisionnels qui affectent les droits des individus, puisque les algorithmes d’apprentissage automatique sont incompatibles avec certaines règles élémentaires de justice naturelle telles que le droit d’être entendu et l’exigence de motivation des décisions. À plus grande échelle, les algorithmes peuvent être mis à profit pour développer de nouveaux mécanismes juridiques qui contribuent à l’autonomisation des collectivités. À l’image de l’action collective, qui a permis d’équilibrer les relations entre consommateurs et commerçants, il est aujourd’hui nécessaire de réfléchir à des moyens de faire contrepoids aux rapports asymétriques entre utilisateurs et opérateurs de plateformes numériques.

    Simon DU PERRON et Karim BENYEKHLEF, Les algorithmes et l'État de Droit, 2021,
    document de travail n°28, 85p. <https://www.cyberjustice.ca/publications/les-algorithmes-et-
    letat-de-droit/
    >

  • 21 Mar 2022 5:10 PM | CAN-TECH Law (Administrator)

    La vérité journalistique découle de la validation des affirmations diffusées. Cette validation est fonction du système de croyances à partir duquel on détermine ce qui est tenu pour conforme à la vérité. Dans les sociétés démocratiques, il coexiste une pluralité de systèmes de croyances. Il y a donc plusieurs systèmes de validation. D’où une coexistence d’une pluralité de vérités journalistiques. Ces « vérités » se trouvent en concurrence pour l’attention des individus connectés. Alors que dans le modèle médiatique traditionnel, l’information est choisie et ordonnancée par un éditeur selon un processus de validation reflétant ses valeurs, dans l’univers médiatique dominé par les réseaux sociaux, les contenus sont poussés vers les usagers principalement en fonction du calcul des prédilections des individus. La fonction éditoriale, celle qui préside à l’évaluation et aux choix des informations à être diffusés, se trouve supplantée par des processus automatisés livrant les informations qui captent l’attention des usagers, sans égard à leur conformité à un système crédible de validation. Un tel modèle comporte d’importants risques pour la qualité des délibérations démocratiques. Le texte avance certaines approches pour la mise en place d’un cadre juridique conséquent avec les caractéristiques des environnements connectés fondés sur la valorisation des données massives.

    Pierre TRUDEL, « Fausses nouvelles et réseaux sociaux » dans Michèle Stanton-Jean et Christian Hervé, Éthique, intégrité scientifique et fausses nouvelles, Paris, Dalloz, 2021, 309-327.
    <https://pierretrudel.openum.ca/publications/fausses-nouvelles-et-reseaux-sociaux>

  

Association canadienne du droit des technologies

1-189 Queen Street East

Toronto, ON M5A 1S2

contact@cantechlaw.ca

Copyright © 2025 The Canadian Technology Law Association, All rights reserved.