Menu
Log in
Log in


NOUVELLES

  • 21 Mar 2022 5:15 PM | CAN-TECH Law (Administrator)

    Le rapport analyse la création et la diffusion d’hypertrucages (deepfakes) dans le cadre d’échanges entre particuliers. C’est une démarche afin de déterminer la mesure dans laquelle l’actuel cadre juridique peut prendre adéquatement en charge les nouvelles expressions illicites ou délictueuses que rend possible le recours à la technologie. Il examine également la mesure dans laquelle les législations et les règlementations nationales doivent être mises à niveau afin de lutter contre les répercussions négatives de cette technologie.

    Le rapport anticipe une croissance exponentielle du volume de contenus audiovisuels manipulés car la technologie sophistiquée permettant de réaliser des hypertrucages est de plus en plus accessible au grand public. Le recours à ces technologies peut servir des finalités éminemment démocratiques en permettant, par exemple, la création de contenus satiriques. Mais l’usage de ces technologies à des fins malveillantes peut engendrer d’importantes conséquences sociétales.  Ainsi, les médias et les journalistes pourraient hésiter à utiliser des éléments de preuve vidéo faute de capacité de vérifier l'authenticité des contenus. Le déroulement des procédures judiciaires pourrait être entravé en raison de la nécessité d’enquêtes plus longues afin d'écarter les éléments de preuve falsifiés. De même, les élections pourraient être perturbées par la diffusion de fausses séquences vidéo afin de discréditer des opposants. De même, il est à craindre que le développement de contenus pornographiques par le recours aux hypertrucages pourrait avoir des répercussions négatives sur la sécurité et le respect des droits des femmes.

    Le rapport conclut que la plupart des applications d’hypertrucages qui posent des difficultés sont déjà interdites ou limitées par la législation. Le droit pénal néerlandais semble en effet généralement adapté pour faire face aux deepfakes spécifiquement utilisées pour l'usurpation d'identité, la fraude et la diffusion de contenus pornographiques non autorisés. En outre, le règlement général de l'Union européenne relatif à la protection des données et la Convention européenne des droits de l'homme prévoient des dispositions générales sur le traitement des données et le respect de la vie privée qui peuvent s’appliquer à la production et la diffusion de certains contenus hyper truqués, par exemple ceux qui incluent des données personnelles sensibles ou qui portent indument atteinte à la réputation et/ou à l'honneur d'une personne.

    Bien que des ajustements soient envisageables pour renforcer l’actuel cadre juridique et les modalités procédurales en vigueur, c’est l’application effective de la législation qui demeure un défi de taille. Le rapport s’attache à élucider des questions comme la compétence juridictionnelle, les moyens techniques et le rôle des intermédiaires en ligne.

    Le rapport identifie plusieurs options réglementaires que les instances gouvernementales devraient envisager. Notamment des modifications afin de garantir une surveillance et une application effective des nouvelles dispositions législatives concernant l’introduction de preuves devant les tribunaux. Aussi, on met de l’avant des exigences de vérification préalable imposées aux plateformes de même que la mise en place de législations réglementant et même prohibant la production, distribution ou la possession de certains dispositifs technologiques destinées à produire des hypertrucages. Le renforcement des règles sur la protection de la vie privé et de l’image des personnes est aussi envisagé. Notamment rendre plus strictes les lois protégeant la vie privée et la réputation des personnalités publiques.

    B. van der SLOOT, Y. WAGENSVELD et B.J. KOOPS, Deepfakes: The legal challenges of a synthetic society (résumé en anglais) (2022), November 2021, Tilburg Institute for Law, Technology, and Society,
    <https://www.tilburguniversity.edu/sites/default/files/download/Deepfake%20EN.pdf>

  • 21 Mar 2022 5:14 PM | CAN-TECH Law (Administrator)

    La transformation numérique de l’administration et des services publics s’est poursuivie entrainant une évolution profonde de la relation à l’usager. Dans le même temps, les politiques d’inclusion numérique ont tenté d’accompagner ces changements, particulièrement auprès des publics les plus vulnérables.

    Le Défenseur des droits continue de recevoir des réclamations toujours plus nombreuses, preuve que le mouvement de numérisation des services se heurte encore aux situations des usagers. Le Défenseur des droits a fait le suivi sur les inégalités d’accès aux droits provoquées par des procédures numérisées à marche forcée. Le rapport fait état des évolutions – parfois des progrès, parfois des reculs – observées ces dernières années.

    Le rapport constate que « La transformation numérique de l’administration, telle qu’elle est menée aujourd’hui, et la politique d’inclusion numérique qui l’accompagne, impliquent une transformation du rôle de l’usager dans la production même du service public : il en devient le coproducteur malgré lui. (…) Sur les épaules de l’usager ou de ses “aidants” reposent désormais la charge et la responsabilité du bon fonctionnement de la procédure ».

    Le rapport encourage les services publics à développer le partage des données et le pré-remplissage des formulaires. Le recours à une ergonomie adaptée à tous et notamment aux personnes ayant des limitations de même que le développement de tutoriels et d’explications en langage clair sont au nombre des approches à privilégier pour assurer un réel accès aux services publics en ligne.

    DÉFENSEUR DES DROITS, Rapport-Dématérialisation des services publics : trois ans après, où en est-on?, 2022, <https://defenseurdesdroits.fr/fr/rapports/2022/02/rapport-dematerialisation- des-services-publics-trois-ans-apres-ou-en-est-on>

  • 21 Mar 2022 5:13 PM | CAN-TECH Law (Administrator)

    Le rapport sur l’utilisation responsable de l’intelligence artificielle (IA) dans le domaine des services financiers s’appuie sur les conclusions de travaux d’experts du domaine et sur les préoccupations exprimées par des consommateurs de produits et services financiers. La participation de citoyens à ce projet ajoute à la profondeur de la réflexion et distingue clairement cette approche des autres travaux menés à ce jour sur l’utilisation responsable de l’intelligence artificielle en finance.

    Le rapport contient une série de dix recommandations pour favoriser le développement et le déploiement de l’intelligence artificielle en finance de façon responsable: trois d’entre elles sont formulées à l’attention de l’Autorité des marchés financiers, alors que les sept autres sont dédiées à l’industrie. Ces recommandations sont appuyées sur un recensement de cas d’utilisation et sur une discussion détaillée des risques et des défis du déploiement responsable de l’IA en finance. Les recommandations s’appuient également sur une interprétation des principes de la Déclaration de Montréal pour un développement responsable de l’IA dans le contexte propre aux activités du secteur financier.

    AUTORITÉ DES MARCHÉS FINANCIERS, « L’intelligence artificielle en finance: recommandations pour une utilisation responsable », novembre 2021, 
    <https://lautorite.qc.ca/grand-public/salle-de-presse/actualites/fiche-dactualite/lautorite-devoile-un-rapport-important-sur-lutilisation-responsable-de-lintelligence-artificielle-en-finance>

  • 21 Mar 2022 5:12 PM | CAN-TECH Law (Administrator)

    Plusieurs organisations internationales jouent un rôle dans la gouvernance d’Internet et des secteurs du numérique. Certaines organisations internationales sont plus influentes que d’autres, car il existe des relations de pouvoir qui structurent et déterminent leur importance relative tout comme leur influence dans les régulations des communications du XXIe siècle. D’autres restent en marge des organisations internationales publiques et conservent un pouvoir structurant incontestable. Dans cet article, les auteurs dressent un portrait succinct de l’évolution de la gouvernance d’Internet et plus généralement de tout ce qui touche les communications électroniques et les plateformes numériques. Cet article est structuré en trois temps distincts et en analysant les moments, les controverses et les organisations ayant marqué l’évolution de cette gouvernance hybride, multiniveaux et multidimensionnelle. Le premier temps aborde la gouvernance technique, le deuxième discute de la dimension commerciale alors que le troisième se penche sur les enjeux politiques.

    Michèle RIOUX et Olivier DAGENAIS, « Le rôle des organisations internationales dans la gouvernance d’Internet et des secteurs numériques », Hors-série (2021) Revue québécoise de droit international, 357.
    <https://www.sqdi.org/fr/le-role-des-organisations-internationales-dans-la-gouvernance-dinternet-et-des-secteurs-numeriques/>

  • 21 Mar 2022 5:11 PM | CAN-TECH Law (Administrator)

    Cet article examine les enjeux juridiques soulevés par le recours, de plus en plus marqué, aux outils algorithmiques par les autorités gouvernementales et administratives. Ces technologies, qui font miroiter une amélioration de l’efficacité et de l’objectivité des processus décisionnels, s’accompagnent d’effets délétères qui heurtent les garanties fondamentales de l’État de droit.

    Premièrement, l’utilisation d’algorithmes d’exploration des données par l’Administration caractérise un nouveau modèle de gouvernance axé sur la modélisation algorithmique des justiciables. Guidée par les inférences tirées de l’analyse des données numériques des citoyens, l’action étatique est portée à ne plus raisonner en fonction de leur situation singulière, mais plutôt selon celle de leur « double statistique ». Les décisions prises sur la base de telles prédictions constituent une normativité algorithmique qui cherche à personnaliser la règle juridique jusqu’au point de prescrire, à chaque citoyen, le comportement approprié en toutes circonstances. À l’heure actuelle, l’encadrement d’un tel usage des algorithmes oscille entre des principes empreints de bonne volonté, mais non contraignants et un droit positif applicable quoi qu’anachronique. De nombreux cas d’utilisation d’outils algorithmiques par différentes administrations à travers le monde illustrent comment ceux-ci peuvent se retourner contre les justiciables, souvent parmi les plus vulnérables, en portant atteinte à leurs droits fondamentaux. En outre, l’aura « scientificité » qui entoure ces outils leur confère une présomption de rationalité qui conduit à un dangereux phénomène de déresponsabilisation des décideurs publics. Phénomène qui ne fait qu’exacerber le risque que les algorithmes mènent à des décisions discriminatoires lorsque des biais s’infiltrent à l’étape de leur conception ou lors de leur utilisation. Il ne serait d’ailleurs pas étonnant que les tribunaux canadiens viennent à reconnaître que la prise de décision sur la base de recommandations algorithmiques biaisées constitue une violation du droit à l’égalité. Les outils algorithmiques ont néanmoins un réel potentiel de contribuer positivement à l’État de droit en améliorant l’accès à la justice tant formelle qu’informelle. En effet, une implantation raisonnée de l’intelligence artificielle permettrait de bonifier l’expérience des justiciables et accroître l’efficacité des tribunaux et des plateformes de résolution en ligne des conflits. Il faut toutefois faire preuve de précaution lorsqu’il est question d’introduire des outils algorithmiques dans les processus décisionnels qui affectent les droits des individus, puisque les algorithmes d’apprentissage automatique sont incompatibles avec certaines règles élémentaires de justice naturelle telles que le droit d’être entendu et l’exigence de motivation des décisions. À plus grande échelle, les algorithmes peuvent être mis à profit pour développer de nouveaux mécanismes juridiques qui contribuent à l’autonomisation des collectivités. À l’image de l’action collective, qui a permis d’équilibrer les relations entre consommateurs et commerçants, il est aujourd’hui nécessaire de réfléchir à des moyens de faire contrepoids aux rapports asymétriques entre utilisateurs et opérateurs de plateformes numériques.

    Simon DU PERRON et Karim BENYEKHLEF, Les algorithmes et l'État de Droit, 2021,
    document de travail n°28, 85p. <https://www.cyberjustice.ca/publications/les-algorithmes-et-
    letat-de-droit/
    >

  • 21 Mar 2022 5:10 PM | CAN-TECH Law (Administrator)

    La vérité journalistique découle de la validation des affirmations diffusées. Cette validation est fonction du système de croyances à partir duquel on détermine ce qui est tenu pour conforme à la vérité. Dans les sociétés démocratiques, il coexiste une pluralité de systèmes de croyances. Il y a donc plusieurs systèmes de validation. D’où une coexistence d’une pluralité de vérités journalistiques. Ces « vérités » se trouvent en concurrence pour l’attention des individus connectés. Alors que dans le modèle médiatique traditionnel, l’information est choisie et ordonnancée par un éditeur selon un processus de validation reflétant ses valeurs, dans l’univers médiatique dominé par les réseaux sociaux, les contenus sont poussés vers les usagers principalement en fonction du calcul des prédilections des individus. La fonction éditoriale, celle qui préside à l’évaluation et aux choix des informations à être diffusés, se trouve supplantée par des processus automatisés livrant les informations qui captent l’attention des usagers, sans égard à leur conformité à un système crédible de validation. Un tel modèle comporte d’importants risques pour la qualité des délibérations démocratiques. Le texte avance certaines approches pour la mise en place d’un cadre juridique conséquent avec les caractéristiques des environnements connectés fondés sur la valorisation des données massives.

    Pierre TRUDEL, « Fausses nouvelles et réseaux sociaux » dans Michèle Stanton-Jean et Christian Hervé, Éthique, intégrité scientifique et fausses nouvelles, Paris, Dalloz, 2021, 309-327.
    <https://pierretrudel.openum.ca/publications/fausses-nouvelles-et-reseaux-sociaux>

  • 21 Mar 2022 5:08 PM | CAN-TECH Law (Administrator)

    Dans le cadre d’un procès devant jury pour des infractions d’enlèvement, de séquestration et d’extorsion, l’admissibilité d’un document électronique est mise en cause. Le document est intitulé « Yahoo! Account Management Tool ». Il contient un nombre limité de données parmi lesquelles figurent une adresse courriel @yahoo.com, une adresse courriel @gmail.com, une date de création du compte en décembre 2016, et une adresse IP associée à la création du compte.

    Le régime d’admissibilité de documents électroniques prévu aux articles 31.1 et suivants de la Loi sur la preuve s’articule en deux étapes. La première est celle de l’authentification du document et la seconde est celle de la meilleure preuve. L’authentification du document est à la charge de la partie qui désire introduire le document électronique en preuve. La norme de l’authenticité prévue à l’article 31.1 est celle voulant que le document « est bien ce qu’il paraît être ». Une fois ce seuil franchi, le document électronique doit satisfaire à la norme de la meilleure preuve. Celle-ci porte sur la fiabilité du système d’archivage électronique à partir duquel le document électronique est enregistré. Au soutien de cette norme, le demandeur jouit de trois présomptions réfragables de fiabilité. Une de ces présomptions est celle qui associe le document électronique à un tiers qui n’est pas partie à l’instance et qui n’a pas agi sous l’autorité du demandeur.

    La défense concède que le document mis en cause est bel et bien un document électronique. Elle concède également que si l’authenticité était démontrée, le système d’archivage ayant enregistré le document serait fiable pour les fins de la règle de la meilleure preuve. Donc, la seule question litigieuse est celle de savoir si la norme de l’authenticité est rencontrée en l’espèce.

    En l’espèce, l’authentification est avancée par Me Reddy, qui est un tiers qui n’a pas procédé à l’extraction des données, mais qui est à l’emploi de l’entreprise Yahoo Canada depuis nombre d’années, qui a déjà procédé personnellement à l’extraction de données, et qui a vérifié que le compte en question était bel et bien valide avant de retransmettre l’information. Elle a reconnu certains aspects du document électronique en litige. En particulier, elle a reconnu l’outil électronique qui permet d’extraire les données, et a indiqué que la personne qui a procédé à l’extraction était également une employée de l’entreprise. Par ailleurs, l’outil qui sert à extraire les données est la propriété de l’entreprise et extrait directement les données dans le document électronique à partir des serveurs de Yahoo. Les données sont intégralement téléchargées, même si elles peuvent ne plus exister aujourd’hui. Elle a reconnu son propre courriel, lequel contenait l’information qu’elle avait antérieurement transmise à la police.

    Le Tribunal conclut que ces éléments circonstanciels sont suffisants pour franchir le seuil d’authenticité requis pour que le document électronique soit admissible. Me Reddy n’avait pas à vérifier le détail ou tous les détails de l’information contenue dans le document.

    R. c. Zaidan, 2021 QCCS 5570 (CanLII), 15 décembre 2021, <https://canlii.ca/t/jm297>

  • 21 Mar 2022 5:07 PM | CAN-TECH Law (Administrator)

    Dans une affaire de divorce, pendant le contre-interrogatoire de Monsieur, l’avocate de Madame lui a exhibé et a produit un courriel qu’il a transmis le 18 octobre 2020 à son avocat de l’époque. Prenant connaissance du document, Monsieur a spontanément demandé comment l’avocate de Madame pouvait l’avoir en sa possession, ce à quoi elle a répondu l’avoir en sa possession parce qu’il le lui avait lui-même transmis. Il appert effectivement du courriel que Monsieur, en le transmettant à son avocat d’alors, en a aussi transmis une copie à l’avocate de Madame. Le Tribunal soulève d’office le fait que cette communication de Monsieur avec son avocat pouvait être protégée par le secret professionnel et pouvait donc ne pas être admissible en preuve.

    Le Tribunal constate que le courriel a été transmis par Monsieur à son avocat, qui est manifestement une personne tenue par la loi au secret professionnel. Il est manifeste qu’il
    contient des renseignements confidentiels et qu’il a été transmis à l’avocat en raison de sa profession puisqu’il contient des instructions relatives à la conduite du dossier et à la stratégie à employer. Il s’agit clairement d’une communication protégée par le secret professionnel.

    Il apparaît du courriel lui-même que Monsieur en a simultanément transmis une copie à l’avocate de Madame. S’agit-il, dans les circonstances, d’une renonciation de Monsieur au secret professionnel? Bien que la renonciation puisse être tacite, le consentement à la renonciation doit être éclairé, libre et sans équivoque. Or, il est manifeste que l’envoi de ce courriel à l’avocate de Madame est le fruit d’une erreur de Monsieur. Son étonnement, à l’audience, le démontre, en plus du fait qu’on ne peut concevoir qu’il ait voulu que l’avocate de Madame soit mise au courant du contenu de ce courriel. Dans ces circonstances, il est clair qu’il n’y a pas eu consentement libre, éclairé et sans équivoque à la renonciation au secret professionnel. Ce courriel ne peut donc être introduit en preuve et doit être rejeté.

    Droit de la famille — 212366, 2021 QCCS 5254 (CanLII), 14 décembre 2021,
    <https://canlii.ca/t/jlclf>

  • 21 Mar 2022 5:06 PM | CAN-TECH Law (Administrator)

    Il s’agit d’un recours à l’encontre d’une décision rendue après révision par l’intimée, Retraite Québec, en date du 20 octobre 2020. Le recours est introduit au Tribunal le 16 décembre 2020.

    En début de l’audience en ligne, le Tribunal constate l’absence de la partie requérante et s’enquiert auprès de la représentante de l’intimée à savoir s’il est opportun pour le Tribunal de procéder en l’absence du requérant en conformité de l’article 100 de la Loi sur la justice administrative. Le Tribunal a rappelé que l’état d’urgence sanitaire a été déclaré le 13 mars 2020 et qu’un décret en date du 10 juin 2020 a été adopté. Il appert de ce décret qu’un tribunal judiciaire, un tribunal administratif ou un autre organisme de l’administration, ainsi que l’un de leur juge ou décideur peuvent, compte tenu de l’environnement technologique qui soutient ses activités, imposer l’utilisation de moyens technologiques lors d’une audience si les parties disposent de ces moyens.

    La requête reçue par le Tribunal est un recours introduit en ligne, mais auxquelles sont jointes des photographies d’un formulaire complété à la main de manière manuscrite et signé par le requérant en date du 16 décembre 2020. Il est vrai que le requérant, en introduisant ce recours, a consenti à l’utilisation du courriel, mais ce consentement ne saurait équivaloir à l’assurance qu’il dispose des moyens technologiques pour la tenue d’une audience en ligne.

    Dans ce contexte, le Tribunal estime que conformément au premier alinéa de l’article 100 de la Loi sur la justice administrative, on ne saurait considérer que le requérant a été dûment appelé pour la tenue d’une audience en ligne à moins d’avoir une preuve démontrant qu’il dispose des moyens technologiques pour la tenue d’une audience en ligne. En l’absence d’une telle preuve, le Tribunal estime qu’il ne peut statuer sur l’affaire puisque le requérant n’a pas été dûment appelé.

    H.P. c Retraite Québec, 2021 CanLII 115015 (QC TAQ), 1 er novembre 2021,
    <https://canlii.ca/t/jkfq0>

  • 21 Mar 2022 5:06 PM | CAN-TECH Law (Administrator)

    Il est reproché à la défenderesse d’avoir fait de la publicité pour des services de bronzage artificiel sur la page Facebook de l’entreprise, sur son site internet ainsi que sur Google sans y indiquer clairement qu’il est interdit d’offrir des services de bronzage artificiel à une personne mineure. La Loi prévoit une interdiction de toute publicité directe ou indirecte en faveur du bronzage artificiel qui est destinée aux personnes mineures. La Loi mentionne que toute publicité en faveur du bronzage artificiel doit indiquer clairement qu’il est interdit d’offrir des services de bronzage artificiel à une personne mineure.

    Le Tribunal constate que la page Facebook de la défenderesse comporte une énumération des services offerts, dont les mentions «Lit bronzant» et «Coiffure, Esthétique, Bronzage». Cette page Facebook est un moyen utilisé par la défenderesse afin de faire connaître les services qu’elle offre, et ce, à des fins commerciales. Il s’agit donc d’une publicité au sens de la Loi. Facebook est une plateforme accessible autant aux personnes d’âges majeurs que d’âges mineurs. Il s’agit donc d’un moyen pour diffuser de la publicité aux personnes de tous âges. Par conséquent, cette publicité, étant destinée à des personnes mineures, doit comporter une indication claire qu’il s’agit d’un service réservé aux adultes. Or aucune mention à cet effet n’est présente sur la page Facebook de l’entreprise de la défenderesse au moment de l’inspection. La preuve démontre donc hors de tout doute raisonnable la commission de l’infraction quant à la publicité de la page Facebook.

    Le site internet de la défenderesse est accessible à toutes personnes, incluant les mineurs. Il est mentionné qu’on y offre des services de coiffure, d’esthétique et de bronzage pour les femmes et les hommes. Donc, cette publicité doit contenir l’interdiction prévue par la loi. La défenderesse allègue que la mention «pour les femmes et les hommes» est suffisante pour respecter ses obligations. Pour le Tribunal, l’utilisation de ces termes à la fin de la phrase porte à croire que les trois services mentionnés peuvent être dispensés aux hommes et aux femmes. Ces termes n’indiquent pas clairement que le service de bronzage en particulier est interdit aux mineurs. Le fait qu’une personne puisse en déduire de la lecture de ces termes que le bronzage est réservé aux adultes n’est pas suffisant. La loi exige des indications claires qu’il est interdit d’offrir des services de bronzage artificiel à une personne mineure et le Tribunal ne considère pas ces termes comme étant une indication claire.

    Quant à la publicité sur Google, la défenderesse n’a aucun contrôle sur les informations pouvant se retrouver sur ce moteur de recherche. Par conséquent le Tribunal ne peut considérer Google comme étant une publicité pour l’entreprise de la défenderesse.

    Directeur des poursuites criminelles et pénales c. Duquette (Salon Mode Francine), 2021 QCCQ 7950 (CanLII), 12 août 2021, <https://canlii.ca/t/jhxw1>

  

Association canadienne du droit des technologies

1-189 Queen Street East

Toronto, ON M5A 1S2

contact@cantechlaw.ca

Copyright © 2024 The Canadian Technology Law Association, All rights reserved.