Log in


NOUVELLES

  • 20 Jul 2022 5:19 PM | CAN-TECH Law (Administrator)

    Le Conseil de discipline de l’Ordre des architectes statue sur une plainte fondée sur l’article 59.2 du Code des professions interdisant à un professionnel de poser un acte dérogatoire à l’honneur ou à la dignité de la profession ou à la discipline des membres de l’Ordre.  L’intimé aurait entre autres apposé ou a permis que soit apposé son sceau et sa signature sur des plans relatifs à l’exercice de sa profession sans utiliser l’une ou l’autre des 3 méthodes permises pour sceller et signer des documents prévue à l’article 33 du Code de déontologie.

    La première méthode prévue au Code consiste en ce que l’architecte signe à la main un document puis y appose son sceau manuellement. La seconde méthode est hybride, en ce que le sceau est numérisé et apposé sur le document avant son impression, puis, une fois le document imprimé, l’architecte le signe à la main.  La troisième méthode est totalement numérique, en ce que tant le sceau que la signature sont apposés par l’architecte avant l’impression d’un document. Le document n’a pas à être imprimé pour constituer un document dûment signé. Pour pouvoir utiliser cette troisième méthode, l’architecte doit utiliser un procédé technologique garantissant l’intégrité de sa signature. Une référence dans le Code est faite à cet égard à la Loi concernant le cadre juridique des technologies de l’information.  Cette loi prévoit le fonctionnement pour établir le lien entre une personne et un document technologique.

    À cet égard, l’Ordre privilégie la signature électronique de l’entreprise Notarius.  L’entreprise offrant la plateforme de signature numérique procède à la vérification de l’identité de l’architecte, avant de lui attribuer un mot de passe. Ce mot de passe doit être inscrit par l’architecte à chaque fois qu’il utilise sa signature numérique. Étant donné que ce mot de passe est personnel, l’architecte ne peut le prêter, le céder, ni même autoriser quiconque à s’en servir. Or, l’intimé ne possède pas une telle signature numérique.

    Ce qu’il a plutôt fait, ou permis d’être fait par les techniciennes, a été d’apposer son sceau sur une feuille de papier, de signer sur le sceau, puis de numériser le tout dans l’ordinateur des techniciennes du client. Ces dernières apposent ensuite ce sceau et cette signature sur les plans avant de les imprimer. Une telle méthode n’offre aucune garantie quant à l’intégrité de la signature de l’intimé ni des plans ainsi signés et n’est pas conforme aux exigences de la Loi concernant le cadre juridique des technologies de l’information ni de l’article 33 du Code de déontologie.

    Le Conseil de discipline conclut qu’il y a eu contravention à l’article 33 du Code de déontologie. De plus, en agissant de la sorte, l’intimé manque d’intégrité et de rigueur, pourtant des valeurs fondamentales de la profession, et commet ainsi un acte dérogatoire à l’honneur et à la dignité de la profession.  Pour cette raison le Conseil déclare l’intimé coupable d’avoir contrevenu à l’article 59.2 du Code des professions.

    Architectes (Ordre professionnel des) c. Leblanc, 2022 QCCDARC 2 (CanLII), 2 mars 2022, <https://canlii.ca/t/jmsh8>

  • 21 Mar 2022 5:16 PM | CAN-TECH Law (Administrator)

    Le Chili entend prémunir sa population contre de potentielles dérives émanant des neurotechnologies. Il serait le premier État au monde à anticiper les conséquences du recours aux neurotechnologies.

    Les implants dans le cerveau humain sont envisagés comme un moyen prometteur de guérir un jour la surdité et la cécité, de lutter contre la maladie de Parkinson ou la maladie d’Alzheimer. Mais ces technologies font aussi l’objet de toutes les rêveries, issues d’expériences sur les animaux destinées à inventer des interfaces homme-machine. Au Chili, la Chambre des députés a voté le 29 septembre 2021 une loi sur les droits du cerveau, ou «neurodroits». Cette loi établit que, dans le respect de «l’intégrité physique et psychique» d’une personne, «aucune autorité ou individu » ne pourra, à partir des technologies sur le cerveau humain, « augmenter, diminuer ou perturber cette intégrité individuelle sans le consentement approprié». Quatre domaines fondamentaux sont légalement définis: la sauvegarde des données de l’esprit humain ou « neurodonnées », l’établissement des limites de la neurotechnologie de la lecture et surtout de l’écriture dans le cerveau, la détermination d’une distribution équitable de l’accès à ces technologies et la fixation des limites des « neuroalgorithmes ».

    Françoise LAUGÉE, « Antidystopie : le Chili veut inscrire les «neurodroits» dans sa constitution », (2021) 59 Revue européenne des médias et du numérique, <https://la-rem.eu/2022/01/antidystopie-le-chili-veut-inscrire-les-neurodroits-dans-sa-constitution/>

  • 21 Mar 2022 5:15 PM | CAN-TECH Law (Administrator)

    Le rapport analyse la création et la diffusion d’hypertrucages (deepfakes) dans le cadre d’échanges entre particuliers. C’est une démarche afin de déterminer la mesure dans laquelle l’actuel cadre juridique peut prendre adéquatement en charge les nouvelles expressions illicites ou délictueuses que rend possible le recours à la technologie. Il examine également la mesure dans laquelle les législations et les règlementations nationales doivent être mises à niveau afin de lutter contre les répercussions négatives de cette technologie.

    Le rapport anticipe une croissance exponentielle du volume de contenus audiovisuels manipulés car la technologie sophistiquée permettant de réaliser des hypertrucages est de plus en plus accessible au grand public. Le recours à ces technologies peut servir des finalités éminemment démocratiques en permettant, par exemple, la création de contenus satiriques. Mais l’usage de ces technologies à des fins malveillantes peut engendrer d’importantes conséquences sociétales.  Ainsi, les médias et les journalistes pourraient hésiter à utiliser des éléments de preuve vidéo faute de capacité de vérifier l'authenticité des contenus. Le déroulement des procédures judiciaires pourrait être entravé en raison de la nécessité d’enquêtes plus longues afin d'écarter les éléments de preuve falsifiés. De même, les élections pourraient être perturbées par la diffusion de fausses séquences vidéo afin de discréditer des opposants. De même, il est à craindre que le développement de contenus pornographiques par le recours aux hypertrucages pourrait avoir des répercussions négatives sur la sécurité et le respect des droits des femmes.

    Le rapport conclut que la plupart des applications d’hypertrucages qui posent des difficultés sont déjà interdites ou limitées par la législation. Le droit pénal néerlandais semble en effet généralement adapté pour faire face aux deepfakes spécifiquement utilisées pour l'usurpation d'identité, la fraude et la diffusion de contenus pornographiques non autorisés. En outre, le règlement général de l'Union européenne relatif à la protection des données et la Convention européenne des droits de l'homme prévoient des dispositions générales sur le traitement des données et le respect de la vie privée qui peuvent s’appliquer à la production et la diffusion de certains contenus hyper truqués, par exemple ceux qui incluent des données personnelles sensibles ou qui portent indument atteinte à la réputation et/ou à l'honneur d'une personne.

    Bien que des ajustements soient envisageables pour renforcer l’actuel cadre juridique et les modalités procédurales en vigueur, c’est l’application effective de la législation qui demeure un défi de taille. Le rapport s’attache à élucider des questions comme la compétence juridictionnelle, les moyens techniques et le rôle des intermédiaires en ligne.

    Le rapport identifie plusieurs options réglementaires que les instances gouvernementales devraient envisager. Notamment des modifications afin de garantir une surveillance et une application effective des nouvelles dispositions législatives concernant l’introduction de preuves devant les tribunaux. Aussi, on met de l’avant des exigences de vérification préalable imposées aux plateformes de même que la mise en place de législations réglementant et même prohibant la production, distribution ou la possession de certains dispositifs technologiques destinées à produire des hypertrucages. Le renforcement des règles sur la protection de la vie privé et de l’image des personnes est aussi envisagé. Notamment rendre plus strictes les lois protégeant la vie privée et la réputation des personnalités publiques.

    B. van der SLOOT, Y. WAGENSVELD et B.J. KOOPS, Deepfakes: The legal challenges of a synthetic society (résumé en anglais) (2022), November 2021, Tilburg Institute for Law, Technology, and Society,
    <https://www.tilburguniversity.edu/sites/default/files/download/Deepfake%20EN.pdf>

  • 21 Mar 2022 5:14 PM | CAN-TECH Law (Administrator)

    La transformation numérique de l’administration et des services publics s’est poursuivie entrainant une évolution profonde de la relation à l’usager. Dans le même temps, les politiques d’inclusion numérique ont tenté d’accompagner ces changements, particulièrement auprès des publics les plus vulnérables.

    Le Défenseur des droits continue de recevoir des réclamations toujours plus nombreuses, preuve que le mouvement de numérisation des services se heurte encore aux situations des usagers. Le Défenseur des droits a fait le suivi sur les inégalités d’accès aux droits provoquées par des procédures numérisées à marche forcée. Le rapport fait état des évolutions – parfois des progrès, parfois des reculs – observées ces dernières années.

    Le rapport constate que « La transformation numérique de l’administration, telle qu’elle est menée aujourd’hui, et la politique d’inclusion numérique qui l’accompagne, impliquent une transformation du rôle de l’usager dans la production même du service public : il en devient le coproducteur malgré lui. (…) Sur les épaules de l’usager ou de ses “aidants” reposent désormais la charge et la responsabilité du bon fonctionnement de la procédure ».

    Le rapport encourage les services publics à développer le partage des données et le pré-remplissage des formulaires. Le recours à une ergonomie adaptée à tous et notamment aux personnes ayant des limitations de même que le développement de tutoriels et d’explications en langage clair sont au nombre des approches à privilégier pour assurer un réel accès aux services publics en ligne.

    DÉFENSEUR DES DROITS, Rapport-Dématérialisation des services publics : trois ans après, où en est-on?, 2022, <https://defenseurdesdroits.fr/fr/rapports/2022/02/rapport-dematerialisation- des-services-publics-trois-ans-apres-ou-en-est-on>

  • 21 Mar 2022 5:13 PM | CAN-TECH Law (Administrator)

    Le rapport sur l’utilisation responsable de l’intelligence artificielle (IA) dans le domaine des services financiers s’appuie sur les conclusions de travaux d’experts du domaine et sur les préoccupations exprimées par des consommateurs de produits et services financiers. La participation de citoyens à ce projet ajoute à la profondeur de la réflexion et distingue clairement cette approche des autres travaux menés à ce jour sur l’utilisation responsable de l’intelligence artificielle en finance.

    Le rapport contient une série de dix recommandations pour favoriser le développement et le déploiement de l’intelligence artificielle en finance de façon responsable: trois d’entre elles sont formulées à l’attention de l’Autorité des marchés financiers, alors que les sept autres sont dédiées à l’industrie. Ces recommandations sont appuyées sur un recensement de cas d’utilisation et sur une discussion détaillée des risques et des défis du déploiement responsable de l’IA en finance. Les recommandations s’appuient également sur une interprétation des principes de la Déclaration de Montréal pour un développement responsable de l’IA dans le contexte propre aux activités du secteur financier.

    AUTORITÉ DES MARCHÉS FINANCIERS, « L’intelligence artificielle en finance: recommandations pour une utilisation responsable », novembre 2021, 
    <https://lautorite.qc.ca/grand-public/salle-de-presse/actualites/fiche-dactualite/lautorite-devoile-un-rapport-important-sur-lutilisation-responsable-de-lintelligence-artificielle-en-finance>

  • 21 Mar 2022 5:12 PM | CAN-TECH Law (Administrator)

    Plusieurs organisations internationales jouent un rôle dans la gouvernance d’Internet et des secteurs du numérique. Certaines organisations internationales sont plus influentes que d’autres, car il existe des relations de pouvoir qui structurent et déterminent leur importance relative tout comme leur influence dans les régulations des communications du XXIe siècle. D’autres restent en marge des organisations internationales publiques et conservent un pouvoir structurant incontestable. Dans cet article, les auteurs dressent un portrait succinct de l’évolution de la gouvernance d’Internet et plus généralement de tout ce qui touche les communications électroniques et les plateformes numériques. Cet article est structuré en trois temps distincts et en analysant les moments, les controverses et les organisations ayant marqué l’évolution de cette gouvernance hybride, multiniveaux et multidimensionnelle. Le premier temps aborde la gouvernance technique, le deuxième discute de la dimension commerciale alors que le troisième se penche sur les enjeux politiques.

    Michèle RIOUX et Olivier DAGENAIS, « Le rôle des organisations internationales dans la gouvernance d’Internet et des secteurs numériques », Hors-série (2021) Revue québécoise de droit international, 357.
    <https://www.sqdi.org/fr/le-role-des-organisations-internationales-dans-la-gouvernance-dinternet-et-des-secteurs-numeriques/>

  • 21 Mar 2022 5:11 PM | CAN-TECH Law (Administrator)

    Cet article examine les enjeux juridiques soulevés par le recours, de plus en plus marqué, aux outils algorithmiques par les autorités gouvernementales et administratives. Ces technologies, qui font miroiter une amélioration de l’efficacité et de l’objectivité des processus décisionnels, s’accompagnent d’effets délétères qui heurtent les garanties fondamentales de l’État de droit.

    Premièrement, l’utilisation d’algorithmes d’exploration des données par l’Administration caractérise un nouveau modèle de gouvernance axé sur la modélisation algorithmique des justiciables. Guidée par les inférences tirées de l’analyse des données numériques des citoyens, l’action étatique est portée à ne plus raisonner en fonction de leur situation singulière, mais plutôt selon celle de leur « double statistique ». Les décisions prises sur la base de telles prédictions constituent une normativité algorithmique qui cherche à personnaliser la règle juridique jusqu’au point de prescrire, à chaque citoyen, le comportement approprié en toutes circonstances. À l’heure actuelle, l’encadrement d’un tel usage des algorithmes oscille entre des principes empreints de bonne volonté, mais non contraignants et un droit positif applicable quoi qu’anachronique. De nombreux cas d’utilisation d’outils algorithmiques par différentes administrations à travers le monde illustrent comment ceux-ci peuvent se retourner contre les justiciables, souvent parmi les plus vulnérables, en portant atteinte à leurs droits fondamentaux. En outre, l’aura « scientificité » qui entoure ces outils leur confère une présomption de rationalité qui conduit à un dangereux phénomène de déresponsabilisation des décideurs publics. Phénomène qui ne fait qu’exacerber le risque que les algorithmes mènent à des décisions discriminatoires lorsque des biais s’infiltrent à l’étape de leur conception ou lors de leur utilisation. Il ne serait d’ailleurs pas étonnant que les tribunaux canadiens viennent à reconnaître que la prise de décision sur la base de recommandations algorithmiques biaisées constitue une violation du droit à l’égalité. Les outils algorithmiques ont néanmoins un réel potentiel de contribuer positivement à l’État de droit en améliorant l’accès à la justice tant formelle qu’informelle. En effet, une implantation raisonnée de l’intelligence artificielle permettrait de bonifier l’expérience des justiciables et accroître l’efficacité des tribunaux et des plateformes de résolution en ligne des conflits. Il faut toutefois faire preuve de précaution lorsqu’il est question d’introduire des outils algorithmiques dans les processus décisionnels qui affectent les droits des individus, puisque les algorithmes d’apprentissage automatique sont incompatibles avec certaines règles élémentaires de justice naturelle telles que le droit d’être entendu et l’exigence de motivation des décisions. À plus grande échelle, les algorithmes peuvent être mis à profit pour développer de nouveaux mécanismes juridiques qui contribuent à l’autonomisation des collectivités. À l’image de l’action collective, qui a permis d’équilibrer les relations entre consommateurs et commerçants, il est aujourd’hui nécessaire de réfléchir à des moyens de faire contrepoids aux rapports asymétriques entre utilisateurs et opérateurs de plateformes numériques.

    Simon DU PERRON et Karim BENYEKHLEF, Les algorithmes et l'État de Droit, 2021,
    document de travail n°28, 85p. <https://www.cyberjustice.ca/publications/les-algorithmes-et-
    letat-de-droit/
    >

  • 21 Mar 2022 5:10 PM | CAN-TECH Law (Administrator)

    La vérité journalistique découle de la validation des affirmations diffusées. Cette validation est fonction du système de croyances à partir duquel on détermine ce qui est tenu pour conforme à la vérité. Dans les sociétés démocratiques, il coexiste une pluralité de systèmes de croyances. Il y a donc plusieurs systèmes de validation. D’où une coexistence d’une pluralité de vérités journalistiques. Ces « vérités » se trouvent en concurrence pour l’attention des individus connectés. Alors que dans le modèle médiatique traditionnel, l’information est choisie et ordonnancée par un éditeur selon un processus de validation reflétant ses valeurs, dans l’univers médiatique dominé par les réseaux sociaux, les contenus sont poussés vers les usagers principalement en fonction du calcul des prédilections des individus. La fonction éditoriale, celle qui préside à l’évaluation et aux choix des informations à être diffusés, se trouve supplantée par des processus automatisés livrant les informations qui captent l’attention des usagers, sans égard à leur conformité à un système crédible de validation. Un tel modèle comporte d’importants risques pour la qualité des délibérations démocratiques. Le texte avance certaines approches pour la mise en place d’un cadre juridique conséquent avec les caractéristiques des environnements connectés fondés sur la valorisation des données massives.

    Pierre TRUDEL, « Fausses nouvelles et réseaux sociaux » dans Michèle Stanton-Jean et Christian Hervé, Éthique, intégrité scientifique et fausses nouvelles, Paris, Dalloz, 2021, 309-327.
    <https://pierretrudel.openum.ca/publications/fausses-nouvelles-et-reseaux-sociaux>

  • 21 Mar 2022 5:08 PM | CAN-TECH Law (Administrator)

    Dans le cadre d’un procès devant jury pour des infractions d’enlèvement, de séquestration et d’extorsion, l’admissibilité d’un document électronique est mise en cause. Le document est intitulé « Yahoo! Account Management Tool ». Il contient un nombre limité de données parmi lesquelles figurent une adresse courriel @yahoo.com, une adresse courriel @gmail.com, une date de création du compte en décembre 2016, et une adresse IP associée à la création du compte.

    Le régime d’admissibilité de documents électroniques prévu aux articles 31.1 et suivants de la Loi sur la preuve s’articule en deux étapes. La première est celle de l’authentification du document et la seconde est celle de la meilleure preuve. L’authentification du document est à la charge de la partie qui désire introduire le document électronique en preuve. La norme de l’authenticité prévue à l’article 31.1 est celle voulant que le document « est bien ce qu’il paraît être ». Une fois ce seuil franchi, le document électronique doit satisfaire à la norme de la meilleure preuve. Celle-ci porte sur la fiabilité du système d’archivage électronique à partir duquel le document électronique est enregistré. Au soutien de cette norme, le demandeur jouit de trois présomptions réfragables de fiabilité. Une de ces présomptions est celle qui associe le document électronique à un tiers qui n’est pas partie à l’instance et qui n’a pas agi sous l’autorité du demandeur.

    La défense concède que le document mis en cause est bel et bien un document électronique. Elle concède également que si l’authenticité était démontrée, le système d’archivage ayant enregistré le document serait fiable pour les fins de la règle de la meilleure preuve. Donc, la seule question litigieuse est celle de savoir si la norme de l’authenticité est rencontrée en l’espèce.

    En l’espèce, l’authentification est avancée par Me Reddy, qui est un tiers qui n’a pas procédé à l’extraction des données, mais qui est à l’emploi de l’entreprise Yahoo Canada depuis nombre d’années, qui a déjà procédé personnellement à l’extraction de données, et qui a vérifié que le compte en question était bel et bien valide avant de retransmettre l’information. Elle a reconnu certains aspects du document électronique en litige. En particulier, elle a reconnu l’outil électronique qui permet d’extraire les données, et a indiqué que la personne qui a procédé à l’extraction était également une employée de l’entreprise. Par ailleurs, l’outil qui sert à extraire les données est la propriété de l’entreprise et extrait directement les données dans le document électronique à partir des serveurs de Yahoo. Les données sont intégralement téléchargées, même si elles peuvent ne plus exister aujourd’hui. Elle a reconnu son propre courriel, lequel contenait l’information qu’elle avait antérieurement transmise à la police.

    Le Tribunal conclut que ces éléments circonstanciels sont suffisants pour franchir le seuil d’authenticité requis pour que le document électronique soit admissible. Me Reddy n’avait pas à vérifier le détail ou tous les détails de l’information contenue dans le document.

    R. c. Zaidan, 2021 QCCS 5570 (CanLII), 15 décembre 2021, <https://canlii.ca/t/jm297>

  • 21 Mar 2022 5:07 PM | CAN-TECH Law (Administrator)

    Dans une affaire de divorce, pendant le contre-interrogatoire de Monsieur, l’avocate de Madame lui a exhibé et a produit un courriel qu’il a transmis le 18 octobre 2020 à son avocat de l’époque. Prenant connaissance du document, Monsieur a spontanément demandé comment l’avocate de Madame pouvait l’avoir en sa possession, ce à quoi elle a répondu l’avoir en sa possession parce qu’il le lui avait lui-même transmis. Il appert effectivement du courriel que Monsieur, en le transmettant à son avocat d’alors, en a aussi transmis une copie à l’avocate de Madame. Le Tribunal soulève d’office le fait que cette communication de Monsieur avec son avocat pouvait être protégée par le secret professionnel et pouvait donc ne pas être admissible en preuve.

    Le Tribunal constate que le courriel a été transmis par Monsieur à son avocat, qui est manifestement une personne tenue par la loi au secret professionnel. Il est manifeste qu’il
    contient des renseignements confidentiels et qu’il a été transmis à l’avocat en raison de sa profession puisqu’il contient des instructions relatives à la conduite du dossier et à la stratégie à employer. Il s’agit clairement d’une communication protégée par le secret professionnel.

    Il apparaît du courriel lui-même que Monsieur en a simultanément transmis une copie à l’avocate de Madame. S’agit-il, dans les circonstances, d’une renonciation de Monsieur au secret professionnel? Bien que la renonciation puisse être tacite, le consentement à la renonciation doit être éclairé, libre et sans équivoque. Or, il est manifeste que l’envoi de ce courriel à l’avocate de Madame est le fruit d’une erreur de Monsieur. Son étonnement, à l’audience, le démontre, en plus du fait qu’on ne peut concevoir qu’il ait voulu que l’avocate de Madame soit mise au courant du contenu de ce courriel. Dans ces circonstances, il est clair qu’il n’y a pas eu consentement libre, éclairé et sans équivoque à la renonciation au secret professionnel. Ce courriel ne peut donc être introduit en preuve et doit être rejeté.

    Droit de la famille — 212366, 2021 QCCS 5254 (CanLII), 14 décembre 2021,
    <https://canlii.ca/t/jlclf>

  

Association canadienne du droit des technologies

1-189 Queen Street East

Toronto, ON M5A 1S2

contact@cantechlaw.ca

Copyright © 2022 The Canadian Technology Law Association, All rights reserved.