ENGLISH | FRENCH
NOUVELLES
Pour plus de détails, cliquez ici
Dans le cadre d’une enquête de leurre (art. 172.1 C.Cr.) et de distribution de pornographie juvénile (art. 163.1(3) C.Cr.), le Service de police de la Ville de Montréal (« SPVM ») demande l’émission d’une ordonnance (art. 487.014 C.Cr.) contraignant Snap Inc. à lui communiquer des renseignements relatifs à un compte Snapchat utilisé par un suspect.
Snap Inc. est une entreprise américaine. Son application Snapchat, une application de messagerie électronique pouvant servir à transmettre des messages textes, des photos et des vidéos, est utilisée par plus de huit millions de Canadiens. Les renseignements recherchés par les policiers sont à la disposition de Snap Inc., mais ils sont conservés par l’entreprise en Californie. Snap Inc. possède un bureau à Toronto, mais le personnel ne serait pas autorisé à obtenir et à communiquer les renseignements recherchés. Le juge de paix auquel les policiers s’adressent refuse d’émettre l’ordonnance de communication demandée par le SPVM. Il considère ne pas avoir compétence pour délivrer une ordonnance qui aurait, selon lui, une portée extraterritoriale dans les circonstances.
Par leur demande introductive d’instance, les demandeurs cherchent notamment à obtenir une indemnité pécuniaire contre la défenderesse TikTok Technology Canada Inc. (« TikTok »), puisque cette dernière aurait négligé de retirer du contenu vidéo qu’ils allèguent être diffamatoire et que la co-défenderesse, Thaher, a publié sur sa plateforme. TikTok demande au Tribunal de rejeter la demande judiciaire des demandeurs, considérant que celle-ci est mal fondée en droit, même si l’on tient pour véridique tous les faits qui y sont allégués. Plus particulièrement, TikTok soutient que le droit québécois prévoit qu’un intermédiaire de service Internet, comme elle, ne peut pas être tenu responsable du fait de ne pas avoir retiré du contenu diffamatoire publié par une tierce personne sur sa plateforme que s’il a reçu une confirmation indépendante du caractère illicite du contenu, et qu’il refuse subséquemment d’en retirer le contenu.
La demanderesse poursuit le défendeur à titre de caution solidaire. Le défendeur s’objecte à la production par la demanderesse du contrat, des cautionnements et du certificat transmis par DocuSign afin d’établir leur intégrité et prouver les signatures.
Le Tribunal rejette les objections à la production de l’ensemble de ces documents. Les documents transmis via la plateforme DocuSign ne laissent subsister aucun doute quant à leur intégrité et aux signatures des défendeurs. Le défendeur reconnait avoir imprimé tous les documents reçus d’une préposée de la demanderesse via la plateforme DocuSign, les avoir signés et retournés par courriel. Le défendeur a accepté de signer électroniquement les documents. Le Tribunal juge invraisemblable qu’on aurait voulu signer les contrats mais pas le cautionnement considérant le certificat qui établit que la signature des documents apparait à 11 endroits, incluant les cautionnements. Les pièces produites au dossier confirment ces signatures.
Il s’agit d’une demande d’autorisation à intenter une action collective contre Flo Health, Inc., au nom de toute personne domiciliée au Québec ayant utilisé l’application de suivi du cycle menstruel, de l’ovulation et de la fertilité « Flo » offerte par Flo Health, Inc. entre le 1er juin 2016 et le 23 février 2019. La demanderesse considère que Flo a manqué à ses obligations contractuelles et statutaires quant à la préservation de ses renseignements personnels et sensibles et ceux des membres. Flo aurait de ce fait aussi porté atteinte à sa vie privée ainsi qu’à celle des membres.
Cette étude du Conseil d’État français plaide pour la conduite d’une stratégie de l’Intelligence artificielle (IA) résolument ambitieuse et au service de la performance publique. Une stratégie qui devra créer les conditions de la confiance.
Les avancées dans le domaine de l’intelligence artificielle ont abouti à des réalisations spectaculaires (reconnaissance de personnes sur des images, création automatique de contenus, analyse sémantique, etc.) et dans le même temps exacerbé des craintes largement exagérées (asservissement de l’humain par la machine, manipulation des comportements, surveillance de masse, etc.). L’intelligence artificielle est pourtant, d’abord et avant tout, un ensemble d’outils numériques au service de l’humain. En permettant notamment la résolution rapide de problèmes grâce à un apprentissage automatique, elle offre une opportunité unique pour améliorer la qualité du service public.
L’IA ne se déploie encore que très progressivement dans les services publics et souvent de façon expérimentale. On la retrouve par exemple employée dans la gestion de la circulation automobile, la défense et la sécurité, la lutte contre la fraude ou les politiques de l’emploi. Mais en s’engageant résolument dans l’intelligence artificielle, ses possibles bénéfices sur la qualité du service public seraient nombreux : amélioration de la continuité du service public 24h/24, de la pertinence des décisions et prestations délivrées ou de l’égalité de traitement, réduction des délais d’examen des demandes des usagers…
L’intelligence artificielle devrait permettre de renforcer la relation humaine entre le citoyen et l’agent public en dégageant du temps grâce à l’automatisation de certaines tâches (accusés de réception, demande de documents supplémentaires, etc.) et d’améliorer la qualité du service par l’accomplissement de tâches jusque-là matériellement impossibles.
C’est pourquoi le rapport plaide pour la mise en œuvre d’une politique de déploiement de l’intelligence artificielle résolument volontariste, au service de l’intérêt général et de la performance publique.
La France doit anticiper la mise en place d’un cadre réglementaire, notamment au niveau européen, à travers la mise en œuvre, dès aujourd’hui, de lignes directrices pragmatiques permettant un déploiement de l’intelligence artificielle dans les services publics par étape, lucide et vigilant, au plus près des besoins des Français. Une intelligence artificielle publique de confiance reposant sur sept principes : la primauté humaine, la performance, l’équité et la non-discrimination, la transparence, la sûreté (cybersécurité), la soutenabilité environnementale et l’autonomie stratégique.
Conseil d’État,S’engager dans l’intelligence artificielle pour un meilleur service public, 30 août 2022, < https://www.conseil-etat.fr/actualites/s-engager-dans-l-intelligence-artificielle-pour-un-meilleur-service-public >
Conditions
Association canadienne du droit des technologies
1-189 Queen Street East
Toronto, ON M5A 1S2
contact@cantechlaw.ca
Copyright © 2025 The Canadian Technology Law Association, All rights reserved.