Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Alors que les géants de l’intelligence artificielle (IA) promettent des assistants virtuels toujours plus perfectionnés, un des risques posés par l’expansion de cette technologie est peu mis en lumière : l’IA ouvre aussi des portes pour la surveillance. Si le numérique permet déjà d’analyser et de détecter des comportements humains à des fins policières, professionnelles ou commerciales, les avancées récentes dans le traitement du texte, du son et de l’image pourraient étendre ces capacités.
L’application la plus évidente est la vidéosurveillance « intelligente », qui propose d’utiliser l’IA pour analyser le contenu des images des caméras, notamment pour identifier des personnes grâce à la reconnaissance faciale − une technique assez répandue en Chine. Le récent règlement AI Act a interdit, dans l’Union européenne, une telle « identification biométrique à distance en temps réel dans les espaces accessibles au public ». Tout en autorisant son usage par les forces de l’ordre, à certaines conditions, pour « la prévention de menaces réelles, actuelles ou prévisibles, telles que les attentats terroristes et la recherche de personnes soupçonnées des crimes les plus graves ». L’usage a posteriori est possible, sous conditions.
L’ONG Amnesty International a regretté « l’occasion manquée » d’une interdiction totale. L’association La Quadrature du Net déplore, elle, des premiers tests en France de vidéosurveillance algorithmique, autorisés par la loi sur les Jeux olympiques adoptée en mars 2023 : sans reconnaissance faciale, ceux-ci ont visé à détecter des mouvements jugés problématiques, dans les transports en commun, à l’occasion d’un concert ou d’un match de football. L’association craint une avancée « à petits pas ». Pour ses partisans, l’IA lève un obstacle majeur de la vidéosurveillance : la difficulté de faire analyser de très grandes quantités d’images par des humains. Pour ses détracteurs, elle est liberticide mais aussi source d’erreurs et de biais.
Les possibilités ne s’arrêtent pas à ces domaines très débattus. D’apparence anodine, une des fonctionnalités présentées le 14 mai par Google a fait réagir des défenseurs de la vie privée : celle-ci propose d’envoyer une alerte à l’utilisateur d’un téléphone Android s’il reçoit un appel susceptible, selon l’IA, d’être une arnaque. « C’est incroyablement dangereux », a tweeté Meredith Whittaker, directrice générale de la messagerie chiffrée Signal. Selon elle, scanner ainsi les conversations téléphoniques pourrait, à terme, être utilisé par des Etats pour détecter tous types de comportements jugés illégaux. Pour rassurer, Google a rappelé que les conversations étaient analysées sur le téléphone de l’utilisateur et que ce dernier devait consentir – « opt in » – pour utiliser ce service.
Il vous reste 35.14% de cet article à lire. La suite est réservée aux abonnés.