Un phénomène en hausse
Les autorités soupçonnent une augmentation de la cyberpédocriminalité en Suisse, malgré l’absence de statistiques fiables sur le sujet. La Police fédérale aurait transmis quelque 1400 dossiers aux cantons en 2021, contre moitié moins deux ans plus tôt, selon des chiffres publiés par la NZZ Am Sonntag. Selon l’Office fédéral de la statistique, 73% des victimes de délits sexuels en ligne sont des mineurs, et la catégorie des 10-15 ans serait la plus représentée.
Des chiffres parcellaires et possiblement sous-estimés, selon le rapport du Conseil fédéral, qui s’appuie sur une étude menée par l’Université de Lausanne. En 2021, 85 millions d’images et de vidéos représentant des abus sexuels d’enfants ont été signalés dans le monde, selon des chiffres communiqués par la Commission européenne.
De nouveaux moyens
Nul ne conteste la nécessité de renforcer les moyens pour lutter contre la pédocriminalité – qu’elle soit sur le web ou en-dehors. Ce qui doit nous interroger, c’est la proportionnalité de ces moyens. Jugez plutôt:
En Suisse, une initiative parlementaire, qui doit encore être débattue, propose de modifier le code de procédure pénale pour autoriser les investigations secrètes relevant de la pédophilie, même en l’absence de soupçons.
L’an dernier, la Commission européenne a déposé un projet de règlement pour obliger les fournisseurs de services d’hébergement ou de communication à déployer de nouveaux outils permettant de détecter les contenus qui relèvent de la pédopornographie, allant jusqu’à l’observation automatisée des publications et des échanges sur les plateformes.
L’association #IWas veut proposer différents outils pour lutter contre la cyberpédocriminalité et a récemment annoncé dans Le Monde le développement d’une «intelligence artificielle» capable de «détecter des intentions et actes pédocriminels en ligne».
Le risque de dérive
Ce n’est pas parce que le sujet est grave et particulièrement émotionnel qu’il ne faut pas s’alarmer des potentielles dérives concernant les mesures proposées par les autorités, qui imposent d’ailleurs à des acteurs du privé, parfois via des systèmes automatisés, le rôle de gendarme. Facebook a par exemple développé un outil censé détecter les utilisateurs à risque suicidaire.
Des dérives, il y en a déjà eu. Un homme a été accusé de pédophilie à tort parce que Google avait repéré, de manière automatisée, des photos de parties génitales d’un enfant. En l’occurrence, il y avait une bonne raison à cela: l’enfant en question était son fils et la photo servait à informer le pédiatre, pandémie oblige, d’une grosseur anormale au niveau de l’entrejambe.
Aucune intention malveillante derrière ce geste. Mais la machine, aussi perfectionnée soit elle, n’a pas la capacité de connaître le contexte. L’homme a donc perdu son accès à Google, et a été menacé de poursuites pénales pour pédophilie. Il a heureusement été blanchi, mais cette histoire illustre bien les dangers de l’automatisation aveugle.
Il s’agissait-là uniquement d’un algorithme qui analyse les photos de manière automatique. Alors quid d’une intelligence artificielle qui devrait «détecter les intentions» pédocriminelles avant le passage à l’acte? Imaginons qu’elle en soit capable. Aucune technologie n’est infaillible. Sommes-nous prêts à accepter qu’il y ait d’autres personnes, à l’image de ce père accusé à tort par Google, qui soient confrontées à la justice alors qu’elles sont parfaitement innocentes?
Ces questions doivent être débattues, sans tabou. Le fait que la cause soit juste ne doit pas nous faire perdre de vue ce vieil adage: l’enfer est pavé de bonnes intentions. La technologie ne peut pas tout contrôler, en revanche elle pourrait bien réduire à néant les principes qui régissent nos Etats de droit en cas d’utilisation excessive.