La loi sur la sécurité des enfants en ligne est un plan musclé pour obliger les plateformes à espionner les enfants.

Mettre les enfants sous surveillance et limiter leur accès à l’information ne les rend pas plus sûrs – en fait, les recherches suggèrent exactement le contraire. Malheureusement, ce sont ces tactiques qui sont soutenues par le Kids Online Safety Act de 2022 (KOSA), présenté par les sénateurs Blumenthal et Blackburn.

Ce projet de loi a le mérite de tenter d’améliorer la confidentialité des données en ligne pour les jeunes et d’actualiser la règle de protection de la vie privée en ligne des enfants (COPPA) de 1998. Mais son projet d’exiger la surveillance et la censure de toute personne de moins de seize ans mettrait grandement en danger les droits et la sécurité des jeunes en ligne.

KOSA exigerait ce qui suit :

  • Une nouvelle obligation légale pour les plateformes de prévenir certains préjudices : KOSA décrit une large collection de contenus pour lesquels les plateformes peuvent être poursuivies si les jeunes les rencontrent, notamment « la promotion de l’automutilation, du suicide, des troubles alimentaires, de la toxicomanie et d’autres questions qui présentent un risque pour la santé physique et mentale d’un mineur. »
  • Obliger les plateformes à fournir des données aux chercheurs.
  • Un système élaboré de vérification de l’âge, probablement géré par un fournisseur tiers.
  • des contrôles parentaux, activés et réglés au maximum, pour bloquer ou filtrer un large éventail de contenus.

Ce plan suscite de nombreuses inquiétudes. Le contrôle parental exigerait en effet qu’un grand nombre de plateformes en ligne créent des systèmes permettant aux parents d’espionner – et de contrôler – les conversations que les jeunes peuvent avoir en ligne, et que ces systèmes soient activés par défaut. Elle entraînerait aussi probablement un suivi supplémentaire de tous les utilisateurs.

La collecte de données est un fléau pour tout internaute, quel que soit son âge.

Et afin d’éviter toute responsabilité pour les préjudices énumérés, presque toutes les plateformes en ligne cacheraient ou supprimeraient des pans entiers de contenu. Et parce que chacun des domaines de préoccupation énumérés comporte des zones grises importantes, les plates-formes pratiqueront une censure excessive pour tenter d’éviter les nouveaux risques de responsabilité.

Ces exigences seraient appliquées de manière beaucoup plus large que la loi que KOSA espère mettre à jour, la COPPA. Alors que la COPPA s’applique à toute personne de moins de treize ans, la loi KOSA s’appliquerait à toute personne de moins de seize ans – un groupe d’âge dont les organisations de défense des droits de l’enfant reconnaissent qu’il a davantage besoin de vie privée et d’indépendance que les adolescents et les enfants plus jeunes. Et contrairement au système d’auto-vérification de l’âge de la COPPA, la KOSA autoriserait une étude fédérale sur « les options les plus réalisables technologiquement pour développer des systèmes de vérification de l’âge au niveau du dispositif ou du système d’exploitation ».

Les systèmes de vérification de l’âge sont troublants – exiger de tels systèmes pourrait remettre un pouvoir important, et des données privées, à des sociétés de vérification d’identité tierces comme Clear ou ID.me. En outre, un tel système conduirait probablement les plateformes à mettre en place des systèmes élaborés de vérification de l’âge pour tout le monde, ce qui signifie que tous les utilisateurs devraient soumettre des données personnelles.

Enfin, la définition incroyablement large de KOSA d’une plateforme couverte inclurait toute « application logicielle commerciale ou service électronique qui se connecte à Internet et qui est utilisé, ou est raisonnablement susceptible d’être utilisé, par un mineur ».

Cela engloberait probablement tout, d’iMessage et Signal d’Apple aux navigateurs web, en passant par les applications de messagerie et les logiciels VPN, ainsi que des plateformes comme Facebook et TikTok – des plateformes dont les bases d’utilisateurs et les utilisations sont très différentes.

On ne sait pas non plus jusqu’à quel point cette exigence s’appliquerait à la « pile technologique » : les hôtes web ou les registres de domaines ne sont probablement pas les plateformes visées par la loi KOSA, mais, selon l’interprétation, ils pourraient être soumis à ses exigences.

Enfin, le projet de loi soulève des inquiétudes quant à la manière dont les fournisseurs de plates-formes de messagerie chiffrée de bout en bout comme iMessage, Signal et WhatsApp interpréteraient leur obligation de surveiller les communications des mineurs, avec le risque que les entreprises compromettent simplement le chiffrement pour éviter les litiges.

La censure n’est pas la solution

La loi KOSA obligerait les sites à utiliser des filtres pour bloquer les contenus – des filtres qui, comme nous l’avons vu à maintes reprises, ne parviennent pas à distinguer les « bons » discours des « mauvais » discours. Les types de contenus visés par la loi KOSA sont complexes et souvent dangereux, mais en discuter n’est pas mauvais par défaut.

Il est très difficile de faire la différence entre des mineurs qui discutent de ces sujets d’une manière qui les encourage, et d’une manière qui les décourage. En vertu de ce projet de loi, toute discussion ou visualisation de ces sujets par des mineurs doit être bloquée.

La loi exige que les plateformes interdisent la catégorie potentiellement infinie des « autres sujets qui présentent un risque pour la santé physique et mentale d’un mineur ».

Des recherches ont déjà montré que ce type d’interdiction ne fonctionne pas : lorsque Tumblr a interdit les discussions sur l’anorexie, il a découvert que les mots clés utilisés dans les contenus pro-anorexie étaient les mêmes que ceux utilisés pour décourager l’anorexie. D’autres recherches ont montré que ce type d’interdiction rendait en fait le contenu plus facile à trouver en obligeant les gens à créer de nouveaux mots clés pour en parler (par exemple, « thinspiration » est devenu « thynsperation »).

La loi exige également que les plateformes interdisent la catégorie potentiellement infinie des « autres sujets qui présentent un risque pour la santé physique et mentale d’un mineur ». Comme nous l’avons vu par le passé, lorsque la légalité d’un contenu est sujette à interprétation, il est beaucoup plus probable qu’il soit purement et simplement interdit, ce qui laisse des trous énormes dans les informations accessibles en ligne. La loi mettrait sérieusement en danger l’accès à l’information pour les adolescents, qui peuvent vouloir explorer des idées à l’insu de leurs parents ou sans leur approbation.

Par exemple, ils peuvent avoir des questions sur la santé sexuelle qu’ils ne se sentent pas en sécurité de poser à leurs parents, ou ils peuvent vouloir aider un ami souffrant de troubles alimentaires ou de toxicomanie. (Des recherches ont montré qu’une grande majorité de jeunes ont utilisé l’internet pour des recherches liées à la santé).

La loi KOSA permettrait aux procureurs généraux de chaque État d’intenter des actions contre les plates-formes lorsque les résidents de l’État sont « menacés ou affectés négativement par l’engagement d’une personne dans une pratique qui viole cette loi ». Cela laisse aux procureurs généraux de chaque État le soin de décider quels sujets présentent un risque pour la santé physique et mentale d’un mineur. Un co-auteur de ce projet de loi, le sénateur Blackburn du Tennessee, a qualifié l’enseignement de la discrimination raciale de « dangereux pour les enfants« . De nombreux États sont d’accord et ont récemment pris des mesures pour limiter l’éducation publique sur l’histoire de la discrimination raciale, sexuelle et de genre.

Récemment, le gouverneur du Texas a ordonné au département des services familiaux et de protection de l’État d’enquêter sur les soins d’affirmation de genre en tant que maltraitance des enfants. La loi KOSA habiliterait le procureur général du Texas à définir le matériel préjudiciable aux enfants, et la position actuelle de l’État inclurait les ressources destinées aux jeunes trans. Cela permettrait à l’État de forcer les services en ligne à supprimer et à bloquer l’accès à ce matériel partout – et pas seulement au Texas. Sans parler de l’amalgame fréquent fait par les plateformes technologiques entre le contenu LGBTQ et le matériel dangereux « sexuellement explicite ». KOSA pourrait entraîner la perte de l’accès à des informations dont la grande majorité des gens conviendraient qu’elles ne sont pas dangereuses, mais qui font l’objet d’attaques politiques.

La surveillance n’est pas la solution

Certaines préoccupations légitimes sont à l’origine de KOSA. La collecte de données est un fléau pour tout internaute, quel que soit son âge. Le suivi invasif des jeunes par les plateformes en ligne est particulièrement pernicieux – l’EFF s’oppose depuis longtemps à la surveillance à distance, par exemple.

Mais la réponse à notre manque de vie privée n’est pas de renforcer la surveillance. Malgré l’omniprésence croissante de la technologie qui la rend facile, la surveillance des jeunes est en fait mauvaise pour eux, même dans le ménage le plus sain, et n’est pas une solution pour aider les jeunes à naviguer sur Internet. Les parents ont intérêt à décider de ce que leurs enfants peuvent consulter en ligne, mais personne ne peut prétendre que cet intérêt est le même si un enfant a cinq ou quinze ans.

KOSA mettrait tous les enfants de moins de seize ans dans le même groupe, et exigerait que des types de contenus spécifiques leur soient cachés, et que les autres contenus soient suivis et enregistrés par des outils parentaux. Cela obligerait les plateformes à surveiller de plus près ce que font tous les utilisateurs.

Les contrôles parentaux de KOSA donneraient aux parents, par défaut, un accès pour surveiller et contrôler l’utilisation en ligne d’un jeune. Alors qu’un outil comme Screen Time d’Apple permet aux parents de restreindre l’accès à certaines applications ou de limiter leur utilisation à certaines heures, les plates-formes devraient faire beaucoup plus dans le cadre de KOSA.

Elles devraient offrir aux parents la possibilité de modifier les résultats de tout système de recommandation algorithmique, « y compris le droit de refuser ou de déclasser des types ou des catégories de recommandations », ce qui revient à décider pour les jeunes ce qu’ils voient – ou ne voient pas – en ligne. Les parents auraient également la possibilité de supprimer entièrement le compte de leur enfant s’ils ne sont pas satisfaits de son utilisation de la plateforme.

La réponse à notre manque de respect de la vie privée n’est pas de renforcer le suivi.

Le projet de loi s’attaque aux systèmes algorithmiques en exigeant que les plateformes fournissent « une vue d’ensemble de la manière dont les systèmes de recommandation algorithmique sont utilisés […] pour fournir des informations aux utilisateurs de la plateforme qui sont des mineurs, y compris la manière dont ces systèmes utilisent les données personnelles appartenant aux mineurs. » La transparence sur le fonctionnement des algorithmes d’une plateforme, et les outils permettant aux utilisateurs d’ouvrir et de créer leurs propres flux, sont essentiels pour une compréhension plus large de la curation algorithmique, du type de contenu qu’elle peut encourager, et des conséquences qu’elle peut avoir.

L’EFF a également soutenu l’idée de donner aux utilisateurs un plus grand contrôle sur le contenu qu’ils voient en ligne. Mais KOSA exige que les parents soient en mesure de refuser ou de déclasser des types ou des catégories de recommandations, sans le consentement ou la connaissance de l’utilisateur, y compris les adolescents.

Enfin, en vertu de la loi KOSA, les plateformes seraient tenues d’empêcher les schémas d’utilisation qui indiquent une dépendance et d’offrir aux parents la possibilité de limiter les fonctionnalités qui « augmentent, soutiennent ou prolongent l’utilisation de la plateforme couverte par un mineur, telles que la lecture automatique de médias, les récompenses pour le temps passé sur la plateforme et les notifications ». Si la réduction des modèles sombres qui peuvent inciter les utilisateurs à donner des informations personnelles est un objectif louable, la détermination des fonctionnalités qui « provoquent une dépendance » est très délicate.

Si un jeune de seize ans passe trois heures par jour sur Discord à faire ses devoirs ou à discuter de musique avec ses amis, cela peut-il être considéré comme un comportement « addictif » ? KOSA couvrirait probablement des fonctionnalités aussi différentes que la lecture automatique des épisodes de Netflix et les notifications de nouveaux messages d’iMessage. Le fait de regrouper ces fonctionnalités sous l’appellation  » dépendance  » méconnaît les modèles sombres qui nuisent réellement aux utilisateurs, y compris aux jeunes.

L’EFF soutient depuis longtemps une législation complète sur la confidentialité des données pour tous les utilisateurs. Mais la loi sur la sécurité des enfants en ligne ne protégerait pas la vie privée des enfants ou des adultes. Il s’agit d’un projet lourd visant à forcer les entreprises technologiques à espionner les jeunes et à les empêcher d’accéder à des contenus qui ne sont pas « dans leur intérêt », selon la définition du gouvernement et l’interprétation des plateformes technologiques.

Source : EFF.org


Retrouvez-moi sur Odysee, Telegram et GETTRCe contenu ainsi que les informations et les opinions qui y sont exprimées sont ceux de leurs auteurs et ne reflètent pas nécessairement mon opinion.