SEO

Ce procès pourrait rendre les médias sociaux plus sûrs pour vos enfants

Un procès accusant les sociétés de médias sociaux de nuire intentionnellement aux enfants par le biais de conceptions de plateformes addictives est autorisé à avancer, a statué aujourd’hui un tribunal fédéral.

Introduite au nom de centaines de mineurs à travers les États-Unis, la poursuite consolidée allègue que des sociétés telles que Meta, Snap, TikTok et YouTube ont spécifiquement conçu leurs plateformes pour « accrocher » les jeunes utilisateurs, entraînant des problèmes de santé mentale comme l’anxiété et la dépression.

L’affaire regroupe plus de 100 poursuites individuelles déposées début 2022, peu après que la lanceuse d’alerte de Facebook, Frances Haugen, ait divulgué une recherche interne sur les effets néfastes d’Instagram sur la santé mentale des adolescents.

Le juge autorise la poursuite d’une grande partie du procès

“Les accusés cibleraient les enfants en tant que marché principal et auraient conçu leurs plateformes pour les attirer et les rendre dépendants”, a écrit la juge Yvonne Gonzalez Rogers dans l’ordonnance rendue en Californie.

Les sociétés ont cherché à rejeter le procès, arguant qu’elles étaient à l’abri de toute responsabilité en vertu de l’article 230 de la loi sur la décence en matière de communications. Connue simplement sous le nom d’article 230, cette loi de 1996 protège les plateformes en ligne des poursuites judiciaires concernant le contenu généré par les utilisateurs.

Mais après une analyse détaillée, a écrit Rogers, « l’approche « tout ou rien » des parties concernant les requêtes en rejet ne répond pas suffisamment à la complexité des questions auxquelles ce litige est confronté. »

Au centre du procès se trouvent les allégations concernant les flux incessants des plateformes, les notifications push, les recommandations algorithmiques et d’autres caractéristiques de conception qui les rendent addictives. Les plaignants affirment que ces choix de conception intentionnels sont responsables des dommages causés à la santé mentale, et non du contenu lui-même.

Rogers était d’accord. L’article 230 n’interdit pas les réclamations en responsabilité du fait des produits axées sur des défauts de conception tels que des contrôles parentaux inefficaces, la vérification de l’âge, les délais et les obstacles à la suppression de compte. Cependant, les allégations concernant l’utilisation d’algorithmes pour recommander des comptes et certaines fonctionnalités de notification ont été rejetées.

« La même chose s’applique ici. La Cour doit considérer la conduite spécifique par laquelle les défendeurs auraient violé leurs obligations envers les plaignants », a écrit Rogers. « Ce sont ces allégations détaillées et spécifiques à une conduite qui nécessitent une analyse. »

Découverte potentiellement dommageable à venir

À mesure que l’affaire passe à l’étape de la découverte, des documents internes et des données des entreprises technologiques liées à leur connaissance des dommages potentiels pourraient être révélés. Les plaignants soutiennent que les entreprises étaient conscientes des effets sur la santé mentale des enfants, mais n’ont pas fait grand-chose pour répondre aux problèmes de sécurité.

“L’approche du tout ou rien des parties ne représente pas de manière juste ou précise l’application par le neuvième circuit de l’immunité de l’article 230”, a écrit Rogers. “Au contraire, la Cour a procédé à une analyse des défauts de fonctionnalité réels allégués dans la plainte.”

Le procès vise des modifications de conception et des dommages-intérêts

Le procès vise à appliquer la loi sur la responsabilité du fait des produits aux médias sociaux, en traitant les plateformes comme des produits défectueux nécessitant une conception et des avertissements améliorés.

Les entreprises technologiques maintiennent depuis longtemps l’immunité juridique uniquement pour le contenu des utilisateurs. Pourtant, cette affaire et d’autres signalent une nouvelle menace axée sur les algorithmes, les systèmes de recommandation et d’autres choix opérationnels intégrés aux plateformes.

Les avocats des sociétés n’ont pas indiqué s’ils feraient appel de la décision, permettant ainsi à des parties importantes du procès d’avancer. Avec des milliards de dollars et la conception future des médias sociaux en jeu, l’affaire est suivie de près dans les cercles technologiques et juridiques.

Si le recours collectif est certifié, les plaignants demanderont des dommages-intérêts et imposeront des changements sur la plateforme, comme les délais par défaut, la vérification de l’âge, la transparence algorithmique, etc. Cependant, l’affaire se heurte encore à des obstacles, comme prouver que les plateformes ont directement causé des dommages à la santé mentale subis par des mineurs.

En fin de compte, le procès vise le modèle commercial publicitaire de base des sociétés de médias sociaux, qui dépend de la maximisation du temps d’engagement des utilisateurs grâce à des choix de conception tels que des flux à défilement sans fin. Tout changement imposé aux entreprises pourrait avoir un impact sur leurs bénéfices.

Regarder vers l’avant

Même si elle n’en est qu’à ses débuts, la décision mixte maintient le procès en vie et ouvre la voie à des documents internes susceptibles de révéler jusqu’où Facebook, Snapchat, TikTok et YouTube ont pu aller pour attirer les jeunes utilisateurs au détriment de leur bien-être. .


Image en vedette : DavideAngelini/Shutterstock

Author

Boosteseo

Leave a comment