L’intelligence artificielle (IA) peut offrir des solutions pour réduire l’activité sur les réseaux sociaux considérée comme toxique et polarisante.
Dans une étude récente, des chercheurs suggèrent que modifier la manière dont les réseaux sociaux diffusent le contenu pourrait réduire les divisions partisanes et conduire à des interactions plus positives.
L’étude a été menée par une équipe dirigée par le professeur Petter Törnberg de l’Université d’Amsterdam. Ils ont programmé 500 chatbots avec des profils politiques et démographiques uniques basés sur des données d’enquête.
Les robots ont été conçus pour lire de vraies nouvelles et les publier dans des environnements Twitter/X simulés.
Dans cette configuration, les robots ont fait preuve d’un plus grand plaisir à trouver un terrain d’entente et un comportement moins toxique. Alors que l’IA imite les gens de manière plus réaliste, cette étude pourrait donner un aperçu de la manière de rassembler les gens sur les réseaux sociaux tout en évitant les pièges éthiques.
En savoir plus sur l’étude : simulation d’un réseau social
L’équipe de Törnberg a programmé des chatbots à l’aide de ChatGPT 3.5. Les robots se sont vu attribuer chacun une affiliation politique, un âge, un sexe, un revenu, une religion, des équipes sportives préférées, etc. Cela a donné aux chercheurs une population simulée diversifiée.
Lors d’une journée simulée en juillet 2020, les robots ont lu les gros titres de l’actualité de cette période sur des sujets tels que le COVID-19 et les manifestations de Black Lives Matter. Les robots ont ensuite commenté, aimé et interagi avec les publications faisant la une des journaux.
Les chercheurs ont créé trois modèles Twitter expérimentaux différents :
- Un modèle de chambre en écho ne montrait que les publications de robots provenant d’autres personnes ayant des vues similaires.
- Un modèle de découverte donnait la priorité à l’engagement plutôt qu’aux croyances.
- Le troisième modèle de « transition » mettait en évidence les publications appréciées par les groupes partisans opposés afin d’optimiser l’interaction entre les partis.
Suivi du comportement des robots
Les simulations ont duré 6 heures, les chercheurs suivant le comportement des robots.
Dans le modèle de transition, les robots se sont montrés plus heureux de trouver un terrain d’entente sur des questions telles que les droits LGBTQ+ dans la musique country. Il y avait également beaucoup plus d’interactions entre les partis et des échanges moins toxiques que le modèle de chambre d’écho polarisée.
« Si les gens interagissent sur une question qui transcende les clivages partisans, où 50 % des personnes avec lesquelles vous êtes d’accord votent pour un parti différent du vôtre, cela réduit la polarisation », a expliqué Törnberg. « Votre identité partisane n’est pas activée. »
Les résultats suggèrent que les médias sociaux pourraient être conçus pour stimuler l’engagement sans alimenter les abus entre différents groupes. Cependant, des recherches supplémentaires sont nécessaires pour valider si les chatbots IA avancés peuvent simuler fidèlement le comportement humain en ligne.
Préoccupations éthiques
Des préoccupations éthiques subsistent concernant les données privées utilisées pour former des robots ressemblant à des humains. Ils pourraient potentiellement être programmés avec les publications des personnes sur les réseaux sociaux, leur historique de navigation ou leurs enregistrements confidentiels, soulevant des problèmes de consentement.
Des lignes directrices sont probablement nécessaires concernant les droits des personnes dont les données entraînent des robots pour des études comme celle-ci.
À mesure que les chatbots IA agissent de manière plus humaine, ils pourraient contribuer à réduire la toxicité sur les réseaux sociaux. Cependant, les chercheurs doivent s’assurer que les doubles numériques reflètent également le meilleur de l’humanité, et non le pire.
Image en vedette : CkyBe/Shutterstock