Après avoir abandonné son test de mai dernier, Twitter a décidé de retenter l’expérience de lutter contre les commentaires potentiellement nuisibles en prévenant les utilisateurs lorsque l’IA du réseau social estime que leur publication pourrait être offensante.
En mai, Twitter a lancé une fonctionnalité pour prévenir les utilisateurs anglophones sur Android, iOS et le web lorsque leur publication pourrait être offensante. Cependant, l’expérience a été suspendue lorsque Twitter a réalisé que l’invite était incohérente et qu’il fallait être plus conscient de la façon de générer des tweets potentiellement dangereux.
Depuis, Twitter a retravaillé sa formulation et la façon dont elle appréhende les propos potentiellement offensants, tels que les insultes et les remarques haineuses. L’objectif est également de mieux évaluer les tweets qui sont en apparence du second degré entre utilisateurs qui se connaissent en examinant leurs relations pour éviter de signaler des blagues entre amis.
Pour l’instant, cette nouvelle phase de test n’a été lancée que sur iOS et les utilisateurs sont invités à collaborer pour améliorer le système. Si un utilisateur reçoit une alerte pour un message qu’il estime être mal interprété, il peut faire remonter l’erreur pour améliorer l’IA de détection de Twitter.
Instagram utilise également un outil similaire depuis 2019 pour lutter contre le harcèlement et les intimidations en ligne en offrant aux utilisateurs une opportunité de réfléchir et d’annuler leur commentaire pour éviter au destinataire de recevoir une notification de commentaire malveillant.