Facebook décide de rendre open source l'algorithme qui lui permet de trouver les vidéos violentes ou violant le droit d'auteur. Le code est sur GitHub
L'algorithme développé par Facebook en collaboration avec l'université de Modène et Reggio Emilia pour trouver les vidéos violentes devient open source. Le géant des médias sociaux et l'université italienne ont décidé de publier le code pour permettre à d'autres personnes de collaborer au développement de l'algorithme et de l'améliorer.
Cet algorithme, qui est le fruit d'une collaboration entre le groupe Fair (Facebook Artificial Intelligence Research) de Facebook, basé à Paris, et des chercheurs italiens, utilise l'intelligence artificielle pour trouver les parties similaires de différentes vidéos en temps réel. Créé pour trouver notamment les violations de droits d'auteur, l'algorithme est également utilisé par le réseau social bleu pour repérer les vidéos contenant des images de violence, notamment sur des mineurs, et de propagande terroriste. Jusqu'à présent, il était protégé par des droits d'auteur, de sorte qu'il ne pouvait être utilisé par personne d'autre que l'université et Facebook.
Disponible sur GitHub
L'algorithme qui identifie les vidéos violentes sera disponible pour tous sur GitHub, afin que les grands et petits développeurs (mais aussi les associations anti-violence) puissent l'utiliser pour trouver les " hashs " des vidéos dangereuses. N'importe qui pourra bientôt utiliser le code développé par Facebook et Unimore et, puisqu'il s'agit d'une source ouverte, le modifier et l'améliorer. Par exemple, une organisation à but non lucratif qui lutte contre la violence à l'égard des femmes ou des enfants pourra utiliser l'algorithme pour scruter les réseaux sociaux, les forums et d'autres plateformes afin de trouver des vidéos qui devraient être retirées du web.
Le partage de la technologie
Facebook, dans une note, explique pourquoi il a été décidé d'ouvrir l'algorithme en open source : "Si nous identifions de la propagande terroriste sur nos plateformes, nous la retirons et l'indexons à l'aide de diverses techniques, dont les algorithmes que nous partageons aujourd'hui. Nous pouvons maintenant partager les "hashs" avec les partenaires du secteur, y compris les petites entreprises, afin qu'ils puissent supprimer le même contenu s'il apparaît sur leurs services."
Très souvent, une vidéo supprimée par Facebook continue de circuler sur d'autres canaux qui ne disposent pas des outils techniques pour la classer comme dangereuse automatiquement, sans processus de révision humaine.