Aujourd’hui, le processus de modération de contenu est quelque chose d’extrêmement difficile – ce n’est plus la « modération » qui était pertinente sur diverses plateformes il y a 10 ans. Désormais, les modérateurs humains sont constamment obligés de réagir en temps réel aux tendances en évolution rapide, ainsi que d’analyser divers messages et messages d’utilisateurs pour la présence, par exemple, de théories du complot sur la vaccination, divers types de désinformation ou des tentatives délibérées de provoquer préjudice.

Et ce sont les systèmes d’apprentissage automatique qui sont les mieux à même d’aider à alléger une partie de ce fardeau en raison de l’automatisation au moins partielle du processus de modération que peut l’Intelligence Artificielle. Pourtant, on ne peut contester le fait que les systèmes d’automatisation modernes ne sont pas non plus idéaux. Meta Corporation a décidé de les amener à un état plus digeste, qui, comme on l’a vu, a récemment effectué des tests d’un système nommé Few-Shot Learner. Dans l’ensemble, les premiers résultats sont encourageants. Les chercheurs de Meta ont étudié l’évolution de la prévalence du contenu malveillant présenté aux utilisateurs de Facebook et d’Instagram avant et après l’activation du système d’affichage, de recherche et de filtrage, ce qu’est le FSL.
En conséquence, le système a pu détecter extrêmement rapidement le contenu nuisible que les modèles d’apprentissage automatique conventionnels ont manqué. De plus, cela a également immédiatement réduit la prévalence de ce contenu en général. C’est pourquoi le géant de la technologie a déjà signalé que FSL avait surpassé de nombreux autres modèles d’IA de 55%. Cependant, en toute justice, il convient de noter que la « productivité correcte » moyenne n’est que de 12%, ce qui est également très bon. L’amélioration des performances de l’IA avec FSL est en partie attribuable à une tendance définie par l’entreprise elle-même comme « un acte ou un fait d’occurrence ou d’implication résultant d’un besoin ou d’une conséquence ».

À la base, il s’agit d’une conséquence logique entre deux phrases – si la phrase « A » est vraie, alors la phrase « B » doit également être vraie. En d’autres termes, si la phrase « A » ressemble à « le président a été tué », alors il s’ensuit que la phrase « B », « le président est mort », est également vraie, exacte et correcte, ne nécessitant pas de considération supplémentaire de la part des opérateurs humains pour désinformation. Ainsi, au moment même où le système mentionné ci-dessus sera affiné et intégré aux plateformes de l’entreprise, ils deviendront clairement beaucoup plus sécurisés et moins trompeurs.
Source : https://1informer.com