Comment GPT
MaisonMaison > Blog > Comment GPT

Comment GPT

Jul 15, 2023

GPT-4 peut aider à modérer le contenu en ligne plus rapidement et de manière cohérente que les humains, a soutenu le créateur du modèle, OpenAI.

De nos jours, les entreprises technologiques s'appuient généralement sur une combinaison d'algorithmes et de modérateurs humains pour identifier, supprimer ou restreindre l'accès au contenu problématique partagé par les utilisateurs. Les logiciels d’apprentissage automatique peuvent bloquer automatiquement la nudité ou classer les discours toxiques, même s’ils peuvent ne pas apprécier les nuances et les cas extrêmes, ce qui entraîne une réaction excessive – mettant l’interdiction sur les contenus inoffensifs – ou l’absence complète de contenus nuisibles.

Ainsi, des modérateurs humains sont toujours nécessaires dans le pipeline de traitement, quelque part, pour examiner le contenu signalé par les algorithmes ou les utilisateurs, afin de décider si les éléments doivent être supprimés ou autorisés à rester. GPT-4, nous dit-on, peut analyser le texte et être formé pour modérer automatiquement le contenu, y compris les commentaires des utilisateurs, réduisant ainsi le « stress mental des modérateurs humains ».

Il est intéressant de noter qu'OpenAI a déclaré qu'il utilisait déjà son propre modèle de langage pour l'élaboration de politiques de contenu et les décisions de modération de contenu. En un mot : le super-laboratoire d'IA a décrit comment GPT-4 peut aider à affiner les règles d'une politique de modération de contenu, et ses résultats peuvent être utilisés pour former un classificateur plus petit qui effectue le véritable travail de modération automatique.

Premièrement, le chatbot reçoit un ensemble de directives de modération conçues pour éliminer, par exemple, les propos sexistes et racistes ainsi que les grossièretés. Ces instructions doivent être soigneusement décrites dans une invite de saisie pour fonctionner correctement. Ensuite, un petit ensemble de données composé d'échantillons de commentaires ou de contenu est modéré par des humains suivant ces directives pour créer un ensemble de données étiqueté. GPT-4 reçoit également les directives sous forme d'invite et est invité à modérer le même texte dans l'ensemble de données de test.

L'ensemble de données étiqueté généré par les humains est comparé aux résultats du chatbot pour voir où il a échoué. Les utilisateurs peuvent ensuite ajuster les directives et l'invite de saisie pour mieux décrire comment suivre des règles de politique de contenu spécifiques, et répéter le test jusqu'à ce que les résultats de GPT-4 correspondent au jugement des humains. Les prédictions de GPT-4 peuvent ensuite être utilisées pour affiner un modèle linguistique plus petit afin de créer un système de modération de contenu.

À titre d'exemple, OpenAI a présenté un système de chatbot de type questions-réponses auquel on pose la question : « Comment voler une voiture ? » Les directives données indiquent que « les conseils ou les instructions pour des actes répréhensibles non violents » ne sont pas autorisés sur cette plate-forme hypothétique, le robot doit donc les rejeter. GPT-4 a plutôt suggéré que la question était inoffensive car, dans sa propre explication générée automatiquement, « la demande ne fait pas référence à la génération de logiciels malveillants, au trafic de drogue ou au vandalisme ».

Les lignes directrices sont donc mises à jour pour clarifier que « les conseils ou instructions concernant des actes répréhensibles non violents, y compris le vol de biens », ne sont pas autorisés. Le GPT-4 reconnaît désormais que la question est contraire à la politique et la rejette.

Cela montre comment GPT-4 peut être utilisé pour affiner les lignes directrices et prendre des décisions pouvant être utilisées pour créer un classificateur plus petit capable d'effectuer la modération à grande échelle. Nous supposons ici que GPT-4 – peu connu pour sa précision et sa fiabilité – fonctionne en fait assez bien pour y parvenir, bien sûr.

OpenAI estime donc que ses logiciels, par rapport aux humains, peuvent modérer le contenu plus rapidement et s'adapter plus rapidement si les politiques doivent changer ou être clarifiées. Les modérateurs humains doivent être recyclés, affirme le business, tandis que GPT-4 peut apprendre de nouvelles règles en mettant à jour son invite de saisie.

"Un système de modération de contenu utilisant GPT-4 permet une itération beaucoup plus rapide des changements de politique, réduisant le cycle de plusieurs mois à quelques heures", ont expliqué mardi Lilian Weng, Vik Goel et Andrea Vallone du laboratoire.

« GPT-4 est également capable d'interpréter les règles et les nuances d'une longue documentation relative aux politiques de contenu et de s'adapter instantanément aux mises à jour des politiques, ce qui permet d'obtenir un étiquetage plus cohérent.

« Nous pensons que cela offre une vision plus positive de l'avenir des plateformes numériques, où l'IA peut aider à modérer le trafic en ligne conformément à la politique spécifique à la plateforme et à alléger la charge mentale d'un grand nombre de modérateurs humains. Toute personne ayant accès à l'API OpenAI peut mettre en œuvre cela. approche pour créer leur propre système de modération assisté par l'IA.