Réservé aux abonnés

ChatGPT: derrière l'exploit, des ouvriers du clic exposés à des récits de viol

Des travailleur de l'ombre ont classé de nombreux textes violents, pour batir des filtres contre les propos toxiques de ChatGPT. Dall-E

Afin d'éviter que ChatGPT ne puisse produire des textes racistes ou violents, OpenAI a fait appel à des travailleurs africains, chargés de classer textes et images selon leur toxicité.

Une technologie vitrine… mais une arrière-boutique bien moins reluisante. Pour sécuriser ChatGPT, outil de génération de texte consulté par des millions d’utilisateurs à travers le monde, l’entreprise OpenAI aurait fait appel à des «travailleurs du clic» basés au Kenya et dans plusieurs pays d’Afrique. Leur mission: traiter à la chaîne, et à peu de frais, plusieurs milliers de documents choquants pour éviter que l’intelligence artificielle n’affiche des textes racistes ou violents.

Révélées par le magazine Time mercredi 18 janvier, ces pratiques mettent à mal les promesses philanthropiques et humanistes de la start-up. Depuis sa création par les hommes d’affaires Elon Musk et Sam Altman en 2015, OpenAI tente de se positionner comme une alternative éthique aux GAFAM. L’organisation met régulièrement en avant son travail «pour le bénéfice de l’humanité», et son souci de ne pas nuire avec ses technologies.

Réservé aux abonnés

Cet article est réservé aux abonnés.

Déjà abonné(e) ? Se connecter