Réservé aux abonnés

ChatGPT: derrière l'exploit, des ouvriers du clic exposés à des récits de viol

Des travailleur de l'ombre ont classé de nombreux textes violents, pour batir des filtres contre les propos toxiques de ChatGPT. Dall-E

Afin d'éviter que ChatGPT ne puisse produire des textes racistes ou violents, OpenAI a fait appel à des travailleurs africains, chargés de classer textes et images selon leur toxicité.

Une technologie vitrine… mais une arrière-boutique bien moins reluisante. Pour sécuriser ChatGPT, outil de génération de texte consulté par des millions d’utilisateurs à travers le monde, l’entreprise OpenAI aurait fait appel à des «travailleurs du clic» basés au Kenya et dans plusieurs pays d’Afrique. Leur mission: traiter à la chaîne, et à peu de frais, plusieurs milliers de documents choquants pour éviter que l’intelligence artificielle n’affiche des textes racistes ou violents.

Révélées par le magazine Time mercredi 18 janvier, ces pratiques mettent à mal les promesses philanthropiques et humanistes de la start-up. Depuis sa création par les hommes d’affaires Elon Musk et Sam Altman en 2015, OpenAI tente de se positionner comme une alternative éthique aux GAFAM. L’organisation met régulièrement en avant son travail «pour le bénéfice de l’humanité», et son souci de ne pas nuire avec ses technologies.

Cet article est réservé aux abonnés.

Pour lire la suite de cet article et des milliers d'autres, abonnez-vous à partir de CHF 16.- par mois.

Le journalisme de qualité nécessite du temps, de l'investigation et des moyens. Heidi.news est sans publicité. L'avenir de votre média dépend de vous.

Je profite des 30 premiers jours gratuits

Les bonnes raisons de s’abonner à Heidi.news :

  • Un mois d’essai, sans engagement sur votre premier abonnement
  • La newsletter le Point du jour édition abonnés
  • Les archives en illimité
  • Des échanges avec nos journalistes