Réservé aux abonnés

Pour l'IA, ChatGPT est un vrai saut dans le futur

Raphaël Briner

Inventeur et entrepreneur en série dans le numérique, Raphaël Briner dirige la société visible.video à Genève. Depuis cinq jours, il teste l’intelligence artificielle ChatGPT dans tous les sens. Son témoignage.

Voilà 5 jours que je suis consterné et bluffé à la fois.

Le lancement de chatGPT n’était pas clair. Je n’arrivais pas à savoir si c’était une petite mise à jour de l’algorithme d’intelligence artificielle GPT-3, lancé en 2020 par OpenAI. Ou au contraire une énorme mise à jour secrète avec la version GPT-4 annoncée pour l’année prochaine. Ce n’est ni l’un ni l’autre apparemment. Simplement un petit “fine-tuning”, la version 3.5. J’étais tombé dessus sur mon LinkedIn, comme sans doute vous récemment sans comprendre vraiment, en me demandant si je n’avais pas simplement 2 ans de retard sur l’appréciation de GPT-3, l’IA la plus aboutie à ce jour.

Lire aussi: Nous avons demandé à ChatGPT d'écrire des articles, voilà ce qui s'est passé

Comment ça marche? En gros, vous posez une question et vous obtenez une réponse bien structurée, digne d’une dissertation, avec une grande relativité et prudence dans la posture. Vous pouvez également demander la rédaction d’un texte (exemple), à partir d'une phase appelée prompt. Ou encore reformuler dans son entier cet article par exemple. J’ai essayé, mais j’ai quand même préféré le refaire moi-même…

Cinq jours de tests

Testez si ce n’est déjà fait et si les serveurs sont disponibles : un million d’utilisateurs en cinq jours. 50 millions d’ici Noël? J’ai fait des dizaines de captures d’écrans sur des phrases personnalisées pour mes amis. Pour ma fille et ma compagne, je leur ai montré des exemples de texte en médecine, à mon fils les méfaits de trop de jeux vidéo, à mon réseau Instagram quelques tuyaux sur… Instagram, à mes clients les enjeux du travail hybride, à mon ancien associé la différence entre un feedback et un commentaire, etc.

J’ai vu des gens demander à l’IA de faire des business plans propres aux startups qui vendent des logiciels en ligne (SaaS), définir 3 années d’objectifs totalement crédibles, des idées à présenter à Elon Musk pour éviter d’être viré ou encore écrire de grandes annonces pour LinkedIn en se basant juste sur quelques mots. Plus je testais, plus je tremblais.

Cette IA crée à la volée, sans s’amuser pour autant et sans comprendre l’impact sur nos émotions. Elle prend quand même des gants, essaie d’éviter les biais et les questions pièges ou immorales comme “comment détrousser des gens dans une voiture”.

Pièges et erreurs

Mais elle se fait piéger aussi, certaines personnes utilisant des astuces en ajoutant un contexte de jeu vidéo pour obtenir une réponse sans limites. Et elle se fait déjà interdire, par exemple par StackOverflow parce que les codes informatiques qu’elle génère comportent aussi des erreurs. Et des développeurs l’intégrent avec des systèmes qui imitent l’humain butinant une page web“What could go wrong?”

Puis j’ai vu arriver dans mon LinkedIn d’autres personnes ébahies, un peu comme après une bombe à la télévision. Je me suis senti moins seul. Le Guardian a été le premier à relever la surprise du milieu académique: “AI bot ChatGPT stuns academics with essay-writing skills and usability”.

“Clickbait” me répond un ami. Qu’importe, c’était d’après l’historique de Google News le premier grand média public à en parler, avec 3 jours de retard quand même. Puis c’est l’avalanche sur Techmeme, LinkedIn & Cie. Le consensus humain, plus lent que l’algorithme mais tellement riche, et irremplaçable, rassurez-vous.

Quelques réactions à chaud: “Google est mort”, “ Je viens d’avoir une conversation de 20 minutes sur la physique moderne…”, “Quel malhonnête”, “Toujours pas réglé le problème des biais”, “on est pas loin d’une IA dangereuse”.

Toujours le sujet de la confiance!

A bien des égards, les défauts dans les réponses apparemment brillantes de ChatGPT entraînent l’humain à comprendre qu’une personne éloquente n’est pas automatiquement digne de confiance.

Prenons l’hypothèse du verre à moitié plein: il nous est difficile de mesurer quels secteurs vont être directement touchés par pareil outil. Cela dépasse notre imagination. Il nous est aussi compliqué d’évaluer les cocktails possibles.

Réservé aux abonnés

Cet article est réservé aux abonnés.

Déjà abonné(e) ? Se connecter