Un phénomène en pleine croissance. Le média américain cite d’autres exemples de projets qui séduisent les investisseurs:
Jasper, une entreprise spécialisée dans l’intelligence artificielle générative, a levé 150 millions de dollars en octobre 2022, lui permettant d’atteindre une valorisation de 1,5 milliard de dollars.
Stability AI, active dans la génération d’images, a pour sa part réuni 101 millions de dollars le même mois, valorisant l’entreprise à un milliard de dollars.
Au total, les investisseurs auraient injecté quelque 1,37 milliard de dollars en 2022 dans des projets de technologies génératives basées sur de l’apprentissage machine. C’est plus que les investissements réalisés sur les cinq dernières années. Signe de cet engouement, Sequoia Capital a récemment écrit que ce secteur pourrait générer des milliers de milliards de dollars.
Lire aussi: Tout ce qu’il faut savoir sur OpenAI, à l’origine de ChatGPT
Pourquoi cela soulève des questions. Les succès que peuvent rencontrer de telles technologies attirent évidemment l’appétit des investisseurs. ChatGPT a dépassé le cap du million d’utilisateurs en seulement cinq jours.
Faut-il pour autant s’en réjouir? Lê Nguyên Hoang, à la tête d’une entreprise de cybersécurité et précédemment chercheur en sécurité de l’apprentissage machine à l’EPFL, confiait dernièrement à Heidi.news ses inquiétudes concernant cette tendance.
Selon lui, ces technologies nécessitent un long travail de développement pour être réellement sécurisées. Or l’appât du gain pourrait pousser des entreprises peu scrupuleuses à publier des outils dont le code n’a pas fait l’objet d’une réelle attention, tant sur le plan de la sécurité que de l’éthique. Et forcément, si cet argent s’oriente vers des projets qui doivent être délivrés rapidement, c’est autant de fonds qui échappent à la recherche fondamentale.
Jusqu’ici, les grandes entreprises de la tech comme Meta ou Google se sont montrées plutôt prudentes à l’égard de ces technologies, principalement parce qu’elles peuvent être rapidement détournées de leur utilisation première et générer des comportements toxiques. On se rappellera notamment de Tay, le chatbot de Microsoft qui a inondé les réseaux sociaux de propos racistes.