#informatique


S'abonner
| | chronique

Les triomphes de l'intelligence artificielle ne doivent pas en occulter les limites

Il ne se passe pas une semaine sans qu’on entende l’un ou l’autre exploit d’une intelligence artificielle (IA): il se dit que l’IA ferait mieux que les radiologues professionnels pour lire les mammographies et dépister un cancer du sein, qu’elle va aider les recruteurs grâce à l’analyse automatisée du visage. D’aucuns craignent aussi qu’elle ne détruise nos emplois. Mythe ou réalité? Qu’y a-t-il dans le ventre de ces outils prédictifs et autres algorithmes de reconnaissance d’image?

Il est nécessaire voire urgent de faire la part des choses entre les promesses, qui relèvent parfois du fantasme pour «technoprophète», et la réalité de leur fonctionnement. Et surtout, il est utile de rappeler les limites inhérentes à cet ensemble de technologies.

| | news

«Le prochain Google aura compris que limiter l'impact environnemental du numérique est un enjeu de compétitivité»

Konstantin Malanchev/Flickr/CreativeCommons

Courant octobre 2019, la communauté GreenIT.fr, qui fédère des experts du développement durable appliqué au numérique en France, dévoilait un rapport consacré à l’empreinte environnementale du numérique mondial. Ses points forts sont d’abord méthodologiques: ce travail de R&D, qui a nécessité 200 jours-homme, retient quatre indicateurs environnementaux, plutôt que de s'intéresser aux seules émissions de gaz à effet de serre (GES). Et surtout, il ne s’arrête pas au diagnostic, puisqu’il détaille plusieurs recommandations, qui posent la question de l’écoconception des services numériques du quotidien.

Pourquoi c’est important. L’empreinte environnementale actuelle du numérique équivaut à celle d’un grand pays, voire d’un petit continent, selon les indicateurs retenus. Au vu des enjeux économiques et politiques associés, il est essentiel de disposer d’un état des lieux aussi précis et actualisé que possible.

| | news

Google publie enfin ses travaux pionniers sur la «suprématie quantique»

Détail d'un ordinateur quantique | IBM Research

Cette publication officielle était très attendue. L’étude dont le preprint avait fuité et dans laquelle Google affirmait avoir atteint la «suprématie quantique», c’est-à-dire le seuil où l’informatique quantique devient plus intéressante que les ordinateurs traditionnels, a été publiée ce 23 octobre par Nature. Mais ce concept, introduit en 2012 par le physicien américain John Preskill, peut être interprété de diverses façons.

Pourquoi c’est important. Vraie ou fausse première? La bataille des mots fait rage autour de la façon dont il faudrait tester la «suprématie quantique» pour s’assurer de l’avantage technique fourni. Mais c’est un jalon qui marquera certainement l’histoire. Reste à améliorer le dispositif pour en tirer des applications commerciales à la fois utiles et rentables.

| | radar

D'où vient le terme de «suprématie quantique»?

Image d'illustration | Chris/Flickr/Creative Commons

Le monde entier se demande si Google a vraiment atteint la «suprématie quantique», ce seuil au-delà duquel l’informatique quantique devient plus intéressante que l’informatique traditionnelle. Le physicien américain John Preskill, à l’origine de l’expression, revient sur sa genèse pour Quanta Magazine, et explique ce que signifie l’annonce de Google.

Pourquoi c’est intéressant. Ce terme est controversé, d’abord pour des raisons sémantiques. D’une part, le mot «suprématie» évoque les heures sombres du suprémacisme blanc, et, d’autre part, la formule dope artificiellement l’engouement des médias pour ce domaine qui reste très théorique. Une alternative possible aurait consisté en «avantage quantique». Mais pour le physicien, la formule n’était pas assez forte.

link

Lire l'article publié par Quanta Magazine

| | interview

«Penser en algorithmes», ou les leçons de l’informatique pour se faciliter le quotidien

Et si on tirait parti des grands principes algorithmiques pour améliorer nos prises de décisions quotidiennes plutôt que de s’interroger sur les effets nocifs du numérique? C’est l’étonnant contre-pied adopté par Brian Christian et Tom Griffiths, auteurs de «Penser en algorithme» (Algorithms to live by), un best-seller qui a remporté, outre-Atlantique, le prix du livre de l’année de la MIT Technology Review. Il est désormais édité, pour sa première traduction francophone, par les Presses polytechniques et universitaires romandes.

Heidi.news a rencontrés à l’EPFL, en amont de leur conférence sur le campus, cet étonnant duo. Brian Christian est à la fois informaticien, philosophe et poète, et donne des cours à l’Université de Berkeley, tandis que Tom Griffiths est chercheur en sciences cognitives computationnelles à Princeton. Achat d’une maison, conception d’un plan de table ou encore choix de l’âme sœur… Que peuvent nous apprendre ces algorithmes venus des sciences dures dans des problèmes humains à la complexité tout sauf triviale?

| | opinion

«Les oubliées du numérique», une traversée féministe de l'informatique mais aussi de la société

C’est un mot d’ordre qui revient périodiquement dans la bouche des hommes politiques et autres «champions de la tech»: il faut davantage de femmes dans les professions du numérique. Qui mieux qu’Isabelle Collet, avec qui nous avions déjà échangé à l’occasion de la grève des femmes en juin dernier, pour décrypter les raisons des échecs répétés en matière d’inclusion. C’est tout l’enjeu de «Les oubliées du numérique», publié en France aux éditions Le Passeur. Notes de lecture.

La professeure associée en sciences de l’éducation à l’Université de Genève, informaticienne et spécialiste des questions de genre dans le numérique, convie l’histoire et la sociologie des sciences dans cette traversée parfois militante, résolument féministe. Si vous êtes une femme dans un domaine professionnel scientifique ou technique, il pourrait vous évoquer quelques souvenirs. Si vous n’êtes pas une femme, vous pourriez être tenté de le refermer. Tâchez de persévérer, car cet ouvrage vous promet, l’espace d’environ 200 pages, un autre regard: parfois provocateur, mais sûrement éclairant.

newsletter_point-du-jour

Recevez_ chaque matin un résumé de l'actualité envoyé d'une ville différente du monde.

| | radar

Google aurait atteint la «suprématie quantique». Et après?

Image d'illustration | Steve Jurvetson/Flickr/Creative Commons

Dans la course à l’ordinateur quantique, Google vient de frapper très fort. La firme a discrètement mis en ligne sur le site de la Nasa, l’un de ses partenaires de recherche, un article en préprint selon lequel elle aurait, grâce à un processeur à 53 qubits, atteint la «suprématie quantique», c'est-à-dire un seuil théorique où la fiabilité et la puissance de calcul rendent cette technologie plus intéressante que l’informatique traditionnelle. Google parle même «d’étape cruciale». Le Financial Times (FT) l’a découvert avant qu’il ne soit mis hors ligne, raconte Gizmodo dans un article critique.

Pourquoi c’est important, mais aussi à nuancer. Selon l’étude, qui devrait par la suite être publiée dans une revue académique, le processeur quantique de Google s’est montré capable de réaliser, en seulement trois minutes et vingt secondes, un calcul qui aurait pris 10’000 ans sur le supercalculateur américain le plus rapide. La nouvelle a reçu un accueil contrasté, relate le FT dans un second article. Certains concurrents, comme IBM, déplorent le caractère invérifiable de l’annonce de Google. D’autres reconnaissent qu’avoir réussi à réduire le «bruit» quantique, et donc le taux d’erreur des qubits, relève d’une vraie prouesse. Mais les applications concrètes de ce système n’existent pas encore, rappelle Gizmodo.

link

Lire l'article publié dans Gizmodo

Commandez notre Revue

Votre cerveau a été piraté

| | radar

Pourquoi il faut garder ouverte la course à l'ordinateur quantique

Un chercheur manipule un ordinateur quantique | IBM Research

En quelques années, l’informatique quantique est devenu bien plus qu’un intérêt de recherche universitaire. Les sociétés privées (comme IBM ou D-wave) et les gouvernements ont compris qu’il s’agissait d’un enjeu stratégique. Nous assistons, avertissent plusieurs chercheurs dans une tribune publiée sur Nature, à un clivage de la recherche entre pays, entreprises et universités. In fine, en verrouillant ce domaine émergent sous des brevets et en drainant les laboratoires publics de ses talents, elle ralentit.

Pourquoi c’est important. Le timing de cette recomposition n’est pas anodin: elle intervient au moment où la loi de Moore —selon laquelle la vitesse des microprocesseurs double tous les 18 mois— montre des signes d'essoufflement. En parallèle, le machine learning et l’intelligence artificielle ont ouvert la porte à des applications très prometteuses, pour lesquelles la principale limite reste la puissance de calcul disponible.

link

Lire l'article publié sur le site de Nature

| | radar

Cet ordinateur est basé sur un microprocesseur en nanotubes de carbone... et il fonctionne!

Le graphène est composé d'atomes de carbone liés sous forme de grille hexagonale| UCL/Creative Commons

Bientôt, des micro-ordinateurs à base non plus de silicium, mais de carbone? C’est en tout cas la nouvelle voie explorée par des chercheurs du MIT, qui ont conçu un petit ordinateur basé sur 14’000 transistors en nanotubes de graphène, matériau constitué d’atomes de carbone. Comme le veut la coutume en informatique, la première instruction exécutée a été l’affichage du message “Hello, world!”. Le site de Nature détaille cette prouesse technologique.

Pourquoi c’est intéressant. L’informatique classique est basée sur un élément: le silicium. Or, le graphène, forme atypique du carbone découverte en 2004, présente des caractéristiques encourageantes pour l’électronique: sa conductivité est meilleure que le silicium. En ligne de mire, l’espoir de dépasser un jour les limites intrinsèques de l’informatique traditionnelle: la loi de Moore, énoncée à la fin des années 1960, postulait que la vitesse des microprocesseurs double tous les 18 mois. Or, celle-ci montre des signes d'essoufflement et pourrait ne plus être valable dès 2030.

link

Lire l'article publié dans Nature

| | radar

La puce électronique géante développée par un ancien de l'EPFL ne sera pas pour tout le monde

La puce électronique de Cerebras Systems, comparée à une balle de baseball | Cerebras Systems

Un processeur à 400’000 cœurs, quand le plus puissant ordinateur de bureau n’en possède qu’une trentaine, c’est la dernière innovation de Cerebras Systems, start-up californienne cofondée par un ancien ingénieur de l’EPFL, Jean-Philippe Fricker. Destiné à l’intelligence artificielle, cette puce électronique est de fait la plus grande au monde. La BBC relève néanmoins qu’une telle taille ne va pas sans désagréments.

Pourquoi on en parle. Le développement de l’intelligence artificielle nécessite des puissances de calcul de plus en plus importantes. Cette puce devrait permettre de réduire drastiquement le temps de traitement des données. Cependant, elle sera difficile à refroidir et nécessitera une grande quantité d’énergie pour tourner. Ceci impliquera la mise en place d’infrastructures spécifiques et onéreuses, limitant l’accès à cette technologie.

link

Lire l'article de la BBC (EN)

| | radar

Cette plaque d'immatriculation atypique a valu plus de 10'000 dollars d'amende en Californie

BBC World Service/Creative Commons

En 2016, un informaticien californien décide de s’offrir une plaque minéralogique estampillée NULL, ce terme décrivant dans de nombreux langages de programmation une variable dont la valeur est non définie. Il parvient à faire homologuer son véhicule, plaque comprise, mais cette dernière occasionne alors un curieux bug informatique. Le malheureux se retrouve alors avec plus de 12’000 dollars d’amendes à payer, pour des infractions qui ne le concernent pas! Cette histoire cocasse est narrée par Wired.

Pourquoi on en parle. Cette savoureuse variation kafkaïenne autour du thème séculaire de l’arroseur arrosé est l’exemple parfait d’une blague de geek qui a mal tourné. Le système informatique du DMV californien n’était en effet pas préparé à recevoir NULL en lieu et place d’une séquence de chiffre et de lettres. Mais sa plaque, plutôt que de faire planter la base de données, s’est rapidement retrouvée associée à toutes les contraventions où un agent de Police avait omis de renseigner le numéro d’immatriculation du véhicule! Et pour cause: ces dernières sont affectées à l’identification NULL dans le système…

link

Lire l'article publié par Wired (EN)

| | news

The programmer behind the moon mission – revelations of the Apollo 11 software

Margaret Hamilton pose à côté du code qu'elle a développé pour la mission Appolo 11. / MIT

The woman who sent men to the moon with a massive pile of software would never have become a programmer by a hair's breadth. But for her husband's tiresome career plans.

What happened. It was 1960 when the 24-year-old mathematician, Margaret Hamilton took a job as a programmer at the Massachusetts Institute of Technology (MIT) in Boston. The reason behind her decision was not her passion for computer science. She wanted to support her husband during his three-year stint at Harvard to get a law degree. To earn money while he was at the university. Afterwards the two wanted to swap roles. She was to do her diploma in mathematics. But it never came to that.

| | reportage

L'ordinateur quantique se dévoile dans les laboratoires d'IBM à Zurich

Dans les laboratoires dédiés à l'informatique quantique d'IBM, près de Zurich | S.S. pour Heidi.news

Revisiter l’informatique traditionnelle à l’aune des bizarreries de la physique quantique: c’est la promesse de l’informatique quantique, domaine de recherche en pleine effervescence où IBM se place en pointe. Heidi.news a pu visiter les laboratoires européens de la firme, basés à Zurich.

Pourquoi c’est important. L’ordinateur quantique implique une architecture technique radicalement différente: contrairement au bit, qui se trouve soit dans l’état 0, soit dans l’état 1, le qubit — ou bit quantique — peut se trouver simultanément dans les deux états. La promesse est de taille: rien de moins qu’un changement de paradigme qui permettrait, à terme, de résoudre des problèmes mathématiques aujourd’hui trop complexes pour les supercalculateurs. Mais d’ici là, la route est longue, et semée d’embûches.

Une actualité vous interroge ?

Posez votre question à la rédaction de Heidi.news

| | opinion

Hommage à Jean-Marie Hullot, l’homme qui murmurait à l’oreille de Steve Jobs

Avec le décès, le 19 juin 2019, de Jean-Marie Hullot, c’est une page d’histoire qui se tourne. Une page de la mienne aussi. Une page de la vôtre, sans doute, car c’est aussi un peu grâce à lui que le web a vu le jour… et que Steve Jobs a eu l’idée de construire non plus seulement des ordinateurs, mais également un téléphone!


Jean-Marie_Hullot_in_Bhutan-18April2004.jpg
Jean-Marie Hullot, en 2004 | Françoise Brenckmann - Creative Commons


| | interview

«Il faut se donner les moyens d’éliminer la censure sociale»

L'ordinateur Colossus a été utilisé par le Royaume-Uni pendant la Seconde guerre mondiale | Domaine public

Cet article fait partie de notre dossier sur la grève des femmes, qui sera enrichi au fil de la journée du 14 juin.

Malgré les vœux pieux des entreprises et des universités, les femmes restent minoritaires en informatique. Pourquoi? Nous avons posé la question à Isabelle Collet, informaticienne et maître d’enseignement et de recherche à l’Université de Genève, également vice-présidente du conseil d’administration d’une école d’ingénieurs française, l’INSA de Lyon.

La prise de conscience de la sous-représentation des femmes dans les métiers de l’informatique remonte à plus de 10 ans. La situation s’est-elle depuis améliorée?