#informatique


S'abonner
| | radar

Toshiba vante un algorithme plus rapide qu'un superordinateur

Image d'illustration | Pete Linfort, Pixabay

Alors que Google ou IBM se lancent dans une course effrénée à l’ordinateur quantique, l’entreprise japonaise Toshiba prend le contre-pied. Elle annonce avoir mis au point un algorithme de PC capable d'analyser les données du marché plus rapidement que les superordinateurs les plus avancés d'aujourd'hui.

Pourquoi c’est intéressant. L’algorithme serait capable d’effectuer des calculs complexes en un temps limité. Il est conçu pour exploiter les principes des ordinateurs quantiques, et cela sans nécessiter l'utilisation de telles machines. Une nouvelle qui a été accueillie avec autant de scepticisme que de curiosité.

link

South China Morning Post

| | interview

Au CES, le CSEM surfe sur la vague du «edge computing»

Sur le stand du CSEM au CES, Pascal Nussbaum présente un capteur qui détecte les visages afin de baisser l’intensité de la lumière pour ne pas blesser les yeux | Fabrice Delaye

Le «edge computing», ou informatique en périphérie, consiste à traiter les données non plus sur des serveurs distants dans le cloud mais au plus près des sources où sont captées ces informations. C’est une architecture moins gourmande en bande passante et bien adaptée aux réseaux de capteurs de l’internet des objets pour traiter des informations et déclencher une action sans temps de latence. Connaissant un essor phénoménal, le marché du edge computing était estimé à 1,7 milliards en 2017 avec des projections atteignant 16,5 milliards de dollars d'ici 2025.

Presque aussi présent que l’intelligence artificielle au Consumer Electronics Show (CES) de Las Vegas (où 40% de l’activité concerne désormais le business entre entreprises), le edge computing est une belle opportunité pour le Centre suisse d'électronique et de microtechnique (CSEM) de Neuchâtel, dont c’est justement l’une des spécialités. Les explications de Pascal Nussbaum, responsable du prototypage au CSEM, sur le stand de l’institution au CES.

| | radar

Codage pour tous à la campagne russe

Dans une salle de classe russe. | Page Facebook du projet Kruzhok

Lutter contre l’isolation des régions russes et changer les mentalités avec des cours de code gratuits pour la jeunesse rurale, c’est l’idée qu’a eu un groupe de développeurs moscovites en créant le projet «Kruzhok».

Pourquoi c’est important. Pays illustre dans l’IT, la Russie tient peut-être là ses futurs champions. En attendant, les gamins participants ont appris à créer un site multimédia, afin de raconter la vie de leur région ou de leur ville natale. Pour donner plus de liberté aux adolescents, Kruzhok, qui a été conçu à l'origine comme un moyen d'initier les jeunes au développement web, est devenu de plus en plus diversifié. Certains élèves écrivent du code, d'autres rédigent des textes, et d'autres encore pratiquent le design et la vidéo.

link

Meduza

| radar

Facebook veut son propre système d’exploitation

Crédits: Keystone

La firme de Mark Zuckerberg repose sur Google et son OS Android pour faire tourner ses dispositifs de réalité virtuelle Oculus ou son système de vidéoconférence Portal.

Pour s’affranchir de cette dépendance risquée, l’entreprise a embauché un programmeur star de Microsoft. Pour l’heure, on ne sait pas encore grand-chose sur ce futur système.

link

Tech Crunch

| | radar

La Russie dans la course à l'ordinateur quantique

Prototype d'ordinateur quantique | IBM Research

Le gouvernement russe prévoit d’injecter 50 milliards de roubles, soit environ 790 millions de dollars pendant cinq ans dans la recherche en informatique quantique, révèle Nature. De quoi emboîter le pas aux géants Google ou IBM, même s’il faudra plusieurs années au pays avant de rattraper ces mastodontes.

Pourquoi c’est important. L’informatique quantique est vue comme le moyen de créer des réseaux de communication ultra-sécurisés, voire de briser les standards actuels de cryptographie. C’est dire l’intensité de la compétition internationale: l’Union européenne a annoncé en 2016 un programme de financement de la recherche à la hauteur de 1 milliard d’euros, l’Allemagne à l’été 2019 un plan à 650 millions d’euros, sans parler des efforts déployés par les gouvernements chinois et américain. Avec cette mesure, la Russie entend rester dans la course. Mais reste à savoir si elle parviendra à attirer ou à retenir les talents scientifiques dans ce domaine.

link

Lire l'article de Nature

| | radar

Rediet Abebe, génie des algorithmes et première femme noire docteure en informatique à Cornell

Rediet Abebe DR

A 28 ans, l’étudiante éthiopienne Rediet Abebe a présenté avec succès sa thèse «Créer des algorithmes pour le bien social». Ses recherches, effectuées dans les universités de Cornell, Harvard et Cambridge, se penchent notamment sur l’application de l’intelligence artificielle dans la réduction des inégalités.

Pourquoi c’est important. Elle est la première femme noire docteure en informatique à Cornell et a été sélectionnée parmi les 35 innovateurs de moins de 35 ans par la MIT Technology Review et parmi les 50 personnalités à surveiller selon Bloomberg.

link

Africa Feeds

| | radar

Amazon rejoint IBM et Google dans la course commerciale à l'informatique quantique

EVERETT KENNEDY BROWN/EPA/Keystone

Après IBM et Google, c’est au tour du géant Amazon de s’intéresser à l’informatique quantique. La firme AWS (Amazon web service) a annoncé lundi qu’elle donnera accès, via le cloud, aux infrastructures d’informatique quantique de trois start-up partenaires: D-Wave, IonQ, et Rigetti. Une annonce que décortique Wired.

Pourquoi c’est étonnant. Malgré les récents progrès réalisés par cette technologie, personne n’en a (encore) tiré des cas d’usages concrets. Les clients devront donc expérimenter. Mais d’un point de vue concurrentiel, l’annonce d’Amazon se défend: le géant numérique cherche à reste aux coudes à coudes avec IBM, qui propose déjà ce type de service depuis 2016. Or, comme la firme de Jeff Bezos ne travaille pas sur l’informatique par elle-même, elle n’a eu d’autre choix que de s’allier aux meilleures start-up du secteur. Elle créera au passage un centre de recherche au California Technology Institute, afin de travailler avec le monde académique.

link

Lire l'article publié par Wired

| | idées

Les triomphes de l'intelligence artificielle ne doivent pas en occulter les limites

Sarah Sermondadaz

Il ne se passe pas une semaine sans qu’on entende l’un ou l’autre exploit d’une intelligence artificielle (IA): il se dit que l’IA ferait mieux que les radiologues professionnels pour lire les mammographies et dépister un cancer du sein, qu’elle va aider les recruteurs grâce à l’analyse automatisée du visage. D’aucuns craignent aussi qu’elle ne détruise nos emplois. Mythe ou réalité? Qu’y a-t-il dans le ventre de ces outils prédictifs et autres algorithmes de reconnaissance d’image?

Il est nécessaire voire urgent de faire la part des choses entre les promesses, qui relèvent parfois du fantasme pour «technoprophète», et la réalité de leur fonctionnement. Et surtout, il est utile de rappeler les limites inhérentes à cet ensemble de technologies.

| | news

«Le prochain Google aura compris que limiter l'impact environnemental du numérique est un enjeu de compétitivité»

Konstantin Malanchev/Flickr/CreativeCommons

Courant octobre 2019, la communauté GreenIT.fr, qui fédère des experts du développement durable appliqué au numérique en France, dévoilait un rapport consacré à l’empreinte environnementale du numérique mondial. Ses points forts sont d’abord méthodologiques: ce travail de R&D, qui a nécessité 200 jours-homme, retient quatre indicateurs environnementaux, plutôt que de s'intéresser aux seules émissions de gaz à effet de serre (GES). Et surtout, il ne s’arrête pas au diagnostic, puisqu’il détaille plusieurs recommandations, qui posent la question de l’écoconception des services numériques du quotidien.

Pourquoi c’est important. L’empreinte environnementale actuelle du numérique équivaut à celle d’un grand pays, voire d’un petit continent, selon les indicateurs retenus. Au vu des enjeux économiques et politiques associés, il est essentiel de disposer d’un état des lieux aussi précis et actualisé que possible.

newsletter_point-du-jour

Recevez_ chaque matin un résumé de l'actualité envoyé d'une ville différente du monde.

| | news

Google publie enfin ses travaux pionniers sur la «suprématie quantique»

Détail d'un ordinateur quantique | IBM Research

Cette publication officielle était très attendue. L’étude dont le preprint avait fuité et dans laquelle Google affirmait avoir atteint la «suprématie quantique», c’est-à-dire le seuil où l’informatique quantique devient plus intéressante que les ordinateurs traditionnels, a été publiée ce 23 octobre par Nature. Mais ce concept, introduit en 2012 par le physicien américain John Preskill, peut être interprété de diverses façons.

Pourquoi c’est important. Vraie ou fausse première? La bataille des mots fait rage autour de la façon dont il faudrait tester la «suprématie quantique» pour s’assurer de l’avantage technique fourni. Mais c’est un jalon qui marquera certainement l’histoire. Reste à améliorer le dispositif pour en tirer des applications commerciales à la fois utiles et rentables.

| | radar

D'où vient le terme de «suprématie quantique»?

Image d'illustration | Chris/Flickr/Creative Commons

Le monde entier se demande si Google a vraiment atteint la «suprématie quantique», ce seuil au-delà duquel l’informatique quantique devient plus intéressante que l’informatique traditionnelle. Le physicien américain John Preskill, à l’origine de l’expression, revient sur sa genèse pour Quanta Magazine, et explique ce que signifie l’annonce de Google.

Pourquoi c’est intéressant. Ce terme est controversé, d’abord pour des raisons sémantiques. D’une part, le mot «suprématie» évoque les heures sombres du suprémacisme blanc, et, d’autre part, la formule dope artificiellement l’engouement des médias pour ce domaine qui reste très théorique. Une alternative possible aurait consisté en «avantage quantique». Mais pour le physicien, la formule n’était pas assez forte.

link

Lire l'article publié par Quanta Magazine

| | interview

«Penser en algorithmes», ou les leçons de l’informatique pour se faciliter le quotidien

Et si on tirait parti des grands principes algorithmiques pour améliorer nos prises de décisions quotidiennes plutôt que de s’interroger sur les effets nocifs du numérique? C’est l’étonnant contre-pied adopté par Brian Christian et Tom Griffiths, auteurs de «Penser en algorithme» (Algorithms to live by), un best-seller qui a remporté, outre-Atlantique, le prix du livre de l’année de la MIT Technology Review. Il est désormais édité, pour sa première traduction francophone, par les Presses polytechniques et universitaires romandes.

Heidi.news a rencontrés à l’EPFL, en amont de leur conférence sur le campus, cet étonnant duo. Brian Christian est à la fois informaticien, philosophe et poète, et donne des cours à l’Université de Berkeley, tandis que Tom Griffiths est chercheur en sciences cognitives computationnelles à Princeton. Achat d’une maison, conception d’un plan de table ou encore choix de l’âme sœur… Que peuvent nous apprendre ces algorithmes venus des sciences dures dans des problèmes humains à la complexité tout sauf triviale?

Une actualité vous interroge ?

Posez votre question à la rédaction de Heidi.news

| | idées

«Les oubliées du numérique», une traversée féministe de l'informatique mais aussi de la société

Sarah Sermondadaz

C’est un mot d’ordre qui revient périodiquement dans la bouche des hommes politiques et autres «champions de la tech»: il faut davantage de femmes dans les professions du numérique. Qui mieux qu’Isabelle Collet, avec qui nous avions déjà échangé à l’occasion de la grève des femmes en juin dernier, pour décrypter les raisons des échecs répétés en matière d’inclusion. C’est tout l’enjeu de «Les oubliées du numérique», publié en France aux éditions Le Passeur. Notes de lecture.

La professeure associée en sciences de l’éducation à l’Université de Genève, informaticienne et spécialiste des questions de genre dans le numérique, convie l’histoire et la sociologie des sciences dans cette traversée parfois militante, résolument féministe. Si vous êtes une femme dans un domaine professionnel scientifique ou technique, il pourrait vous évoquer quelques souvenirs. Si vous n’êtes pas une femme, vous pourriez être tenté de le refermer. Tâchez de persévérer, car cet ouvrage vous promet, l’espace d’environ 200 pages, un autre regard: parfois provocateur, mais sûrement éclairant.

| | radar

Google aurait atteint la «suprématie quantique». Et après?

Image d'illustration | Steve Jurvetson/Flickr/Creative Commons

Dans la course à l’ordinateur quantique, Google vient de frapper très fort. La firme a discrètement mis en ligne sur le site de la Nasa, l’un de ses partenaires de recherche, un article en préprint selon lequel elle aurait, grâce à un processeur à 53 qubits, atteint la «suprématie quantique», c'est-à-dire un seuil théorique où la fiabilité et la puissance de calcul rendent cette technologie plus intéressante que l’informatique traditionnelle. Google parle même «d’étape cruciale». Le Financial Times (FT) l’a découvert avant qu’il ne soit mis hors ligne, raconte Gizmodo dans un article critique.

Pourquoi c’est important, mais aussi à nuancer. Selon l’étude, qui devrait par la suite être publiée dans une revue académique, le processeur quantique de Google s’est montré capable de réaliser, en seulement trois minutes et vingt secondes, un calcul qui aurait pris 10’000 ans sur le supercalculateur américain le plus rapide. La nouvelle a reçu un accueil contrasté, relate le FT dans un second article. Certains concurrents, comme IBM, déplorent le caractère invérifiable de l’annonce de Google. D’autres reconnaissent qu’avoir réussi à réduire le «bruit» quantique, et donc le taux d’erreur des qubits, relève d’une vraie prouesse. Mais les applications concrètes de ce système n’existent pas encore, rappelle Gizmodo.

link

Lire l'article publié dans Gizmodo

| | radar

Pourquoi il faut garder ouverte la course à l'ordinateur quantique

Un chercheur manipule un ordinateur quantique | IBM Research

En quelques années, l’informatique quantique est devenu bien plus qu’un intérêt de recherche universitaire. Les sociétés privées (comme IBM ou D-wave) et les gouvernements ont compris qu’il s’agissait d’un enjeu stratégique. Nous assistons, avertissent plusieurs chercheurs dans une tribune publiée sur Nature, à un clivage de la recherche entre pays, entreprises et universités. In fine, en verrouillant ce domaine émergent sous des brevets et en drainant les laboratoires publics de ses talents, elle ralentit.

Pourquoi c’est important. Le timing de cette recomposition n’est pas anodin: elle intervient au moment où la loi de Moore —selon laquelle la vitesse des microprocesseurs double tous les 18 mois— montre des signes d'essoufflement. En parallèle, le machine learning et l’intelligence artificielle ont ouvert la porte à des applications très prometteuses, pour lesquelles la principale limite reste la puissance de calcul disponible.

link

Lire l'article publié sur le site de Nature