#genre

| | news

Rendre la langue plus neutre atténue les inégalités de genre

Image d'illustration. / Flickr

La Suède a adopté en 2015 le pronom neutre «hen», qui permet de parler d’une personne sans préciser son sexe. Alors que le «hen» a fait sa place dans le quotidien des Suédois, des chercheurs américains concluent que ce changement lexical réduit les biais qui discriminent les femmes et les personnes LGBT.

Pourquoi c’est important. Au sein de sociétés qui s’interrogent de plus en plus sur les meilleurs moyens de réduire les inégalités de genre, le débat fait rage autour de la pertinence et des effets de mesures comme l’écriture inclusive ou l’introduction d’un pronom neutre. Cette étude montre que ces changements ne relèvent pas du politiquement correct, mais ont bel et bien un impact.

| | news

Women and men think at a different pace as it gets warmer

Un bureau à Zurich en 2014 | CHRISTIAN BEUTLER/KEYSTONE

It's finally warm! Summer is my favourite time of the year. This is because I not only need a lot of light to be happy, but I also start functioning optimally only above a room temperature of 25 degrees Celsius.

Why does it matter. It is a known fact that women generally shiver faster than men. This might explain why the sexes like different ambient temperatures. But what does this mean for the temperature in the coworking space?

Commandez notre Revue

L'Etivaz, le génie fromager

| | news

L'Unesco se préoccupe du genre des IA dans nos assistants vocaux

Une femme interagit avec un robot lors d'une exposition à Londres, en mai 2019 (image d'illustration) | FRANK AUGSTEIN/AP/KEYSTONE

Sexistes, nos assistants vocaux? Oui, selon un rapport de l’Unesco (EN), qui s’émeut du genre de nos compagnons dotés d’intelligence artificielle (IA): Siri (iPhone), Alexa (Amazon Echo), Cortana (Microsoft) ou même Google Home ont tout(e)s un timbre féminin, ce qui renforce les stéréotypes de genre, déplore l’Organisation des Nations-Unies.

Pourquoi c’est important. Le genre des assistants vocaux influence les scénarios de dialogue écrits par les ingénieurs. Comme le titre le rapport, jusqu’à peu, Siri répondait «Je rougirais si je le pouvais (I blush if I could)» quand l’utilisateur l’injuriait par un «Siri, tu es une pute (Siri you’re a bitch)». De quoi véhiculer une certaine image de la femme…

| | news

Emotions, genre, stéréotypes… Les nouveaux enjeux de la robotique sociale au coeur du débat public

Le robot androïde Sophia de Hanson Robotics | Creative Commons/ITU Pictures

Les machines sont-elles des interlocutrices comme les autres? Faut-il leur faire simuler des émotions? Doivent-elles prendre des formes humanoïdes, ou pas forcément? La «robotique sociale» ouvre un champ de questions inédites, qu’empoigne le TA-Swiss lors d’un grand débat public, le 3 mai 2019 à Berne.

Pourquoi c’est important. L’homme du XXIe siècle a déjà maints échanges avec des machines, à travers des agents conversationnels (ou chatbots), sur les téléphones (Siri), les enceintes connectées (Alexa), les réseaux sociaux… Ces interactions homme-machines peuvent avoir des conséquences sociales majeures, par exemple en affectant le développement psychologique des enfants. Elles reproduisent aussi les biais de la société: les automates d’assistance sont par exemple souvent représentés sous une identité féminine!