Phoque you ?! La complainte du phoque robot en maison de retraite…

images-4

Par bonheur, j’ai connu mes arrière grand-parents maternels jusqu’à leur décès, survenu à plus de 90 ans : chaque jour, mon arrière grand père donnait rendez-vous à ses copains pour jouer aux cartes, filait pêcher à la ligne, cultivait son potager… De condition rurale modeste, ces derniers vécurent très entourés et j’ai le sentiment que leur vieillesse fut vraiment heureuse…

Dans la collection « Pratiques du champ social », un ouvrage a été consacré en 2007 à la question de l’isolement croissant des personnes âgées en France, tendance qui ne s’est pas inversée depuis. Les auteurs s’interrogeaient sur les causes et conséquences de ce phénomène : ils soulignaient  les enjeux de ce phénomène en terme de santé publique, tout en s’interrogeant sur la place que les sociétés libérales ET vieillissantes accordent aux générations les plus âgées, sur la conception contemporaine de la famille et des solidarités infra-générationnelles, guettées par une forme d’anomie, et sur la contribution ou le désengagement de l’Etat à ce qui relève d’un enjeu de service public… Sur fond de réduction des déficits publics – 3 milliards d’économie programmés pour l’année 2016 dans le secteur hospitalier français (http://www.lemonde.fr/sante/article/2015/02/28/comment-les-hopitaux-vont-devoir-economiser-3-milliards_4585324_1651302.html) -, les robots peuvent apparaître comme une solution efficace face à ce qui est présenté comme une nécessaire réduction de la masse salariale et par conséquent des emplois. L’exemple qui suit – un phoque en peluche bardé d’électronique supposé tenir compagnie aux personnes déficientes – laisse pourtant songeur : présenté comme une forme de progrès, il interroge – malgré son air de sympathique doudou en fourrure synthétique – sur la destruction du lien social, sur la structure de l’habitat urbain, sur l’éclatement des familles, sur la disparition progressive des services de proximité, remplacés par des services en ligne dont il n’est pas sûr qu’ils répondent à la demande « en humanité » des personnes concernées. On me rétorquera qu’un phoque, c’est bien mieux que rien… C’est bien là où se situe le problème…

Qui est PARO?

PARO est un robot socio-pédagogique utilisé en atelier d’animation et en thérapie relationnelle individuelle pour les malades atteints de troubles du comportement et de la communication. Développé dès 1993 pour les personnes atteintes de la maladie d’Alzheimer et troubles apparentés, le phoque PARO a été tout d’abord commercialisé au Japon en 2005, puis aux Etats-Unis en 2009 (Certification FDA en tant que robot thérapeutique). A ce jour, 3000 PARO aident des résidents et patients dans des établissements de soins de 30 pays. En Europe, PARO est fortement présent dans les pays Scandinaves (plus de 300) et en Allemagne (plus de 100), ainsi qu’en Italie et en Suisse. A travers la nouvelle distribution en France par Inno3Med, la France rejoint enfin la communauté internationale de PARO et complète ses options de thérapie non-médicamenteuse.

Téléchargez la brochure du PARO

Vous souhaitez rejoindre la communauté PARO ? Contactez nous : contact@inno3med.fr ou bien appelez le 09 53 50 59 78

Pourquoi un phoque ?

Avoir choisi un phoque n’est pas anodin. Tout d’abord, les traits de cet animal (forme, fourrure, sons émis) inspirent confiance à travers une certaine innocence, alors que des animaux domestiques (type chien ou chat) peuvent pour certain être rattachés à des risques de griffure ou de morsure. Ensuite, peu de personnes sont familières avec la démarche des phoques et leurs caractéristiques physiques, ce qui a permis d’adapter PARO en accentuant certains traits qui joueront un rôle prépondérant dans la communication non-verbale avec les malades : les yeux ont été agrandis (élément central de communication), la bouche a été affinée pour être moins agressive, la tête a été arrondie et les mouvements étudiés pour être de faible amplitude et non agressifs, le tout afin de maximiser le capital confiance et le potentiel vecteur communication de PARO. Enfin, adapter sous forme robotique la démarche d’un animal familier, donc reconnue de tous, pourrait mener à des comparaisons anxiogènes entre le réel et l’automate. Un phoque comme PARO amène au contraire la curiosité et stimule l’éveil des malades, et sa forme réconfortante permet notamment aux malades de le serrer dans leurs bras sans appréhension

Nous remercions le Pr Patrizia Marti, Université de Sienne – Italie – qui nous accorde la diffusion de cette vidéo, prise lors de son étude sur le robot PARO

 PARO : un concentré de technologie

Recouvert d’une fourrure bactéricide, PARO est équipé de 7 moteurs, qui lui permettent de bouger la tête (haut, bas, droite, gauche), cligner des yeux, remuer la queue et actionner ses deux nageoires latérales. Le son de sa voix provient d’un réel enregistrement de bébé phoque et la tête de PARO est renforcée en polycarbonate (utilisé pour les vitres pare-balles) afin d’assurer un niveau de robustesse en adéquation avec l’environnement d’utilisation de PARO.

Une douzaine de capteurs (toucher, positionnement, lumière) et 3 microphones (détection de la provenance du son par triangulation) renvoient des informations sur l’interaction avec le malade à un logiciel d’intelligence artificielle, qui adapte en conséquence les mouvements et l’intonation du PARO afin de fournir à chaque malade la meilleure stimulation cognitive possible. PARO peut donc communiquer au patient des émotions telle que la joie, la surprise ou le mécontentement.

PARO pèse 2,5kg, mesure 57 cm et est disponible en deux couleurs : blanc et jaune doré

Les autres avantages de PARO

PARO présente les avantages reconnus de la zoothérapie (baisse de la pression sanguine, du rythme cardiaque, de la tension musculaire, réduction du stress et de l’anxiété, prévention de dépression, augmentation de la confiance et des intéractions sociales, amélioration de la qualité de vie…) sans en apporter les inconvénients (anxiété due au risque de griffure ou morsure, allergies, hygiène, maltraitance éventuelle des animaux,…)

PARO, Le nouveau compagnon dans le parcours de soins de vos patients et résidents.

PS : Il semble tout de même que le cas Paro suscite quelques débats, notamment sur le lien entre usages de la robotique et politique néo-libérale, comme en témoigne le billet qui suit : http://conferencedestables.webnode.fr/news/des-phoques-en-peluche-pour-les-a%C3%AEnes-dans-les-chsld/

08/04/2012 23:10

La complainte du phoque en CHSLD
L’«humanisation» des soins passe par un robot, plaide le ministre Bolduc

La députée Carole Poirier se moquait ce matin en chambre de la gestion libérale des soins pour les aînés : «Depuis qu’ils sont là, ce qu’ils ont fait, c’est qu’ils ont [embauché] des clowns pour aider nos aînés!»

Le ministre de la Santé Yves Bolduc s’est indigné de cette critique et a répliqué par une anecdote : «Je voudrais dénoncer la situation. Elle a ri des activités qui se passent dans nos CHSLD. […] Si elle se donnait la peine d’aller visiter des CHSLD, on verrait qu’on a des activités […] je vais vous donner un exemple. Cette semaine, je suis allé dans un CHSLD, je suis allé à celui de Saint-Léonard-Saint-Michel, et on a vu des gens qui s’occupaient des personnes âgées. Entre autres, ils flattaient un phoque, qui est un phoque mécanique, et les gens appréciaient

Évidemment, le Salon bleu est resté interloqué, même les banquettes libérales. Dans le couloir par la suite, le ministre a expliqué que le phoque thérapeutique en question était une manière «d’humaniser les soins»! Un robot pour humaniser? On niera après ça qu’on entre en posthumanité...
Antoine Robitaille    4 avril 2012 16h01  Mots et maux de la politique

Publicités

Robots anti-catastrophes

images-3

Designing robots to help in a disaster

DARPA’s Robotics Challenge inspires new catastrophe-relief technology

By
 December 3, 2014
rescue robot

ROBOTS TO THE RESCUE  Robots would be the ideal alternative to sending human crews into disaster zones. But Atlas (shown) and others still have trouble with simple tasks, such as walking, communicating and staying powered up.

Dennis Hong first spied Japan’s ruined nuclear power plant from a bus wrapped in plastic.

A hefty layer of protection guarded the seats, floors and handles from radioactive dust. Hong wore a face mask and gloves to limit his own exposure. Like the other passengers, he had dressed in old clothes that he was willing to toss after the trip.

More than three years earlier, after an earthquake and tsunamis battered Japan’s eastern coast, the Fukushima Daiichi Nuclear Power Station blew, blasting radiation into the sea and sky. Today, villages outside the plant still lie as barren as ghost towns. Soccer balls and notebooks rest untouched in abandoned schools; hushed houses sit deserted. Along the coast, smashed buildings, flipped cars and train tracks twisted like taffy stand as reminders of the catastrophe.

“It’s like a disaster site frozen in time,” Hong says. “It’s surreal.”

Workers toiled day and night to save the plant, but they had to get out as radiation levels rose. Even in disaster areas not tainted with radiation, picking through the shambles of destroyed buildings is treacherous: People need to dodge shards of glass and metal and duck clouds of smoke and dust.

Ideally, robots could take over for human crews. But seemingly simple tasks, such as walking, communicating and staying powered up, still pose big challenges for machines.

Hong, a UCLA roboticist, is one of several engineers racing to make robots that can come to the rescue in disasters. He and others from academia, industry, NASA’s Jet Propulsion Lab and the Department of Defense research agency known as DARPA traveled to Fukushima this spring to see what they were up against. “The take-home message was, ‘Wow, it’s damn difficult,’ ” Hong says.

Engineers have built impressive-looking humanlike bots that can play trumpet and even compete against each other in slow-moving soccer games. But machines that can actually do the work of humans in disaster zones — climbing over rubble, digging through debris for survivors, opening doors and valves — don’t exist.

So DARPA kicked off a contest to create robots that someday could do the job. In 2012, the agency announced the DARPA Robotics Challenge, a competition designed to push disaster robotics technology miles past where it is today. A year ago, 17 robotic contenders, including Hong’s man-shaped machine, THOR-OP, tackled a rugged obstacle course to try to gain a spot in the finals, to be held in June 2015.

Gill Pratt, a DARPA program manager, knows that researchers might take years to develop robots that could have saved the power plant. But he thinks the competition — with its motley crew of robotics engineers and their rowdy fans — is a good place to start.

CHIMP robot

At 5 feet 2 inches tall and 400 pounds, this bot, called CHIMP, rolls on treads for extra stability. It can turn valves and operate power tools.

National Robotics Engineering Center/Carnegie Mellon University

On the scene

In the last decade or so, disaster-response robots haven’t changed much. When the World Trade Center collapsed in 2001, engineers deployed a handful of lightweight bots to burrow through the rubble.

“These guys went into spaces where the first responders couldn’t go,” remembers Robin Murphy, a field roboticist at Texas A&M University in College Station. Because 110 floors of concrete and steel crumpled down into dense stacks of dust and debris, she says, ground-penetrating radar couldn’t see through the rubble, and search-and-rescue dogs had trouble sniffing out survivors.

The robots, roughly shoebox-sized tanks, offered a new way for rescue teams to take a look. Murphy considers the roving machines a success: A few tunneled deep within the wreckage and withstood extreme heat to find 10 sets of human remains. But the robots didn’t locate any survivors, and they ran into a slew of technical snags.

One robot slipped its tread and had to be pulled from the rubble and repaired. Another got wedged in a gap, stalled until rescuers could tug it out by its safety tether. A third robot lost communication, broke its tether, and was never seen again.

Machines at Fukushima faced similar problems. In the days following the earthquake, researchers from around the world sent ground-based and aerial robots to Japan to try to get to spots where humans couldn’t safely travel. DARPA sent all it had, Pratt remembers. But training power plant personnel to use the robots took time. And once inside the plant, muddy stairs, tight stair landings and a severed communication cable thwarted the machines’ progress.

“We did everything we could, and it still wasn’t good enough,” Pratt says.

The power plant survived the first hit: an earthquake that thundered beneath the Pacific Ocean on the afternoon of March 11, 2011. The magnitude 9.0 quake, one of the most powerful in Japan’s history, hit about 180 kilometers from the Fukushima-Daiichi site — more than the distance from Philadelphia to Baltimore. And the power plant had been built to withstand vigorous shakes.

The quake cut off power, but the reactors shut down automatically as planned and backup generators kicked in to prevent overheating. Less than an hour after the earthquake struck, however, a series of tsunamis roared down upon the plant. One wave towered up to 15 meters high, about three times the height of the tsunamis that Fukushima’s buildings had been designed to block.

Seawater flooded in, wrecking equipment and sparking electrical failures in the backup generators. With no power to chill the reactors, water in the cooling systems boiled away. Steam built up, temperatures ticked higher and hydrogen gas collected inside the reactor buildings. Plant workers tried to open valves to release pressure, but radiation levels had climbed too high for people to safely endure. They weren’t able to vent the gas soon enough to stop the explosions. A day after the tsunamis, the plant’s first reactor blew. Over the next three days, two other reactors exploded too.

Ideally, plant workers would have sent in robots to turn the valves and prevent the explosions, Pratt says. But the robots that made it to Japan didn’t get inside the plant in time and probably weren’t strong enough for the task.

A far cry from C-3PO

Years before, Japan — a country known for its advanced robotics — had actually developed robots to respond to nuclear emergencies. After a power plant accident in 1999, engineers created six huge, treaded robots to open doors, turn valves, carry heavy loads and even clean up radiation. But these bots weren’t maintained well enough for use at Fukushima. Even if they had been oiled up and ready to go, at more than 200 kilograms, about the weight of a female polar bear, they may have been too big and heavy to be useful, engineer Keiji Nagatani and colleagues reported in the Journal of Field Robotics in 2013.

A smaller robot, designed for disposing of explosives, was the first to make it into Fukushima’s reactors, about a month after the earthquake struck. Shin-height and light enough to be carried on a soldier’s back, the robot, called the PackBot, uses treads to haul itself over bumpy turf. A skinny arm mounted with a gripper claw and a camera lets the robot grasp and see.

Thousands of these bots, developed more than a decade ago and used at the collapsed twin towers, have worked with military and police to suss out explosives. In the days following the Fukushima earthquake, iRobot, the company that produces the PackBot, rushed to add radiation and chemical sensors to the bots and send them overseas, says engineer Tim Trainer, a vice president of the company.

The sensors came in handy: Plant workers used them to point out places inside the plant where humans could safely explore. But maneuvering the robots through the darkened plant was at times impossible. Though the machines could open doors, the bots’ operators had to use two PackBots to do so: one to turn the handle and the second to aim its camera at the first. What’s more, the robots struggled to climb the plant’s slick metal stairs.

After the PackBot failed to make it up a few flights, workers sent in Japan’s version of the machine, a slightly less rugged-looking bot called Quince. But Quince couldn’t adapt to stairway landings that were smaller than shown in the building’s blueprints, Murphy explains, and the robot’s bulky body got stuck. Quince also snapped its tether, leaving the bot stranded in a place where humans couldn’t save it.

Given Japan’s top spot in the robotics realm, the country’s lack of versatile, usable rescue robots surprised people in the field, says University of Pennsylvania roboticist Mark Yim. Not only did Japan have simple ground-roving bots like Quince, but the country had more humanoid machines than anyone else on the planet, he says. Unfortunately, these fledgling gizmos weren’t ready to leave the lab. For some humanoids, just making it across slightly uneven floors can be tricky.

“People see a humanoid robot and they think it can do anything a human can do,” Yim says. “In reality, it can do very little.”

Still, some type of limbed, human-ish machine might be the key to tackling disasters in urban areas, where stairs and doors have been designed for human legs to climb and human hands to open. Adopting a personlike shape could even let robots access tools, Hong says.

“At a disaster site, there are bulldozers, excavators, power tools — all this great equipment that people use for rescue missions,” Hong says. “So, naturally, a lot of people believe the robot needs to be in a human form.”

And in the DARPA Robotics Challenge trials, most contenders were. But these robots aren’t anywhere near the C-3PO- or Terminator-style machines of the movies. Today’s state-of-the-art humanoids have just begun venturing out of the lab, and they’re taking baby steps.

Clash of the bots

Watching disaster-relief robots triumph — or fizzle — at even the simplest tasks can be thrilling. Last December, thousands of cheering spectators flocked to a Florida racetrack to see a medley of high-tech machines in action at the trials. The robots lumbered and lurched through a series of tasks, including opening doors, walking over rubble and turning valves. Here was the future of disaster-relief robots, where the simple act of getting a bot to set a tool on a table is still considered showboating.

Each robot’s team set up its equipment in garages used by pit crews during NASCAR events. Crowds gazed down from the stands, while engineers directed the robots through timed 30-minute tasks.

“A lot of these are tasks that a person could complete in a minute or less,” says software engineer Doug Stephen of the Florida Institute for Human and Machine Cognition in Pensacola. “But things we take for granted are incredibly hard for a robot.” And figuring out how to build a bot that can sail through all of these tasks, rather than designing a specialized door-opener or valve-turner, for example, is even harder.

The competition, however, may have already begun to pay off. Teams at the trials dived into the problems that plague humanoid robots — walking, power usage, handling tools. They’ve created a bevy of bots that could one day do some good in a disaster.

Google has already snapped up the Japanese company that built the first-place finisher, SCHAFT, and later withdrew it from the competition to focus on building its own product. Google declined to comment about SCHAFT, a lanky-limbed bot with knees that can bend backwards, which scored an impressive 27 out of 32 points at last year’s trials.

RoboSimian robot

Unlike two-legged bots in the DARPA trials, RoboSimian can crawl on four matching limbs or scoot around on wheels mounted to its rear.

NASA/JPL-Caltech

The second-place finisher, with 20 points, may be on its way to overcoming a huge challenge in bipedal robotics: locomotion. When it comes to humanoids, Murphy says, “Historically, a lot of focus has been on just walking and not falling over.”

Humans don’t simply pick up and set down their feet, Stephen says. People tailor their steps to the road on the fly, weaving through busy streets, striding over sidewalk cracks and swiftly rebalancing themselves after stumbles. And they make most of these on-the-spot adjustments subconsciously.

“But the robot has no brains of its own, so we have to tell it how to do things,” Stephen says. Capturing the hair-trigger tweaks and easy grace of human gait “is a tough nut to crack.” For the DARPA Robotics Challenge, he and colleagues designed software that helps robots “think” on their feet.

Working with a heavy-duty robotic hulk named Atlas, which was developed by Boston Dynamics, a company also recently acquired by Google, the Pensacola team cruised through the rough terrain task at the trials. The monster of a machine, bulging with black wires and a silvery skeleton, stands about as tall as Arnold Schwarzenegger and weighs more than the action hero did in his bodybuilding days. “Atlas is designed to take a beating,” says Stephen. “It basically looks like a giant roll cage.”

In the trials, their bot conquered a task that involved hiking up a ramp, climbing steps and navigating over jumbled cinder blocks. “It was our big event,” Stephen says. A large crowd cheered as the robot picked its way through the course — step by ginger step — without falling.

THOR-OP robot

Though smaller than some of the other bots at the competition, THOR-OP, or Tactical Hazardous Operations Robot-Open Platform, is quick and nimble. It also excels at manipulation tasks.

D. Hong, Robotics & Mechanisms Laboratory/UCLA

Other teams handled the walking problem in a less humanlike way. Engineer Brett Kennedy and colleagues at NASA JPL in Pasadena, Calif., built and developed software for a bot they named RoboSimian. Short and sleek, with a headless body and four identical limbs, the lithe little robot is Atlas’ opposite. Instead of walking on two legs, RoboSimian sits back on its haunches and scoots around on two wheels attached to its rear. Or it crawls on all fours.

Bypassing the need to balance on two feet saves RoboSimian power. In a disaster, the bot could potentially park itself on its limbs, set the brakes and subsist on tiny sips of energy from a battery while waiting for orders from humans. “It’s a very patient robot,” Kennedy says.

Patience is a virtue for rescue robots, which can’t always rely on power cords when working at the scene of a disaster.

Finding nonhuman ways to tackle problems might even give humanoids the best of both worlds. Dennis Hong’s robot, THOR-OP, which looks something like a leaner, friendlier Atlas, was able to turn a valve in one of the trials’ tasks by spinning its wrist, rather than turning the wheel hand-over-hand like a human would. Hong presented his research at the IEEE/RSJ International Conference on Intelligent Robots and Systems in Chicago in September, along with work on a new, less-clunky bot with springy artificial muscles.

At the trials, Hong’s team finished in ninth place, just one spot shy of advancing to the finals. Hong’s team got lucky and made the cut when Google’s SCHAFT dropped out of the competition. DARPA expects additional teams to compete in the finals, including some sponsored by the European Union, Japan and Korea.

Though the agency hasn’t released many details about the June finals, the teams know that their bots will have to operate without a power cord, and the communication link between robots and team members will switch on and off, like a cellphone dropping a call, Pratt says. Instead of attempting (or opting out of) individual tasks, the bots must power through several tasks in just one hour. The best team receives a $2 million prize.

Engineers competing in the finals agree that even the best bots of the upcoming competition probably wouldn’t be ready for another Fukushima. Though, Kennedy says, “I think that we would be able to do better.” And the range of technology the competition inspires could lead to many different types of disaster-ready robots.

“Someday, it would be really cool to have a robot that does everything a fireman can do,” Kennedy says “Burst through the door, save the baby, the whole nine yards.”

TAKING ON TASKS  For years scientists have tried to use robots in the rubble of disasters similar to the World Trade Center collapse or the Fukushima power planet meltdown. Finally, the robotic creations are starting to become more reliable as search and rescue operators. Video: DRCihmcRobotics/JPL-Caltech, NASA; Illustration: James Provost; Produced by Ashley Yeager


This article appears in the December 13, 2014, issue with the headline, « Robots to the rescue: DARPA’s Robotics Challenge inspires new disaster-relief technology. »

Aucun robot jamais n’égalera Bernard Pruvost !

695970-bernard_pruvost-thirion-web

(Photo Aimée Thirion)

A lire l’article ci-dessous, publié dans les Inrockuptibles, on se demande quelle place vont prendre les robots et les technologies de l’automation dans la création artistique… Non seulement peuvent-ils intervenir au titre de nouveaux exécutants pour des tâches qui leurs sont déléguées (c’est le cas des robots-curateurs étudiés par Nicolas Thely à propos des musées), ou sont-ils capables de créer des hits ou des romans à la demande, mais encore deviennent-ils les partenaires d’acteurs faits de chair et d’os, leur donnant la réplique et jouant de leur regard pour créer des émotions et de l’empathie chez les spectateurs… On voit tout le potentiel de cette intrusion des robots dans les arts de la scène, interrogeant à nouveaux frais les notions à partir desquelles nous sommes habitués à qualifier et apprécier  le jeu d’acteurs… Cela étant, je reste raisonnablement optimiste quant à la pérennité des acteurs humains, après avoir revu ce week-end la série de Bruno Dumont – « P’tit Quiquin » – dont on voit mal quel robot pourrait égaler le talent de Bernard Pruvost, son humanité fatiguée, son phrasé décalé, ses répliques involontairement burlesques, ses tics de langage et de visage, bref, toutes ces imperfections bien humaines que les concepteurs de robots s’efforcent de dépasser, ignorant que l’humanité est attachante parce que perfectible…

Les robots vont-ils remplacer les artistes ?

24/11/2014 |
A la BBC, Artie le robot chantant (Capture d’écran)

Sur la BBC, un androïde interprète “Singin’ in the Rain”, pendant qu’au festival Automne en Normandie une troupe franco-japonaise donne le rôle principal à un robot. Après leur avoir piqué leur boulot dans les usines et bientôt dans les bureaux, les robots vont-ils chasser les humains des scènes ?

Les yeux mi-clos, le robot Artie, debout devant des invités hésitant entre la moquerie et la fascination, hoche la tête avec un air inspiré. Il y a quelques jours, sur le plateau de la BBC, il donnait son interprétation de Singin’ in the Rain. Sans être bluffant, le robot chante correctement, mais ne danse pas encore comme Gene Kelly.

Mis au point par la société britannique Engineered Arts, il fait partie de la gamme des RoboThespians conçus pour interagir avec les humains et les divertir. Ainsi, les yeux ont été particulièrement fignolés pour leur permettre d’exprimer des “émotions”. Ils chantent donc, et racontent même des blagues ! Une entreprise japonaise, voici quelques mois, avait elle aussi proposé son robot humoriste, répondant au nom de Kobian. Le procédé est balbutiant. Le Kobian en question se produit sur internet et son niveau humoristique dépasse à peine celui d’un gamin espiègle ou d’un ivrogne adepte de contrepèterie.

Kafka en cyborg

Plus subtil, le metteur en scène Oriza Hirata propose une adaptation de La Métamorphose de Kafka, dans laquelle Gregor se réveille, non pas transformé en cafard, mais en robot. Allongé dans son lit, au centre de la scène, le visage de ce qu’il faut bien appeler un robot-comédien est capable d’exprimer certaines émotions programmées, de rire, de sourire et, bien entendu, de déclamer ses répliques enregistrées.

Comme chez Kafka, cet androïde, pareil au cafard, interroge l’identité, la différence, etc. Souvenons-nous aussi du cas des robots-écrivains, déjà évoqués dans cette rubrique. Pathétique tentative. Mais tous ces robots-artistes représentent-ils les prémices d’une nouvelle histoire de l’art ?

Heureusement, si Artie, le robot chantant, n’a rien à envier à une Lara Fabian, il est encore loin, pour l’instant, d’égaler la profondeur artistique d’un Robert Plant ou d’un David Bowie, pour ne citer qu’eux. Mais les progrès techniques aidant, peut-être assisterons-nous bientôt au concert d’un robot incroyablement talentueux. Pleurerons-nous devant la magnifique interprétation de Cyrano d’un androïde au long nez ? Rirons-nous au stand-up d’un Kobian amélioré qui pointe maintenant si bien les déconvenues de la vie quotidienne ?

La vie d’artiste humain – c’est connu – compte bien trop de désespoir et de pénibles angoisses. On aura vite fait de nous débarrasser de cette tâche ingrate, comme on l’a fait du travail à l’usine. “Prenez l’art et divertissez-nous !” Alors, fatalement, c’est l’évidente conséquence, nous leur laisserons définir les nouvelles visions du monde. En découvrant l’art, les robots accrocheront à leur arc la dernière corde qui leur manquait : l’inutilité. Les rôles inversés, nous ne vaudrons pas mieux qu’une machine.

Un robot très sélectif : reconnaissance vocale et nouvel esprit du capitalisme ?

7481421-la-revolution-numerique-va-t-elle-tuer-le-capitalisme

Un des aspects les plus contraignants de mon métier consiste à retranscrire des dizaines d’heures d’entretiens réalisées dans le cadre de mes enquêtes sociologiques de terrain. Pour me simplifier la tâche, j’ai récemment décidé d’investir dans un logiciel de reconnaissance vocale, dont je ne citerai pas la marque, bien connue des amateurs de cette technologie. Il faut dire que les systèmes de reconnaissance vocale se développent à vitesse accélérée, et qu’ils concerneront sous peu tout un ensemble d’activités plus ou moins ordinaires, nous « délivrant » de la nécessité d’écrire (il faudrait au demeurant réfléchir aux conséquences psycho-cognitives et sociales de ce passage de l’écrit au vocal, qui fait suite au passage de l’oral à l’écrit jadis décrit et analysé par Jack Goody). Après avoir accoutumé le logiciel à mon débit vocal, à mon phrasé et à mes intonations – en devant lire des extraits de textes du Tour du Monde en 80 jours, allez savoir pourquoi ?! -, j’ai commencé d’utiliser la « chose ». Si je ne suis pas certain de gagner un temps significatif, j’apprécie toutefois de ne plus être absolument rivé à mon bureau et de ne plus être asservi au clavier de l’ordinateur qui m’impose des positions peu ergonomiques qui finissent par être pénibles. Mais j’ai toutefois noté que mon rapport au texte se modifiait : d’une part, j’adopte un débit qui tient compte, intuitivement, de ce que j’imagine être les limites « physiologiques » de la machine, un peu comme on fait lorsqu’on lit une dictée à un enfant de l’école primaire, en prenant son temps et en sur-articulant la prononciation des mots. D’une certaine manière, je me mets à la place de la machine, j’éprouve une sorte de confusion à la pousser dans ses retranchements, de gêne à lui manquer d’égards. Ce rapport presque empathique à une ontologie autre, fut-ce un robot vocal grand public et sans aucune apparence humanoïde, ne manque pas de me surprendre le premier. Mais plusieurs travaux, dont ceux d’Emmanuel Grimaud, ont montré comment on avait là une composante forte de la relation homme-machine. D’autre part, si je suis fréquemment stupéfait des compétences de ce logiciel, c’est moins parce qu’il se montre infaillible que parce que ses zones d’erreurs et de réussite sont parfois franchement inattendues et me semblent témoigner d’un forme d’orientation idéologique manifeste. Si certains vocabulaires ou tournures grammaticales simples lui échappent complètement, son tropisme anglophile est assez évident, au moins sur le plan linguistique : ainsi, Suzie devient automatiquement Suzy, pour prendre un exemple. De même, il est impossible d’écrire le nom d’Oussama Ben Laden autrement que sous l’intitulé Oussama Bin Laden.  Mais cet exemple resterait anecdotique si je n’avais constaté que, alors qu’il est incapable d’orthographier convenablement Léo Ferré (qui devient Léo Ferrée) ou Mikhaïl Gorbatchev (qui devient l’étrange Mireille Gorbatchev, dont on n’ose croire qu’il s’agit d’un hybride entre la très droitisante Mireille Mathieu et l’ancien président de l’URSS), il parvient sans difficulté à orthographier  Sony, Hitachi, Rhône-Poulenc, Michael Jackson,  et toute une série de  patronymes  dont je n’imaginais même pas que ce logiciel les connaissait si parfaitement.  De là à penser que ce type de programme est un relais actif et efficace du capitalisme industriel et médiatique contemporain, il n’y a qu’un pas… que je ne franchirai pas, depuis que j’ai découvert, poussant un peu plus loin l’expérience que le  footballeur métrosexuel David Beckam  devenait « DG réclame » lorsque je le prononçais en anglais, et « David bécanes » avec une prononciation à la française. Le rappeur américain Eminem , régulièrement accusé d’homophobie (http://www.lefigaro.fr/musique/2014/02/10/03006-20140210ARTFIG00181-moby-eminem-est-homophobe-et-misogyne.php), devient ironiquement « Et minet », tandis qu’Elton John (au demeurant auteur du très oubliable « I am your robot »)  demeure Elton John, quelle que soit la langue dans laquelle son nom est prononcé.

Depuis lors, frappé d’un curieux esprit animiste – je relis Pierre Clastres faut-il dire -, je traite avec beaucoup d’égards ce logiciel capable de faire et défaire les patronymes et les réputations en un tour de main, ou plutôt d’incorrection orthographique… Il y a quelque magie dans ce logiciel de reconnaissance vocale, me semble-t-il, et de là à penser que la machine est le nouveau siège de quelques esprits farceur ou vengeur…

NB : j’attire au passage l’attention des lecteurs sur les très belles pages que Pierre Clastres consacre, dans La société contre l’Etat, à la technique. Elles méritent d’être lues ou relues, car on découvre là une pensée très fine sur différentes conceptions du progrès, du capitalisme et du surplus, sur l’ajustement réussi de la technique aux besoins…

Hitchbot, nouveau maître du suspens ?

Après avoir traversé le Canada d’Est en Ouest, Hitchbot, le robot auto-stoppeur, s’apprête à effectuer une traversée de l’Allemagne à partir du 13 février prochain. Le caractère inédit de l’expérience tient évidemment moins au type d’interaction suscité – prendre un charge un auto-stoppeur, ce qui reste en soi plutôt banal – qu’à la nature même des ontologies mises en présence. Il est en effet plutôt inattendu de croiser un tel passager, à la fois concentré de technologie et artefact au design « bon enfant », affublé de jambes et de bras semblables à ces boudins flottants utilisés par les enfants dans les piscines, chaussé de bottes plastiques jaunes, et arborant un sourire lumineux « rouge diodes ».  Selon les concepteurs de Hitchbot, cette expérience devait permettre d’analyser la manière dont les humains se comportent à l’égard des robots, la façon dont ils les considèrent et les traitent.

En effet, tandis que nous nous préoccupons essentiellement de savoir ce que les robots font aux humains, la question de savoir ce que les humains font aux robots réintroduisait un principe anthropologique de symétrie dans la relation entre ces deux types d’entités, et si l’on peut dire, le type de regard que l’un porte sur l’autre. Un tel travail a déjà été mené, par exemple au musée du Quai Branly où déambule un robot spectateur (http://www.quaibranly.fr/fr/enseignement/la-recherche/projet-le-robot-berenson.html), mais dans le cas du robot auto-stoppeur, le dispositif est sensiblement différent puisqu’on quitte l’espace institutionnel – qui n’est pas sans lien avec l’habitus spectatoriel – pour un autre type d’espace qui met en jeu un modèle de relations sociales également codifiées mais  différentes de celles qui sont généralement attendues à l’intérieur d’un musée. Une sociologie de l’auto-stop s’intéresserait avant tout à la façon dont l’auto-stoppeur inspire ou non confiance et maximise ses chances d’être pris en charge, à la présentation de soi à bord du véhicule, aux thèmes et sujets abordés ou évités, aux tactiques de reconnaissance réciproque entre le conducteur et son passager, etc. Or, dans le cas de Hitchbot, plusieurs questions sont posées : d’une part, tendons-nous à anthropomorphiser la machine, à lui prêter des émotions, des compétences, des capacités ? D’autre part, déployons-nous des règles sociales particulières dans ce type d’interaction, telles par exemple que l’usage de la politesse, ou faisons-nous preuve de considérations relevant de l’éthique ou du souci d’autrui, par exemple en prenant soin d’installer le robot dans une position jugée confortable ou sécurisante ou d’aller plus loin que prévu pour le déposer à un endroit où nous pensons qu’il aura plus de chance d’être recueilli ? Egalement, accordons-nous plus de confiance à la machine qu’à l’humain lorsque nous prenons la décision de la faire monter dans notre véhicule ? Et à partir de quels critères ? Enfin, comme le faisait remarquer un commentateur sur un blog, est-il impossible qu’un individu ait songé à démonter le robot pour le revendre en pièces détachées, ou pour le dire autrement, ne reconnaisse pas le robot comme une altérité certes dissemblable mais méritant d’être prise en considération pour des raisons qui ne seraient pas qu’utilitaristes ?

Cet ensemble de questions sont très bien résumées dans les observations qu’Emmanuel Grimaud a pu poser à partir de la fréquentation de robots humanoïdes, même si la question de l’acceptabilité sociale – voire affective – du robot ne semble pas devoir se réduire à sa qualité imitative humanoïde :

« Ce jeu d’excitation métaphysique se pratique depuis fort longtemps : face à une créature qui n’est pas vivante, on stimule nos mécanismes de croyance et d’attribution en cherchant à ramener l’objet qu’on a en face de nous à quelque chose de connu ou de familier. Face à un robot à forme humaine, on a tendance à projeter des caractéristiques anthropomorphiques, comme si on avait à faire à un être humain; cette capacité est très ancrée dans le cerveau. On peut être déçu dans un premier temps lorsqu’on se rend compte qu’il s’agit d’une machine, puis deux minutes plus tard, il suffit qu’elle vous regarde soudain dans les yeux ou bouge un doigt de manière réaliste, pour que la confusion s’installe à nouveau. Les humanoïdes sont revenus en force dans les années 80. Les roboticiens se sont aperçus que pour qu’un robot soit socialement acceptable; il fallait qu’il se comporte autant que possible de façon anthropomorphique. Les roboticiens japonais sont persuadés que la ressemblance humaine facilite les interactions sociales et ils en jouent » (http://ecrans.liberation.fr/ecrans/2013/04/02/pour-les-japonais-l-humanoide-facilite-les-interactions-sociales_953606)

En attendant d’en savoir plus sur les résultats tirés de cette expérience par les concepteurs de Hitchbot, je propose aux lecteurs de méditer sur ce qui se passerait si Hitchbot devait être pris en stop par une Google Car sans conducteur : Hitchobot s’emparerait-il du volant pour détourner le véhicule de son trajet initial ou prendre à son tour en stop un humain ? On le voit, le potentiel fictionnel de cette expérience n’est pas sans intérêt !

ON N’ARRÊTE PAS LE PROGRÈS – HitchBot, le robot auto-stoppeur qui a traversé le Canada (http://bigbrowser.blog.lemonde.fr/2014/08/22/on-narrete-pas-le-progres-hitchbot-le-robot-auto-stoppeur-qui-a-traverse-le-canada/)

HitchBot, ce drôle d'auto-stoppeur sur les routes canadiennes. (Reuters/Paul Darrow)

Des automobilistes canadiens ont croisé pendant l’été un drôle d’auto-stoppeur. Des bras et des jambes en frites de piscine en mousse, des bottes jaunes en caoutchouc, un siège rehausseur avec un pied télescopique pour regarder les voitures passer (ou s’arrêter)… HitchBot n’est pas passé inaperçu. Ce robot conçu par l’université Ryerson de Toronto a eu pour mission de rallier Victoria, la capitale de la Colombie Britannique dans l’extrême ouest du Canada, depuis Halifax, ville côtière et capitale de la province de Nouvelle-Ecosse, à l’est.

Trajet de HitchBot à travers le Canada (Hitchbot.me).

Pourquoi cette étrange mission ? « Nous sommes généralement intéressés de savoir si nous pouvons faire confiance aux robots [dans notre vie quotidienne]. Mais est-ce que les robots peuvent faire confiance aux humains ? », s’est interrogée Frauke Zeller, cocréatrice de HitchBot. Des chercheurs de plusieurs disciplines, de l’ingénierie mécanique aux sciences humaines en passant par la programmation informatique, ont donc tenté l’expérience pour étudier les réactions des automobilistes face à ce robot pouvant parler – et tester quelques nouvelles technologies au passage.

Très vite, HitchBot est devenu une véritable célébrité au Canada et les automobilistes n’ont pas manqué pour l’avancer de quelques bornes – ou bien de près de 1 000 kilomètres pour l’un d’entre eux. Avec à la clé de multiples photos souvenirs qui ont émergé sur les réseaux sociaux.

http://instagram.com/p/rsVpGsDHmg/embed/

http://instagram.com/p/rKLZ6kvigX/embed/

http://instagram.com/p/r27OJeiv_u/embed/

http://instagram.com/p/r2r2VHHXhB/embed/

http://instagram.com/p/rcgpeAPikp/embed/

http://instagram.com/p/rlfJRqJVc2/embed/

http://instagram.com/p/rmUv5wmuFO/embed/

Après plusieurs milliers de kilomètres parcourus et peut-être autant de rencontres, HitchBot est arrivé jeudi 21 août à destination. Les chercheurs vont désormais analyser les données collectées tout au long du périple pour livrer les dessous d’une « relation avec la technologie et les robots (…) comme les notions de sécurité et de confiance », selon Frauke Zeller.

Marx et les robots…

robot-Marx
Dans les deux articles présentés ci-dessous, dont le second est devenu un « classique » signé par Paul Krugman (lire les nombreux commentaires associés à cet article est sans doute aussi voire plus intéressant car il donne un bon reflet de l’état de la pensée sociale et économique aux USA quant aux évolutions  du marché du travail en lien avec le développement technologique), ce qui est intéressant est en réalité non pas de savoir si et comment les humains cohabiteront avec les robots sur le marché du travail, mais plutôt quelle conception de la technique nous nous sommes forgés. En d’autres termes, les robots sont-ils le produit ultime d’une societas ex machina – pour reprendre une expression de Braverman – où les orientations du monde social et économique, c’est à dire littéralement le changement historique, seraient directement induits par une innovation technologique en quelque sorte autonome, ou faut-il penser au contraire que l’innovation technique est socialement produite et est par conséquent la manifestation de rapports de force au sein du social ? Dans la première hypothèse, on peut considérer avec optimisme que la technique s’inscrit dans un mouvement mélioriste tel qu’elle finit toujours par profiter à l’humain (par exemple en imaginant que le robot délestera l’homme de tâches difficiles ou rebutantes) ; on peut aussi penser que l’innovation comme production d’un champ des possibles – certaines technologies deviennent des standards, d’autres des échecs – obéit à une sorte de téléologie, de finalité rationnelle dont le sens se révèle a posteriori. Dans la seconde hypothèse, la technologie est réinscrite dans le cadre des rapports de force socio-économiques. C’est cette idée que va commenter par exemple l’économiste Bruno Tinel, s’appuyant sur une lecture de théoriciens radicaux tels que Marglin ou Braverman et en inversant la formule de Marx selon laquelle « Le moulin à bras vous donnera la société avec le suzerain ; le moulin à vapeur la société avec le capitaliste industriel » (Marx [1847], p. 79). En effet, à rebours de cette formule, on peut réinterpréter l’évolution historique en  considérant que c’est plutôt le suzerain qui donne le moulin à bras : « Le rôle de la technique est relativisé dans l’analyse par les radicaux au profit des luttes sociales, des rapports de pouvoir et de domination : c’est par eux qu’est résolue l’indétermination ex ante de l’organisation de la production. Celle-ci résulte alors des rapports de forces qui ont lieu à la fois dans la société et sur le terrain contesté qu’est le laboratoire secret de la production. Ce premier volet du refus, par les radicaux, du déterminisme technique strict revient à réaffirmer que l’organisation de la production est endogène aux rapports de production, pour un état donné du développement des forces productives. Comme l’écrit Braverman, la théorie d’une societas ex machina, pour qui «les attributs de la société moderne sont considérés comme sortant directement des cheminées d’usine, des machines-outils et des ordinateurs» (Braverman [1974], p. 22) doit être rejetée » (Bruno Tinel : https://halshs.archives-ouvertes.fr/halshs-00196377/document)En résumé, les robots peuvent êtres analysés moins comme l’expression d’une sorte de matérialisme historique doté d’une force propre et animé par un progrès technique inexorable et finalisé que comme les révélateurs des forces sociales et économiques à l’oeuvre dans le monde capitaliste… Par extension, une telle perspective doit nous amener à considérer à nouveaux frais la question de la division du travail, question sur laquelle nous reviendrons dans un prochain article, à la fois parce qu’elle s’impose avec force dans les débats autour des effets possibles de la robotisation du monde du travail, notamment la substituabilité  du robot à l’humain, et aussi parce qu’elle permet de renouer avec des auteurs finalement mal connus dans le champ des sciences sociales qui ont pensé, dès le milieu des années 70, la question de la technique sous son versant le plus politique.

États-Unis : 1800 scientifiques se demandent si l’espèce humaine devait craindre l’avènement des robots

Peut-on vivre en harmonie avec les robots? C’est la question à laquelle une récente étude tente de répondre. En effet, pas moins de 1.800 scientifiques ont exprimé leur point de vue et les avis sont très partagés (http://fortune.fdesouche.com/370949-etats-unis-1800-scientifiques-se-demandent-si-lespece-humaine-devait-craindre-lavenement-des-robots)

Voici le résultat de l’étude de l’Université d’Elon aux États-Unis: 52 % des scientifiques qui se sont exprimés lors de cette étude sont persuadés que l’impact de la robotique permettra de créer de nouvelles perspectives pour l’Homme, une certaine valeur ajoutée, avec la création par exemple de nombreux emplois liés à ce secteur bien spécifique. On imagine en effet très bien la nécessité d’un large éventail de techniciens et d’ingénieurs pour le soin et la maintenance de nos nouveaux amis.

Les progrès en robotique permettent, entre autres, de soutenir notre charge de travail et aussi de nous remplacer dans des secteurs laborieux, dangereux ou de précision. On s’imagine déjà dans un univers à la Star Wars avec des robots utilitaires à chaque coin de rue, avec pourquoi pas un petit R2D2 en guise de compagnon pour nous apporter le café. L’automatisation par la robotisation va aussi faciliter l’ouverture de nouveaux marchés.

A terme donc, les robots pourront faciliter la création d’entreprise en réduisant les coûts. Mais tout ceci est aussi à double tranchant, car on oublie bien souvent que de nombreux métiers du quotidien, qui paraissent « invisibles », sont réalisés par des êtres de chair et de sang. Le sujet de la robotique est donc délicat.

L’automatisation à outrance par exemple ne risque-t-elle pas de remplacer à long terme totalement l’Homme? Sans forcément entrer dans un scénario à la Terminator où les robots prennent le dessus sur nous, on peut légitimement se poser la question.

C’est là qu’interviennent les 48 % d’experts qui estiment que les robots auront un rôle tellement important qu’ils auront plus de travail que nous, ce qui risquerait de créer de graves problèmes économiques. On se souvient des réserves du grand scientifique Stephen Hawking sur l’intelligence artificielle dont nous vous avions déjà parlé.

L’avancée technologique est souvent une véritable bénédiction, mais n’oublions pas que celle-ci peut être un outil pour nous surveiller et même dans le pire des cas nous nuire. On sait par exemple que bon nombre d’inventions de l’Humanité ont pour origine une technologie militaire transformée. On peut dès lors aisément imaginer le champ d’action d’une telle technologie…

Rise of the Robots

Paul Krugman

Catherine Rampell and Nick Wingfield write about the growing evidence for “reshoring” of manufacturing to the United States. They cite several reasons: rising wages in Asia; lower energy costs here; higher transportation costs. In a followup piece, however, Rampell cites another factor: robots.

The most valuable part of each computer, a motherboard loaded with microprocessors and memory, is already largely made with robots, according to my colleague Quentin Hardy. People do things like fitting in batteries and snapping on screens.

As more robots are built, largely by other robots, “assembly can be done here as well as anywhere else,” said Rob Enderle, an analyst based in San Jose, Calif., who has been following the computer electronics industry for a quarter-century. “That will replace most of the workers, though you will need a few people to manage the robots.”

Robots mean that labor costs don’t matter much, so you might as well locate in advanced countries with large markets and good infrastructure (which may soon not include us, but that’s another issue). On the other hand, it’s not good news for workers!

This is an old concern in economics; it’s “capital-biased technological change”, which tends to shift the distribution of income away from workers to the owners of capital.

Twenty years ago, when I was writing about globalization and inequality, capital bias didn’t look like a big issue; the major changes in income distribution had been among workers (when you include hedge fund managers and CEOs among the workers), rather than between labor and capital. So the academic literature focused almost exclusively on “skill bias”, supposedly explaining the rising college premium.

But the college premium hasn’t risen for a while. What has happened, on the other hand, is a notable shift in income away from labor:

Photo

Credit

If this is the wave of the future, it makes nonsense of just about all the conventional wisdom on reducing inequality. Better education won’t do much to reduce inequality if the big rewards simply go to those with the most assets. Creating an “opportunity society”, or whatever it is the likes of Paul Ryan etc. are selling this week, won’t do much if the most important asset you can have in life is, well, lots of assets inherited from your parents. And so on.

I think our eyes have been averted from the capital/labor dimension of inequality, for several reasons. It didn’t seem crucial back in the 1990s, and not enough people (me included!) have looked up to notice that things have changed. It has echoes of old-fashioned Marxism — which shouldn’t be a reason to ignore facts, but too often is. And it has really uncomfortable implications.

But I think we’d better start paying attention to those implications.

Voir aussi l’interview filmée de Paul Krugman sur :  http://www.businessinsider.com/paul-krugman-on-technology-and-the-economy-2013-2?IR=T

2015, année robotique ? Ce que nous prédisent les boules de cristal des big data scientists…

crystal-ball-woman-ss-1920-800x450

La tradition veut que, lors du passage du nouvel an, des voeux soient formulés. Si les voeux engagent sur un mode bien particulier, puisqu’ils ne mettent pas en jeu le régime de vérité et qu’ils sont réglés par un type de convention reposant sur la sincérité présumée de celui qui les adresse, les prédictions quant à elles peuvent donner lieu, ex post, à vérification. En ce cas, on vérifiera soit le talent divinatoire et ésotérique du futurologue, soit sa capacité à faire converger, de manière rationnelle, un certain nombre de  schèmes itératifs dans le cadre d’un raisonnement de type probabiliste. A cet égard, les algorithmes fondés sur l’analyse des big data représentent la variante contemporaine du jugement prédictif, tenant lieu et place du diseur de bonne aventure. Il était donc tentant, à moins d’une heure trente du passage à l’année 2015, de voir comment les robots pouvaient prédire l’avenir, quels scénarios ces pythies algorithmiques nous réservaient, et quels enjeux théoriques cette science du futur proposait…

Dans le domaine de la prospective par algorithmes, il semble qu’une des prêtresses se nomme  Kira Radinsky (http://aftertheweb.com/kira-radinsky-algorithme-futur/)

Deborah est le logiciel développé par Kira. Ce dernier est capable d’analyser le contenu du web tels que des articles de presse, les pages Wikipédia, les tweets, les recherches Google des internautes, etc. L’intelligence du logiciel ne se limite pas à la récolte du contenu (datamining) puisqu’un algorithme va identifier des schémas récurrents (ou pattern dans la langue de Shakespeare) au sein des données.

Le logiciel développé par Kira a par exemple identifié que dans les régions où il y a eu une sécheresse, s’ensuit dans la majorité des cas, d’inondations dès l’année suivante qui se concluent par une épidémie de choléra. A l’aide de ces prédictions, la jeune Data Scientist espère donc pouvoir limiter le nombre de victimes du choléra, empêcher des génocides ou encore identifier les personnes aux tendances suicidaires.

Aujourd’hui Kira est CTO et cofondatrice de SalesPredict, une start-up qui vient de clôturer une levée de fond d’un million de dollars. Grâce à ses algorithmes prédictifs et aux données Big Data de ses clients, SalesPredict promet aux entreprises de doubler leur taux de conversion et d’améliorer la fidélisation client.

Dans un registre plus déterministe et moins irénique, Stephen Hawking envisage l’autonomisation et l’émancipation progressive de l’intelligence robotique comme une forme de menace pour l’humanité :

Du HAL 9000 de l’Odysée de l’Espace à la saga Terminator, la peur des intelligences artificielles est un thème récurrent des oeuvres de science-fiction. Alors que les machines deviennent plus intelligentes et que nous leur confions davantage de tâches, l’humanité doit-elle craindre l’intelligence artificielle ? Le mathématicien et cosmologue Stephen Hawking affirme que les machines pensantes sont une menace pour nous. Il explique lors de sa récente interview à la BBC que « les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles […] mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine ». Il ajoute,« [une telle forme d’intelligence] pourrait s’émanciper et même améliorer sa propre conception à une vitesse toujours croissante. Les humains, limités par leur évolution biologique lente, ne pourraient pas rivaliser, et seraient détrônés ».

Stephen Hawking n’est pas le seul à partager cette peur d’un soulèvement des machines puisqu’en octobre dernier lors d’une conférence du MIT, Elon Musk s’était aussi prononcé sur le sujet. D’après le PDG de Tesla Motors et Space X, l’intelligence artificielle est « notre plus grande menace existentielle ». En comparant l’utilisation de cette technologie à l’invocation du démon qu’on espère contrôler, l’entrepreneur américain a clairement exprimé son opinion négative sur le développement d’intelligences artificielles. Pour un meilleur contrôle du danger, Elon Musk souhaiterait même une supervision étatique du projet.

Notons que Google qui possède des sociétés de robotique (Boston Dynamics) et d’intelligence artificielle (Deep Mind) a déjà constitué un Comité d’Ethique dédié aux questions soulevées par ces technologies. En Europe, une équipe de recherche britannique vient de lancer un projet collaboratif sur les machines autonomes et sur l’élaboration d’un cadre législatif sur les normes industrielles et éthique des robots. Le professeur Alain Winfield qui participe au projet explique « si nous devions faire confiance aux robots, en particulier lors de nos interactions avec eux, ces derniers devront être plus que fiables. Nous avons déjà prouvé au laboratoire qu’un robot peu complexe peut être éthique, et suivre de manière étonnamment proche les fameuses lois d’Asimov. Nous devons maintenant prouver qu’un tel robot sera capable d’agir éthiquement de manière immuable, tout en cherchant à comprendre l’utilité de tels robots dans le monde réel. » (http://aftertheweb.com/selon-stephen-hawking-lintelligence-artificielle-est-un-danger-pour-lhumanite/)

Dans un registre plus austinien (pas la ville d’Austin ! J. L. Austin, l’auteur de How to do things with words), certains futurologues nous invitent à reconsidérer la signification des termes que nous employons, tels « robots », « drones », etc…  dans la mesure où la complexification des usages et des innovations qui les supportent appelle un requalification terminologique (http://qz.com/318214/in-2015-well-need-different-words-to-talk-about-the-future/)

We’re going to have to clean up our language when talking about the future.

To clarify this ambiguous statement, we’re wading into a future where we will require more precise definitions to discuss increasingly complicated, complex and more finely nuanced objects, situations and roles people have in the world. However it unfolds, it’s a good bet that it will involve things for which we don’t yet have good names (see “vape,” “entopreneur,” and “card clash” if you have any questions). Catch-all terms, particularly when applied to emerging phenomena, do us more harm than good, and we need to find better options to communicate about them if we’re going to understand what comes next.

As a fellow observer of near futures pointed out, similar things are happening with words like “robots,” “algorithms,” and “drones.” We casually use them as shorthand, but (increasingly) there are worlds of difference between, say, an industrial robot on a production line and a telepresence unit on wheels, of the kind we’ve seen Edward Snowden’s face teetering on recently. “Robot” used to mean a humanoid machine capable of executing commands. Yet, advances in engineering mean the machines we task to do things for us take many shapes, and only a minority look anything like us. So when a headline shouts “Are Robots Stealing Our Jobs?” one has to ask, “What job, performed how and by whom?” to get closer to a meaningful understanding of what a robot could be here.“Algorithm” is currently the hot term among tech folk and in the mainstream press alike, used to refer to any black box, computerized formula that makes a decision, whether it’s used to sell you socks instead of panty hose, or to deny you the ability to board a flight. The term is now showing up on major newspapers, above the fold, but few people on the street can tell you what an algorithm is. But, man, are they responsible for a lot of critical decisions.Likewise, with the word “drone.” I think you’d know the difference between a fully armed Reaper drone locked on your location and a cheap palm-sized toy buzzing around you, at least for a few meaningful seconds. Even the “drone” industry is having a hard time settling on terminology. Part of this search for a better label is for marketing clarity, part of it is defense against negative attention. The term has already become quite sticky, as has negative attention around drones, so differentiating names by function, or throwing in qualifiers (toy drone, military drone, farming drone) is tough. Yet, unlike what has happened with “hackers,” as time goes on, we’ll probably see more fine-tuned language around drones, because unlike with “hackers,” we can stratify a good deal of what’s going on with drones in our daily lives, and we’ll need names to refer to different activities so we don’t accidentally call in a Hellfire missile strike when we just want an orchard irrigated or a package delivered.

But “hackers,” “algorithms,” and to some extent “robots,” sit behind metaphorical — or actual — closed doors, where obscurity can benefit those who would like to use these terms, or exercise the realities behind them to their own benefit, though perhaps not to ours. We need better definitions, and more exact words, to talk about these things because, frankly, these particular examples are part of a larger landscape of “actors” which will define how we live in coming years, alongside other ambiguous terms like “terrorist,” or “immigrant,” about which clear discourse will only become more important.

Language is power—power that often implies, or closes down knowledge and understanding, both of which we need to make informed decisions about individual and collective futures. Everyone doesn’t need to become a technical expert, or keep a field guide to drones and robots handy (though it might be useful sooner than later), but, as I’ve pointed out in the case of complex systems and supply chains, we might all benefit from having a clearer understanding of how the world is changing around us, and what new creatures we’ll encounter out there. Perhaps it’s time we all start wielding language with greater clarity. I’m sure the robots will.

Après avoir passé en revue quelques réflexions de portée générale sur l’art de la futurologie numérique, je propose quelques liens de sites où des prévisionnistes chevronnés  ne nous diront pas ce que sera et comment ira le monde en 2015, mais plus modestement, ce que seront les robots dans… une trentaine de minutes, c’est à dire l’an prochain : parmi les grandes tendances, des robots intégrant la sphère domestique ; et des robots capables de déchiffrer nos émotions, à l’instar du fameux robot Pepper. On voit ici s’ouvrir tout un champ d’interactions autour de la reconnaissance des émotions que Goffman n’aurait pas renié et qui s’annonce en tout cas passionnant à observer et analyser ! (https://yasi.fr/actus/detection-emotions-algorithme).

Ce que seront les robots en 2015 ! :

http://marshallbrain.com/robots-in-2015.htm

http://www.factor-tech.com/robots/10411-ai-with-a-heart-will-2015-be-the-year-of-the-personal-robot/

http://www.clickz.com/clickz/column/2386949/is-2015-going-to-be-the-year-of-the-robot

http://www.dailymail.co.uk/sciencetech/article-2886424/Could-2015-year-domestic-robots-3D-printed-food.html

http://www.gizmag.com/pepper-robot/32428/

« Petit papa Noël, quand tu descendras du ciel, avec tes robots par milliers… »

robot_utilisant_le_chapeau_de_pere_noel_tapis_souris-rd22381bf8aab4788b012e656a669de38_x74vi_8byvr_324

En ce jour de réveillon, considérant qu’on n’est jamais mieux servi que par soi-même, je me suis rendu dans une librairie de ma ville et me suis offert un merveilleux cadeau de Noël : le dernier ouvrage de Philippe Descola, une série d’entretiens avec Pierre Charbonnier, intitulés La composition des mondes, et édités par Flammarion. Descola étant l’anthropologue français contemporain vivant le plus connu, je ne ferai pas injure au lecteur en prétendant présenter ici ses travaux. Un point qui m’intéresse tout particulièrement chez Descola, sous-tendu par l’idée centrale selon laquelle la conception occidentale du monde et de la mise en relation des êtres qui y a cours n’est que « l’expression particulière d’un système d’objectivation du monde » (p. 280), concerne l’intérêt accordé aux « non-humains critiques » (…) qui est « une façon de parler du destin commun des choses et des hommes dans un monde où leur partage n’a plus de sens, et qui impose de repenser leur existence collective » (p. 281). Bien que Descola, à ma connaissance, n’évoque pas directement leur exemple, on imagine volontiers que les robots, par leur capacité à introduire du trouble dans l’ontologie, comptent parmi les « non humains critiques ». L’idée est en tout cas présente chez deux auteurs qui se sont directement inspirés de Descola – Denis Vidal et Philippe Gaussier – et qui montrent comment, à l’occasion d’une exposition organisée au Quai Branly où un robot humanoïde se mêle et interagit avec le public, est posée in situ et sur un mode ethnographique la question des frontières entre l’homme et la machine et plus précisément du type de prise et de considération ontologique qu’un robot humanoïde peut susciter chez l’humain (http://terrain.revues.org/15396). Joffrey Becker a pour sa part montré, dans un article documenté sur le caractère « humanoïde » des robots (http://joffrey.becker.free.fr/pdf/Robot-Chimere_JB.pdf), comment les interactions entre les humains et ce type de robots donnait lieu à une « attribution de subjectivité à ces objets techniques » (p. 5) et comment les robots humanoïdes, précisément parce qu’ils passent pour des « sortes d’anomalies taxinomiques » (p. 8), des entités ontologiquement discontinues, constituent de formidables supports projectifs d’imputation de caractéristiques humaines. Un des traits remarquables de l’étude menée par Becker a d’ailleurs été d’observer, sur un mode ethnographique, la façon dont les concepteurs de ces robots choisissaient de les anthropomorphiser.

Quoiqu’il en soit, et pour en revenir aux célébrations festives de cette fin d’année, je me suis demandé si les robots peuplaient désormais la hotte du Père Noël tout comme les trains électriques ou les circuits Scalextric (dont j’ai découvert qu’ils existaient dorénavant en version digitale !) habitaient jadis nos rêves enfantins. Au vue des quelques éléments présentés ci-dessous, il semble bien que oui. Désireux d’en savoir un peu plus, j’ai décidé de comparer le top ten des robots recommandés pour Noël en France et dans les pays anglophones en cette fin d’année 2014 pour voir si des différences culturelles faisaient jour. Il apparaît à première vue que de part et d’autre de la Manche (ou de l’Atlantique), plusieurs traits constants s’imposent :  1/ l’apprentissage à la programmation, à l’aide d’interfaces intuitives et 2/ le pilotage des robots à l’aide des téléphones portables. Reste une différence majeure entre nos deux aires culturelles, que la comparaison des top ten rend particulièrement visible : chez nos voisins anglophones, il existe un intérêt marqué pour 1/ les robots capables d’accomplir des tâches domestiques telles que le nettoyage du four de cuisine, et d’autre part, 2/ des robots capteurs d’émotions aux robots massant le corps, le souci de soi délégué aux artefacts y semble bien plus répandu.

Certes, il serait périlleux de tirer la moindre leçon générale de cette comparaison rapidement menée, mais du moins voit-on que si les robots peuplent traditionnellement un imaginaire fictionnel littéraire et cinématographique, ces derniers semblent aujourd’hui également destinés à habiter massivement la hotte du Père Noël, signe probable d’une promotion nouvelle de ce type d’entité au rang d’objet désirable, désir sur lequel les psychanalystes auraient sans doute beaucoup à dire.

Liste des dix robots à offrir à Noël

(http://www.humanoides.fr/liste-des-dix-robots-a-offrir-a-noel/)

anki_driveVous cherchez des idées cadeaux pour Noël ? Et pourquoi pas offrir un robot cette année ? Il en existe plein, pour tous les goûts et dans des fourchettes de prix raisonables. Nous vous proposons ci-dessous une liste des 10 robots qui feront plaisir pour Noël.

Cette liste s’adresse plutôt à la jeune génération, comprise entre 5 et 25 ans. Les objets proposés sont orientés divertissement, du robot de compagnie aux objets connectés en passant par les petits robots à programmer. Pour ceux que l’impression 3D intéresse, la liste comprend un stylo qui imprime des objets en 3D !

Les prix de cette sélection de robots sont compris entre 8,55 € et 299 €.

Robot Fish, un poisson pas comme les autres

Le Robo Fish, le poisson que tous les enfants s’arrachent. Débarqué en France au mois de mars, il est devenu en l’espace de quelques mois l’un des jouets préférés des français. Plongez-le dans l’eau et le robot poisson se mettra à naviguer aléatoirement pendant environ deux heures. Existe en deux modèles et en plusieurs coloris. Prix : à partir de 8,55 €.
D
humanoides fr robot fish jouet electronique 3

Smartbot Mk2, le fidèle robot compagnon de votre smartphone

Smartbot est un robot mobile, programmable et contrôlable via smartphone. Conçu par des français, c’est une station multifonction, idéale aussi bien pour le divertissement, la prise de vue ou la programmation robotique. Au look sympa, il se servira de la puissance de votre smartphone comme intelligence. Existe en 3 coloris. Prix : 180 €.

humanoides fr smartbot overdrive robotics 4

Bero, un robot de compagnie open-source

Bero est un petit robot open-source communiquant par Bluetooth avec un téléphone mobile. Un concentré de technologie dans seulement 10 centimètres de hauteur ! Les amateurs de bidouillage pourront le programmer à souhait puisqu’il est livré avec une appli opensource sous Android (et bientôt iOS). Prix : 149$ (110 €) ou 179$ (132€).

humanoides fr robot bero opensource telephone mobile 3

Battroborg, des combats de robots chez vous

Les Battroborgs sont des figurines robots que l’on contrôle à l’aide de manettes et que l’on fait s’affronter sur un ring. La télécommande sans fil se synchronise en temps réel avec les mouvements des bras des joueurs. De bonnes parties en perspective ! Prix : 40 € par robot

humanoides fr battroborg ring

I-Play, des robots éducatifs pour apprendre la programmation aux plus jeunes

Apprendre à programmer dès son plus jeune âge tout en s’amusant. Voilà le défi relevé par les robots Yana et Bo. Sous forme d’histoires et de défis à relever, l’enfant va programmer ces robots via une appli très intuitive, compatible avec un appareil iOS, téléphone ou tablette. Deux modèles de robots. Prix : 49$ (36€) et 149$ (110€).

humanoides fr play i robots programmables yana bo 6

Romo, support mobile de compagnie

Romo est ce que l’on appelle une station mobile pour la téléprésence. L’utilisateur le pilote à distance à partir d’un smartphone et peut servir dans différentes situations : converser avec quelqu’un à distance, faire de la télésurveillance, participer à une réunion en télétravail… à adapter selon ses besoins. En plus des fonctions de navigation, il est capable de détecter des visages. Prix : 150$ (110 €).

Blog Humanoides Fr robot telepresence Romo romotive CES 2013 pic11

3Doodler, comment fabriquer des objets avec un stylo

Le 3Doodler permet de dessiner des objets solides en trois dimensions. Il se présente sous la forme d’un stylo, que l’on alimente avec du fil plastique ABS ou PLA qui va chauffer puis se durcir au fur et à mesure de la progression du dessin. Aucun ordinateur n’est nécessaire, juste un peu d’imagination et de talent artistique ! Prix : 99$ (73€).

Blog humanoides fr stylo imprimante 3D 3doodler cover

Peluche Furby, un robot qui parle en français

Paresseux, mignons, uniques, les robots Furby ont su conquérir le coeur de millions d’enfants du monde entier, surtout depuis le lancement de la version connectée en 2012. La nouvelle peluche Furby est devenue intelligente grâce aux smartphones. Connectés à une appli, vous pourrez vous occuper de votre Furby, lui donner à manger, le soigner. Chaque Furby est unique et apprend à parler en fonction du niveau d’éducation qu’il reçoit de votre part. Une version française existe désormais. Prix : 60 €.

Blog Humanoides Fr robot Furby Hasbro jouet violet

Sphero 2.0, l’objet connecté qui rend maboule

Piloté à partir d’un smarpthone, Sphero peut s’avérer une arme redoutable pour le jeu et le divertissement, mais pas seulement. Sphero est un objet connecté, de forme sphérique, bourré d’électronique et qui révèle toute sa puissance et son intérêt lorsqu’il est utilisé en groupe, avec plusieurs Spheros. En effet, c’est avant tout un jeu, avec lequel on peut faire la course, jouer au golf, faire un parcours d’obstacles ou inventer un nouveau jeu puisqu’il permet de développer ses propres programmes. Fonctionne en Bluetooth. Prix : 130 €.

humanoides fr sphero test cover

AR.Drone 2.0, le quadricoptère pilotable avec un smartphone

L’AR.Drone, ou l’engin qui révolutionna le monde des quadrirotors en proposant le premier appareil volant pilotable avec un iPhone en Wi-Fi. Il vole, il filme grâce à sa caméra HD Ready des images en 1280×720 pixels, il sait voler en mode pilote automatique. Vous en voulez encore ? L’AR.Drone 2.0 existe en différents coloris, il a une autonomie en vol de 10 minutes, il a traversé le Détroit du Bosphore comme un grand, son pilotage est très intuitif. De nombreuses heures de fun garanties ! Prix : 299 €.

humanoide fr parrot ar drone2 elite edition

Winter holidays are approaching quickly so we need to start planning our shopping budget for the period to come. Of course, some of you might have jumped the gun already, myself included, and started placing orders to avoid inherent delays in deliveries that will usually occur from late November until the end of December. It’s better to be on the safe side, you don’t want to miss shooting that aerial footage of your friends on the ski slope, or maybe program the robot you just built in front of the fireplace, do you?

Robotic Christmas Gifts 2014

Anyway, we have prepared a fresh selection of robotic Christmas gift ideas including kits, toys and gadgets that we found interesting and well suited for your loved ones, friends or colleagues at work. This is by no means ans exhaustive list, if you know about something that would make a good robotic present please feel free to share.

Little Robot Friends

Little Robot Friends are perfect exponents of the newborn maker culture, where everyone can build and customize stuff to their liking. These little guys allow you to give out very customized gifts, potentially making the whole experience more personal.

Created by Canadian based Aesthetec Studio and successfully funded last year, these tiny DIY robots are based on Arduino, which makes them open source and hacker friendly.

Built around the ATMega328p MCU the robots have 2 RGB LED eyes, a speaker for their mouth, their hair is touch sensitive and they also have a microphone to listen. They can sense ambient light and can also communicate with each other via their IR receiver and emitter. Two AAA batteries provide power and everything is placed on a stylish wooden base.

You can buy a DIY kit for US $49.95 and start assembling your robot using a soldering iron. If you want a fully assembled robot to start playing right away it will cost an additional US $25.

Customization is accomplished by touching the robot’s hair leads, and further personality shaping can be accomplished by swapping out different value resistors. A hacker dock can be bought for US $39.95, so you can connect and program your robot via the Arduino IDE.

Ollie

From the same company that created the Sphero robotic ball back in 2010, this year we have Ollie, a connected toy that can perform all kinds of tricks at speeds over 22 km/h (or 14 mph), much faster than the Sphero 2.0 introduced last year. Just like Sphero 2.0, you can control and program Ollie via Bluetooth LE from any iOS or Android smart device.

Shaped like a cylinder with dome bases and profiled tracks on either side, Ollie is geared towards high speed action on most types of terrain, and has a drive time of up to 1 hour on a single charge.

Ollie comes in two themes, the original white and blue which can be bought for US $100, and the all black Darkside edition, which also comes with an additional set of smooth tires and hubcaps for drifting, and can be preordered now for US $150. Accessories for customizing your Ollie are also available.

Parrot Jumping Sumo

Well-known company Parrot introduced this year two very reasonably priced connected toys. The Jumping Sumo mini drone is actually better at jumping and performing tricks on flat surfaces, such as quick turns achieved via differential drive wheels, rather than actually flying.

Jumps can be initiated and optimized for distance or height via the Free Flight 3 app, available for iOS, Android and Windows Phone devices. The robot balances itself thanks to inertial sensors. It can reach ground speeds up to 7 km/h (4.5 mph) and can jump as high as 80 cm (31 inch). The robot is equipped with a 480p video camera for live streaming video at 15 fps over WiFi to your device screen. Drive time is up to 20 minutes and the battery is interchangeable with Rolling spider.

Jumping Sumo is available in 3 color schemes and priced at about US $159.99, and is available at major stores such as Amazon or Apple.

Parrot Rolling Spider

Rolling Spider is a tiny quadcopter drone geared towards all kinds of aerial tricks and stunts. Thanks to the large removable wheels attached on either side of the drone body, there is no damage when smashing into walls or objects, or hitting the ground.

Just like its sibling above, the drone can be controlled and programmed via the Free Flight 3 app, and connects to your smart device via Bluetooth LE, offering a range up to 20 meters (66 feet). The drone has a flight time of up to 8 minutes without wheels, and can reach speeds up to 18 km/h (11 mph).

Rolling Spider is equipped with an array of sensors, including 3-axis gyroscope and accelerometer and even a pressure sensor. It is also equipped with a camera that can take 0.3 megapixel stills (approximately 640×480 resolution).

The drone is available in three color schemes at prices about US $100-130 at major stores.

WheeMe Massage Robot

Here is a robotic gift particularly appealing to the ladies, just lie down on your belly and let the WheeMe massage robot do its job. The robot is able to perform four gentle relaxation massage routines for as long as you like.

It is equipped with a tilt sensor to prevent falling off your back and can also sense when you want to finish the massage. An additional set of moving whiskers can be added for tingly sensations. The WheeMe is available in four colors and can be bought for US $55-70, depending on retailer.

NeuroSky Necomimi Brainwave Cat Ears

The Necomimi brainwave cat ears have been created by NeuroSky, a Japanese company specialized in brain-computer interface (BCI) devices. Introduced in 2012, these wearable cat ears can provide lots of fun to anyone using them, although they would look better if worn by the ladies.

Necomimi Brainwave Cat Ears

These robotic cat ears sense and distinguish between three emotional states of the person wearing them, through an EEG (electroencephalograph) sensor placed on the person’s forehead which reads electrical brain impulses. The motorized ears move upwards if you become attentive to something, they move down if you’re relaxed, and start wiggling if you’re engaged in an activity you like.

The Necomimi can be bought for about US $70 from major retailers. Additional textures and colors are also available for the fluffy ears.

Edison Robotics Platform

Crowdfunded this year, Edison is a very low cost open source robotics platform that is pretty versatile and fun to work with. Aimed primarily at beginners, it can prove itself useful to some extent for more advanced users, therefore this could be a very well suited gift for teenagers passionate about robotics. The platform is compatible with LEGO parts and bits, allowing any degree of expansion.

Edison Robot Platform

The Edison robot is packed with sensors, including a piezo sound sensor, an IR transceiver, light detecting and line tracking sensors. It is built around a Freescale 8 bit MC9S08PA8VLC MCU clocked at 20 MHz, and featuring common interfaces such as I2C or SPI. Its two differential drive wheels set it in motion and 4 AAA batteries are required to power it up.

Read more about Sensors used in Robotics

The EdWare visual IDE is very intuitive and is available for Windows, Mac and Linux. Edison can be programmed to detect obstacles or follow a line, it can be controlled with standard TV remotes, or communicate with other Edisons via IR, and more.

An Edison kit can be preordered for as low as US $33.80 with shipping expected to start in December this year.

Aisoy1 Emotional Robot

Aisoy1, now at its 4th revision, is an emotional social robot kit which is aimed primarily at educators and makers who are taking their first steps towards social robotics. It is able to learn based on interactions, it can talk, and recognize faces on its own. Powered by Raspberry Pi running Airos1 v4, the robot is fully open source and represents affordable platform for future development.

Read more about Aisoy1 emotional robot

Online resources are readily available for you to start playing or programming this robot, which doubles as a pet. The kit comes in two flavors, unassembled or ready to run, starting with 249 Euro, or about US $310.

LEGO Mindstorms EV3

LEGO Mindstorms EV3

The Mindstorms EV3 robotic kit from LEGO introduced last year is among our favorites when it comes to development platforms, allowing for virtually endless creativity and fun. This could be an excellent robotic gift for children and adults alike, and can prove itself to be a very versatile building foundation for educators and hobbyists.

Huge well-established LEGO communities exist online, offering countless amounts of resources for all areas, including building, programming, hacking, you name it, not to mention festivals and gatherings of LEGO fans in real life.

The Mindstorms EV3 #31313 kit includes over 600 building parts, including an Intelligent Brick main control unit, 3 interactive servo motors — 2 large, 1 medium sized, 4 sensors — color, touch, IR sensor and beacon. The unit is backward compatible with most Mindstorms NXT sensors and motors and communication is also possible.

The Intelligent Brick is powered by an ARM9 MCU clocked at 300 MHz, SD card slot and USB 2.0 communication. Up to 4 EV3 bricks can be interconnected via USB and optional WiFi dongles are available. The unit is equipped with 4 A/D input ports and 4 output ports and an illuminated monochrome 179×128 display.

The EV3 Brick can communicate with any iOS, Android or Windows Phone device, a wide selection of apps being available. The visual IDE, available for Windows and Mac, has been developed in partnership with LabView and is very intuitive and powerful.

The Mindstorms EV3 kit is available at any major retailer at prices around US $350 or about 270 Euro.

Rover 2.0 Wireless Spy Tank

Rover 2.0 Wireless Spy Tank

The Rover 2.0 wireless spy tank from Brookstone is another very appealing connected toy for the children, and can be remote controlled from any device running iOS or Android. The robot tank is equipped with a tilting 0.3 megapixel camera which can capture 320×240 footage at 25 fps, a microphone and a 850nm laser light for night vision. Captured videos or photos can be immediately uploaded to Facebook, YouTube or e-mail.

The robot features WiFi connectivity, tracks with good grip and is powered by 6 AA batteries included in the package. It can be bought for prices around US $100.

WowWee RoboMe for iPhone

WowWee RoboMe for iPhone

RoboMe is a very likable robotic companion for children that harvests the power of your iPhone or iPod touch to perform various tasks. The 40cm tall robot is equipped with a range of sensors to navigate freely in the environment, and can also be operated without an iPhone, although with limited functionality.

The robot is capable of voice recognition, speech synthesis, face tracking and detection and can also act as a telepresence robot via the Robo Eye Merge app. RoboMe is a very affordable robotic toy that can be bought for around US $85.

WowWee Robosapien X

WowWee Robosapien X

Robosapien X was introduced last year and is an upgraded version of the original highly awarded Robosapien robot toy. The robot can be remote controlled with the included IR remote or via the RoboRemote app from any mobile device running iOS and Android with the included IR dongle attached.

The robot can run, walk, turn and perform several moves. Its hands are equipped with 2 types of grippers, it has over 60 pre-programmed functions and it can also be programmed with additional routines by remote control. It also has touch and sound sensors.

Robosapien X can be bought for prices around US $80.

Genibo SD Robot Dog

The Genibo robot dog is a highly advanced autonomous robot created by the well known company Dongbu Robot, the same company that created the HOVIS Eco humanoid robot. Genibo-SD is an extensive upgrade of the original Genibo QD, which first surfaced back in 2008.

Genibo is a robotic bull terrier that does everything a family pet should do, and more. It has personality thus it acts on its own, and craves for affection of anyone around it. It is packed with touch sensors all over its body, it features vision and voice recognition, and it can also determine and follow sound sources. Its legs have 6 DOF and are motorized by the advanced HerkuleX servos. The robot also has WiFi connectivity, a SD card slot and a 2600 mAh battery.

Genibo is not cheap, it can be bought for approximately US $1,700, depending on the retailer.

Voice Activated R2-D2

Voice Activated R2-D2

The voice activated R2-D2 is a toy robot aimed at children aged 8 and up or die-hard Star Wars fans, since it is also a pretty high quality replica of the famous robot. The 38 cm tall robot (15 inch) recognizes and responds to over 40 voice commands. It is equipped with IR sensors and a sonar so it can also drive around the house autonomously or follow you like a faithful sidekick, and it can even play games.

As we said all functions, including light, games, follow and so on are accessible via voice commands. The R2-D2 knows to play tag or spin the droid, guard your room and sense presence via a motion detector and its microphones, and it can dance accompanied by the famous cantina music. All routines have several variations depending on R2-D2’s mood. The robot is also equipped with an utility arm, making it useful for delivering beverages for instance.

The voice activated R2-D2 can be bought at prices around US $200-230, depending on retailer.

Grillbot Grill Cleaning Robot

Grillbot Automatic Grill Cleaning Robot

The Grillbot grill cleaning robot introduced this year is designed to spare you from the burden of cleaning the grill after that awesome barbecue party you just had. The robot is equipped with an internal rechargeable battery and 3 brass brushes. It can be easily programmed for any amount of cleaning time, in 10 minute increments.

This household robot is available at prices of US $100-130, depending on retailer, and accessories, such as optional stainless steel brushes and a carrying case are also available.

We hope that this lineup will help you a bit in choosing what presents you will buy this year, if you stumble upon any robot or gadget you find interesting please feel free to share!
Read more at http://www.smashingrobotics.com/top-robotic-christmas-gift-ideas-2014/#IU57E3VT5lWgSmXe.99

Soubrobotte : quand le désir en coupe coupe le désir

Capture d’écran 2014-12-19 à 22.06.19

Initialement connu pour ses recherches sur l’intelligence artificielle appliquées aux jeux d’échec ou aux chatbots, David Levy jouit d’une notoriété bien plus grande encore depuis la publication, en 2007, d’un ouvrage intitulé « Love and sex with robots », dans lequel il prévoit que les relations sexuelles entre les humains et les robots devraient advenir et se généraliser dans un futur proche (http://www.theguardian.com/technology/2009/sep/16/sex-robots-david-levy-loebner). Et de fait, les progrès de différents secteurs de la recherche appliquée offrent un socle réaliste à ce type de prédiction, qu’il s’agisse de la création d’émotions ou de personnalités artificielles, de la production d’épidermes synthétiques, du réalisme croissant des artefacts humanoïdes notamment. On peut ajouter à cela que les facteurs sociaux eux-mêmes rendent crédibles ce scénario, avec l’augmentation du taux de divorces et des situations de célibat prolongé chez les 18-34 ans, un économiste japonais ayant même proposé d’instituer une taxe pour les individus au physique avenant comme mécanisme incitatif au mariage (http://archive.francesoir.fr/actualite/societe/apon-taxer-les-beaux-celibataires-pour-augmenter-le-nombre-de-mariages-218055.html).

Quoiqu’il en soit, le scénario prospectif de Levy semble avoir inspiré artistes et designers puisqu’un article daté de ce jour met en scène, avec un certain réalisme, l’anatomie intérieure d’une « soubrobotte », robot destiné à un commerce qu’on hésitera à qualifie de charnel, tant le plastique, l’électronique et les éléments mécaniques l’emportent dans cette vue en coupe de la créature.

0_pe

http://www.tomsguide.fr/actualite/soubrobotte-robot-sexuel,45945.html

Cette anatomie fonctionnelle en coupe, qui n’invite guère à l’exaltation du désir, prend en quelque sorte à « contre-pied » – ne pas prendre son pied, n’est-ce pas prendre à contre-pied ?! – les thèses défendues par Donna Haraway dans son célèbre manifeste sur les cyborgs et les femmes (nous laisserons de côté les singes qui figurent également en bonne place dans l’ouvrage en question). Si les cyborgs actualisent chez Haraway, par leur nature hybride, la possibilité d’une déconstruction et d’un renversement des rôles assignés et des rapports de domination parce qu’ils « rendent très problématiques les statuts de l’homme, de l’humain, de l’artefact, de la race, de l’entité individuelle ou du corps » (Haraway, Des singes, des cyborgs et des hommes. La réinvention de la nature, Chambon, 2009, p. 315), il est assez visible que la « soubrobotte » s’apparente plus à la machine animée, à un automate destinés à satisfaire le désir phallocentrique, qu’à un cyborg contribuant à déconstruire l’image de la corporéité féminine comme « innée, organique, nécessaire » (Haraway, p. 319).

Dans un article à suivre, je montrerai pourtant comment la sexualité robotique, ou plus exactement les nouvelles formes de compagnonnage sexuels entre humains et robots, contribuent à la déconstruction des tropes sur l’amour, la fidélité, l’émotion et les affects, le plaisir et le désir, et inaugurent une série véritablement troublante d’interrogations juridiques inédites sur la conjugalité.

Le mystère du robot inconnu enfin résolu !

robots-music-lp-sidea

Voici plusieurs années, j’avais proposé à mes étudiants de master de recueillir des matériaux permettant d’esquisser une socio-histoire de la genèse du rock, en prenant pour terrain exploratoire la ville d’Avignon. Certains d’entre eux avaient choisi d’étudier la presse locale, les bornes temporelles fixées par convention correspondant aux années 1950-1960. Cette collecte se révéla féconde, la presse commentant abondamment l’irruption d’un genre musical et d’un style de vie qui, peu à peu, témoignaient de l’autonomisation de la jeunesse. Je ne commenterai évidemment pas ici les principaux résultats que ces travaux – souvent remarquables – mirent en évidence, mais je voudrais attirer l’attention des lecteurs de ce blog sur une photographie relativement insolite et qui n’a, depuis, cessé de m’intriguer, pour ne pas dire de me hanter.

Capture d’écran 2014-12-11 à 22.11.30

Publiée à la Une du Dauphiné Libéré du 08 mars 1954 cette photo est  exceptionnelle par le sujet qu’elle met en scène. Intitulée sobrement « Orchestre de robots », elle met à l’honneur la création d’un ingénieur belge nommé Zenon Specht. Interrogés sur l’origine de cet orchestre, mes collègues spécialistes de l’histoire du rock se perdirent en conjectures. Aussi avions-nous fini par abandonner tout espoir de retrouver la trace de cet orchestre et nous étions-nous plutôt concentré sur les enseignements épistémologiques de cette trouvaille iconographique à la signification irrésolue : lorsqu’on regarde cette photo, au premier regard, une iconologie du rock semble évidente. Elle est induite par la posture, le cadrage, l’assimilation d’une technicité ultramoderne à la culture, la guitare, centrale dans la composition. Avec un peu d’imagination ou un sens herméneutique hypertrophié, on peut même envisager cette photo comme une métaphore de la contamination précoce du rock par l’esprit du capitalisme…  Mais ici apparaît la limite de la posture du chercheur, qui observe rétrospectivement les phénomènes sociaux et cherche à en interpréter les traces, et ce fut la leçon principale que j’en tirais auprès de mes étudiants.

J’avais depuis non pas oublié cette photo, mais du moins m’étais-je résolu à ne pouvoir en percer l’énigme. Jusqu’au jour récent où, repensant à cet orchestre robotique, je décidai d’explorer à nouveau le web. Et quelle ne fut pas ma surprise de découvrir non seulement un site dédié aux robots-musiciens (https://continuo.wordpress.com/2011/07/18/les-robots-music-vol-1/) – l’orchestre de Zenon Specht n’était donc pas unique – mais aussi une vidéo mise en ligne en aout 2013 où l’on voit se produire les fameux robots en ferraille.

La scène ne dure que 7 petites secondes, mais, comme l’écrit un archiviste passionné sur un second site consacré aux robots musiciens dans les 50’s, « cela suffit pour hanter vos nuits ». En outre, il est frappant de constater à quel point ces robots s’inscrivent visuellement dans un imaginaire graphique qui rappelle celui des cartoons ou encore des films hollywoodiens de l’époque (http://seductionoftheindifferent.blogspot.fr/2007/07/comic-book-robot-design-in-40s.html). Mais de quoi – ou de qui ?- s’agissait-il au juste ?

The Trio Fantastique — made up of guitarist Wink, drummer Blink and saxophonist Nod — was the creation of a Belgian engineer with the Scifi name of Zenon Specht. The robot band was a feature of Antwerp’s Robot Club, but also appeared in fairs and made a tour of department stores in Paris and Lens, France in 1954 and 1959. Inspired by a number of robot musicians that had sprung up around the world following the war, Specht’s band was operated by piano roll technology, where a punched paper tape controlled electric switches that in turn controlled the operation of the band. The Trio’s repertoire included not only bebop but jazz, tangos and classical tunes as well. Anything, in fact, could be on the club’s dance program so long as it had been recorded on a paper tape. Although one news report suggested that the robots only pantomimed to music being played on a hidden record player, it would appear that Wink, Blink and Nod really did play their instruments (though when Nod introduced the songs, his voice was surely pre-recorded). Robot Club customers got three songs for a nickel. When the robots were done, they sat down. When another nickel was fed to them, the trio got up and swung out three more numbers. According to a contemporary news item, although the trio is « somewhat mechanical in their endeavors » it does manage to produce « faultless dance music. » It was certainly good enough music for the dancers in the Belgian night club

(http://io9.com/meet-the-retro-robot-band-from-the-fabulous-50s-1554703584)

Et il semble bien que cette présence des robots dans des orchestres aient connu de nombreux développements :

In the US, after audio animatronics examples implemented in Walt Disney theme parks during the 1960s, Chuck E. Cheese‘s terrific Pizza Time Theatre orchestra opened in San Jose, California in 1977. Active between 1977 and 1984 in various Chuck E. Cheese pizza-and-arcade parlors, the Pizza Time Theatre was conceived by Atari founder Nolan Bushnell and consisted of the following characters: Chuck E. Cheese and Helen Henny on vocals, Mr. Munch on keyboards, Jasper T. Jowls on guitar and Pasqually on percussion and accordion. Note, at the beginning, Chuck E. Cheese performed while smoking a cigarette.

Chuck E. Cheese’s main competitor was Aaron Fechter‘s Rock-Afire Explosion, an animatronic robot band playing rhythm and blues and rock’n’roll in Showbizz Pizza Place restaurants, active between 1980 in 1992. Created by Aaron Fechter and his company Creative Engineering, Inc. in Orlando, Florida, the life-sized characters wore animated latex masks and were partially computer controlled. They move in synch with whatever track is played but don’t produce sound themselves. Rock-Afire and Pizza Time Theatre eventually merged in 1984.

To no surprise, the French animatronic orchestra Les Robots-Music created by Edouard Diomgar during the 1950s are closer to the Trio Fantastique than Rock-Afire Explosion. An ex-POW in Germany during WWII, Diomgar was an engineer willing to raise money for his ex-POWs relief foundation (whose logo can be seen on the bass drum). During the 1950s and 1960s, he exhibited his robots trio at fun fairs, open air markets or train stations in France. The trio consisted of Ernest, a saxophonist, Oscar, an accordionist and Anatole, the drummer, each playing real, traditional instruments. Automatically synchronized, the bots’ movements are impulsed by photoelectric cells reading punch cards, sending information to arms and fingers via electromagnetic action. Most importantly, the robots actually produce music from their instruments, contrary to playback systems in US animatronic. Only the sound of the saxophone is replaced by what sounds like a mechanical Ondioline. Their repertoire includes everything from French musette accordion and popular songs, twist and rock’n’roll numbers from the 1960s, US musicals (#1, Leonard Bernstein) or jazz (#6, Sidney Bechet). On other discs – there were four LPs by Les Robots-Music released in the late 1960s and 1970s – they also cover waltzes by Johann Strauss or French operetta. Les Robots-Music were exhibited during an all-robot show in Berlin’s Museum für Kommunikation in 2007 – some pictures on this Flickr page.

(https://continuo.wordpress.com/2011/07/18/les-robots-music-vol-1/

Finalement, plusieurs années après avoir découvert la photo de l’orchestre de robots belges dans un article du Dauphiné Libéré, l’énigme est résolue et il est même possible de donner un nom à chacun des musiciens de métal. J’ignore s’il existe des interviews des concepteurs de ces orchestres de robots, mais de tels documents constitueraient un matériau de première importance, à la fois pour les historiens du rock et pour les historiens de la « robotique culturelle ». S’ouvre donc ici un vaste champ à explorer, sur l’imaginaire et les représentations robotiques dans les différents champs culturels, notamment la BD et le cinéma, mais aussi et plus spécifiquement sur la présence des robots dans l’univers musical, du Trio fantastique en passant par Kraftwerk et autres artefacts contemporains…

657415743812058184

Capture d’écran 2014-12-11 à 23.40.55