Industrie touristique et recherches scientifiques : des robots dans les musées (4)

Depuis quelques billets, nous avons entrepris de recenser au fil de l’actualité les modes d’existences robotiques au sein des institutions muséales. Une typologie commence à s’esquisser entre les robots-artistes, les robots-commissaires et les robots-médiateurs. Cette dernière catégorie apparaît d’ailleurs comme un champ privilégié d’expérimentations pré-industrielles : en Angleterre, des designers ont imaginé avec l’appui du RAL Space un robot pour visiter en nocturne les galeries de la Tate Britain ; en France la société française AWAbot associée à la société américaine Beam Pro a investit les grands établissements publics culturels (le Grand Palais, la Cité des Sciences, le Musée Gallo-Romain de Lyon) et vient de signer un contrat avec le musée d’art de la ville d’Autun ; toujours en France, la société Droïds Company a conçu un robot pour visiter le château d’Oiron  ; en Italie, le CRAB (Connected Robotics Applications Lab), un laboratoire de Telecom Italia a mis au point le robot Virgil afin de visiter des lieux habituellement inaccessibles du château de Racconigi.

Ces projets rediscutent les dimensions temporelles et spatiales des musées : ils proposent en effet une expérience à distance des lieux de l’art en insistant soit sur la dimension ubiquitaire soit sur la capacité à montrer des lieux inaccessibles pour le grand public en temps normal (heures d’ouverture, collections précieuses…). Ces projets préfigurent donc un nouveau type de tourisme culturel à distance via de nouveaux opérateurs qui feront l’interface entre la location des robots, les offres des musées et la formation de nouveaux médiateurs humains. Mais les lieux de l’art et de la culture sont aussi le terrain propice d’expériences scientifiques en vue de développer les capacités des robots.  C’est le cas du robot Berenson développé par Denis Vidal et Philippe Gaussier dans le cadre de recherches conduites au musée du Quai Branly depuis 2012 :

Le but de ce projet de recherche, en immergeant un robot au sein de notre espace de collections, est non seulement de travailler sur un modèle d’apprentissage de l’émergence d’une forme d’Esthétique Artificielle (EA) dans une machine mais aussi d’interroger d’un point de vue anthropologique le regard que l’on peut porter sur les collections du musée.

Ce robot doit son nom à l’historien de l’art Bernard Berenson, spécialiste de la Renaissance italienne. L’article « Un robot comme personne » publié en 2012 par Denis Vidal et Philippe Gaussier fait le point sur cette recherche et permet notamment de découvrir un formidable documentaire où l’on découvre le robot en action dans les salles du musée du Quai Branly. Un robot amateur d’art dans un lieu d’art va de soi mais la présence d’un robot-infirmier peut interroger. C’est pourtant ce qui s’est passé du 9 au 13 juin 2014 au musée d’histoire naturelle de Londres avec Linda un robot-infirmier qui a vu le jour à l’école d’informatique de l’université de Lincoln.

Linda est conçu pour fonctionner de façon indépendante non seulement pour créer des cartes 3D de sa zone de fonctionnement, mais aussi de les mettre à jour en permanence pour prendre en compte la façon dont elles changent. En étudiant constamment les formes, les gens, et les activités , Linda peut construire des modèles et «apprendre» d’une zone, car il identifie les changements et modifie son comportement pour les prendre en compte*.

La vidéo ci-dessous permet de voir en situation le robot Linda :

Outre la transmission d’un héritage culturel et la fabrication d’une culture commune, le musée est en train de devenir un terrain d’apprentissage et de démonstration des robots. C’est du moins l’intention de Marc Hanheide, le chef de projet du robot Linda :

Nous essayons de permettre aux robots d’apprendre de leur expérience sur du long terme et de leur perception sur le déroulement de leur environnement au fil du temps. Il aura de nombreuses applications possibles et placer Linda dans le Musée d’Histoire Naturelle est une opportunité fantastique pour les gens afin de voir comment les robots comme celui-ci, un jour, pourrait être en mesure d’aider et d’assister les humains dans une variété de tâches. *

Note : les  citations marquées par un * sont extraites de l’article « Le robot Linda va rencontrer le public au musée d’histoire naturelle de Londres » publié sur le site http://www.infohightech.com.

Publicités

Spermbots ou spermboats ? : de l’usage des nano-robots dans la procréation…

tumblr_ngyjfeA6MO1tmtotmo1_1280

Copyright : Patricia Bastit (https://www.tumblr.com/register/follow/365robot)

La « nature » est une notion profondément ambiguë, comme le montrent de nombreux travaux – parmi lesquels ceux de Latour, Descola, Haraway – qui bâtent en brèche l’idée d’un « grand partage » (http://www.bruno-latour.fr/sites/default/files/15-GRAND-PARTAGEpdf.pdf) entre les deux termes autour desquels s’organise traditionnellement la coupure dualiste « nature vs culture ». En effet, pas plus qu’on ne saurait opposer une nature « originelle » où – selon un bon mot – la main de l’homme n’aurait jamais mis les pieds à une civilisation marquée par l’emprunte de la technologie, on ne peut rigoureusement disjoindre les prétendus « modernes » des « bons sauvages », la pensée rationnelle et l’esprit chamanique, les concepts et les croyances, les savants doués d’objectivité et les ensorcelés du bocage mayennais étudiés par Favret-Saada ou encore les témoins d’apparitions extra-terrestres pris au sérieux par Pierre Lagrange (http://home.nordnet.fr/~phuleux/reprendr.htm). Dans une telle optique, le corps peut-il être sérieusement considéré comme une expression de la « nature », une sorte de donné pré-technologique, pré-capitaliste, pré-civilisationniste qui exprimerait son « naturel » dans la santé et les maladies, la sexualité, etc. ? La réponse est bien entendu négative. Qu’on se place du côté de la bio-politique (Foucault) ou de la sociobiologie (Haraway), il est clair que le corps est en permanence « travaillé » par le social : le corps des pauvres n’est pas celui des riches du point de vue de la santé ou aujourd’hui de la chirurgie esthétique ; le corps physique et la force de travail ont fait l’objet – en lien avec l’industrialisation et le développement du capitalisme – de visées particulières ; la médecine comme « savoir-pouvoir (Foucault) a « découpé » le corps et énoncé des symptomatologies, de même que l’appareil d’état contrôle et régule le sexe, les naissances, la mort (voir sur la notion de biopolitique et son abandon progressif chez Foucault, Bernard Andrieu : http://leportique.revues.org/627). Le corps est donc le réceptacle d’intimations sociales et institutionnelles, de hiérarchies, de pouvoirs, de modes de gouvernance, de transformations et d’avancées médicales, sanitaires, hygiénistes. A cet égard, et sans aller jusqu’à évoquer ici les théories post ou trans-humanistes qui se multiplient et qui attestent à la fois de la composante hybride du corps mais aussi, sur un versant plus idéologique, d’une possible réorientation du social par un interventionnisme prothétique censé maximiser les potentialités de l’humain, on notera que les robots peuvent aujourd’hui intervenir sur une dimension du corps qui semblait encore peu ou prou échapper aux artefacts : les spermatozoïdes, désormais assistés par des « spermbots ».

L’avantage de cette technologie est qu’elle semble répondre à un défi complexe : introduire dans le corps des nano-robots thérapeuthiques en utilisant une force motrice naturelle, la flagelle des spermatozoïdes. Si j’avoue être incapable de tirer la moindre leçon éthique, anthropologique ou sociologique de cette nouvelle expérimentation, du moins m’a t-elle immédiatement évoqué le film de Richard Fleischer, Le voyage fantastique (1966), vu en noir et blanc sur un téléviseur d’un autre temps… Quant à savoir si les spermbots constituent un nouvel appareillage bio-politique, c’est là une question que je ne trancherai pas…

How do you control a spermbot? Try a magnetic field

TAKE bull sperm, mix in some nanotubes, and what do you get? Why the very first spermbot, of course. Eventually, these biobots could be used to shepherd individual sperm to eggs or to deliver targeted doses of drugs.

Oliver Schmidt and colleagues at the Institute for Integrative Nanosciences in Dresden, Germany, combined individual sperm cells with tiny magnetic metal tubes to create the first sperm-based biobots.

It is far from easy to control a single cell that propels itself through fluid with its whip-like flagellum. Until now researchers had only managed to persuade groups of cells to cooperate, with the help of chemical gradients and magnetic fields. For example, a group of bacteria were used to push a tiny bead along.

To create the spermbots, the team made microtubes 50 microns long, by 5 to 8 microns in diameter from iron and titanium nanoparticles. They added the tubes to a fluid containing thawed bull sperm. Because one end of each tube was slightly narrower than the other, sperm that swam into the wider end become trapped, headfirst, with their flagella still free.

To control the orientation of the microtubes, the team used external magnetic fields. It works much as a compass needle aligns with Earth’s magnetic field. This enabled the team to control the direction in which the sperm swam (Advanced Materials, doi.org/f2n46m).

Schmidt says that sperm cells are an attractive option because they are harmless to the human body, do not require an external power source, and can swim through viscous liquids.

« This type of hybrid approach could lead the way in making efficient robotic micro-systems, » says Eric Diller at the University of Toronto, Canada, although it is hard to get micro-robots to swim as fast as biological cells.

This article appeared in print under the headline « How do you control a spermbot? Stick its head in a tube »

« Petit papa Noël, quand tu descendras du ciel, avec tes robots par milliers… »

robot_utilisant_le_chapeau_de_pere_noel_tapis_souris-rd22381bf8aab4788b012e656a669de38_x74vi_8byvr_324

En ce jour de réveillon, considérant qu’on n’est jamais mieux servi que par soi-même, je me suis rendu dans une librairie de ma ville et me suis offert un merveilleux cadeau de Noël : le dernier ouvrage de Philippe Descola, une série d’entretiens avec Pierre Charbonnier, intitulés La composition des mondes, et édités par Flammarion. Descola étant l’anthropologue français contemporain vivant le plus connu, je ne ferai pas injure au lecteur en prétendant présenter ici ses travaux. Un point qui m’intéresse tout particulièrement chez Descola, sous-tendu par l’idée centrale selon laquelle la conception occidentale du monde et de la mise en relation des êtres qui y a cours n’est que « l’expression particulière d’un système d’objectivation du monde » (p. 280), concerne l’intérêt accordé aux « non-humains critiques » (…) qui est « une façon de parler du destin commun des choses et des hommes dans un monde où leur partage n’a plus de sens, et qui impose de repenser leur existence collective » (p. 281). Bien que Descola, à ma connaissance, n’évoque pas directement leur exemple, on imagine volontiers que les robots, par leur capacité à introduire du trouble dans l’ontologie, comptent parmi les « non humains critiques ». L’idée est en tout cas présente chez deux auteurs qui se sont directement inspirés de Descola – Denis Vidal et Philippe Gaussier – et qui montrent comment, à l’occasion d’une exposition organisée au Quai Branly où un robot humanoïde se mêle et interagit avec le public, est posée in situ et sur un mode ethnographique la question des frontières entre l’homme et la machine et plus précisément du type de prise et de considération ontologique qu’un robot humanoïde peut susciter chez l’humain (http://terrain.revues.org/15396). Joffrey Becker a pour sa part montré, dans un article documenté sur le caractère « humanoïde » des robots (http://joffrey.becker.free.fr/pdf/Robot-Chimere_JB.pdf), comment les interactions entre les humains et ce type de robots donnait lieu à une « attribution de subjectivité à ces objets techniques » (p. 5) et comment les robots humanoïdes, précisément parce qu’ils passent pour des « sortes d’anomalies taxinomiques » (p. 8), des entités ontologiquement discontinues, constituent de formidables supports projectifs d’imputation de caractéristiques humaines. Un des traits remarquables de l’étude menée par Becker a d’ailleurs été d’observer, sur un mode ethnographique, la façon dont les concepteurs de ces robots choisissaient de les anthropomorphiser.

Quoiqu’il en soit, et pour en revenir aux célébrations festives de cette fin d’année, je me suis demandé si les robots peuplaient désormais la hotte du Père Noël tout comme les trains électriques ou les circuits Scalextric (dont j’ai découvert qu’ils existaient dorénavant en version digitale !) habitaient jadis nos rêves enfantins. Au vue des quelques éléments présentés ci-dessous, il semble bien que oui. Désireux d’en savoir un peu plus, j’ai décidé de comparer le top ten des robots recommandés pour Noël en France et dans les pays anglophones en cette fin d’année 2014 pour voir si des différences culturelles faisaient jour. Il apparaît à première vue que de part et d’autre de la Manche (ou de l’Atlantique), plusieurs traits constants s’imposent :  1/ l’apprentissage à la programmation, à l’aide d’interfaces intuitives et 2/ le pilotage des robots à l’aide des téléphones portables. Reste une différence majeure entre nos deux aires culturelles, que la comparaison des top ten rend particulièrement visible : chez nos voisins anglophones, il existe un intérêt marqué pour 1/ les robots capables d’accomplir des tâches domestiques telles que le nettoyage du four de cuisine, et d’autre part, 2/ des robots capteurs d’émotions aux robots massant le corps, le souci de soi délégué aux artefacts y semble bien plus répandu.

Certes, il serait périlleux de tirer la moindre leçon générale de cette comparaison rapidement menée, mais du moins voit-on que si les robots peuplent traditionnellement un imaginaire fictionnel littéraire et cinématographique, ces derniers semblent aujourd’hui également destinés à habiter massivement la hotte du Père Noël, signe probable d’une promotion nouvelle de ce type d’entité au rang d’objet désirable, désir sur lequel les psychanalystes auraient sans doute beaucoup à dire.

Liste des dix robots à offrir à Noël

(http://www.humanoides.fr/liste-des-dix-robots-a-offrir-a-noel/)

anki_driveVous cherchez des idées cadeaux pour Noël ? Et pourquoi pas offrir un robot cette année ? Il en existe plein, pour tous les goûts et dans des fourchettes de prix raisonables. Nous vous proposons ci-dessous une liste des 10 robots qui feront plaisir pour Noël.

Cette liste s’adresse plutôt à la jeune génération, comprise entre 5 et 25 ans. Les objets proposés sont orientés divertissement, du robot de compagnie aux objets connectés en passant par les petits robots à programmer. Pour ceux que l’impression 3D intéresse, la liste comprend un stylo qui imprime des objets en 3D !

Les prix de cette sélection de robots sont compris entre 8,55 € et 299 €.

Robot Fish, un poisson pas comme les autres

Le Robo Fish, le poisson que tous les enfants s’arrachent. Débarqué en France au mois de mars, il est devenu en l’espace de quelques mois l’un des jouets préférés des français. Plongez-le dans l’eau et le robot poisson se mettra à naviguer aléatoirement pendant environ deux heures. Existe en deux modèles et en plusieurs coloris. Prix : à partir de 8,55 €.
D
humanoides fr robot fish jouet electronique 3

Smartbot Mk2, le fidèle robot compagnon de votre smartphone

Smartbot est un robot mobile, programmable et contrôlable via smartphone. Conçu par des français, c’est une station multifonction, idéale aussi bien pour le divertissement, la prise de vue ou la programmation robotique. Au look sympa, il se servira de la puissance de votre smartphone comme intelligence. Existe en 3 coloris. Prix : 180 €.

humanoides fr smartbot overdrive robotics 4

Bero, un robot de compagnie open-source

Bero est un petit robot open-source communiquant par Bluetooth avec un téléphone mobile. Un concentré de technologie dans seulement 10 centimètres de hauteur ! Les amateurs de bidouillage pourront le programmer à souhait puisqu’il est livré avec une appli opensource sous Android (et bientôt iOS). Prix : 149$ (110 €) ou 179$ (132€).

humanoides fr robot bero opensource telephone mobile 3

Battroborg, des combats de robots chez vous

Les Battroborgs sont des figurines robots que l’on contrôle à l’aide de manettes et que l’on fait s’affronter sur un ring. La télécommande sans fil se synchronise en temps réel avec les mouvements des bras des joueurs. De bonnes parties en perspective ! Prix : 40 € par robot

humanoides fr battroborg ring

I-Play, des robots éducatifs pour apprendre la programmation aux plus jeunes

Apprendre à programmer dès son plus jeune âge tout en s’amusant. Voilà le défi relevé par les robots Yana et Bo. Sous forme d’histoires et de défis à relever, l’enfant va programmer ces robots via une appli très intuitive, compatible avec un appareil iOS, téléphone ou tablette. Deux modèles de robots. Prix : 49$ (36€) et 149$ (110€).

humanoides fr play i robots programmables yana bo 6

Romo, support mobile de compagnie

Romo est ce que l’on appelle une station mobile pour la téléprésence. L’utilisateur le pilote à distance à partir d’un smartphone et peut servir dans différentes situations : converser avec quelqu’un à distance, faire de la télésurveillance, participer à une réunion en télétravail… à adapter selon ses besoins. En plus des fonctions de navigation, il est capable de détecter des visages. Prix : 150$ (110 €).

Blog Humanoides Fr robot telepresence Romo romotive CES 2013 pic11

3Doodler, comment fabriquer des objets avec un stylo

Le 3Doodler permet de dessiner des objets solides en trois dimensions. Il se présente sous la forme d’un stylo, que l’on alimente avec du fil plastique ABS ou PLA qui va chauffer puis se durcir au fur et à mesure de la progression du dessin. Aucun ordinateur n’est nécessaire, juste un peu d’imagination et de talent artistique ! Prix : 99$ (73€).

Blog humanoides fr stylo imprimante 3D 3doodler cover

Peluche Furby, un robot qui parle en français

Paresseux, mignons, uniques, les robots Furby ont su conquérir le coeur de millions d’enfants du monde entier, surtout depuis le lancement de la version connectée en 2012. La nouvelle peluche Furby est devenue intelligente grâce aux smartphones. Connectés à une appli, vous pourrez vous occuper de votre Furby, lui donner à manger, le soigner. Chaque Furby est unique et apprend à parler en fonction du niveau d’éducation qu’il reçoit de votre part. Une version française existe désormais. Prix : 60 €.

Blog Humanoides Fr robot Furby Hasbro jouet violet

Sphero 2.0, l’objet connecté qui rend maboule

Piloté à partir d’un smarpthone, Sphero peut s’avérer une arme redoutable pour le jeu et le divertissement, mais pas seulement. Sphero est un objet connecté, de forme sphérique, bourré d’électronique et qui révèle toute sa puissance et son intérêt lorsqu’il est utilisé en groupe, avec plusieurs Spheros. En effet, c’est avant tout un jeu, avec lequel on peut faire la course, jouer au golf, faire un parcours d’obstacles ou inventer un nouveau jeu puisqu’il permet de développer ses propres programmes. Fonctionne en Bluetooth. Prix : 130 €.

humanoides fr sphero test cover

AR.Drone 2.0, le quadricoptère pilotable avec un smartphone

L’AR.Drone, ou l’engin qui révolutionna le monde des quadrirotors en proposant le premier appareil volant pilotable avec un iPhone en Wi-Fi. Il vole, il filme grâce à sa caméra HD Ready des images en 1280×720 pixels, il sait voler en mode pilote automatique. Vous en voulez encore ? L’AR.Drone 2.0 existe en différents coloris, il a une autonomie en vol de 10 minutes, il a traversé le Détroit du Bosphore comme un grand, son pilotage est très intuitif. De nombreuses heures de fun garanties ! Prix : 299 €.

humanoide fr parrot ar drone2 elite edition

Winter holidays are approaching quickly so we need to start planning our shopping budget for the period to come. Of course, some of you might have jumped the gun already, myself included, and started placing orders to avoid inherent delays in deliveries that will usually occur from late November until the end of December. It’s better to be on the safe side, you don’t want to miss shooting that aerial footage of your friends on the ski slope, or maybe program the robot you just built in front of the fireplace, do you?

Robotic Christmas Gifts 2014

Anyway, we have prepared a fresh selection of robotic Christmas gift ideas including kits, toys and gadgets that we found interesting and well suited for your loved ones, friends or colleagues at work. This is by no means ans exhaustive list, if you know about something that would make a good robotic present please feel free to share.

Little Robot Friends

Little Robot Friends are perfect exponents of the newborn maker culture, where everyone can build and customize stuff to their liking. These little guys allow you to give out very customized gifts, potentially making the whole experience more personal.

Created by Canadian based Aesthetec Studio and successfully funded last year, these tiny DIY robots are based on Arduino, which makes them open source and hacker friendly.

Built around the ATMega328p MCU the robots have 2 RGB LED eyes, a speaker for their mouth, their hair is touch sensitive and they also have a microphone to listen. They can sense ambient light and can also communicate with each other via their IR receiver and emitter. Two AAA batteries provide power and everything is placed on a stylish wooden base.

You can buy a DIY kit for US $49.95 and start assembling your robot using a soldering iron. If you want a fully assembled robot to start playing right away it will cost an additional US $25.

Customization is accomplished by touching the robot’s hair leads, and further personality shaping can be accomplished by swapping out different value resistors. A hacker dock can be bought for US $39.95, so you can connect and program your robot via the Arduino IDE.

Ollie

From the same company that created the Sphero robotic ball back in 2010, this year we have Ollie, a connected toy that can perform all kinds of tricks at speeds over 22 km/h (or 14 mph), much faster than the Sphero 2.0 introduced last year. Just like Sphero 2.0, you can control and program Ollie via Bluetooth LE from any iOS or Android smart device.

Shaped like a cylinder with dome bases and profiled tracks on either side, Ollie is geared towards high speed action on most types of terrain, and has a drive time of up to 1 hour on a single charge.

Ollie comes in two themes, the original white and blue which can be bought for US $100, and the all black Darkside edition, which also comes with an additional set of smooth tires and hubcaps for drifting, and can be preordered now for US $150. Accessories for customizing your Ollie are also available.

Parrot Jumping Sumo

Well-known company Parrot introduced this year two very reasonably priced connected toys. The Jumping Sumo mini drone is actually better at jumping and performing tricks on flat surfaces, such as quick turns achieved via differential drive wheels, rather than actually flying.

Jumps can be initiated and optimized for distance or height via the Free Flight 3 app, available for iOS, Android and Windows Phone devices. The robot balances itself thanks to inertial sensors. It can reach ground speeds up to 7 km/h (4.5 mph) and can jump as high as 80 cm (31 inch). The robot is equipped with a 480p video camera for live streaming video at 15 fps over WiFi to your device screen. Drive time is up to 20 minutes and the battery is interchangeable with Rolling spider.

Jumping Sumo is available in 3 color schemes and priced at about US $159.99, and is available at major stores such as Amazon or Apple.

Parrot Rolling Spider

Rolling Spider is a tiny quadcopter drone geared towards all kinds of aerial tricks and stunts. Thanks to the large removable wheels attached on either side of the drone body, there is no damage when smashing into walls or objects, or hitting the ground.

Just like its sibling above, the drone can be controlled and programmed via the Free Flight 3 app, and connects to your smart device via Bluetooth LE, offering a range up to 20 meters (66 feet). The drone has a flight time of up to 8 minutes without wheels, and can reach speeds up to 18 km/h (11 mph).

Rolling Spider is equipped with an array of sensors, including 3-axis gyroscope and accelerometer and even a pressure sensor. It is also equipped with a camera that can take 0.3 megapixel stills (approximately 640×480 resolution).

The drone is available in three color schemes at prices about US $100-130 at major stores.

WheeMe Massage Robot

Here is a robotic gift particularly appealing to the ladies, just lie down on your belly and let the WheeMe massage robot do its job. The robot is able to perform four gentle relaxation massage routines for as long as you like.

It is equipped with a tilt sensor to prevent falling off your back and can also sense when you want to finish the massage. An additional set of moving whiskers can be added for tingly sensations. The WheeMe is available in four colors and can be bought for US $55-70, depending on retailer.

NeuroSky Necomimi Brainwave Cat Ears

The Necomimi brainwave cat ears have been created by NeuroSky, a Japanese company specialized in brain-computer interface (BCI) devices. Introduced in 2012, these wearable cat ears can provide lots of fun to anyone using them, although they would look better if worn by the ladies.

Necomimi Brainwave Cat Ears

These robotic cat ears sense and distinguish between three emotional states of the person wearing them, through an EEG (electroencephalograph) sensor placed on the person’s forehead which reads electrical brain impulses. The motorized ears move upwards if you become attentive to something, they move down if you’re relaxed, and start wiggling if you’re engaged in an activity you like.

The Necomimi can be bought for about US $70 from major retailers. Additional textures and colors are also available for the fluffy ears.

Edison Robotics Platform

Crowdfunded this year, Edison is a very low cost open source robotics platform that is pretty versatile and fun to work with. Aimed primarily at beginners, it can prove itself useful to some extent for more advanced users, therefore this could be a very well suited gift for teenagers passionate about robotics. The platform is compatible with LEGO parts and bits, allowing any degree of expansion.

Edison Robot Platform

The Edison robot is packed with sensors, including a piezo sound sensor, an IR transceiver, light detecting and line tracking sensors. It is built around a Freescale 8 bit MC9S08PA8VLC MCU clocked at 20 MHz, and featuring common interfaces such as I2C or SPI. Its two differential drive wheels set it in motion and 4 AAA batteries are required to power it up.

Read more about Sensors used in Robotics

The EdWare visual IDE is very intuitive and is available for Windows, Mac and Linux. Edison can be programmed to detect obstacles or follow a line, it can be controlled with standard TV remotes, or communicate with other Edisons via IR, and more.

An Edison kit can be preordered for as low as US $33.80 with shipping expected to start in December this year.

Aisoy1 Emotional Robot

Aisoy1, now at its 4th revision, is an emotional social robot kit which is aimed primarily at educators and makers who are taking their first steps towards social robotics. It is able to learn based on interactions, it can talk, and recognize faces on its own. Powered by Raspberry Pi running Airos1 v4, the robot is fully open source and represents affordable platform for future development.

Read more about Aisoy1 emotional robot

Online resources are readily available for you to start playing or programming this robot, which doubles as a pet. The kit comes in two flavors, unassembled or ready to run, starting with 249 Euro, or about US $310.

LEGO Mindstorms EV3

LEGO Mindstorms EV3

The Mindstorms EV3 robotic kit from LEGO introduced last year is among our favorites when it comes to development platforms, allowing for virtually endless creativity and fun. This could be an excellent robotic gift for children and adults alike, and can prove itself to be a very versatile building foundation for educators and hobbyists.

Huge well-established LEGO communities exist online, offering countless amounts of resources for all areas, including building, programming, hacking, you name it, not to mention festivals and gatherings of LEGO fans in real life.

The Mindstorms EV3 #31313 kit includes over 600 building parts, including an Intelligent Brick main control unit, 3 interactive servo motors — 2 large, 1 medium sized, 4 sensors — color, touch, IR sensor and beacon. The unit is backward compatible with most Mindstorms NXT sensors and motors and communication is also possible.

The Intelligent Brick is powered by an ARM9 MCU clocked at 300 MHz, SD card slot and USB 2.0 communication. Up to 4 EV3 bricks can be interconnected via USB and optional WiFi dongles are available. The unit is equipped with 4 A/D input ports and 4 output ports and an illuminated monochrome 179×128 display.

The EV3 Brick can communicate with any iOS, Android or Windows Phone device, a wide selection of apps being available. The visual IDE, available for Windows and Mac, has been developed in partnership with LabView and is very intuitive and powerful.

The Mindstorms EV3 kit is available at any major retailer at prices around US $350 or about 270 Euro.

Rover 2.0 Wireless Spy Tank

Rover 2.0 Wireless Spy Tank

The Rover 2.0 wireless spy tank from Brookstone is another very appealing connected toy for the children, and can be remote controlled from any device running iOS or Android. The robot tank is equipped with a tilting 0.3 megapixel camera which can capture 320×240 footage at 25 fps, a microphone and a 850nm laser light for night vision. Captured videos or photos can be immediately uploaded to Facebook, YouTube or e-mail.

The robot features WiFi connectivity, tracks with good grip and is powered by 6 AA batteries included in the package. It can be bought for prices around US $100.

WowWee RoboMe for iPhone

WowWee RoboMe for iPhone

RoboMe is a very likable robotic companion for children that harvests the power of your iPhone or iPod touch to perform various tasks. The 40cm tall robot is equipped with a range of sensors to navigate freely in the environment, and can also be operated without an iPhone, although with limited functionality.

The robot is capable of voice recognition, speech synthesis, face tracking and detection and can also act as a telepresence robot via the Robo Eye Merge app. RoboMe is a very affordable robotic toy that can be bought for around US $85.

WowWee Robosapien X

WowWee Robosapien X

Robosapien X was introduced last year and is an upgraded version of the original highly awarded Robosapien robot toy. The robot can be remote controlled with the included IR remote or via the RoboRemote app from any mobile device running iOS and Android with the included IR dongle attached.

The robot can run, walk, turn and perform several moves. Its hands are equipped with 2 types of grippers, it has over 60 pre-programmed functions and it can also be programmed with additional routines by remote control. It also has touch and sound sensors.

Robosapien X can be bought for prices around US $80.

Genibo SD Robot Dog

The Genibo robot dog is a highly advanced autonomous robot created by the well known company Dongbu Robot, the same company that created the HOVIS Eco humanoid robot. Genibo-SD is an extensive upgrade of the original Genibo QD, which first surfaced back in 2008.

Genibo is a robotic bull terrier that does everything a family pet should do, and more. It has personality thus it acts on its own, and craves for affection of anyone around it. It is packed with touch sensors all over its body, it features vision and voice recognition, and it can also determine and follow sound sources. Its legs have 6 DOF and are motorized by the advanced HerkuleX servos. The robot also has WiFi connectivity, a SD card slot and a 2600 mAh battery.

Genibo is not cheap, it can be bought for approximately US $1,700, depending on the retailer.

Voice Activated R2-D2

Voice Activated R2-D2

The voice activated R2-D2 is a toy robot aimed at children aged 8 and up or die-hard Star Wars fans, since it is also a pretty high quality replica of the famous robot. The 38 cm tall robot (15 inch) recognizes and responds to over 40 voice commands. It is equipped with IR sensors and a sonar so it can also drive around the house autonomously or follow you like a faithful sidekick, and it can even play games.

As we said all functions, including light, games, follow and so on are accessible via voice commands. The R2-D2 knows to play tag or spin the droid, guard your room and sense presence via a motion detector and its microphones, and it can dance accompanied by the famous cantina music. All routines have several variations depending on R2-D2’s mood. The robot is also equipped with an utility arm, making it useful for delivering beverages for instance.

The voice activated R2-D2 can be bought at prices around US $200-230, depending on retailer.

Grillbot Grill Cleaning Robot

Grillbot Automatic Grill Cleaning Robot

The Grillbot grill cleaning robot introduced this year is designed to spare you from the burden of cleaning the grill after that awesome barbecue party you just had. The robot is equipped with an internal rechargeable battery and 3 brass brushes. It can be easily programmed for any amount of cleaning time, in 10 minute increments.

This household robot is available at prices of US $100-130, depending on retailer, and accessories, such as optional stainless steel brushes and a carrying case are also available.

We hope that this lineup will help you a bit in choosing what presents you will buy this year, if you stumble upon any robot or gadget you find interesting please feel free to share!
Read more at http://www.smashingrobotics.com/top-robotic-christmas-gift-ideas-2014/#IU57E3VT5lWgSmXe.99

La conquête de l’ubiquité : des robots dans les musées (3)

Il est certes un peu facile de reprendre le titre d’un article de Paul Valéry à propos du devenir des œuvres d’art, mais cette expression « la conquête de l’ubiquité » prend son sens aujourd’hui dans les lieux d’art et de culture. Dans un précédent billet, nous nous sommes arrêtés sur cette expérimentation qui s’est déroulée en août dernier à la Tate Britain : un robot spécialement conçu par des designers permettait à des internautes de visiter à distance le musée en contrôlant le déplacement de la machine et aussi l’inclinaison des capteurs vidéos. La fréquentation des œuvres d’art se place alors sous le régime d’une expérience de la présence à distance permettant d’explorer in visu quelques grands chefs d’œuvre du musée londonien. Un article paru cette semaine dans la quotidien régional Le Journal de Saône-et-Loire revient sur l’acquisition par la ville d’Autun d’un robot pour visiter à distance le musée d’art et d’histoire Rolin. Il s’agit plus précisément d’un robot Beam pro qui en apparence ne ressemble en rien à un robot humanoïde mais plus à une tablette posée à la verticale sur un socle mobile. On le voit ici dans un contexte bien particulier : c’était en mars 2014 dans le cadre d’une conférence TED donnée par Edward Snowden. Ne pouvant sortir du territoire russe, le lanceur d’alerte est intervenu à Vancouver par le biais de ce robot. Par robot, il faut entendre ici une machine qui est capable de matérialiser la présence physique d’une personne alors qu’elle n’est pas sur place. En d’autres termes, cette machine conçue par des français (AWABot) et des américains (Beam Pro) permet le don d’ubiquité, d’être ici et là. La société AWAbot avait déjà expérimenté la présence de robot dans un lieu d’art et de culture en mai dernier dans le cadre de la nuit des musées. Trois robots Beam Pro permettaient en effet de visiter, de 19h à minuit, les allées du musée gallo-romain de Lyon  situé sur la colline de Fourvière. (Cliquer ici pour consulter le reportage de France 3). beam-musée L’acquisition du musée Rolin de la ville d’Autun marque donc une étape majeure : il ne s’agit plus de démonstration temporaire mais de la mise en place d’un nouveau service à destination des publics :

« Cette technologie, utilisée notamment aux États-Unis, pour permettre aux élèves malades d’assister aux cours depuis leur lit d’hôpital, peut être adaptée pour que des visiteurs du monde entier ou ayant des problèmes de mobilité puissent visiter le musée Rolin comme s’ils y étaient, en totale liberté », explique Vincent Chauvet, adjoint au maire d’Autun en charge de l’embellissement général de la ville, de la rénovation du patrimoine historique et de l’accessibilité.

L’introduction de robots de téléprésence entraîne une nouvelle définition des services du musée et soulève la question des effets de l’optimisation du rendement des visites des lieux de l’art :

« Cette volonté d’acquérir un robot de télé présence pour le musée Rolin, chère à Anne Pasquier, responsable du service patrimoine de la Ville, a remporté un appel à projet du ministère de la Culture. Ainsi l’État participera financièrement à hauteur de 18 000 € à l’investissement, qui comprend l’acquisition du robot, l’accès au réseau Beam Pro, le développement du portail web et la communication », avance l’adjoint au maire d’Autun en charge du dossier. Le conseil régional de Bourgogne, a priori très emballé lui aussi par le projet, et l’Europe, devraient également mettre la main à la poche pour un montant de 25 000 € environ. « Il ne devrait rester à la charge de la ville d’Autun que 9 780 €, le coût global de l’investissement étant de 52 780 €. Mais nous ferons appel à des mécènes dont la société Orange qui est déjà partenaire du musée Rolin », détaille Vincent Chauvet qui travaille à d’autres partenariats. « Pour la municipalité, le coût sera très probablement nul. Et cet investissement permettra de dégager des recettes », assure l’élu.

Soubrobotte : quand le désir en coupe coupe le désir

Capture d’écran 2014-12-19 à 22.06.19

Initialement connu pour ses recherches sur l’intelligence artificielle appliquées aux jeux d’échec ou aux chatbots, David Levy jouit d’une notoriété bien plus grande encore depuis la publication, en 2007, d’un ouvrage intitulé « Love and sex with robots », dans lequel il prévoit que les relations sexuelles entre les humains et les robots devraient advenir et se généraliser dans un futur proche (http://www.theguardian.com/technology/2009/sep/16/sex-robots-david-levy-loebner). Et de fait, les progrès de différents secteurs de la recherche appliquée offrent un socle réaliste à ce type de prédiction, qu’il s’agisse de la création d’émotions ou de personnalités artificielles, de la production d’épidermes synthétiques, du réalisme croissant des artefacts humanoïdes notamment. On peut ajouter à cela que les facteurs sociaux eux-mêmes rendent crédibles ce scénario, avec l’augmentation du taux de divorces et des situations de célibat prolongé chez les 18-34 ans, un économiste japonais ayant même proposé d’instituer une taxe pour les individus au physique avenant comme mécanisme incitatif au mariage (http://archive.francesoir.fr/actualite/societe/apon-taxer-les-beaux-celibataires-pour-augmenter-le-nombre-de-mariages-218055.html).

Quoiqu’il en soit, le scénario prospectif de Levy semble avoir inspiré artistes et designers puisqu’un article daté de ce jour met en scène, avec un certain réalisme, l’anatomie intérieure d’une « soubrobotte », robot destiné à un commerce qu’on hésitera à qualifie de charnel, tant le plastique, l’électronique et les éléments mécaniques l’emportent dans cette vue en coupe de la créature.

0_pe

http://www.tomsguide.fr/actualite/soubrobotte-robot-sexuel,45945.html

Cette anatomie fonctionnelle en coupe, qui n’invite guère à l’exaltation du désir, prend en quelque sorte à « contre-pied » – ne pas prendre son pied, n’est-ce pas prendre à contre-pied ?! – les thèses défendues par Donna Haraway dans son célèbre manifeste sur les cyborgs et les femmes (nous laisserons de côté les singes qui figurent également en bonne place dans l’ouvrage en question). Si les cyborgs actualisent chez Haraway, par leur nature hybride, la possibilité d’une déconstruction et d’un renversement des rôles assignés et des rapports de domination parce qu’ils « rendent très problématiques les statuts de l’homme, de l’humain, de l’artefact, de la race, de l’entité individuelle ou du corps » (Haraway, Des singes, des cyborgs et des hommes. La réinvention de la nature, Chambon, 2009, p. 315), il est assez visible que la « soubrobotte » s’apparente plus à la machine animée, à un automate destinés à satisfaire le désir phallocentrique, qu’à un cyborg contribuant à déconstruire l’image de la corporéité féminine comme « innée, organique, nécessaire » (Haraway, p. 319).

Dans un article à suivre, je montrerai pourtant comment la sexualité robotique, ou plus exactement les nouvelles formes de compagnonnage sexuels entre humains et robots, contribuent à la déconstruction des tropes sur l’amour, la fidélité, l’émotion et les affects, le plaisir et le désir, et inaugurent une série véritablement troublante d’interrogations juridiques inédites sur la conjugalité.

Le modèle et le réel : l’algorithme du chien de berger ?

teksta-puppy-chien-robot-rose_1_
La tentation modélisatrice et la volonté de transformer le monde en un gigantesque code sont  sans limite, et rien ne semble pouvoir échapper à l’ambition de cette nouvelle mathésis universalis. Il arrive cependant que le décalage entre la modélisation du monde et la complexité du vivant soit tel que les efforts des scientifiques nous apparaissent alors comme ridicules ou absurdes par leur volonté abusivement simplificatrice : tel est le cas de la tentative menée par une équipe de chercheurs d’Uppsala qui aurait – la formule a été elle-même reprise par de nombreux journaux cédant à la facilité de ce que Pierre Bourdieu qualifia jadis de « circulation circulaire de l’information » – décryptés « ‘l’algorithme du chien de berger », rien de moins.
Il se trouve que l’auteur de ces lignes est lui -même à ses heures éleveur passionné de moutons et dresseur de chiens de bergers. A ce titre, je voudrais montrer comment la « découverte de l’algorithme du chien de berger » est à l’informatique ce que l’idée selon laquelle « si la théorie ne correspond pas au réel, alors, c’est que le réel a tort » est à l’économie orthodoxe. Car en soi le problème n’est pas le modèle proposé soit faux mais qu’il ne tienne absolument pas compte de toutes une série de variables explicatives qui permettent – empiriquement – de comprendre ce qu’est « réellement » un chien de berger.
La première approximation découle de ce que le modèle proposé généralise à l’ensemble des chiens de berger ce qui a été observé à partir d’un kelpie australien équipé d’un harnais GPS pour en mesurer tous les déplacements. Or, il se trouve que chaque race de chien de berger travaille d’une manière spécifique et qu’un border collie, un labrit, un kelpie ou un beauceron n’ont pas les mêmes aptitudes ni les mêmes méthodes. A l’intérieur d’une même race – disons par exemple le border collie – on trouve des sujets adoptant des comportements distincts et ce fait, bien connu de tout éleveur de border, est suffisamment établi pour que les juges experts confirmateurs de la race aient distingué une typologie des comportements possibles lors du travail au troupeau, reposant sur la distinction entre les chiens rabatteurs, pousseurs ou bloqueurs. En équipant trois border collie appartenant respectivement à ces trois types, les chercheurs auraient obtenu trois modèles différents. Par ailleurs, les border collie se caractérisent par une aptitude acquise mais plus ou moins variable d’un sujet à l’autre, parfois très fortement et parfois très faiblement exprimée, qu’on nomme « l’oeil ». Par ce terme, on désigne l’aptitude innée du chien à déplacer ou à contenir les animaux à plus ou moins grande distance du troupeau, aptitude qui conditionne elle-même la plus ou moins grande mobilité du chien. Certains chiens de la race ressemblent presque à des chiens d’arrêt tandis que d’autres, dépourvus d' »oeil », se situent du côté des chiens courants.
Du fait même de la variété des attitudes au travail, le chien de berger ne se réduit pas au modèle proposé, résumé ainsi dans le journal 20 minutes : « «Nous avons dû imaginer ce que le chien voyait pour développer notre modèle. Grosso modo, il aperçoit des choses blanches et touffues devant lui. S’il voit des espaces entre les moutons, ou si ces espaces grossissent, le chien doit les rassembler», explique Andrew King dans un communiqué. «Si vous observez des chiens de berger en action, le chien va et vient derrière le troupeau exactement de la même façon que ce que donne notre modèle», assure-t-il (http://www.20minutes.fr/insolite/1432883-20140827-chien-berger-algorithme-decryptes) En effet, certains chiens ne vont et ne viennent pas ou très peu derrière le troupeau – ceux qui sont capables de travailler à grande distance ou d’exercer une certaine pression sur le troupeau, ce que les experts nomment « la puissance » qui est également une aptitude naturelle amplifiée par la sélection génétique – alors que d’autres font de véritables mouvements d’essuie-glace. De même, je ne crois pas simplement que le chien voit uniquement des « choses blanches et touffues » : un chien est parfaitement capable de discerner un bélier d’une brebis, et les moutons ne sont pas des individus neutres : le chien de berger distinguera un bélier agressif d’une brebis placide, et, le cas échéant, conduira le troupeau de sorte qu’il évite la confrontation avec le troupeau. J’ajoute qu’un troupeau est un ensemble hiérarchisé, avec ses leaders, ses protecteurs et ses protégés, et que différents rôles sociaux sont assignés à différents ovins au sein d’un même ensemble. Le bon chien est donc capable de sentir ces « lois » d’organisation sociale, et d’exercer une pression sur certains sujets plutôt que d’autres en fonction des événements.
Je ne développerai pas ici plus avant mes arguments circonstanciels sur les chiens de berger et leur façon de travailler : je ne prétends pas ici décrier la modélisation du monde – bien que cette opération soit philosophiquement et politiquement discutable, mais là n’était pas mon propos – mais j’ai souhaité, par un exemple très simple qui m’est fourni par l’expérience, montrer que le chien de berger était peut-être un être plus complexe et moins réductible à la loi du code que ce que les experts d’Uppasala ont prétendu démontrer. Car si leur modèle est mathématiquement juste, il s’agit d’une justesse qui ne rend pas justice ni aux comportements réels des moutons, ni à celle de chiens – je veux ici parler du border collie – dont certains spécialistes ont montré qu’ils maîtrisaient plusieurs dizaines de mots et savaient mobiliser une forme d’intelligence très développée au sein de l’univers canin, et qui peuvent contrôler un troupeau de multiples manières en interagissant avec l’homme. Entre Turing et Levi-Strauss, une voie est sans doute possible, mais elle requiert une grande attention à la « chose elle même » comme disait Hegel. Mais de là à ce que l’algorithme serve à gérer les mouvements de foule…

Et bientôt un robot berger ?

Joël Ignasse

Voir tous ses articles

Publié le 28-08-2014 à 11h01

Deux règles simples suffisent à rassembler et à guider un grand troupeau de moutons. Des robots pourraient les exécuter.

Des moutons équipés de sac à dos GPS. Jennifer Morton Des moutons équipés de sac à dos GPS. Jennifer Morton

GPS. Berger Belge, bobtail, colley…il existe plus d’une trentaine de races de chiens de berger. Leur rôle : assister le berger et veiller à la cohésion du troupeau pouvant rassembler jusqu’à une centaine de bêtes. Pour comprendre comment ils font leur travail, un troupeau de moutons et un chien de berger ont été équipés avec des sacs à dos contenant des dispositifs GPS très précis conçus par des scientifiques du Royal Veterinary College de Londres.

Des applications en robotique

Les données récoltées ont été analysées par Daniel Strömbom et son équipe de l’Université d’Uppsala qui en a déduit un modèle mathématique décrit dans le Journal of the Royal Society Interface. Il en ressort que les chiens de berger usent d’une stratégie simple fondée sur deux règles : rassembler les moutons quand ils sont dispersés et les conduire vers l’avant quand ils sont regroupés. Avec ce modèle, un seul chien pourrait rassembler un troupeau de plus de 100 têtes estiment les scientifiques.

LACUNES. « Nous avons dû réfléchir à ce que le chien pouvait voir pour développer notre modèle. Il voit essentiellement des choses blanches et molletonnées en face de lui. Si le chien voit des lacunes entre ces taches, il a besoin de les rassembler. Si le troupeau est cohérent, le chien va pousser le troupeau vers la cible, vers l’avant » explique Daniel Strömbom.

Le modèle mis au point pourrait servir au développement de « robots bergers » interagissant avec les mêmes règles que les chiens (mais pas forcément avec les mêmes résultats!). « Il peut aussi servir de base à des techniques de contrôle des foules ou de nettoyage de l’environnement » conclut Andrew King, de l’université de Swansea.

« Meuuuuuh… Bip, bip, bip ! » : la vache et le (robot) prisonnier

 444781_postervache

« Il y a des ordinateurs, je sais, où tout est écrit. Ce que les truies mangent, quand elles font leurs petits, combien, etc. C’est écrit aussi quand elles partent. Maman m’a expliqué qu’on ne peut rien changer parce que sinon ça désorganiserait tout. Il faut suivre l’ordinateur. Mais l’ordinateur, lui, ne connaît pas les truies, il ne peut pas les reconnaître, c’est juste des chiffres. Quand les chiffres ne correspondent pas, hop, les truies partent » (Jocelyne Porcher, Christine Tribondeau, Une vie de cochons, La Découverte, 2008, p. 23).

Ce soir, l’ami Nicolas (Thély), professeur à Rennes 2 et contributeur de ce blog, m’a envoyé un article de presse, presque comme un défi : on va voir ce qu’on va voir ! Il y est question de vaches et d’un robot. Débrouilles toi avec ça 🙂

Que nous raconte cet article ? :

« Un robot qui se « balade », tout seul, entre des bâtiments d’élevage pour nourrir des vaches. Cette hypothèse futuriste n’en est plus une. Elle est devenue réalité. Certes, ce type d’équipement n’est pas aussi répandu que les salles de traite automatisées mais il commence à se développer.Au niveau de la région Centre, le premier robot « nourrisseur » vient d’être installé dans une exploitation du Loiret. Plus exactement dans celle du GAEC Petit, à Villemoutiers, dans le Gâtinais.

Depuis le 15 août

C’est sous l’impulsion de Nicolas Petit, qui gère la ferme avec son frère et son père, que l’idée a germé après la lecture d’un article dans un magazine spécialisé. Elle a fait son chemin technique sous l’impulsion du Lely Center de Nitry, à côté d’Auxerre. De fil en aiguille, elle est sortie de terre. Au point que le robot est en service depuis le 15 août. Il a fait l’objet d’un certain nombre d’attentions pour s’assurer qu’il ne déraille pas. C’est une première pour le concessionnaire et c’est un changement d’habitudes conséquent pour les exploitants. Il l’est nettement moins pour les vaches qui ne sont pas effarouchées par ce nouveau venu dans leur quotidien. Le robot fait des mouvements lents et réguliers. Et leur donne à manger.

« Avant, nous préparions la ration des vaches pour la journée dans une mélangeuse », détaille Nicolas Petit. « C’est un peu comme si nous préparions une salade le matin. En fin de journée, avec la vinaigrette, la salade est moins bonne. Le robot, lui, fait des rations à la carte. Il ne s’arrête pratiquement jamais. Les vaches sont mieux nourries. »

Alors, je branche mon bot générateur de pensées automatiques et je le laisse « réfléchir ». Il m’indique que les questions suscitées par cette « innovation » sont multiples  mais placées sous le signe de l’éthique et de la phénoménologie : le robot maximise t-il le bien être de la vache ? Car certes, elle est mieux nourrie, mais la véritable finalité de cette opération est-elle de de réguler son alimentation ou n’est-elle pas plutôt d’accroître son rendement, mesurable en litres de lait ? Par ailleurs, alors que le divorce entre le paysan et l’agriculteur n’a jamais été aussi signifiant du mouvement en apparence inexorable de technicisation d’une industrie agro-alimentaire hyper-productiviste (plénonasme !), l’introduction d’un tel robot sur une exploitation agricole crédibilise le scénario de « la ferme des mille vaches » et sa généralisation à l’ensemble d’un pays, l’activité robotique – non salariée, non syndiquée, non fatigable – venant utilement se substituer à celle de l’humain. Très clairement, la ferme est devenue une usine ! Cet équipement robotique fait en outre inévitablement songer à ce que des designers ont inventé pour adoucir l’élevage industriel, tel le programme Pig Chase élaboré par la Utrecht School of the Arts, écran tactile supposé médiatiser la relation entre l’éleveur de porcins et son cheptel, invention cynique qui marque notre incapacité à nouer une relation « humaine » avec l’animal d’élevage et déplace le problème à l’aide d’un gadget technologique faussement fun et branché. Enfin, quel type de considération l’agriculteur porte t-il à son robot ? Le voit-il comme une simple machine, un investissement à rentabiliser, ou finira-t-il par le considérer comme une sorte d’acolyte, à mi chemin entre l’objet et l’agent ? Une anecdote rapportée par Faith D’Aluisio et Peter Menzel dans leur ouvrage Robotsapiens (2000) est à cet égard éclairante : interrogée sur le statut qu’elle accorde à AIBO, son chien-robot de compagnie, une famille japonaise témoigne de ce qu’elle ne la considère pas comme une machine et qu’elle fait partie de la famille » (voir Jason Michel, « De l’animal machine à la machine animal », in Animal, Azimuts, 39, 2013).

A un autre niveau, je ne peux m’empêcher de me demander si le robot est à considérer comme une sorte de kapo servile, exécuteur machinique des basses oeuvres agricoles, ou comme un compagnon d’infortune des bovins qu’il nourrit. Dans ses Concepts fondamentaux de la métaphysique, nous rappelle Peter Sloterdijk (Chimères, 81, 2014), « le pouvoir être dans le monde des êtres détermine le critère de leur rang ontologique » (p. 26). Ainsi la pierre serait l’étant le plus fermé au monde, tandis que l’homme « se situe à la limite supérieure dans la clairière de l’Etre » en tant que « configurateur de monde », tandis que l’animal, à la fois sensible en même temps que pauvre en /au monde, se situe en position médiane. Mais alors, quid du robot ? S’il est possible d’accorder à la pierre un statut ontologique, aussi réduit fut-il en terme de ce que Heidegger nomme l’Ek-Stase, l’ouverture au monde, qu’en est-il du robot ?

Vers la robotisation des musées ? A propos de « When the Art is watching you »

Désormais les lieux de l’art abritent des robots-médiateurs (Tate Britain), des robots-artistes (Jeu de Paume), et des robots-commissaires d’exposition (Le Mur – Collection Antoine de Galbert). Mais à trop concentrer notre attention sur ces nouveaux opérateurs artistiques, on en oublierait la présence d’autres machines (audio-guides, tablettes, consoles de jeu et smartphones) qui contribuent à la production, in situ, de nouveaux gisements d’informations. Dans l’article « When the Art is watching you »publié le 11 décembre 2014 dans The Wall Street Journal, la journaliste Ellen Gamerman propose une thèse particulièrement intéressante :

At today’s museums, all eyes aren’t just on the art. They’re on the visitors.

Ellen Gamerman fait notamment référence aux différents services de médiation proposés par les grands musées internationaux et notamment par le Dallas Museum of Art (DMA) et le Metropolitan Museum of Art de New-York (MET)

De fait, la journaliste pointe l’attention de ses lecteurs vers un modèle contemporain de la surveillance généralisée, qui n’est plus celui de la délation optique, mais qui relève de ce que le philosophe Dominique Quessada nomme la « sousveillance » :

Nous avons à faire à des processus qui anticipent à travers des un ensemble de logiciels d’analyse de bases de données interconnectées et de programmes de reconnaissance de comportements plus ou moins déviants,les événements délictuels à venir.”  “De la souveillance, La surveillance globale, un nouveau mode de gouvernementabilité”, In Multitudes n°40, hiver 2010, p.54

Bien entendu dans notre contexte, il faut substituer à la notion de dangerosité la notion de goût. De là, l’idée de formuler une hypothèse assez osée et d’envisager le musée comme un robot sans corps ni apparence physique autre que son architecture capable de percevoir son environnement, d’en donner une représentation et d’agir en fonction (n’est-ce pas là la définition d’un robot ?). Pour le moment nous n’y sommes pas mais à la lecture de l’article du Wall Street Journal, on comprend bien que ce qui est en train de se jouer, c’est une tendance générale à l’élaboration de transformer ces grands lieux de l’art en système intelligent capable d’adapter l’industrialisation du goût à la multiplicité des goûts individuels. [Cf.  à ce sujet l’excellent article de Nicolas Auray et Michel Gensollen  paru en 2007 dans l’ouvrage Goût à vendre. Essais sur la captation esthétique dirigé par Olivier Assoulay]. Mais reprenons ici les différents passages de l’article du Wall Street Journal qui appuient notre audacieuse hypothèse : 1 . Mieux comprendre les comportements des visiteurs :

At the Dallas Museum of Art, a frequent-visitor program asks guests to check in at spots around the building via their phones or on kiosks. By doing so, members win points toward rewards, like free parking, special-exhibition tickets or private use of the museum’s movie theater. The museum then filters the data to better understand guests’ behavior, like how often they visit, which shows they flock to and what art they ignore.

2. Mieux envisager les tendances : 

The Minneapolis Institute of Arts analyzes data from tens of thousands of visitor surveys to help make certain curatorial decisions. If the numbers indicate people aren’t so interested in a coming show, it might be reworked, postponed or moved to a smaller gallery. “It’s really a culture shift in museums for the curators to pay attention not just to what’s significant art historically, but also what’s perhaps on trend,” says Kristin Prestegaard, the museum’s chief engagement officer.

3. Savoir exactement ce que les gens ont vu :

More detailed information could help the museum deliver more personalized experiences to visitors, Mr. Sreenivasan [ndlr. the Met’s chief digital officer] said. “I want to be able to know exactly what people have seen, what they love, what they want to see more of, and have the ability to serve it up to them instantly,” he said. For example, “If someone loves a painting they’re looking at, they could get an instant coupon for the catalog, or a meal being sold at the cafeteria that’s based on it.”

4. Employer de nouveaux personnels  :

In a world where statistics used to be gathered by a guy in a gallery with a clicker, the big-data push is a potential game-changer. Today, when some museums make a pitch to prospective sponsors, they come armed with sophisticated graphs indicating what types of people come to the museum, what brings them there and why. Understanding audience behavior enables museums to target marketing for future exhibits or personalize messages to visitors based on their past viewing history. From an educational standpoint, data can help museums find the most effective tools for teaching their audiences about the art on the walls. In recent months, New York’s Metropolitan Museum of Art, the Museum of Fine Arts in Boston, the Nelson-Atkins Museum of Art in Kansas City, Mo., and the Minneapolis museum have all launched national searches for data analysts.

Bien entendu, cette entreprise de captation des données dans un tel contexte de pratiques culturelles soulève des questions de droit :

“When you’re looking at the art, you don’t want the art looking back at you,” said Marc Rotenberg, a Georgetown University law professor who heads the Electronic Privacy Information Center, a privacy research group. “It’s not as if people going out of museums say, ‘Jeez, I wish that museum knew a lot more about me, I would’ve had a lot better experience.’ It’s being driven by the possibility of increased sales, advertising and better marketing.” As museums collect more personal information from their guests, privacy advocates warn, they’re opening themselves up to the same kinds of security breaches and potential lawsuits that have roiled companies like Home Depot and eBay. And with data-mining tools able to calculate a show’s most popular artworks, some museum observers worry that curators will choose exhibits that are the most crowd pleasing instead of the most challenging or artistically significant.

La question que soulève donc l’article du Wall Street Journal est celle du passage de l’observation et de l’étude des pratiques culturelles et artistiques à la désormais possible modélisation des offres culturelles basée sur l’analyse des comportements des amateurs d’art.

Humains, trop humains : les robots peuvent-ils vraiment accaparer tous nos jobs ?

robot-jobs-and-human

La question de la place que vont occuper les robots sur le marché de l’emploi est une question absolument centrale et amplement débattue. Il se trouve que, ce matin même, me rendant à la boulangerie de mon quartier, je croise un de ces amis rencontrés jadis au sortir de l’adolescence mais que je ne revois que très épisodiquement. Ce dernier est devenu un cadre à très haut niveau de responsabilités dans un des plus grands groupes bancaires français. Je profite de l’occasion pour lui demander si le numérique va affecter décisivement l’activité bancaire et sa réponse est franche et sans équivoque : « Oui, et bien au delà de ce qu’on imagine ». Il m’explique alors comment le numérique est en passe de bouleverser le paysage de la banque, du « dégraissage » prévisible d’une partie des salariés actuellement en poste aux mutations de la relation à la clientèle, un des principaux enjeux consistant d’ailleurs à imaginer des mécanismes de fidélisation du client dans un environnement où les interactions en face à face seront inexistantes. Comme pour se dédouaner, l’ami me rassure : « Mais le numérique créera de l’emploi ! ». Certes, mais nous retombons ici sur l’inévitable question : n’en détruira-t-il tout de même pas plus qu’il n’en créera, et le haut niveau de technicité attendu ne laissera t-il pas sur la touche les individus les moins formés et les moins diplômés ? Le lecteur de ce blog l’aura compris, cette question me préoccupe tout particulièrement, même si je ne la développerai pas plus aujourd’hui, parce que nous ne savons absolument pas vers quel type d’environnement économique et professionnel nous nous dirigeons, quelle place sera accordée aux humains, et si une nouvelle conception de notions telles que la productivité, la richesse, les loisirs, la compétence, l’identité et les interactions au travail, etc. en découlera. Plus simplement, ce qui m’intéresse ici, c’est de me demander si certains métiers pourront échapper à la robotisation du monde du fait même de leur spécificité (disant cela, c’est à dire parlant de « spécificité » d’un métier, je vois bien que mon argument est flou, et à ce stade, même l’approche sociologique des métiers par Eliot Freidson ou Everett Hughes ne m’aide guère), comme si cette spécificité les prémunissait contre l’accaparement de nos jobs par les robots.

Il se trouve qu’un petit article journalistique sans prétention a tenté d’aborder ce sujet et a, à ce titre, attiré mon attention (il en existe sans doute des dizaines d’autres sur le sujet) : http://www.business2community.com/tech-gadgets/will-human-jobs-replaced-robots-future-0613473

Dans cet article, l’auteur reconnaît tout d’abord que les robots peuvent se révéler bien utiles et sans doute très performants pour répondre à des tâches que les humains peineraient à résoudre avec autant d’efficacité et sans prendre de risques : c’est par exemple le cas du robot Cave Crawler qui peut intervenir dans des espaces souterrains, et de façon moins spectaculaire, des robots industriels aptes à reproduire des gestes automatisés à grande fréquence qui occasionneraient de graves troubles musculo-squelettiques chez un humain. L’auteur ajoute que ce phénomène d’extension du domaine de la robotique semble inévitable : en 2010, environ 1,2 millions de robots étaient en service, soit une moyenne de 1 robot pour 5000 personnes. En 2025, ce seraient 44 millions d’emplois que les robots devraient occuper, selon les prévisionnistes (ce qui pose au demeurant la question de savoir, très précisément comment sont produites les donnés chiffrées estimatives délivrées par les susdits prévisionnistes, la robotique ne relevant pas moins de la politique des grands nombres, c’est à dire de la gouvernementalité par le chiffre, décrite par Alain Desrosières). Reste, ajoute l’auteur, que certains métiers sont hors d’atteinte de l’activité robotique et relèveraient exclusivement de l’activité humaine ; quels sont donc ces métiers humains, trop humains ? L’art, la psychiatrie, la médecine, l’ingénierie et l’entrepreneuriat répond l’auteur.

Artists

This includes any and all creative undertakings, including art (painting, drawing, film) literature, music, etc. Robots are designed for precision, but art is not a precise field. The best we can teach a robot is a few tricks like we would a dog. In fact the dog would be more efficient as animals can process reward and punishment. Robots can only process 1s and 0s.

Psychiatrist/Counselor

Simply put, robots do not have real emotions. Without real emotions, they cannot possibly attempt to solve problems of the human mind. Even dogs can sense emotional disturbance but not robots.

Medical doctors

Robots can only process information and pick an approach based on that information. While robots may be able to identify every complication, they will not be able to present a valid diagnosis; it requires expertise to know which result is relevant and which is not.

Engineers and entrepreneurs

Those robots are not going to design and assemble themselves, not with the kind of intelligence they have (or will have). Even if robots managed to build themselves, who is to say they will do a good job at it? At best they can improve the way they do things; innovation is not really a possibility, in my opinion. As far as entrepreneurship is concerned, since robots do not require financial and motivational compensation, they will not really have a need to develop a unique business plan.

Pour est des médecins – je ne commenterai pas l’affirmation au sujet des psychiatres et des ingénieurs/entrepreneurs -, l’argument proposé me semble discutable : en effet, il est relativement facile d’imaginer un robot-médecin généraliste utilisant les ressources de capteurs sophistiqués intégrés et également des big data (permettant de comparer des millions de cas médicaux recensés dans une base de données) pour produire des diagnostics fiables. Qu’est-ce d’ailleurs qu’un diagnostic, si ce n’est la gestion d’une situation marquée par une relative incertitude (http://www.sfmg.org/data/generateur/generateur_home/3/fichier_demarche-medicale-en-mgd28c9.pdf) ? Dans une étude publiée dans la revue Artificial Intelligence in Medicine, Casey Bennett et Kris Hauser ont cherché à démontrer que les robots étaient plus efficaces que les médecins classiques à 35 % et qu’ils coûtaient deux fois moins cher (http://www.unof.org/+Prescriptions-des-robots-plus+.html), et ce type de conception du diagnostic médical inspire manifestement des informaticiens :

« Doctors are taught how to diagnose people in medical school. That includes getting a chief complaint, a history of present illness, review of systems, social history, and other questions that give clues on what’s going on with a patient. The way doctors figure this out is through knowledge and insight. Kind of like a solving a detective case. Computers like logic and mathematics. Fast and precise. It doesn’t have insight, but can do whatever you ask it to do, and be very good at it. We want to combine the two. What if we mix the stuff you learn in medical school with computer algorithms and create a program that can function like a human doctor? We think that’s pretty awesome »  (http://androctor.com/medical-robots.php)

Pour ce qui est des artistes, deux arguments au moins peuvent être objectés à l’idée selon laquelle les robots seraient exclus du domaine de la création : le premier repose sur l’idée que les robot sont de formidables déconstructivistes, au sens sociologique du terme. Autrement dit, ils n’ont pas leur pareil pour faire éclater les catégories naturalisées, et ils constitueraient à cet égard de formidables auxiliaires pour des penseurs comme Judith Butler (ce n’est pas un hasard si Donna Haraway a tant exploré le potentiel déconstructiviste des cyborgs). L’idée que nous nous faisons encore de l’art est souvent dépendante d’une conception historiquement datée et conceptuellement discutable – néo-kantienne puis romantique – car attachée à des tropes tels que la subjectivité du créateur, sa singularité, son autonomie, son exceptionnalité, son authenticité. Je ne développerai pas ici cette idée ; elle irrigue toute la conception contemporaine et actuelle de l’art, mais parmi mille auteurs, je renverrai volontiers au philosophe pragmatiste Richard Shusterman qui a si bien su – à propos du rap et du sampleur – montrer que l’art se définissait par un type d’expérience et non à partir d’une prétendue essence. Donc, si la notion de subjectivité n’est pas ce qui devrait sous-tendre notre conception de l’artiste, alors, rien ne s’oppose a priori à ce qu’un robot ne puisse être considéré comme un artiste, à l’instar de e-David, le peintre robot.

Mon second argument est lui-même directement pragmatiste : s’il existe quelque chose comme de la création générée par des robots et qui s’inscrit dans un type particulier de relation aux publics, aux marchés et aux institutions de l’art, alors pourquoi ne pas considérer le robot comme un artiste ?  Ceci ne règlera pas la question de savoir, par exemple, à qui accorder le copyright et les royalties générés par une oeuvre conçue par une ontologie artefactuelle – au robot ? A l’artiste qui l’utilise ? Au concepteur du robot ? – mais c’est là une autre histoire dont nous nous traiterons prochainement (à suivre).

Robotique et Robot-Law : à propos de « Robotics and the lessons of cyberlaw » de Ryan Calo

Capture d’écran 2014-12-14 à 03.27.45

Dans un article à paraître en 2015, le professeur Ryan Calo de la School of Law de Washington (http://www.law.washington.edu/directory/Profile.aspx?ID=713&vw=bio), examine ce que l’internet et aujourd’hui les robots font à la loi. Constatant les progrès de la robotique et son extension à de nombreux secteurs de la vie sociale, et la distinguant de ce point de vue de l’internet par les enjeux qu’elle suscite, Calo définit l’ontologie robotique tout en tentant de faire le point sur son impact sur la loi et les institutions. Ainsi, la généralisation de la robotique et son emprise sur le corps social est assez clairement établie par l’usage qu’en font les géants du net, tels Google avec son projet de voiture sans conducteur ou Amazon qui envisage de délivrer des colis à l’aide de drones. Cette expansion du domaine de la robotique ne date certes pas d’aujourd’hui, mais ce qui spécifie l’époque actuelle est le fait que le coût des robots a considérablement diminué et les rend accessibles aux amateurs autant qu’aux professionnels. C’est cet article passionnant que je voudrais évoquer ici, tant je suis en effet convaincu que les transformations anthropologiques induites par les robots s’accompagneront de bouleversements juridiques dont il est encore difficile voire impossible de prédire l’ampleur et la nature exacte.

Comme le remarque Calo, le robot se caractérise par trois propriétés : d’une part, il est la combinaison des data et des aptitudes « physiques » ; d’autre part, les robots accomplissent des tâches qu’il est difficile d’anticiper par avance ; enfin, les robots repoussent constamment la frontière qui les sépare des humains… Si Calo considère que l’intelligence robotique ne peut équivaloir celle de l’humain au sens où elle en diffère fondamentalement, on peut cependant dire que, en un certain sens, le robot « pense » : la preuve en est donnée lorsqu’on observe le Mars Rover, piloté à distance, mais capable de choisir des options contraires aux ordres donnés si la situation l’exige. D’autre part, le robot « agit » : c’est là, selon Calo, qu’intervient la distinction entre les technologies qui « informent » (comme un Smartphone) et celles qui agissent sur le monde (comme un robot). Agir signifie ici non seulement performer – comme le fait le langage par exemple – mais transformer physiquement l’environnement. J’ajoute que la question de « l’agir physique sur le monde » comme élément constitutif de l’ontologie robotique pose la question de ce que sont des entités comme les hologrammes : les hologrammes sont-ils des robots au sens où l’entend Calo ? Calo complète sa définition en indiquant que « la donnée n’est pas incarnée alors que les robots le sont généralement » (« data is not embodied ; robots generally are », p. 119), et c’est ce qu’il entend par leur « présence physique » au monde, présence qui permet de les situer ontologiquement entre l’objet et l’agent.

Reste que c’est peut-être par l’analyse des conséquences de cet « agir sur le monde » tel qu’elles peuvent être examinées par le législateur qu’on mesure mieux ce qui distingue le robot des autres artefacts numériques. Calo prend ici différents exemples pour préciser son analyse : dans le cas d’une voiture sans conducteur ou d’un robot-chirurgien, en cas d’accident, sur qui se reportera la responsabilité ? De même que Facebook ne peut juridiquement être tenu pour responsable des propos tenus sur sa plateforme, les concepteurs de robots devraient être dédouanés par des systèmes d’assistance qui préviennent le conducteur en cas de danger inopiné ou qui permettent au chirurgien de sentir les organes, et donc de prendre in fine leur responsabilité en cas de problème. Mais un tel exemple se redouble d’une seconde question : si l’on devait néanmoins incriminer les robots, viserait-on la partie digitale de l’objet, faite de bits, ou la partie physique faite d’atomes. En d’autres termes, si un véhicule sans conducteur commet un accident, est-ce le concepteur du programme qui est incriminé, ou le fabricant de la voiture ? Autre exemple, que se passe-t-il du point de vue des impôts si des postes de travail affectés à des humains sont confiés à des robots ? Un troisième exemple, étudié notamment par Anne-Marie Bridy, concerne les œuvres crées par des robots. Or, un logiciel génératif n’a pas de personnalité juridique et ne peut donc être redevable du copyright. Et que faire d’un tweet ou d’une information journalistique générés automatiquement mais qui pourraient se révéler diffamatoires ? Si on prend pour exemple le bot conçu par l’artiste Darius Kazemi pour acheter au hasard des produits sur Amazon, et si on imagine que le bot se porte acquéreur d’une panoplie d’objets nazis, que dirait la loi française : faudrait-il incriminer Kazemi ? Avait-il à l’esprit que son robot pourrait enfreindre la loi et porter préjudice moral aux victimes du nazisme ? De même qu’il existe une notion de « responsabilité » à l’égard des animaux dangereux, des enfants, des personnes dépendantes, etc…, pourquoi ne pas imaginer une responsabilité légale du propriétaire à l’égard de son robot, au même titre qu’il est responsable de son chien s’il mord ? Mais alors, doit-on considérer le robot, par analogie, au même titre que le chien, ou faut-il l’inclure dans une catégorie à part et bien spécifique ?

Faisant référence aux travaux du psychologue Peter Khan et de son équipe, Calo montre ensuite que la perception que les individus se forment des robots assigne ces derniers à une ontologie totalement nouvelle et spécifique : « Les individus ne considèrent pas les robots anthropomorphiques comme des êtres vivants, mais ils ne les considèrent pas plus comme des objets. Ils ont tendance à leur attribuer des états mentaux et ne savent pas comment se comporter avec eux, alors que les objets ne leurs posent pas de telles difficultés  » (p. 133). Comme l’indique Khan, si nous savons situer la plupart des êtres dans des catégories ontologiques, nous éprouvons beaucoup de difficultés avec les robots car ils sont à la fois agents et objets. Les questions juridiques soulevées par l’« être social » du robot sont bien exemplifiées dans le cadre hospitalier, où les robots sont de plus en plus présents : faut-il « présenter » le robot au patient, lui affecter un genre, un sexe ? De telles questions ne sont pas absurdes car on sait que plus le robot est anthropomorphe et plus les humains sont enclins à partager avec lui succès et échecs au lieu de l’incriminer totalement. Ce fait interroge par exemple sur les formes de coopération qui vont de développer de plus en plus entre robots et militaires ou policiers : quelle sera la nature de cette coopération ? Jusqu’où les humains s’engageront-ils au côté des robots, seront-ils prêts à prendre des risques si ces derniers sont menacés sur le théâtre des opérations ? Plus largement, c’est la question des affects portés aux robots, de l’attachement émotionnel, qui est posée ici. Citant Kate Darling, Calo se demande d’ailleurs si nous ne devrons pas étendre les droits des « robots sociaux », notamment en interdisant qu’ils soient maltraités (une question dont j’indique en passant qu’elle est centrale dans la série TV Real Humans) ? Bref, le robot ne va t-il pas devenir un nouveau sujet de droit, à mi-chemin de la personne et de la chose ?

Pour conclure avec Calo, on peut dire que le robot se distingue de l’internet parce qu’il est engagé dans un rapport « physique » au monde : Le type de dommages qu’il peut causer est de ce point de vue spécifique. En ce sens, même s’il existe des parallèles entre l’internet et la robotique, les robots soulèvent un ensemble distinct de questions juridiques et politiques. En outre, le robot est une entité « émergente », c’est à dire qu’il est a priori difficile de prévoir tous les comportements qui peuvent résulter de l’activité robotique, a fortiori parce que différents robots peuvent interagir entre eux de manière inattendue. La réponse institutionnelle à la généralisation des robots a été sectorielle – aux USA, les drones relèvent des questions aériennes, les robots chirurgicaux relèvent de l’équivalent du ministère de la santé, etc. – mais on pourrait imaginer unifier les questions robotiques dans la création d’une agence dédiée à ce sujet. Une autre série de questions porte sur la nature ontologique des robots, question elle-même déterminée par le type de regard et d’attention que nous portons à ces derniers : s’agit-il d’un équivalent des enfants, des animaux ou des esclaves ? se demande Calo. Enfin, aborder de telles questions, compte tenu des caractéristiques des robots et notamment de leur signification sociale invite à un dialogue interdisciplinaire entre sciences sociales et sciences informatiques « to a degree even greater than the Internet » (p. 147). Il semble donc évident que c’est l’élaboration d’une nouvelle infrastructure théorique et doctrinale autour de la robotique qui constituera un des grands enjeux des décennies à venir, enjeux qui justifient l’existence même de ce blog et la présentation de cet article fondateur de Calo.