Marx et les robots…

robot-Marx
Dans les deux articles présentés ci-dessous, dont le second est devenu un « classique » signé par Paul Krugman (lire les nombreux commentaires associés à cet article est sans doute aussi voire plus intéressant car il donne un bon reflet de l’état de la pensée sociale et économique aux USA quant aux évolutions  du marché du travail en lien avec le développement technologique), ce qui est intéressant est en réalité non pas de savoir si et comment les humains cohabiteront avec les robots sur le marché du travail, mais plutôt quelle conception de la technique nous nous sommes forgés. En d’autres termes, les robots sont-ils le produit ultime d’une societas ex machina – pour reprendre une expression de Braverman – où les orientations du monde social et économique, c’est à dire littéralement le changement historique, seraient directement induits par une innovation technologique en quelque sorte autonome, ou faut-il penser au contraire que l’innovation technique est socialement produite et est par conséquent la manifestation de rapports de force au sein du social ? Dans la première hypothèse, on peut considérer avec optimisme que la technique s’inscrit dans un mouvement mélioriste tel qu’elle finit toujours par profiter à l’humain (par exemple en imaginant que le robot délestera l’homme de tâches difficiles ou rebutantes) ; on peut aussi penser que l’innovation comme production d’un champ des possibles – certaines technologies deviennent des standards, d’autres des échecs – obéit à une sorte de téléologie, de finalité rationnelle dont le sens se révèle a posteriori. Dans la seconde hypothèse, la technologie est réinscrite dans le cadre des rapports de force socio-économiques. C’est cette idée que va commenter par exemple l’économiste Bruno Tinel, s’appuyant sur une lecture de théoriciens radicaux tels que Marglin ou Braverman et en inversant la formule de Marx selon laquelle « Le moulin à bras vous donnera la société avec le suzerain ; le moulin à vapeur la société avec le capitaliste industriel » (Marx [1847], p. 79). En effet, à rebours de cette formule, on peut réinterpréter l’évolution historique en  considérant que c’est plutôt le suzerain qui donne le moulin à bras : « Le rôle de la technique est relativisé dans l’analyse par les radicaux au profit des luttes sociales, des rapports de pouvoir et de domination : c’est par eux qu’est résolue l’indétermination ex ante de l’organisation de la production. Celle-ci résulte alors des rapports de forces qui ont lieu à la fois dans la société et sur le terrain contesté qu’est le laboratoire secret de la production. Ce premier volet du refus, par les radicaux, du déterminisme technique strict revient à réaffirmer que l’organisation de la production est endogène aux rapports de production, pour un état donné du développement des forces productives. Comme l’écrit Braverman, la théorie d’une societas ex machina, pour qui «les attributs de la société moderne sont considérés comme sortant directement des cheminées d’usine, des machines-outils et des ordinateurs» (Braverman [1974], p. 22) doit être rejetée » (Bruno Tinel : https://halshs.archives-ouvertes.fr/halshs-00196377/document)En résumé, les robots peuvent êtres analysés moins comme l’expression d’une sorte de matérialisme historique doté d’une force propre et animé par un progrès technique inexorable et finalisé que comme les révélateurs des forces sociales et économiques à l’oeuvre dans le monde capitaliste… Par extension, une telle perspective doit nous amener à considérer à nouveaux frais la question de la division du travail, question sur laquelle nous reviendrons dans un prochain article, à la fois parce qu’elle s’impose avec force dans les débats autour des effets possibles de la robotisation du monde du travail, notamment la substituabilité  du robot à l’humain, et aussi parce qu’elle permet de renouer avec des auteurs finalement mal connus dans le champ des sciences sociales qui ont pensé, dès le milieu des années 70, la question de la technique sous son versant le plus politique.

États-Unis : 1800 scientifiques se demandent si l’espèce humaine devait craindre l’avènement des robots

Peut-on vivre en harmonie avec les robots? C’est la question à laquelle une récente étude tente de répondre. En effet, pas moins de 1.800 scientifiques ont exprimé leur point de vue et les avis sont très partagés (http://fortune.fdesouche.com/370949-etats-unis-1800-scientifiques-se-demandent-si-lespece-humaine-devait-craindre-lavenement-des-robots)

Voici le résultat de l’étude de l’Université d’Elon aux États-Unis: 52 % des scientifiques qui se sont exprimés lors de cette étude sont persuadés que l’impact de la robotique permettra de créer de nouvelles perspectives pour l’Homme, une certaine valeur ajoutée, avec la création par exemple de nombreux emplois liés à ce secteur bien spécifique. On imagine en effet très bien la nécessité d’un large éventail de techniciens et d’ingénieurs pour le soin et la maintenance de nos nouveaux amis.

Les progrès en robotique permettent, entre autres, de soutenir notre charge de travail et aussi de nous remplacer dans des secteurs laborieux, dangereux ou de précision. On s’imagine déjà dans un univers à la Star Wars avec des robots utilitaires à chaque coin de rue, avec pourquoi pas un petit R2D2 en guise de compagnon pour nous apporter le café. L’automatisation par la robotisation va aussi faciliter l’ouverture de nouveaux marchés.

A terme donc, les robots pourront faciliter la création d’entreprise en réduisant les coûts. Mais tout ceci est aussi à double tranchant, car on oublie bien souvent que de nombreux métiers du quotidien, qui paraissent « invisibles », sont réalisés par des êtres de chair et de sang. Le sujet de la robotique est donc délicat.

L’automatisation à outrance par exemple ne risque-t-elle pas de remplacer à long terme totalement l’Homme? Sans forcément entrer dans un scénario à la Terminator où les robots prennent le dessus sur nous, on peut légitimement se poser la question.

C’est là qu’interviennent les 48 % d’experts qui estiment que les robots auront un rôle tellement important qu’ils auront plus de travail que nous, ce qui risquerait de créer de graves problèmes économiques. On se souvient des réserves du grand scientifique Stephen Hawking sur l’intelligence artificielle dont nous vous avions déjà parlé.

L’avancée technologique est souvent une véritable bénédiction, mais n’oublions pas que celle-ci peut être un outil pour nous surveiller et même dans le pire des cas nous nuire. On sait par exemple que bon nombre d’inventions de l’Humanité ont pour origine une technologie militaire transformée. On peut dès lors aisément imaginer le champ d’action d’une telle technologie…

Rise of the Robots

Paul Krugman

Catherine Rampell and Nick Wingfield write about the growing evidence for “reshoring” of manufacturing to the United States. They cite several reasons: rising wages in Asia; lower energy costs here; higher transportation costs. In a followup piece, however, Rampell cites another factor: robots.

The most valuable part of each computer, a motherboard loaded with microprocessors and memory, is already largely made with robots, according to my colleague Quentin Hardy. People do things like fitting in batteries and snapping on screens.

As more robots are built, largely by other robots, “assembly can be done here as well as anywhere else,” said Rob Enderle, an analyst based in San Jose, Calif., who has been following the computer electronics industry for a quarter-century. “That will replace most of the workers, though you will need a few people to manage the robots.”

Robots mean that labor costs don’t matter much, so you might as well locate in advanced countries with large markets and good infrastructure (which may soon not include us, but that’s another issue). On the other hand, it’s not good news for workers!

This is an old concern in economics; it’s “capital-biased technological change”, which tends to shift the distribution of income away from workers to the owners of capital.

Twenty years ago, when I was writing about globalization and inequality, capital bias didn’t look like a big issue; the major changes in income distribution had been among workers (when you include hedge fund managers and CEOs among the workers), rather than between labor and capital. So the academic literature focused almost exclusively on “skill bias”, supposedly explaining the rising college premium.

But the college premium hasn’t risen for a while. What has happened, on the other hand, is a notable shift in income away from labor:

Photo

Credit

If this is the wave of the future, it makes nonsense of just about all the conventional wisdom on reducing inequality. Better education won’t do much to reduce inequality if the big rewards simply go to those with the most assets. Creating an “opportunity society”, or whatever it is the likes of Paul Ryan etc. are selling this week, won’t do much if the most important asset you can have in life is, well, lots of assets inherited from your parents. And so on.

I think our eyes have been averted from the capital/labor dimension of inequality, for several reasons. It didn’t seem crucial back in the 1990s, and not enough people (me included!) have looked up to notice that things have changed. It has echoes of old-fashioned Marxism — which shouldn’t be a reason to ignore facts, but too often is. And it has really uncomfortable implications.

But I think we’d better start paying attention to those implications.

Voir aussi l’interview filmée de Paul Krugman sur :  http://www.businessinsider.com/paul-krugman-on-technology-and-the-economy-2013-2?IR=T

Publicités

On est poète… Ou on ne l’est pas !

09_Vian

On voit bien que l’activité déployée par les robots-créateurs, ou les robots-artistes – les deux termes ne sont pas rigoureusement équivalents puisque « artiste » est une qualification sociale (Voir Nathalie Heinich, L’élite artiste, Gallimard) – pose de redoutables questions lorsqu’elle nous confronte à l’identification et à l’évaluation des oeuvres. Ainsi en témoigne la réaction d’une lectrice de ce blog que je reproduis in extenso :

« OK, des robots pourront écrire des romans standardisés mais pourront-ils produire une oeuvre d’imagination originale? L’inventivité littéraire est affaire de hasard, d’imprévisibilité , de désordre et bien sûr d’individualité. Un mauvais roman peut susciter de l’émotion, un chef d’oeuvre du dégoût. Un robot peut-il écrire un poème? Un alexandrin oui, sûrement mais atteindre la puissance de Baudelaire? »

A cette question qu’il faut prendre très au sérieux, je propose de premiers éléments de réponse qui demanderont à être précisés et poussés plus avant, mais ce qui me frappe avant tout, c’est à quel point le robot fonctionne comme un formidable opérateur de mise en relief voire de déconstruction des catégories sociales et des conventions.

Howard Becker a écrit – je reformule de mémoire – que la musique était du bruit qu’on s’accordait par convention à considérer comme de la musique. En d’autres termes, on peut considérer qu’une oeuvre ou qualifiée comme telle est identifiée comme telle parce qu’elle est ajustée aux conventions d’un époque. C’est l’idée défendue par Nelson Goodman lorsqu’il indique que l’oeuvre d’art n’existe pas en soi, mais en fonction des significations qui lui sont données par le public qui la regarde (ou la lit, l’écoute, etc.) Les hiérarchies culturelles, la valeur des oeuvres ne sont pas données en soi, mais en fonction des contextes socio-historiques d’appréciation (et de légitimation) de ces oeuvres. Donc, soit on considère qu’un roman est intrinsèquement bon ou mauvais. Dans cette perspective essentialiste, on peut déduire de ses propriétés formelles sa qualité et par conséquent hiérarchiser les romans selon un continuum qualitatif. On dira par exemple que Proust et la Recherche sont très supérieurs aux romans de Barbara Cartland car ces derniers obéissent à des formules stéréotypées et prévisibles, alors que la Recherche n’obéirait pas à de tels mécanismes. Pourquoi pas, bien que cela pose question pour des auteurs comme Jules Verne qui sont à mi-chemin, si l’on peut dire, entre la commande (de son éditeur Hetzel) et l’illustration fictionnelle de principes techno-scientifiques. En outre, on pourrait faire l’hypothèse que chez telle peuplade habitant une forêt primaire et n’ayant aucune idée de l’histoire de la littérature occidentale, le schème de la répétition procure un plaisir esthétique plus grand que la lecture de Proust (inutile d’ailleurs d’aller chercher si loin : bien des lecteurs éprouvent ainsi les effets de la littérature dite populaire), ce qui complexifie encore l’analyse puisqu’on peut se demander pourquoi le jugement rationnel sur les oeuvres serait plus important que le plaisir qu’elles nous procurent (les deux n’étant pas nécessairement liés, cela va de soin et il me semble d’ailleurs qu’une des caractéristiques de notre époque – à la différence par exemple des années 70 où Bourdieu écrivait La Distinction – c’est justement que nous pouvons sans scrupules, dissimulation ou contorsions théoriques apprécier des oeuvres indépendamment de la place qu’elles occupent dans la hiérarchie artistique, hiérarchie elle-même de moins en moins évidente comme en témoigne par exemple la promotion des séries télévisées). Bref, de nombreux obstacles se dressent sur la route du partisan de l’option essentialiste… Soit on adopte une autre perspective et on considère, comme le fait par exemple Richard Shusterman à propos du rap (L’art à l’état vif), en s’inspirant du pragmatisme, que la valeur de l’art réside avant toute chose dans l’expérience par laquelle elle est perçue mais aussi créée comme tel. Ce type d’approche récuse bien entendu la définition de l’art comme fétiche, et même comme fétiche auratique portant la marque du génie singulier, vision qui est un héritage du romantisme et de sa conception singulière de l’art, qui n’est en fait qu’un faux universel et un moment dans l’histoire générale de l’art. A partir de là, la question devient celle de savoir comment on envisage cette histoire générale de l’art : soit comme un progrès formel (mais le terme est en soit problématique lorsqu’on le pense en terme esthétique car en quoi un tableau de Picasso représente-t-il – du simple point de vue esthétique – un « progrès » par rapport à un tableau de Piero della Francesca ?), soit comme une succession de conventions qui sont autant d’étapes dans cette histoire, soit comme le passage progressif de ce qui n’est pas encore de l’art (jusqu’à la fin du Moyen-âge) à ce qui est perçu et conçu comme de l’art (Raymonde Moulin ou Michaël Baxandall ont écrit de très belles choses à ce sujet), soit comme – en un sens hegélien – l’avènement de l’esprit (Geist) conscient de lui-même, c’est à dire l’avènement de la réflexivité (qui trouverait dans l’art abstrait son point culminant et dans l’art post-moderne une sorte de passage à la limite en tant que clôture et dépassement du mouvement des avant-gardes).
Bref, tout cela pour indiquer que la question posée est moins celle de savoir si le robot poète ou écrivain peut produire des oeuvres équivalentes à celles des meilleurs artistes, que de savoir s’il peut produire des oeuvres radicalement inouïes, par delà l’expressivité humaine même, un art robotiquement autonome en somme. En outre, alors que nous nous sommes forgés pendant plusieurs siècles une certaine image ou idée de la figure du poète et de l’artiste, le robot nous contraint à reconfigurer nos schèmes, catégories et représentations de la personnalité artistique, de la subjectivité, du talent, du for intérieur, en nous confrontant à cette redoutable question : de quoi procède l’émotion esthétique ? De l’expérience de l’oeuvre, du savoir qui entoure l’oeuvre, de la reconnaissance de conventions familières, de la confrontation à des éléments disruptifs ? Dans le cas de Paco, robot-poète, il me semble que c’est la fragilité même de l’entité – fabriquée avec du matériel de récupération, tendant sa sébile pour délivrer un poème qu’il déclame d’une voix monocorde et synthétique, installé sur un fauteuil roulant – qui me touche, un peu comme un alter ego artefactuel de Stephen Hawking,  une sorte de compagnon d’infortune de l’illustre physicien dont il partagerait la condition, condition magnifiée par l’art d’engendrer de la poésie, aptitude un peu décalée et pour tout dire non-utilitariste qui fait justement la beauté de la chose… En quelque sorte, avec Paco, le message c’est le médium, ou la poésie le poète lui-même.

La poésie n’a plus besoin d’humains pour s’écrire. Les Robots s’en chargent.

Ouuuuu ! Ouuuuu ! Sympathy for the robots

images

Où il est démontré que l’homme n’est pas nécessairement un loup pour le robot ! Entre le Paul Ricoeur de Soi-même comme un autre (Seuil, 1990) et la théorie honnethienne de la lutte pour la reconnaissance, quelle place accorder à l’empathie éprouvée par les humains à l’égard des robots, l’empathie étant entendu comme processus par lequel les individus se comprennent, en d’autres termes, « processus qui nous permet de nous transférer dans un vécu psychique étranger sur la base des signes qu’autrui donne à saisir » (Michel Dupuis, « L’empathie comme outil herméneutique du soi », Etudes Ricoeuriennes, Vol. 1, N° 1, 2010, pp. 9-20) ? C’est cette question, qui touche à la fois à la place du robot dans l’herméneutique de soi mais également et symétriquement à la capacité du robot de reconnaître et s’ajuster à nos émotions – nous concevons aujourd’hui les robots comme ces êtres qui nous émeuvent parce qu’ils s’émeuvent de nos émotions – qu’abordent les deux documents ci-dessous…

EMPATHIE. La série Real Humans, diffusée actuellement sur Arte, nous donne la vision d’un monde dans lequel les humains tissent des liens affectifs étroits avec des robots humanoïdes. Mais ces relations d’amitié, d’amour ou de haine sont-elles dues au fait que les machines présentées dans cette fiction ont une apparence si proche de l’homme qu’on peut parfois s’y tromper ?

Non. Une étude conduite par l’université de Duisbourg et Essen (Allemagne) vient de montrer que les humains peuvent ressentir de l’empathie pour un robot dont l’apparence n’a rien d’humain.

Pour cela, les chercheurs (dont l’objectif est d’étudier les interactions entre les humains et les robots) ont conduit deux études. Dans la première, ils ont projeté à 40 participants plusieurs vidéos d’un petit dinosaure robotisé : ce dernier y était soit traité affectueusement, soit martyrisé.

La séquence vidéo du dinosaure robot « violenté » par l’expérimentateur, présentée durant l’expérience.

Interrogés à l’issue de la diffusion, les spectateurs ont rapporté avoir été plus affectés par la vidéo montrant le dinosaure robotisé passer un sale quart d’heure. De plus, les chercheurs ont noté un niveau d’attention plus important chez les spectateurs durant le visionnage de la séquence « violente ».

Et pour cause : même en sachant qu’il s’agit d’un jouet qui ne ressent aucune douleur, on ne peut s’empêcher d’être mal à l’aise en entendant les cris déchirants de l’animal et les rires des « bourreaux » dans cette autre vidéo (attention, les « expérimentateurs » qui s’y trouvent ne sont pas les chercheurs à l’origine des travaux présentés ici) :

Dans cette vidéo, des expérimentateurs testent les réactions d’un robot jouet (conçu pour réagir à la voix et au toucher) lorsqu’il est maltraité. Au moment ou nous écrivons ces lignes, cette séquence compte plus de 700 commentaires qui, pour une bonne partie, s’insurgent contre les mauvais traitements infligés à « l’animal » !

HUMAIN. Mais cette empathie est-elle semblable à celle que l’on ressentirait à la vision d’un humain subissant le même traitement ? Pour le savoir, l’équipe a proposé à 14 patients de visionner de nouvelles séquences vidéo. Durant la projection, leur activité cérébrale était enregistrée en temps réel au moyen d’une IRM fonctionnelle.

Les mêmes régions cérébrales sont activées à la vision d’un robot ou d’un humain martyrisé

Sur les vidéos, on voyait soit un robot (le même dinosaure jouet), soit un être humain, soit un objet (une boîte) traités avec affection (caresses, massages, câlins…) ou avec violence. Dans cette seconde vidéo, la femme, une actrice, faisait alors semblant de souffrir et de se débattre.

IRM. Les chercheurs ont constaté que les structures limbiques du cerveau (hippocampe, amygdale, hypothalamus…) s’activaient lors de la projection des vidéos « tendres » ou « violentes » du dinosaure comme lors de celle du sujet humain. Or, ces régions cérébrales ne s’activent que lorsque nous ressentons des émotions.

L’expérience laisse donc à penser que les sujets de l’expérience ressentiraient une empathie à la vue d’un robot dinosaure martyrisé, de même nature que celles qu’ils ressentiraient en voyant un humain subissant le même traitement.

Toutefois, les chercheurs ont remarqué une différence d’intensité dans le stimulus consécutif à la séquence « violente ». La maltraitance simulée du sujet humain affecterait plus les spectateurs que la vision d’un jouet maltraité par un expérimentateur… Ouf, l’humanité n’est pas encore perdue.

Erwan Lecomte, Sciences et Avenir, 29/04/13 (http://www.sciencesetavenir.fr/high-tech/20130429.OBS7522/l-insupportable-vision-d-un-robot-torture.html)

Le robot : bientôt plus sociable que l’homme ?

Edie-robot-emotion-faciale

Nous avons tous cet ami : celui qui nous tapote sur le dos avec empathie quand nous nous sentons déprimés, ou qui partage notre enthousiasme quand on déborde de joie. Ils partagent nos froncements de sourcils quand nous avons été lésés d’une quelconque manière, pour dire “je suis aussi passé par là » quand nous confessons nos soucis. Les psychologues savent depuis longtemps que ce genre d’empathie est une construction sociale importante pour l’établissement de relations et maintenant, les chercheurs testent si elle peut nous rapprocher aussi des robots.

Dans une étude présentée le mois dernier lors de la Conférence internationale de l’IEEE sur les robots et les systèmes intelligents, Barbara Gonsior de L’université technique de Munich a examiné si les effets de miroir émotionnel peuvent être étendus à nos futurs partenaires robots.

Dans la vidéo ci-dessous, la tête de robot Eddie demande à une personne, « Comment vas-tu ? » Puis, peu importe la réponse humaine, Eddie répond : « Moi aussi! » C’est une phrase puissante qui, lors d’une première rencontre, fait très bonne impression. Eddie, contrôlé par un chercheur caché derrière la scène, joue alors un jeu tout en adaptant sa voix et ses émotions faciales à celles de l’utilisateur.

Après l’interaction, le robot demande à l’humain d’étiqueter des images, autant qu’ils le voudraient. C’est une tâche ennuyeuse qui pouvait être abandonnée à tout moment. Les résultats ont montré que les participants ont étiqueté 65 % de photos en plus lorsque le robot adaptait son humeur (faciale) à celle de l’humain que quand il ne le faisait pas.

Certains pourraient appeler cela contraire à l’éthique pour un robot de « prétendre » avoir les mêmes émotions qu’un être humain. Si le robot n’a pas réellement d’émotions, est-ce un “mensonge” quand il dit « moi aussi ? » Est-ce une sorte de manipulation sociale ? Mais d’un autre côté, qu’importe ? Qui voudrait d’un robot morose quand vous êtes de bonne humeur, ou inconsciemment heureux quand vous êtes triste ? Un minimum d’empathie est important dans notre société et cette étude suggère que les robots qui s’adaptent à nos humeurs auront réellement un avantage social.

L’étude de Barbara Gonsior, Stefan Sosnowski, Malte Buß, Dirk Wollherr et Kolja Kuhnlenz de l’université technique de Munich en PDF ici : An Emotional Adaption Approach to increase Helpfulness towards a Robot qui a été présenté à la Conférence 2012 de l’ IEEE International sur les robots et les systèmes intelligents à Vilamoura, Portugal.

http://www.gurumed.org/2012/11/15/le-robot-bientt-plus-sociable-que-lhomme-vido/

2015, année robotique ? Ce que nous prédisent les boules de cristal des big data scientists…

crystal-ball-woman-ss-1920-800x450

La tradition veut que, lors du passage du nouvel an, des voeux soient formulés. Si les voeux engagent sur un mode bien particulier, puisqu’ils ne mettent pas en jeu le régime de vérité et qu’ils sont réglés par un type de convention reposant sur la sincérité présumée de celui qui les adresse, les prédictions quant à elles peuvent donner lieu, ex post, à vérification. En ce cas, on vérifiera soit le talent divinatoire et ésotérique du futurologue, soit sa capacité à faire converger, de manière rationnelle, un certain nombre de  schèmes itératifs dans le cadre d’un raisonnement de type probabiliste. A cet égard, les algorithmes fondés sur l’analyse des big data représentent la variante contemporaine du jugement prédictif, tenant lieu et place du diseur de bonne aventure. Il était donc tentant, à moins d’une heure trente du passage à l’année 2015, de voir comment les robots pouvaient prédire l’avenir, quels scénarios ces pythies algorithmiques nous réservaient, et quels enjeux théoriques cette science du futur proposait…

Dans le domaine de la prospective par algorithmes, il semble qu’une des prêtresses se nomme  Kira Radinsky (http://aftertheweb.com/kira-radinsky-algorithme-futur/)

Deborah est le logiciel développé par Kira. Ce dernier est capable d’analyser le contenu du web tels que des articles de presse, les pages Wikipédia, les tweets, les recherches Google des internautes, etc. L’intelligence du logiciel ne se limite pas à la récolte du contenu (datamining) puisqu’un algorithme va identifier des schémas récurrents (ou pattern dans la langue de Shakespeare) au sein des données.

Le logiciel développé par Kira a par exemple identifié que dans les régions où il y a eu une sécheresse, s’ensuit dans la majorité des cas, d’inondations dès l’année suivante qui se concluent par une épidémie de choléra. A l’aide de ces prédictions, la jeune Data Scientist espère donc pouvoir limiter le nombre de victimes du choléra, empêcher des génocides ou encore identifier les personnes aux tendances suicidaires.

Aujourd’hui Kira est CTO et cofondatrice de SalesPredict, une start-up qui vient de clôturer une levée de fond d’un million de dollars. Grâce à ses algorithmes prédictifs et aux données Big Data de ses clients, SalesPredict promet aux entreprises de doubler leur taux de conversion et d’améliorer la fidélisation client.

Dans un registre plus déterministe et moins irénique, Stephen Hawking envisage l’autonomisation et l’émancipation progressive de l’intelligence robotique comme une forme de menace pour l’humanité :

Du HAL 9000 de l’Odysée de l’Espace à la saga Terminator, la peur des intelligences artificielles est un thème récurrent des oeuvres de science-fiction. Alors que les machines deviennent plus intelligentes et que nous leur confions davantage de tâches, l’humanité doit-elle craindre l’intelligence artificielle ? Le mathématicien et cosmologue Stephen Hawking affirme que les machines pensantes sont une menace pour nous. Il explique lors de sa récente interview à la BBC que « les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles […] mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine ». Il ajoute,« [une telle forme d’intelligence] pourrait s’émanciper et même améliorer sa propre conception à une vitesse toujours croissante. Les humains, limités par leur évolution biologique lente, ne pourraient pas rivaliser, et seraient détrônés ».

Stephen Hawking n’est pas le seul à partager cette peur d’un soulèvement des machines puisqu’en octobre dernier lors d’une conférence du MIT, Elon Musk s’était aussi prononcé sur le sujet. D’après le PDG de Tesla Motors et Space X, l’intelligence artificielle est « notre plus grande menace existentielle ». En comparant l’utilisation de cette technologie à l’invocation du démon qu’on espère contrôler, l’entrepreneur américain a clairement exprimé son opinion négative sur le développement d’intelligences artificielles. Pour un meilleur contrôle du danger, Elon Musk souhaiterait même une supervision étatique du projet.

Notons que Google qui possède des sociétés de robotique (Boston Dynamics) et d’intelligence artificielle (Deep Mind) a déjà constitué un Comité d’Ethique dédié aux questions soulevées par ces technologies. En Europe, une équipe de recherche britannique vient de lancer un projet collaboratif sur les machines autonomes et sur l’élaboration d’un cadre législatif sur les normes industrielles et éthique des robots. Le professeur Alain Winfield qui participe au projet explique « si nous devions faire confiance aux robots, en particulier lors de nos interactions avec eux, ces derniers devront être plus que fiables. Nous avons déjà prouvé au laboratoire qu’un robot peu complexe peut être éthique, et suivre de manière étonnamment proche les fameuses lois d’Asimov. Nous devons maintenant prouver qu’un tel robot sera capable d’agir éthiquement de manière immuable, tout en cherchant à comprendre l’utilité de tels robots dans le monde réel. » (http://aftertheweb.com/selon-stephen-hawking-lintelligence-artificielle-est-un-danger-pour-lhumanite/)

Dans un registre plus austinien (pas la ville d’Austin ! J. L. Austin, l’auteur de How to do things with words), certains futurologues nous invitent à reconsidérer la signification des termes que nous employons, tels « robots », « drones », etc…  dans la mesure où la complexification des usages et des innovations qui les supportent appelle un requalification terminologique (http://qz.com/318214/in-2015-well-need-different-words-to-talk-about-the-future/)

We’re going to have to clean up our language when talking about the future.

To clarify this ambiguous statement, we’re wading into a future where we will require more precise definitions to discuss increasingly complicated, complex and more finely nuanced objects, situations and roles people have in the world. However it unfolds, it’s a good bet that it will involve things for which we don’t yet have good names (see “vape,” “entopreneur,” and “card clash” if you have any questions). Catch-all terms, particularly when applied to emerging phenomena, do us more harm than good, and we need to find better options to communicate about them if we’re going to understand what comes next.

As a fellow observer of near futures pointed out, similar things are happening with words like “robots,” “algorithms,” and “drones.” We casually use them as shorthand, but (increasingly) there are worlds of difference between, say, an industrial robot on a production line and a telepresence unit on wheels, of the kind we’ve seen Edward Snowden’s face teetering on recently. “Robot” used to mean a humanoid machine capable of executing commands. Yet, advances in engineering mean the machines we task to do things for us take many shapes, and only a minority look anything like us. So when a headline shouts “Are Robots Stealing Our Jobs?” one has to ask, “What job, performed how and by whom?” to get closer to a meaningful understanding of what a robot could be here.“Algorithm” is currently the hot term among tech folk and in the mainstream press alike, used to refer to any black box, computerized formula that makes a decision, whether it’s used to sell you socks instead of panty hose, or to deny you the ability to board a flight. The term is now showing up on major newspapers, above the fold, but few people on the street can tell you what an algorithm is. But, man, are they responsible for a lot of critical decisions.Likewise, with the word “drone.” I think you’d know the difference between a fully armed Reaper drone locked on your location and a cheap palm-sized toy buzzing around you, at least for a few meaningful seconds. Even the “drone” industry is having a hard time settling on terminology. Part of this search for a better label is for marketing clarity, part of it is defense against negative attention. The term has already become quite sticky, as has negative attention around drones, so differentiating names by function, or throwing in qualifiers (toy drone, military drone, farming drone) is tough. Yet, unlike what has happened with “hackers,” as time goes on, we’ll probably see more fine-tuned language around drones, because unlike with “hackers,” we can stratify a good deal of what’s going on with drones in our daily lives, and we’ll need names to refer to different activities so we don’t accidentally call in a Hellfire missile strike when we just want an orchard irrigated or a package delivered.

But “hackers,” “algorithms,” and to some extent “robots,” sit behind metaphorical — or actual — closed doors, where obscurity can benefit those who would like to use these terms, or exercise the realities behind them to their own benefit, though perhaps not to ours. We need better definitions, and more exact words, to talk about these things because, frankly, these particular examples are part of a larger landscape of “actors” which will define how we live in coming years, alongside other ambiguous terms like “terrorist,” or “immigrant,” about which clear discourse will only become more important.

Language is power—power that often implies, or closes down knowledge and understanding, both of which we need to make informed decisions about individual and collective futures. Everyone doesn’t need to become a technical expert, or keep a field guide to drones and robots handy (though it might be useful sooner than later), but, as I’ve pointed out in the case of complex systems and supply chains, we might all benefit from having a clearer understanding of how the world is changing around us, and what new creatures we’ll encounter out there. Perhaps it’s time we all start wielding language with greater clarity. I’m sure the robots will.

Après avoir passé en revue quelques réflexions de portée générale sur l’art de la futurologie numérique, je propose quelques liens de sites où des prévisionnistes chevronnés  ne nous diront pas ce que sera et comment ira le monde en 2015, mais plus modestement, ce que seront les robots dans… une trentaine de minutes, c’est à dire l’an prochain : parmi les grandes tendances, des robots intégrant la sphère domestique ; et des robots capables de déchiffrer nos émotions, à l’instar du fameux robot Pepper. On voit ici s’ouvrir tout un champ d’interactions autour de la reconnaissance des émotions que Goffman n’aurait pas renié et qui s’annonce en tout cas passionnant à observer et analyser ! (https://yasi.fr/actus/detection-emotions-algorithme).

Ce que seront les robots en 2015 ! :

http://marshallbrain.com/robots-in-2015.htm

http://www.factor-tech.com/robots/10411-ai-with-a-heart-will-2015-be-the-year-of-the-personal-robot/

http://www.clickz.com/clickz/column/2386949/is-2015-going-to-be-the-year-of-the-robot

http://www.dailymail.co.uk/sciencetech/article-2886424/Could-2015-year-domestic-robots-3D-printed-food.html

http://www.gizmag.com/pepper-robot/32428/