2015, année robotique ? Ce que nous prédisent les boules de cristal des big data scientists…

crystal-ball-woman-ss-1920-800x450

La tradition veut que, lors du passage du nouvel an, des voeux soient formulés. Si les voeux engagent sur un mode bien particulier, puisqu’ils ne mettent pas en jeu le régime de vérité et qu’ils sont réglés par un type de convention reposant sur la sincérité présumée de celui qui les adresse, les prédictions quant à elles peuvent donner lieu, ex post, à vérification. En ce cas, on vérifiera soit le talent divinatoire et ésotérique du futurologue, soit sa capacité à faire converger, de manière rationnelle, un certain nombre de  schèmes itératifs dans le cadre d’un raisonnement de type probabiliste. A cet égard, les algorithmes fondés sur l’analyse des big data représentent la variante contemporaine du jugement prédictif, tenant lieu et place du diseur de bonne aventure. Il était donc tentant, à moins d’une heure trente du passage à l’année 2015, de voir comment les robots pouvaient prédire l’avenir, quels scénarios ces pythies algorithmiques nous réservaient, et quels enjeux théoriques cette science du futur proposait…

Dans le domaine de la prospective par algorithmes, il semble qu’une des prêtresses se nomme  Kira Radinsky (http://aftertheweb.com/kira-radinsky-algorithme-futur/)

Deborah est le logiciel développé par Kira. Ce dernier est capable d’analyser le contenu du web tels que des articles de presse, les pages Wikipédia, les tweets, les recherches Google des internautes, etc. L’intelligence du logiciel ne se limite pas à la récolte du contenu (datamining) puisqu’un algorithme va identifier des schémas récurrents (ou pattern dans la langue de Shakespeare) au sein des données.

Le logiciel développé par Kira a par exemple identifié que dans les régions où il y a eu une sécheresse, s’ensuit dans la majorité des cas, d’inondations dès l’année suivante qui se concluent par une épidémie de choléra. A l’aide de ces prédictions, la jeune Data Scientist espère donc pouvoir limiter le nombre de victimes du choléra, empêcher des génocides ou encore identifier les personnes aux tendances suicidaires.

Aujourd’hui Kira est CTO et cofondatrice de SalesPredict, une start-up qui vient de clôturer une levée de fond d’un million de dollars. Grâce à ses algorithmes prédictifs et aux données Big Data de ses clients, SalesPredict promet aux entreprises de doubler leur taux de conversion et d’améliorer la fidélisation client.

Dans un registre plus déterministe et moins irénique, Stephen Hawking envisage l’autonomisation et l’émancipation progressive de l’intelligence robotique comme une forme de menace pour l’humanité :

Du HAL 9000 de l’Odysée de l’Espace à la saga Terminator, la peur des intelligences artificielles est un thème récurrent des oeuvres de science-fiction. Alors que les machines deviennent plus intelligentes et que nous leur confions davantage de tâches, l’humanité doit-elle craindre l’intelligence artificielle ? Le mathématicien et cosmologue Stephen Hawking affirme que les machines pensantes sont une menace pour nous. Il explique lors de sa récente interview à la BBC que « les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles […] mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine ». Il ajoute,« [une telle forme d’intelligence] pourrait s’émanciper et même améliorer sa propre conception à une vitesse toujours croissante. Les humains, limités par leur évolution biologique lente, ne pourraient pas rivaliser, et seraient détrônés ».

Stephen Hawking n’est pas le seul à partager cette peur d’un soulèvement des machines puisqu’en octobre dernier lors d’une conférence du MIT, Elon Musk s’était aussi prononcé sur le sujet. D’après le PDG de Tesla Motors et Space X, l’intelligence artificielle est « notre plus grande menace existentielle ». En comparant l’utilisation de cette technologie à l’invocation du démon qu’on espère contrôler, l’entrepreneur américain a clairement exprimé son opinion négative sur le développement d’intelligences artificielles. Pour un meilleur contrôle du danger, Elon Musk souhaiterait même une supervision étatique du projet.

Notons que Google qui possède des sociétés de robotique (Boston Dynamics) et d’intelligence artificielle (Deep Mind) a déjà constitué un Comité d’Ethique dédié aux questions soulevées par ces technologies. En Europe, une équipe de recherche britannique vient de lancer un projet collaboratif sur les machines autonomes et sur l’élaboration d’un cadre législatif sur les normes industrielles et éthique des robots. Le professeur Alain Winfield qui participe au projet explique « si nous devions faire confiance aux robots, en particulier lors de nos interactions avec eux, ces derniers devront être plus que fiables. Nous avons déjà prouvé au laboratoire qu’un robot peu complexe peut être éthique, et suivre de manière étonnamment proche les fameuses lois d’Asimov. Nous devons maintenant prouver qu’un tel robot sera capable d’agir éthiquement de manière immuable, tout en cherchant à comprendre l’utilité de tels robots dans le monde réel. » (http://aftertheweb.com/selon-stephen-hawking-lintelligence-artificielle-est-un-danger-pour-lhumanite/)

Dans un registre plus austinien (pas la ville d’Austin ! J. L. Austin, l’auteur de How to do things with words), certains futurologues nous invitent à reconsidérer la signification des termes que nous employons, tels « robots », « drones », etc…  dans la mesure où la complexification des usages et des innovations qui les supportent appelle un requalification terminologique (http://qz.com/318214/in-2015-well-need-different-words-to-talk-about-the-future/)

We’re going to have to clean up our language when talking about the future.

To clarify this ambiguous statement, we’re wading into a future where we will require more precise definitions to discuss increasingly complicated, complex and more finely nuanced objects, situations and roles people have in the world. However it unfolds, it’s a good bet that it will involve things for which we don’t yet have good names (see “vape,” “entopreneur,” and “card clash” if you have any questions). Catch-all terms, particularly when applied to emerging phenomena, do us more harm than good, and we need to find better options to communicate about them if we’re going to understand what comes next.

As a fellow observer of near futures pointed out, similar things are happening with words like “robots,” “algorithms,” and “drones.” We casually use them as shorthand, but (increasingly) there are worlds of difference between, say, an industrial robot on a production line and a telepresence unit on wheels, of the kind we’ve seen Edward Snowden’s face teetering on recently. “Robot” used to mean a humanoid machine capable of executing commands. Yet, advances in engineering mean the machines we task to do things for us take many shapes, and only a minority look anything like us. So when a headline shouts “Are Robots Stealing Our Jobs?” one has to ask, “What job, performed how and by whom?” to get closer to a meaningful understanding of what a robot could be here.“Algorithm” is currently the hot term among tech folk and in the mainstream press alike, used to refer to any black box, computerized formula that makes a decision, whether it’s used to sell you socks instead of panty hose, or to deny you the ability to board a flight. The term is now showing up on major newspapers, above the fold, but few people on the street can tell you what an algorithm is. But, man, are they responsible for a lot of critical decisions.Likewise, with the word “drone.” I think you’d know the difference between a fully armed Reaper drone locked on your location and a cheap palm-sized toy buzzing around you, at least for a few meaningful seconds. Even the “drone” industry is having a hard time settling on terminology. Part of this search for a better label is for marketing clarity, part of it is defense against negative attention. The term has already become quite sticky, as has negative attention around drones, so differentiating names by function, or throwing in qualifiers (toy drone, military drone, farming drone) is tough. Yet, unlike what has happened with “hackers,” as time goes on, we’ll probably see more fine-tuned language around drones, because unlike with “hackers,” we can stratify a good deal of what’s going on with drones in our daily lives, and we’ll need names to refer to different activities so we don’t accidentally call in a Hellfire missile strike when we just want an orchard irrigated or a package delivered.

But “hackers,” “algorithms,” and to some extent “robots,” sit behind metaphorical — or actual — closed doors, where obscurity can benefit those who would like to use these terms, or exercise the realities behind them to their own benefit, though perhaps not to ours. We need better definitions, and more exact words, to talk about these things because, frankly, these particular examples are part of a larger landscape of “actors” which will define how we live in coming years, alongside other ambiguous terms like “terrorist,” or “immigrant,” about which clear discourse will only become more important.

Language is power—power that often implies, or closes down knowledge and understanding, both of which we need to make informed decisions about individual and collective futures. Everyone doesn’t need to become a technical expert, or keep a field guide to drones and robots handy (though it might be useful sooner than later), but, as I’ve pointed out in the case of complex systems and supply chains, we might all benefit from having a clearer understanding of how the world is changing around us, and what new creatures we’ll encounter out there. Perhaps it’s time we all start wielding language with greater clarity. I’m sure the robots will.

Après avoir passé en revue quelques réflexions de portée générale sur l’art de la futurologie numérique, je propose quelques liens de sites où des prévisionnistes chevronnés  ne nous diront pas ce que sera et comment ira le monde en 2015, mais plus modestement, ce que seront les robots dans… une trentaine de minutes, c’est à dire l’an prochain : parmi les grandes tendances, des robots intégrant la sphère domestique ; et des robots capables de déchiffrer nos émotions, à l’instar du fameux robot Pepper. On voit ici s’ouvrir tout un champ d’interactions autour de la reconnaissance des émotions que Goffman n’aurait pas renié et qui s’annonce en tout cas passionnant à observer et analyser ! (https://yasi.fr/actus/detection-emotions-algorithme).

Ce que seront les robots en 2015 ! :

http://marshallbrain.com/robots-in-2015.htm

http://www.factor-tech.com/robots/10411-ai-with-a-heart-will-2015-be-the-year-of-the-personal-robot/

http://www.clickz.com/clickz/column/2386949/is-2015-going-to-be-the-year-of-the-robot

http://www.dailymail.co.uk/sciencetech/article-2886424/Could-2015-year-domestic-robots-3D-printed-food.html

http://www.gizmag.com/pepper-robot/32428/

Publicités