IBM dévoilait fin décembre les innovations qui devraient transformer sur les cinq années à venir tous les modes de fonctionnement actuels du monde du travail, des loisirs, de nos vies, à travers la septième édition de leur dossier annuel « 5in 5 ». Plusieurs percées marqueront l’ère des systèmes cognitifs où les ordinateurs vont posséder, à leur manière, la vue, l’odorat, le toucher, le goût et l’ouïe. Des projections qui s’appuient notamment sur des travaux en cours dans les laboratoires de R&D du groupe, qui reste l’entreprise qui dépose le plus de brevets chaque année.
Big Blue se concentre donc sur les systèmes cognitifs, c’est-à-dire l’apprentissage d’une connaissance par l’ordinateur. Et dans le futur, les ordinateurs ou les smartphones devraient apprendre les 5 sens des êtres humains : le toucher avec des écrans à sensations tactiles, la vue et des pixels qui valent 100 mots, l’ouïe car les ordinateurs comprendront ce qui est essentiel et important, le goût avec des papilles gustatives numériques pour une assiette plus intelligente et enfin l’odorat où les ordinateurs ont du flair.
Ces aptitudes sensorielles vont nous aider à mieux comprendre les choses, à être productifs et à réfléchir, mais elles ne vont pas réfléchir à notre place. L’assistance des systèmes informatiques cognitifs nous aidera notamment à mieux décoder les questions complexes ; à être au courant des dernières nouvelles ; à prendre des décisions plus éclairées; à jouir d’une meilleure santé, d’une vie plus confortable et plus riche, et à franchir toutes sortes de barrières, dont celles des langues, de la distance, des coûts ou de l’inaccessibilité.
«Partout dans le monde, les scientifiques d’IBM collaborent sur des avancées qui contribuent à intellectualiser les ordinateurs par rapport à leur environnement», a déclaré Bernie Meyerson, actionnaire d’IBM et vice-président en matière d’innovation. «À l’instar du cerveau humain qui fonctionne au moyen d’interactions multisensorielles avec le monde, c’est en combinant l’ensemble de ces avancées que les systèmes cognitifs vont donner lieu aux découvertes et aux retombées les plus importantes, et nous aider à résoudre des problèmes parmi les plus complexes.»
Les technologies haptiques infrarouges pour des écrans à sensations tactiles
Au sein des laboratoires, les chercheurs d’IBM utilisent des technologies comme l’infrarouge, l’haptique ou la sensibilité à la pression pour développer des applications, capables de reproduire la sensation de toucher. Des tests ont été réalisés sur la texture ou le tissage d’un tissu. Ainsi, quand un acheteur passera son doigt sur l’image d’un objet, la fréquence et l’intensité des vibrations permettra de différencier la soie du lin ou du coton. On aura désormais la possibilité à partir de notre smartphone de sentir la texture du satin ou de la soie d’un vêtement ou la finesse d’une dentelle, avant tout achat. Ou encore de palper des matières chez tout artisan ou fabricant de produits dans le monde, directement sur l’écran. Dans cinq ans, les industries comme la vente au détail auront été transformées par la possibilité de «toucher» un produit par l’intermédiaire d’un téléphone portable.
Grâce au vibreur du téléphone, chaque objet possédera une série de vibrations unique, représentatives de l’expérience tactile : des fréquences courtes et rapides aux amplitudes de vibrations longues et fortes. La fréquence des vibrations sera différente pour la soie, le cuir ou le coton, ce qui contribuera à simuler la sensation physique que l’on ressent en touchant réellement le tissu.
Les utilisations actuelles des technologies tactilocinétiques et graphiques dans l’industrie du jeu vidéo transportent l’utilisateur dans un environnement simulé. Ici, l’opportunité et le défi consistent à rendre cette technologie tellement omniprésente et intégrée dans le quotidien des gens, qu’elle pourra enrichir nos vies en créant un tissu technologique devant et autour de nous. Elle prendra une place de premier plan dans nos vies, et transformera les téléphones portables en passerelle vers une interaction plus naturelle et intuitive avec le monde.
La vue : des pixels qui valent 1 000 mots
Avec le développement croissant des images (vidéos, imagerie médicale, réseaux sociaux), les chercheurs travaillent sur l’interprétation et le sens des pixels. A travers des algorithmes, les ordinateurs seront capables d’analyser des caractéristiques comme la couleur, la texture, les contours des formes au sein des images afin d’extraire des informations utiles. Pour Big Blue, ces avancées devraient servir la santé, la distribution et l’agriculture.
500 milliards de photos sont prises chaque année dans le monde. Les utilisateurs anglais de YouTube publient 72 heures de vidéo chaque minute. Le marché global de l’imagerie diagnostique médicale devrait connaître une croissance de 26,6 milliards d’ici 2016. Les ordinateurs d’aujourd’hui ne peuvent comprendre les images qu’en fonction du texte utilisé dans les titres et les étiquettes ; le contenu réel, l’image en tant que telle, demeure un mystère.
Dans les cinq prochaines années, les systèmes pourront non seulement reconnaître le contenu des images et des données visuelles, mais aussi trouver un sens à partir des pixels, une faculté de discernement rudimentaire qui va ressembler à la manière dont les humains regardent et interprètent une photo. Un jour, des fonctionnalités imitant le cerveau permettront aux ordinateurs d’analyser des caractéristiques comme la couleur, la texture, le motif ou les contours, et ainsi d’extrapoler des renseignements à partir de supports visuels.
Au cours des cinq prochaines années, ces fonctionnalités seront mises en application en santé pour démêler le volumineux débit d’information médicale provenant des IRM, des tomodensitogrammes, des radiographies et de l’imagerie ultrasonore, de manière à capturer les données appropriées à différentes anatomies et pathologies. De telles images peuvent renfermer des détails cruciaux pratiquement indétectables pour l’œil humain, ou exigeant des mesures précises. Entrainés à discerner l’essentiel d’une image, tel que la différence entre un tissu sain et un tissu malade, et la corrélation entre celui-ci et l’historique du patient et la documentation scientifique, les systèmes «dotés du sens de la vue» épauleront les médecins dans la détection accrue et accélérée de problèmes de santé.
L’ouïe soutenue par des capteurs intelligents
D’après IBM, ce sont plus exactement les algorithmes des systèmes cognitifs qui comprendront le son et sauront analyser leurs subtilités. Il sera possible, grâce à une application sur son smartphone, de comprendre pourquoi un bébé pleure : un brevet qui va déjà dans ce sens a d’ailleurs d’ores et déjà été déposé. D’ici cinq ans, un système distribué de capteurs sophistiqués pourra détecter différents éléments du son telles que la pression, les vibrations et les différentes amplitudes de fréquences. En interprétant ces données, il sera en mesure de prédire la chute des arbres dans une forêt ou l’imminence d’un éboulement. Un tel système sera «à l’écoute» de notre environnement et pourra mesurer les mouvements, ou la tension interne des matériaux, pour nous prévenir en cas de danger.
Les sonorités brutes seront détectées par capteurs, un peu comme dans le cerveau humain. Un système qui reçoit ces données doit tenir compte des autres «modalités», comme l’information visuelle ou tactile, et doit interpréter et classer les sons en fonction de ce qu’il a appris. Quand le système détecte de nouveaux sons, il doit utiliser ses connaissances et sa faculté à reconnaître les schémas pour tirer des conclusions. Les sons peuvent servir d’indicateurs pour interpréter le comportement ou des besoins spécifiques. En apprenant la signification des sons provenant d’un bébé, par exemple, si l’agitation indique la faim, la chaleur, la fatigue ou la douleur, un système de reconnaissance vocale de pointe pourrait corréler les sons et les balbutiements avec d’autres renseignements physiologiques, comme le rythme cardiaque, le pouls et la température.
Au cours des cinq prochaines années, avec de meilleures connaissances sur les émotions et une capacité à ressentir l’humeur d’une personne, les systèmes arriveront à reconnaître certains aspects d’une conversation et à analyser les tons et les hésitations pour nous aider à accroître la productivité de nos dialogues. Éventuellement, cela améliorera la qualité des interactions dans les centres d’appels et la fluidité des relations interculturelles.
Actuellement, les scientifiques d’IBM commencent à récolter des données sur les niveaux de bruits sous-marins de la Baie de Galway, en Irlande pour comprendre les sons et vibrations émis par les générateurs à houle et leur incidence sur la vie marine. Tout cela est possible grâce à des dispositifs sous-marins qui captent les fréquences sonores et les retransmettent à un système récepteur qui les analyse.
Le goût ou l’analyse moléculaire
« Le goût digital nous aidera à mieux manger. » Notre perception des saveurs d’un bon repas est en fait, explique IBM, « fondamentalement chimique et neuronale ». Or, à partir de ces informations, d’ici cinq ans, « les ordinateurs seront capables d’imaginer des recettes inédites qui raviront les palais, même pour ceux qui ont des contraintes alimentaires, en utilisant notamment la structure moléculaire des aliments ».
Les chercheurs chez IBM travaillent à la conception d’un système informatique qui perçoit véritablement les saveurs, et qui permettra aux chefs de se surpasser dans la création de recettes à la fois exquises et novatrices. Il decortiquera les ingrédients jusqu’au niveau moléculaire et assemblera les notions de chimie des aliments avec la psychologie des préférences humaines en matière de saveurs et d’arômes. En comparant ses résultats avec des millions de recettes, le système pourra concocter de nouvelles combinaisons de saveurs qui marient, par exemple, des châtaignes grillées avec d’autres aliments comme des betteraves cuites, du caviar frais ou du jambon cru.
L’ordinateur emploiera aussi des algorithmes qui détermineront la structure chimique précise des aliments et la raison de nos penchants naturels vers certains goûts.Ces algorithmes examineront les interactions chimiques, ainsi que la complexité moléculaire des mélanges de saveurs et de leurs structures de liaison. À l’aide des modèles de perception, ces données serviront ensuite à prévoir la désirabilité gustative des saveurs. Pour les gens ayant des restrictions alimentaires, comme les diabétiques, l’ordinateur pourra concevoir des saveurs et des recettes qui maintiendront l’équilibre de leur taux de sucre dans le sang tout en satisfaisant leur dent sucrée.
L’odorat : des ordinateurs qui ont du flair
IBM annonce que d’ici 5 ans, « les smartphones pourront probablement vous dire que vous avez un rhume avant votre premier éternuement ». Car à chaque expiration, des millions de molécules différentes sont expulsées. Le géant informatique pense que des systèmes pourront rapidement et finement les analyser, ou éventuellement fournir ces informations à un médecin pour l’aider dans son diagnostic.
Au cours des cinq prochaines années, de minuscules capteurs incorporés à votre ordinateur ou téléphone portable détecteront si vous êtes en train de contracter un rhume ou une autre maladie. En analysant les odeurs, les biomarqueurs, et les milliers de molécules présentes dans l’haleine d’une personne, les médecins profiteront d’une aide dans leurs diagnostics et leur surveillance des premiers signes de maladies telles que les affections rénales, les troubles hépatiques, l’asthme, le diabète et l’épilepsie, en détectant quelles odeurs sont normales et lesquelles ne le sont pas.
De nos jours, les scientifiques d’IBM utilisent déjà des capteurs pour mesurer des conditions environnementales et des gaz, afin de préserver des oeuvres d’art. Cette innovation commence à être utilisée pour résoudre les problèmes d’hygiène hospitalière, l’un des plus importants défis contemporains du domaine de la santé. Par exemple, des bactéries résistantes aux antibiotiques comme le Staphylococcus aureus résistant à la méthicilline (SARM), qui, en 2005, a été associé à plus de 19 000 morts liées à l’hospitalisation aux États-Unis, sont communément trouvées sur la peau et se transmettent facilement dans un environnement où les gens sont en contact étroit. Une des méthodes de prévention du SARM dans les établissements de santé est de veiller à ce que le personnel médical suive les indications d’hygiène hospitalière. Les technologies IBM pourront «sentir» la présence de désinfectants sur les surfaces et ainsi attester qu’une salle a été aseptisée. Grâce aux nouveaux réseaux maillés sans fil, il sera possible d’accumuler des renseignements sur une variété de substances chimiques qui seront récoltées et mesurées par des capteurs, et ainsi d’accroître indéfiniment notre connaissance des nouvelles odeurs pour nous adapter en conséquence.
Grâce aux avancées en matière de technologies des capteurs et des communications, combinées avec les systèmes d’apprentissage en profondeur, il est désormais possible de mesurer des données dans des endroits auparavant inaccessibles. Par exemple, des systèmes informatiques peuvent être utilisés en agriculture pour «sentir» ou analyser les conditions du sol des plantations. Dans les villes, cette technologie servira à surveiller l’apparition de problèmes concernant les déchets, l’hygiène et la pollution, de sorte que les autorités pourront détecter les situations potentiellement problématiques avant qu’elles ne prennent de l’ampleur.
Pour aller plus loin :
– Voir les prévisions IBM pour 2017 de leur rapport « 5in 5 » 2012
– IBM signe la première puce nanophotonique fonctionnelle
{jacomment on}