Skip to main content Skip to footer

ÉTUDE

Vision Technologique 2024

15 MINUTES DE LECTURE

January 04, 2024

En bref

  • La technologie s'humanise : les entreprises qui s'y préparent dès aujourd'hui seront les leaders de demain.
  • L'IA va permettre la constitution d'écosystèmes d'agents intelligents capables de collaborer les uns avec les autres.
  • De nouvelles formes d'interfaces et d'expériences se développent avec l'informatique spatiale.
  • Les machines deviennent bien plus efficaces pour interagir avec nous et comprendre nos attentes.

"Humain par Design" : Comment l'IA amplifie notre potentiel

Il est grand temps d'adopter une approche plus humaine de la technologie.

Dans les années qui viennent, les entreprises vont avoir à leur disposition un large éventail de technologies qui leur permettront de se réinventer. Leur implémentation va permettre d'amplifier radicalement le potentiel humain. Les entreprises pionnières sur le sujet ont déjà pris de l'avance dans cette nouvelle ère de productivité et d'opportunités. Les approches varient, mais toutes suivent le même fil conducteur : une technologie qui devient plus humaine.

Cela peut sembler contre-intuitif, car, après tout, la technologie n'a-t-elle pas été conçue par et pour les humains ? Créer des outils qui augmentent nos capacités physiques et cognitives est tellement spécifique à l'Humanité que certains soutiennent que c'est ce qui nous définit en tant qu'espèce.

Malgré tout, les outils que nous construisons sont souvent "non-humains" : ils comblent nos lacunes et font ce que nous ne pouvons pas faire. Ainsi, ils transforment radicalement nos vies. Par exemple, l'automobile a largement étendu nos capacités de déplacement, les grues nous ont permis de construire des gratte-ciels et des ponts et les machines nous ont aidés à créer, distribuer et écouter de la musique.

La nature "non humaine" de la technologie peut également devenir son point faible. L'utilisation prolongée d'outils manuels est cause d'arthrite, par exemple, tandis que les écrans peuvent aggraver les problèmes de vue. En voiture, nous disposons d'outils de guidage formidables, mais ils nous distraient de la conduite. Certes, beaucoup d'efforts sont fournis pour créer des outils plus ergonomiques ou plus faciles à utiliser. Mais malgré tout, au quotidien, nous prenons souvent des décisions en fonction de ce qui est le mieux pour la machine, au lieu d'optimiser le potentiel humain.

Désormais, pour la première fois dans l'histoire, des signes évidents indiquent que nous sommes en train de changer de direction — non pas en nous éloignant de la technologie, mais plutôt en créant un nouveau type de technologie, plus humaine. Cette technologie est plus intuitive, tant dans sa conception que dans sa nature même. Elle fait preuve d'une intelligence proche de la nôtre et s'intègre facilement dans tous les aspects de nos vies.

Il suffit de regarder l'impact sur le monde qui nous entoure de l'IA générative et des modèles de type "Transformers". Les chatbots des débuts - ChatGPT, Bard - sont devenus des forces de changement qui rendent la technologie plus intuitive, intelligente et accessible à tous. Alors que l'IA se concentrait autrefois sur l'automatisation et les tâches répétitives, elle vise désormais à nous augmenter. Des outils réservés par le passé aux personnes les plus qualifiées ou fortunées sont maintenant accessibles à tous. Tout cela fait évoluer notre vision du travail.

L'IA générative ne transforme pas seulement les tâches à accomplir. Elle commence également à impacter profondément les organisations et les secteurs d'activité.

Évidemment, l'émergence d'une technologie plus humaine n'est pas seulement liée l'essor de l'IA. De nombreux points de frictions entre nous et la technologie commencent progressivement à être éliminés, ouvrant la voie à une amplification sans précédent du potentiel humain.

Les technologies "humaines par design" vont pouvoir toucher un public plus large. Elles vont aussi permettre de démocratiser l'accès au savoir et ainsi favoriser des vagues d'innovation continue. Des personnes jusqu'à présent restées en marge de la technologie vont pouvoir participer à la révolution numérique. Grâce à des technologies plus intuitives, elles vont pouvoir être mieux prises en considération, aussi bien en tant que clients ou qu'employés.

95%

des dirigeants estiment qu'humaniser la technologie va générer des opportunités massives dans tous les secteurs de l'économie.

Les dirigeants seront confrontés à des questions familières : quels produits et services sont prêts pour un déploiement à grande échelle ? Quelles sont les nouvelles données disponibles ? Quelles actions de transformation initier ? Mais ils seront aussi confrontés à des questions qu'ils n'auraient peut-être jamais envisagées : quels types de limites et de garde-fou l'IA nécessite-t-elle ? Qui se trouvera impliqué dans cette transformation numérique ? Quelles sont nos responsabilités envers les individus qui constituent notre écosystème ?.

Rendre la technologie plus humaine ne consiste pas seulement à cocher une liste de fonctionnalités : c'est une vision pour l'avenir. Alors que les entreprises cherchent à repenser leurs infrastructures numériques, la technologie "humaine par design" va devenir un facteur clé dans la réussite de leurs stratégies. Toutes les organisations commencent en effet à comprendre que les technologies émergentes vont potentiellement les conduire à réorienter leurs efforts en matière de numérique. Les expériences en ligne, les produits, ou encore la data et les analytics sont appelés à évoluer à mesure que des technologies comme l'intelligence artificielle générative ou l'informatique spatiale gagnent en maturité.

Dans cette période de réinvention, les entreprises ont la possibilité de définir des stratégies qui maximisent le potentiel humain et éliminent les frictions entre l'Homme et la machine. Certes, l'avenir va être façonné par l'intelligence artificielle, mais il doit être pensé pour l'intelligence humaine. Alors qu'une nouvelle génération de technologies donne aux entreprises le pouvoir de faire plus, chaque choix qu'elles font a d'autant plus d'importance.

93%

des dirigeants s'accordent à dire qu'avec les progrès technologiques rapides, il est plus important que jamais pour les organisations d'innover de façon consciente.

Pensez à l'humain - Les tendances de 2024

L'an dernier, notre Vision Technologique étudiait comment la convergence des atomes et des bits établissait les bases de notre nouvelle réalité. Nous décrivions un monde où la disparition progressive des frontières entre réalités numériques et physiques ouvrait la voie à de toutes nouvelles innovations dans presque tous les champs de la technologie, et surtout, comment chacun de ces éléments deviendrait à l'avenir un enjeu stratégique crucial pour les entreprises.

Dans la Vision Technologique de cette année, nous nous intéressons aux premiers concernés par ces transformations : les individus. Les quatre tendances de cette année analysent en effet les principaux domaines dans lesquels la technologie devient plus humaine, et comment les organisations doivent s'y préparer.

Les tendances qui vont dans le sens d'une technologie devient plus humaine

Je pense donc je suis

Les utilisateurs se tournent vers les chatbots d'IA générative pour faire des recherches, ce qui transforme l'accès à l'information et impacte les entreprises data-driven.

Voyez avec mon agent

L'IA passe à l'action et bientôt il y aura des écosystèmes d'agents intelligents au sein des entreprises. Mais sans supervision humaine, ils pourraient devenir source de chaos.

Besoin d'espace

Le marché de l'informatique spatiale se développe rapidement, mais pour tirer partie de ce nouveau medium, les entreprises devront identifier quelles applications ont du sens.

Corps électroniques

Un ensemble de technologies – du machine learning aux interfaces cerveau-ordinateur en passant par l'eye-tracking – permettent de mieux comprendre les individus.

L'ingénierie positive : un moment de vérité pour la technologie

Nous arrivons à ce qui pourrait être le point d'inflexion le plus important de l'histoire de la technologie. Les entreprises - et donc les décisions prises par leurs dirigeants - vont déterminer en grande partie la façon dont nous allons évoluer.

Même si nous allons connaître un surcroît d'innovation et de croissance, tout ne sera pas positif. Les possibilités de fraude et de désinformation, ainsi que les menaces de sécurité, seront plus nombreuses (et variées). Si nous concevons des outils avec des capacités humaines, mais sans intelligence humaine - ou même sans conscience humaine - nous risquons de nuire à la fois l'économie et à l'intérêt général.

À l'ère de la technologie humaine, chaque produit et chaque service que les entreprises mettent sur le marché a le potentiel de transformer des vies, de solidifier des communautés et de provoquer des changements, pour le meilleur ou pour le pire. Et, invariablement, les entreprises devront trouver un l'équilibre délicat entre la nécessité d'agir rapidement et celle d'agir avec prudence, alors même que des concurrents ou d'autres pays ne partagent pas les mêmes préoccupations ou n'imposent pas les mêmes garde-fous.

Alors que nous nous efforçons de rendre la technologie "humaine par design", nous devons prendre en compte les enjeux de sécurité et les considérer comme un moyen essentiel pour construire la confiance entre les individus et la technologie, plutôt que comme des contraintes et des limitations. 

Nous devons développer la technologie sans négliger ou remettre en cause ce que signifie "être humain". C'est un concept que nous appelons "l'ingénierie positive". Au cours des dernières années, les questions éthiques liées à la technologie se sont multipliées, sous différents angles. Parmi elles figurent les enjeux d'inclusion, d'accessibilité, de durabilité, de sécurité de l'emploi, de propriété intellectuelle, et bien plus encore. Chacune de ces questions nous ramène à une seule et même interrogation : comment trouver l'équilibre entre ce que nous pouvons faire avec la technologie et ce que nous voulons en tant que société ?

Nous sommes à une période de transformation cruciale tant pour la technologie que pour les individus. À nous tous de contribuer activement à ce changement.

"Je pense donc je suis" : une nouvelle vision de la connaissance

La vue d'ensemble

Notre rapport aux données évolue, et avec lui, notre façon de penser, de travailler et d'interagir avec la technologie. Tous les fondements des stratégies numériques des entreprises sont en train d'être bouleversés.

Le modèle d'interaction homme-données basé sur des recherches de type "bibliothécaire" laisse la place à un nouveau modèle : celui du conseiller. Au lieu d'effectuer des requêtes pour obtenir des résultats, les utilisateurs posent maintenant des questions aux chatbots d'IA générative. Un exemple concret ? ChatGPT, lancé par OpenAI en novembre 2022, est devenu l'application à la croissance la plus rapide de tous les temps. Les grands modèles de langage (ou LLM pour "Large Language Models") existent depuis des années, mais la capacité de ChatGPT à répondre aux questions de manière directe et conversationnelle a fait toute la différence.

Les données représentent l'un des éléments centraux de la digitalisation des entreprises. Les nouveaux chatbots, capables de synthétiser d'énormes quantités d'informations pour fournir des réponses et des conseils, d'utiliser différents types de données, de se souvenir des conversations précédentes et même de suggérer quoi demander ensuite, bouleversent tout. Les chatbots développés grâce aux LLM peuvent désormais jouer un rôle de conseillers et permettre aux entreprises de mettre entre les mains de chacun de leurs collaborateurs un outil doté d'une connaissance très étendue de l'organisation. Ce changement pourrait donner une valeur encore plus importante aux données et permettre enfin aux entreprises de tirer tous les bénéfices d'une approche "data-driven" de leur activité.

Les entreprises possèdent des informations précieuses et uniques qu'elles souhaitent mettre à disposition de leurs clients, employés, partenaires et investisseurs. Mais une grande partie de ces informations reste difficile d'accès et d'utilisation, pour de nombreuses raisons : documents trop denses, informations silotées, difficulté à identifier les bons mots-clés de recherche, etc. Pour les entreprises "data-driven", ces données représentent une source de valeur potentielle que l'IA générative pourrait enfin permettre d'exploiter.

Néanmoins, le véritable bouleversement ne se limite pas seulement à la manière dont nous accédons aux données : il réside dans le potentiel de transformation de l'ensemble du marché des logiciels. Que se passerait-il si l'interface de toutes les applications et plateformes numériques devenait un chatbot d'IA générative ? Et si ces interactions devenaient le moyen principal de lire, écrire et interagir avec les données ?

Pour vraiment tirer parti de l'IA générative et construire l'entreprise du futur, alimentée par les données et l'IA, les entreprises doivent repenser radicalement leur stratégie digitale. La manière dont elles collectent et structurent les données, leurs architectures techniques, les modes de déploiement des outils numériques et les fonctionnalités qu'elles incluent doivent être repensées. De nouveaux enjeux, comme ceux de l'entrainement des modèles, la lutte contre les biais ou la supervision de l'IA doivent être intégrés dès les premières réflexions.

95%

des dirigeants estiment que l'IA générative va obliger leurs organisations à moderniser leurs architectures technologiques.

La technologie : Vers des entreprises vraiment "data-driven"

Renforcer ses infrastructures de données

De nouveaux outils et technologies peuvent aider les entreprises à renforcer leurs infrastructures de données et à se préparer pour un avenir "data-driven". De fait, certaines entreprises se sont déjà mises en ordre de bataille pour moderniser leurs architectures de données. Mais elles restent une minorité : beaucoup d'autres sont encore à la peine, car leurs systèmes de gestion des connaissances sont gravement inadaptés. Dans tous les cas, les conseillers virtuels s'appuyant sur les LLM auront besoin d'une architecture de données plus accessible et contextuelle que par le passé.

Les graphes de connaissances - ou knowledge graphs - sont l'une des technologies les plus importantes dans ce domaine. Comme son nom l'indique, il s'agit d'un modèle de données structuré sous forme de graphe, représentant des entités et leurs relations réciproques, ce qui permet d'encoder un contexte et un sens. Les graphes de connaissances peuvent non seulement agréger des informations issues de nombreuses sources et permettre une meilleure personnalisation, mais ils peuvent également améliorer l'accès aux données grâce à la recherche sémantique.

Cisco Systems fournit un bon exemple du potentiel des graphes de connaissance et de la recherche sémantique. Comme c'est le cas dans beaucoup de grandes multinationales, l'équipe commerciale de Cisco dispose d'une multitude de contenus sur lesquels s'appuyer. Mais les collaborateurs avaient du mal à trouver des documents pertinents en utilisant des recherches classiques, basées sur un index, en raison d'un manque de métadonnées. Face à ce constat, Cisco a décidé d'utiliser Neo4j pour créer un graphe de connaissances composé de métadonnées. 

Pour cela, les LLM n'ont pas été utilisés, mais le traitement du langage naturel a été mis à profit pour créer une ontologie et un service de balisage automatique, afin d'attribuer des métadonnées aux documents, stockées ensuite dans une base de données en graphe. Désormais, la recherche d'informations prend moitié moins de temps, et Cisco permet à ses commerciaux d'économiser plus de quatre millions d'heures par an grâce à l'amélioration de sa gestion des connaissances.

Outre les graphes de connaissances, d'autres stratégies de gestion des données vont devenir de plus en plus pertinentes. Par exemple, le Data Mesh ("maillage des données") et le Data Fabric ("tissu de données") sont deux autres méthodes pour aider à cartographier et organiser les informations.

Les LLM, une nouvelle interface pour les données

Les graphes de connaissances, le Data Mesh et le Data Fabric représentent déjà à eux seuls, de grands progrès pour les systèmes de gestion des connaissances. Mais les entreprises ont aussi beaucoup à gagner en franchissant l'étape suivante, qui consiste à passer du modèle de la bibliothèque à celui du conseiller. Imaginez si au lieu d'utiliser une barre de recherche, vos collaborateurs pouvaient poser des questions en langage naturel et obtenir des réponses claires, et ce, sur tous les sites internet et applications de l'entreprise ? Avec une architecture de données accessible et contextuelle, cela devient possible.

Les entreprises peuvent créer leurs propres LLM de toute pièce. Mais cette approche reste rare, en raison de l'importance des ressources requises. Parmi les leaders dans ce domaine figurent des géants de l'IA comme OpenAI, Google, Meta, AI21 et Anthropic.

Une seconde option consiste à "fine-tuner" un LLM existant. Cela revient à s'appuyer sur un LLM généraliste et à l'adapter à un domaine spécifique, en l'entrainant sur un ensemble de documents propres à ce domaine. Des fournisseurs de cloud tels qu'Amazon AWS, Microsoft Azure et Google Cloud proposent tous des services pour aider leurs clients à obtenir une version privée d'un modèle de base, affiné avec leurs données propriétaires. Ces modèles peuvent ensuite être intégrés et déployés dans les applications de l'entreprise. Bien que cela nécessite considérablement moins de ressources que de former un LLM à partir de zéro, cela ne garantit pas que le modèle dispose des informations les plus récentes. Cette option est néanmoins la plus judicieuse lorsque l'accès à des informations en temps réel n'est pas nécessaire, comme c'est le cas pour la production de contenus marketing, par exemple.

Le recours à une légère variation de cette approche est de plus en plus fréquent : les entreprises commencent à affiner des modèles de langage plus petits (SLM, pour "Small Language Models") pour des cas d'utilisation spécifiques. Des SLM tels que Chinchilla de DeepMind et Alpaca de l'Université de Stanford ont commencé à rivaliser avec des modèles plus grands, alors qu'ils nécessitent beaucoup moins de ressources informatiques. Ces SLM ne sont pas seulement plus efficients - puisqu'ils fonctionnent à moindre coût avec des empreintes carbone plus faibles : ils peuvent être entrainés plus rapidement et s'intégrer à des appareils plus petits et moins puissants.

Enfin, une autre stratégie consiste à "consolider" un LLM pré-entraîné en lui fournissant des informations plus pertinentes et spécifiques aux cas d'utilisation, typiquement à travers le recours à la Retrival Augmented Generation ("génération augmentée par la recherche" ou RAG). Comme le suggère son nom, cette méthode associe un système de récupération d'informations et un modèle génératif.

Consolider un LLM par cette méthode et avec un apprentissage en contexte nécessite beaucoup moins de temps et de puissance de calcul, tout en demandant beaucoup moins d'expertise que le fine-tuning ou la création d'un LLM. Cette option convient bien aux cas d'usage qui nécessitent des informations actualisées, bien qu'une vérification de l'exactitude s'avère dans la plupart des cas toujours nécessaire.

Le domaine de l'IA générative et des LLM évolue rapidement, donc au moment où vous lirez ce rapport, il pourrait déjà y avoir de nouvelles méthodes pour développer des conseillers reposant sur l'IA générative. Mais, quelle que soit la direction dans laquelle vous déciderez d'aller, gardez en tête que votre infrastructure de données devra être solide et contextuelle, sinon votre conseiller ne sera jamais à la hauteur de ses promesses.

Les enjeux : le futur de la connaissance en entreprise

Comprendre et limiter les risques

Avant toute chose, lorsque les entreprises commencent à explorer les nouvelles possibilités offertes par les conseillers développés grâce aux LLM, elles doivent comprendre les risques qui y sont associés.

Les "hallucinations" figurent en tête de ces risques. Il s'agit presque d'une caractéristique intrinsèque des LLM. Parce qu'ils sont formés pour donner des réponses probabilistes, il arrive que ces conseillers fournissent des informations incorrectes avec assurance. Alors que les LLM commencent à devenir incontournables dans la manière dont nous accédons et relayons les informations, ou interagissons avec des logiciels, les conséquences de ces hallucinations peuvent devenir très graves. Quel que soit l'angle sous lequel on analyse les choses, ne pas savoir si ce qu'on lit est vrai représente un problème majeur.

Certes, ces hallucinations constituent un risque évident, mais ce n'est pas le seul à prendre en compte lors de l'intégration des LLM en entreprise. Lors de l'utilisation d'un modèle public, les données propriétaires doivent être soigneusement protégées pour éviter toute fuite. Cette précaution s'applique également aux modèles privés, puisque les données ne peuvent pas être partagées avec des employés qui ne devraient pas y avoir accès. Le coût du calcul est aussi un aspect qui doit être évalué. Pour couronner le tout, peu de personnes possèdent l'expertise nécessaire pour mettre en œuvre ces solutions efficacement.

Cela dit, ces défis ne devraient pas être considérés comme des freins, mais plutôt comme le rappel qu'il faut déployer cette technologie en mettant en place les contrôles appropriés.

Les données qui alimentent les modèles - aussi bien lors de la phase d'entrainement que pendant les interactions - doivent être des données de haute qualité : récentes, bien étiquetées et non biaisées. Les données d'entrainement devraient être de type "zero-party" et partagées de manière proactive par les clients, ou de type "first-party" et collectées directement par l'entreprise. Des mesures de sécurité doivent être mises en place pour protéger toute donnée personnelle ou propriétaire. Enfin, des systèmes d'autorisation doivent également être en place pour garantir que l'utilisateur est autorisé à accéder à toute information utilisée lors de l'apprentissage contextuel.

Au-delà de leur exactitude, les réponses des chatbots doivent également être explicables et alignées avec la marque et l'entreprise. Des garde-fous peuvent être mis en place pour que le modèle ne réponde pas avec des données sensibles ou des propos offensants et pour qu'il refuse les questions échappant à son champ d'application. De plus, les réponses peuvent être nuancées en cas d'incertitude et fournir des sources pour vérification.

Enfin, les chatbots d'IA générative devraient faire l'objet de tests continus et d'une supervision humaine. Les entreprises devraient développer une approche éthique de l'IA éthique et établir des standards à respecter. Elles devraient également recueillir des retours réguliers et assurer la formation de leurs employés.

De la recherche à la demande

Il est plus que temps de commencer à tirer partie de cette nouvelle génération de conseillers qui s'appuient sur les LLM.

Au sein des entreprises, les chatbots d'IA générative vont apporter aux employés et aux clients un accès non seulement à des connaissances, mais aussi à des réponses contextuelles, d'une manière totalement inédite. Cela va améliorer le partage des connaissances en interne, le service client et les produits, mais pas seulement.

Du côté des opportunités externes, les chatbots d'IA générative vont faire évoluer les modalités d'accès à l'information sur les entreprises. Déjà, les internautes remplacent les moteurs de recherche traditionnels par des chatbots basés sur l'IA générative, comme Microsoft Bing ou enrichissent l'expérience de recherche augmentée avec Google SGE qui peut fournir des aperçus et des réponses générés par l'IA. Les utilisateurs obtiennent ainsi des réponses directes à leurs questions en langage naturel. Certes, des sources sont citées et des résultats de recherche sont également fournis, mais rien ne dit que ces liens vont être consultés.

Dans ce cas, qu'est-ce que cela signifie pour les sites internet, et en particulier ceux des entreprises ? Comment les entreprises peuvent-elles s'assurer que leurs clients obtiennent les bonnes réponses aux questions qu'ils se posent, les informations dont ils ont besoin, avec les sources les plus pertinentes et actualisées possibles ? Les entreprises ont là une occasion de repenser complètement la manière dont elles touchent leurs clients.

Conclusion

L'IA générative change radicalement la donne dans le monde des données et des logiciels. Les grands modèles de langage (les LLM) modifient notre relation avec l'information. Tout, de la manière dont les entreprises touchent leurs clients à la façon dont elles mobilisent leurs employés et leurs partenaires, est en passe de se transformer. Les organisations leaders sont déjà passées à l'action : elles imaginent et construisent la prochaine génération d'entreprises "data-driven". D'ici peu, le mouvement ne concernera plus seulement les pionniers : ce sera la nouvelle manière d'opérer.

En plus des nombreuses implications en termes de sécurité déjà évoquées dans cette tendance, les entreprises vont devoir également réfléchir à la manière dont les conseillers développés avec les LLM pourraient faire évoluer l'écosystème des données utilisateur.

Nous avons face à nous une opportunité unique de réinventer les principes de la recherche et de restaurer la confiance entre les entreprises et leurs clients. Les entreprises peuvent maintenant reprendre la main sur leurs propres informations, en stockant, sécurisant, analysant et diffusant leurs données et connaissances institutionnelles directement à leurs clients à travers des conseillers virtuels. C'est une grande responsabilité : votre entreprise doit s'assurer que ses données restent sécurisées, tout en fournissant des réponses de haute qualité. Il y a là une opportunité encore plus grande : sans l'intermédiation des moteurs de recherche dans les échanges d'information, les entreprises peuvent devenir des sources directes et fiables, regagnant ainsi la confiance de leurs clients.

"Voyez avec mon agent" : les écosystèmes d'IA

La vue d'ensemble

L'IA sort du cadre limité de l'assistance pour agir de plus en plus sur le monde. Au cours de la prochaine décennie, nous allons assister à l'émergence d'écosystèmes complexes d'agents intelligents, c'est-à-dire de vastes réseaux d'IA interconnectés. De quoi conduire les entreprises à penser leurs stratégies d'intelligence artificielle et d'automatisation d'une manière radicalement nouvelle.

Aujourd'hui, la plupart des stratégies d'IA se concentrent essentiellement sur l'assistance dans le cadre de tâches et de missions précises. Lorsque l'IA agit, c'est en tant qu'outil isolé, et non au sein d'un écosystème. Mais à mesure que l'IA évolue et prend la forme d'agents intelligents, les systèmes automatisés vont de plus en plus prendre des décisions et agir par eux-mêmes. Ainsi, les agents intelligents ne se contenteront pas de conseiller les humains, ils agiront en leur nom. L'IA continuera de générer du texte, des images et des recommandations, mais les agents décideront par eux-mêmes de ce qu'ils en feront.

Cette évolution ne fait que commencer, mais les entreprises doivent déjà commencer à réfléchir à ce qui va suivre. Car si les agents commencent à agir, il ne faudra pas longtemps avant qu'ils se mettent à interagir entre eux. La stratégie d'intelligence artificielle de demain impliquera de coordonner un ensemble d'acteurs : des IA entraînées pour une tâche précise, des agents généralistes, des agents conçus pour la collaboration humaine et des agents destinés à l'optimisation des machines.

Mais il y encore a beaucoup de travail à faire avant que les agents intelligents puissent réellement agir en notre nom, et encore plus avant qu'ils puissent se coordonner les uns avec les autres. Pour l'instant, les agents se trouvent souvent bloqués, utilisent mal les outils et génèrent des réponses inexactes - autant d'erreurs qui peuvent rapidement s'accumuler.

Jusqu'à présent, les humains et les machines ont été associés pour des tâches précises et les dirigeants ne se sont jamais préparés à ce que ce soit l'IA qui dirige nos entreprises. Alors que les agents intelligents s'apprêtent à devenir nos collègues et nos représentants, nous devrons repenser l'avenir de la technologie et des ressources humaines. Il n'est pas seulement question de développer de nouvelles compétences, il s'agit de s'assurer que les agents partagent nos valeurs et nos objectifs. Les agents intelligents vont contribuer à construire le monde de demain, notre travail est de nous assurer qu'il s'agit bien du monde dans lequel nous voulons vivre.

96%

des dirigeants estiment que les écosystèmes d'agents intelligents représentent une opportunité significative pour leurs organisations dans les trois prochaines années.

La technologie : de l'assistance à l'action, de l'action aux écosystèmes

Les assistants intelligents gagnent en maturité pour devenir des représentants capables d'agir au nom des humains, mais pour que cette évolution trouve sa place en entreprise, trois conditions devront être remplies : l'accès à des données et services en temps réel ; la capacité de raisonner à travers des chaînes de pensée complexes ; et la création de nouveaux outils - non pas pour l'utilisation humaine, mais pour l'utilisation des agents eux-mêmes.

Commençons par l'accès à des données et services en temps réel : lorsque ChatGPT a été lancé, une erreur courante des utilisateurs était de penser que l'application recherchait activement des informations sur le web. En réalité, GPT-3.5 (le LLM avec lequel ChatGPT a été initialement lancé) était entrainé sur une base de connaissances extrêmement large et s'appuyait sur les relations entre ces données pour établir ses réponses.

En mars 2023, OpenAI a présenté les premiers "plugins" pour ChatGPT. Ceux-ci permettent aux LLM de rechercher des informations, d'utiliser des logiciels, d'exécuter du code, d'appeler des API et de générer des résultats en permettant au modèle d'accéder à Internet.

Ces plugins transforment les modèles de base - de puissants moteurs qui opèrent de façon isolée - en agents capables de naviguer dans le monde numérique actuel. Les plugins ont un potentiel considérable en tant que tel, mais ils vont surtout jouer un rôle considérable dans l'émergence des écosystèmes d'agents.

La deuxième étape de l'évolution des agents est la capacité de raisonner et de penser de manière logique, car même les actions qui nous semblent les plus simples dans notre quotidien impliquent de donner une série d'instructions complexes aux machines.

La recherche en IA commence à lever les obstacles au raisonnement automatique. Les chercheurs se sont rendu compte qu'ils pouvaient obtenir de meilleurs résultats en décomposant les messages en étapes explicites, voire en demandant au modèle de réfléchir étape par étape. Ce type de commande nécessite une intervention humaine au début, mais des recherches montrent que les modèles peuvent être conçus pour s'autocritiquer et enregistrer des informations dans leur mémoire de travail, ce qui ouvre la voie à l'automatisation de ce type de raisonnement.

Grâce au raisonnement par étapes et les plugins, l'IA a le potentiel de prendre en charge des tâches complexes en s'appuyant à la fois sur des raisonnements progressifs et sur l'abondance d'outils numériques disponibles sur le web. Mais comment faire si la solution requise n'est pas encore disponible ?

Lorsqu'un humain est confronté à une telle contrainte, il achète ou construit les outils dont il a besoin. Pendant longtemps, l'IA comptait exclusivement sur les humains pour accroître ses capacités. Mais nous voyons émerger la capacité de l'IA à développer des outils pour elle-même.

Les écosystèmes d'agents intelligents ont de quoi impressionner. En effet, ils représentent un défi incroyablement complexe en termes d'orchestration et impliquent une réorganisation massive du travail humain. C'est suffisant pour que les dirigeants se demandent par où commencer.

La bonne nouvelle est que les efforts actuels de transformation numérique vont grandement contribuer à aider les entreprises dans cette tâche. La modernisation des infrastructures de données et la création de bibliothèques d'API seront essentielles pour réussir l'intégration de l'IA dans les systèmes d'information des entreprises. Cependant, il est important de se rappeler que ces modèles ne sont pas exempts d'inconvénients. Nous l'avons vu, les réponses erronées restent inhérentes aux LLM, et il est nécessaire de mener beaucoup plus de recherches sur les risques et les implications en matière de cybersécurité liés à l'utilisation de ces modèles.

Les enjeux : Aligner la technologie et les ressources humaines

Que se passe-t-il lorsqu'un écosystème d'agents intelligents se met au travail ? Qu'ils se comportent en assistants ou en représentants, la conséquence sera une hausse massive de la productivité et de l'innovation, ainsi qu'une réorganisation du travail humain.

En tant qu'assistants ou copilotes, les agents pourraient démultiplier de manière spectaculaire la productivité individuelle des employés. Pour les processus d'entreprise qui dépendront toujours des humains, les agents joueront un rôle de collaborateur.

Dans d'autres scénarios, nous ferons de plus en plus confiance aux agents pour agir en notre nom. En tant que représentants, ils pourraient remplir des tâches actuellement effectuées par des humains, mais avec un avantage considérable : à lui seul, un agent virtuel pourrait maîtriser toutes les connaissances et informations de l'entreprise. Sa base de connaissances surpasserait de loin celle des employés humains les plus expérimentés. Les agents pourraient mettre à profit cette connaissance dans tous les domaines, simultanément. Lorsqu'ils n'auront pas les informations dont ils auront besoin, ils pourront les créer. Lorsqu'ils n'ont pas les outils appropriés, ils pourraient les construire.

Les entreprises vont devoir réfléchir aux implications humaines et technologiques de cette évolution. Du côté technologique, un point majeur d'attention sera la façon dont ces entités s'identifient. À mesure que les agents réalisent plus d'actions par eux-mêmes, avec des comportements qui peuvent imiter leurs homologues humains, des technologies telles que le Web3, l'identité décentralisée ou d'autres solutions émergentes deviendront essentielles pour s'assurer que ces agents peuvent s'identifier et s'authentifier correctement.

Les impacts sur les travailleurs humains - et leurs nouvelles responsabilités, missions et fonctions - vont exiger une réflexion encore plus poussée. Soyons clairs, les humains ne vont pas disparaitre des organisations. Les collaborateurs auront des compétences supplémentaires, et ils en auront besoin. Certes, les agents prendront en charge certaines fonctions de l'entreprise, mais cela ne se traduira pas par des opérations purement automatiques. Les humains créeront et appliqueront les règles pour les agents. Il est temps de préparer vos collaborateurs à ce nouveau contexte.

Repenser le talent humain

Avec les écosystèmes d'agents intelligents, vos collaborateurs les plus précieux seront ceux qui sont les mieux armés pour définir les lignes directrices pour les agents. Au fur et à mesure que les agents développent leur autonomie, les humains doivent établir et faire respecter les règles, afin de garantir que leurs représentants agissent pour le bien de l'entreprise et des collaborateurs. Grâce à ces agents, les humains sont capables de faire bien plus de choses que jamais auparavant, mais ils doivent toujours garder en tête les intérêts et la vision de l'entreprise. Tous les choix et décisions que prennent vos collaborateurs - les meilleures comme les pires - vont se voir amplifier.

Le niveau de confiance qu'une entreprise accorde à ses agents autonomes va déterminer la valeur que ces agents peuvent créer. Ce sont vos collaborateurs qui seront en charge de construire cette confiance. Les écosystèmes d'agents agiront sans intervention humaine, mais ils ne prendront pas toujours les bonnes décisions. Avant de déployer des agents, les humains doivent donc leur donner des règles, des connaissances et des compétences de raisonnement, puis les tester rigoureusement pour garantir leur efficacité. Au fil de l'évolution des écosystèmes d'agents, les humains auront deux responsabilités principales destinées à établir la confiance dans les systèmes semi-autonomes : construire des systèmes de suivi et de contrôle pour les agents et affiner les mécanismes de raisonnement des machines.

Au sein des organisations les plus avancées, les employés orientent déjà des IA autonomes vers des actions précises, en organisant des dispositifs de suivi pour les agents. Les LLM existants sont entrainés avec d'énormes quantités d'informations, ce qui permet à des outils comme ChatGPT de répondre à une variété de questions avec une fiabilité acceptable. Mais si un agent intelligent a le contrôle de votre chaîne d'approvisionnement, par exemple, il doit avant tout posséder une expertise sur votre chaîne d'approvisionnement. Des informations superflues pourraient l'induire en erreur. À mesure que les employés entrainent les agents avec les connaissances de votre entreprise, avec des données propriétaires et en lui donnant l'accès à des outils externes, ces systèmes de suivi vont devoir définir les informations que les systèmes d'IA doivent prioriser.

Mais les agents ne doivent pas seulement penser logiquement, ils doivent également comprendre leurs limites. Quand un agent a-t-il suffisamment d'informations pour agir seul, et quand doit-il chercher de l'aide avant de prendre une décision ? Les spécificités varieront d'un agent à l'autre, d'une entreprise à l'autre et d'un secteur à l'autre. Mais dans tous les cas, les humains décideront du degré d'indépendance à accorder à leurs systèmes autonomes. Les humains doivent apprendre aux agents à déterminer ce qu'ils savent et, plus important encore, ce qu'ils ne savent pas, afin qu'ils puissent rassembler les informations et atteindre le niveau de confiance nécessaires pour continuer à travailler.

Ce que les entreprises peuvent faire

Que pouvez-vous faire dès à présent pour préparer vos collaborateurs et vos agents intelligents ? Donnez aux agents l'opportunité d'en apprendre davantage sur votre entreprise, et donnez à votre entreprise l'occasion d'en apprendre davantage sur les agents.

Les entreprises peuvent commencer par tisser des liens entre les agents virtuels et leurs prédécesseurs, les LLM. Il existe déjà de nombreux modèles d'IA générative matures et quelques copilotes prêts à être connectés aux humains, aux données, aux outils et aux machines qui sont déjà essentiels pour votre entreprise. En affinant les LLM avec les informations de votre entreprise, vous permettez aux modèles de base de développer une expertise.

Plus tôt vous préparez votre infrastructure et vos informations pour qu'elles soient utilisées par des agents, plus tôt vos futurs agents seront prêts à jouer leur rôle, c'est-à-dire à agir en tant que représentants des humains à l'intérieur et à l'extérieur de votre organisation. Cette première étape implique de repenser certaines de vos pratiques de gestion des données - comme la vectorisation des bases de données - ou d'établir de nouvelles API pour accéder aux données.

Il est également temps de présenter les humains à leurs futurs collègues numériques. Les entreprises peuvent poser les bases de la confiance avec les futurs agents en enseignant à leurs collaborateurs comment travailler avec les technologies intelligentes existantes. Poussez vos employés à découvrir les systèmes autonomes existants et à en comprendre les limites. Aidez vos collaborateurs à développer des règles bien définies pour savoir quand ils peuvent ou ne peuvent pas faire confiance aux systèmes autonomes à leur disposition. En d'autres termes, formez et perfectionnez votre main-d'œuvre humaine de manière à ce qu'elle soit prête et enthousiaste à l'idée de prendre en main ces technologies.

Enfin, il faut qu'il n'y ait aucune ambiguïté concernant la vision et les objectifs de l'entreprise. Chaque action réalisée par vos agents devra être reliée à vos valeurs fondamentales et à une mission. Il n'est donc jamais trop tôt pour faire infuser vos valeurs à tous les échelons de votre organisation.

Conclusion

Les écosystèmes d'agents intelligents ont le potentiel de multiplier la productivité et l'innovation des entreprises à un niveau qu'il est humainement difficile à appréhender. Mais ils ne créeront de la valeur que si ce sont les humains qui les guident. La connaissance et le raisonnement humains donneront l'avantage à un réseau d'agents par rapport à un autre. Aujourd'hui, l'intelligence artificielle est un outil. À l'avenir, les agents intelligents opéreront nos entreprises. Il est de notre devoir de nous assurer qu'ils ne déraillent pas. Étant donné le rythme des évolutions de l'intelligence artificielle, c'est le moment de commencer à intégrer des agents intelligents à vos organisations.

Du point de vue de la sécurité, les écosystèmes d'agents intelligents devront assurer la transparence de leurs processus et de leurs décisions. Dans les logiciels, la nécessité d'établir une BOM (pour "Bill of Materials"), c'est-à-dire une liste claire de tous les composants du code et de ses dépendances, commence à s'imposer dans les usages, afin de permettre aux entreprises et aux agences de voir ce qu'il y a sous le capot. De la même manière, une telle nomenclature pour les agents pourrait aider à expliquer et à suivre les processus décisionnels.

Quelle logique l'agent a-t-il suivie pour prendre une décision ? Quel agent a pris la décision ? Quel nouveau code a été généré ? Quelles données ont été utilisées et avec qui ces données ont-elles été partagées ? Plus nous pourrons suivre et comprendre les processus de prise de décision des agents, plus nous pourrons leur faire confiance pour agir en notre nom.

"Besoin d'espace" : l'informatique spatiale

La vue d'ensemble

L'informatique spatiale est sur le point de changer non seulement le cours de l'innovation technologique, mais aussi nos manières de travailler et de vivre. Alors que les ordinateurs de bureau et les smartphones utilisent des écrans comme porte d'entrée vers le monde numérique, l'informatique spatiale va enfin fusionner les différentes réalités, en rapprochant le numérique et le physique. Les applications conçues pour ce médium permettront aux gens de s'immerger dans des mondes numériques tout en ayant un sens physique de l'espace, ou de superposer du contenu sur leur environnement physique.

Ceci étant dit, pourquoi n'avons-nous pas l'impression d'être au début d'une nouvelle ère technologique ? Pourquoi assistons-nous à la place à des débats sur "la fin du métavers" ? Car, oui, le métavers est l'une des applications les plus connues de l'informatique spatiale.

Certains acteurs temporisent et expliquent que l'engouement pour le métavers a surpassé le niveau de maturité de la technologie. Mais d'autres continuent à avancer rapidement dans ce domaine. Meta poursuit ses développements rapides de produits de réalité virtuelle et de réalité augmentée. Il a présenté Codex Avatars, qui s'appuie sur l'IA et les caméras des smartphones pour créer des avatars photoréalistes.(xiv,xv) L'application RealityScan d'Epic Games, quant à elle, permet aux utilisateurs de scanner des objets dans le monde physique avec un simple téléphone, pour en faire des objets virtuels 3D.

Dans les coulisses, des technologies en progression rapide comme l'IA générative continuent de rendre le développement d'expériences et d'environnements virtuels plus rapide et moins coûteux. Et, de façon peut-être moins visible, ces technologies sont déjà déployées dans le monde industriel. Les jumeaux numériques dans les chaînes de production, la réalité virtuelle et augmentée dans la formation et le contrôle à distance des opérations, la mise en place d'environnements virtuels de conception collaborative... Tout cela constitue déjà des usages concrets – et utiles – de l'informatique spatiale.

La vérité est que de nouveaux médiums n'apparaissent pas très souvent. Et lorsqu'ils le font, leur adoption est lente. Néanmoins, les multiples avantages de s'y plonger dès leurs débuts sont indéniables.

La technologie : l'informatique spatiale

C'est le moment de s'y plonger. Nous assistons à un tournant technologique, avec une diminution des coûts de conception et d'adoption. Au même moment, des avancées majeures sont réalisées dans le développement des applications spatiales afin de les rendre plus réalistes, et leur permettre, enfin, de démontrer tout leur potentiel.

Développer des applications spatiales

De nouveaux standards, outils et solutions technologiques rendent le développement d'applications et d'expériences spatiales plus facile et moins coûteux.

Pensez aux sites web que vous fréquentez ou à vos applications préférées sur votre téléphone. Même si leurs fonctionnalités sont différentes, quelque chose de totalement universel sembler relier entre elles les expériences les plus disparates. Pourquoi ? Parce qu'elles reposent toutes sur les mêmes bases.

Pendant longtemps, l'informatique spatiale n'a pas eu une telle base. Et quand on veut construire des mondes qui ont l'air réels, ce manque de cohérence est un obstacle majeur ! Les développeurs d'espaces virtuels doivent prendre en compte beaucoup plus de paramètres que les développeurs de sites internet, en s'intéressant par exemple aux textures, aux formes, à l'éclairage et aux lois de la physique. Et comme la modélisation 3D est entrée dans l'informatique spatiale par des voies très diverses - de la conception de jeux vidéo à l'animation de films en passant par des applications industrielles comme le dessin architectural ou la modélisation CAO - cet environnement est marqué par une profusion de langages, de formats de fichiers, de fournisseurs de logiciels et de mode de design.

Et c'est là qu'entre en scène l'Universal Scence Description (USD), un format de fichier pour les univers 3D. Développé par Pixar, l'USD est un framework qui permet aux créateurs de définir tous les aspects d'une scène, comme les arrière-plans, l'éclairage, les personnages, etc. Puisque l'USD est conçu pour rassembler ces éléments dans une même scène, différents logiciels peuvent être utilisés pour chacun d'entre eux, ce qui facilite la collaboration. À première vue, l'USD peut donner l'impression d'être principalement destiné au monde du divertissement, mais ce format s'impose rapidement dans d'autres applications spatiales à fort impact, comme les jumeaux numériques industriels.

Les entreprises doivent comprendre qu'elles n'exploiteront pas ces espaces de façon isolée. De la même manière qu'aucune page web ou application n'existe seule, la prochaine évolution d'internet promet de rapprocher encore plus ces expériences parallèles. L'identité numérique et le Web3 joueront un rôle majeur dans le développement de ces espaces, qu'il s'agisse de déplacer un pantalon virtuel ou nos données de paiement d'un espace à un autre, ou encore pour identifier les entités opérant dans ces espaces. Aujourd'hui, ces technologies peuvent ne pas sembler essentielles au développement d'un espace virtuel, mais elles joueront bientôt un rôle crucial pour la pérennité et l'intérêt de ces espaces.

Certains acteurs l'ont bien en tête. L'Open Metaverse Alliance for Web3 (OMA3) développe par exemple une norme qui s'appliquera à la façon de se déplacer à travers les expériences virtuelles. Aujourd'hui, si vous voulez passer d'un métavers à un autre, vous devez quitter une application et passer à la suivante, comme si vous deviez fermer et relancer votre navigateur chaque fois que vous voulez aller sur un nouveau site internet. En 2023, l'OMA3 a lancé le projet "Inter-World Portaling System" (ou "Système de Portail Inter-Mondes" en français) pour développer un protocole permettant aux utilisateurs de passer d'un espace à un autre sans rompre l'immersion, un peu comme la barre d'adresse qui se trouve en haut de chaque site web.

Même si l'interopérabilité est un élément important, elle n'est d'aucune utilité si le développement d'éléments 3D reste très coûteux. Selon une estimation datant de 2020, le coût moyen des modèles 3D est compris entre 40$ et peut même atteindre des milliers de dollars dans certains cas. Or, les scènes 3D nécessitent énormément d'éléments 3D. Heureusement, c'est un domaine dans lequel les coûts commencent à diminuer.

Occuper l'espace

"Mais où sont-ils ?" s'exclamait le physicien Enrico Fermi en contemplant l'univers. Les mathématiques lui indiquaient que notre univers devrait regorger de vie. Et pourtant, en regardant les étoiles, l'espace paraissait absolument vide - le même sentiment que l'on éprouve souvent dans les mondes virtuels tels qu'ils existent aujourd'hui. Des expériences bien conçues mais vides ne parviennent pas à attirer les utilisateurs. C'est pourquoi pour réussir, les entreprises doivent faire plus que créer des espaces qui ont l'air réels : elles doivent les rendre vivants.

Une manière évidente de remplir ces espaces virtuels est d'y attirer de nouveaux utilisateurs. Avec environ 400 millions de personnes participant déjà à des expériences dans le métavers, ces espaces pourraient rapidement devenir bondés. Mais c'est une chose dans le monde physique de se rendre dans un magasin local qui compte plusieurs emplacements. Cela n'a rien à voir lorsque le monde entier peut accéder au même magasin virtuel en même temps.

Une autre stratégie consiste à créer des personnages virtuels grâce à l'IA, pour les intégrer dans les expériences spatiales et permettre des interactions personnalisées. Le concept n'a rien de nouveau : les "Personnages Non Joueurs" (PNJ) existent dans les jeux vidéo presque depuis toujours. Mais jusqu'ici, ils ont toujours été assez décevants, notamment parce qu'ils semblent creux et dénués de personnalité.

Le travail de la startup Inworld AI montre que les choses sont en train de changer. Celle-ci crée des personnages virtuels dotés d'une personnalité, capables de communiquer verbalement et non verbalement. Ces personnages sont conscients du contexte, ils ne font pas d'hallucinations ou ne font pas référence à du contenu en dehors de leur monde défini, ce qui atténue les risques de désinformation.

Le sens de l'espace

Enfin, un aspect qui différencie l'informatique spatiale des autres expériences numériques est l'engagement de nos différents sens. De nouvelles technologies permettent en effet aux développeurs de concevoir des expériences qui sollicitent tous les types de sens, dont le toucher, l'odorat et l'ouïe.

Dans les itérations précédentes de la réalité virtuelle, l'usage de technologies haptiques ou le recours au toucher pouvaient s'avérer décevants. Mais des chercheurs de l'Université de Chicago ont récemment proposé une nouvelle solution : l'utilisation d'électrodes afin de mieux imiter le sens du toucher. Ils ont construit pour cela un système d'électrodes avec 11 zones tactiles contrôlables sur les doigts de l'utilisateur, afin que celui-ci puisse "ressentir" le contenu numérique. Imaginez une application de méditation qui vous emmène sur une plage virtuelle où vous pourriez vraiment "ressentir" les grains de sable...

Les odeurs peuvent également rendre les espaces numériques plus réalistes, en évoquant des souvenirs ou en déclenchant des réactions instinctives, comme le combat ou la fuite. Scentient, une entreprise qui essaie d'intégrer une dimension olfactive au métavers, mène des tests de sa technologie dans le cadre de la formation des pompiers et des secouristes : un domaine où les odeurs, comme la présence de gaz, peuvent être déterminantes pour évaluer une urgence.

Évidemment, les sons, et plus exactement l'audio spatialisé, s'avèrent également essentiels pour créer des scènes numériques réalistes. Le New York Times a récemment utilisé l'audio spatialisé pour immerger les lecteurs dans l'environnement sonore de Notre-Dame de Paris. Sur smartphone ou ordinateur, les utilisateurs pouvaient "marcher" dans la cathédrale pour entendre le son d'une chorale en fonction de l'endroit où ils se "trouvaient" dans l'espace.

Enfin, les applications spatiales immersives devront reproduire la façon dont nous nous déplaçons naturellement. Le Vision Pro d'Apple suit les mouvements des yeux pour mieux diffuser les contenus, tandis que la fonctionnalité "Direct Touch" de Meta s'appuie sur le suivi des mouvements de la main pour remplacer les contrôleurs manuels dans des expériences de réalité virtuelle où un mouvement naturel est préférable.

Les enjeux : la "killer app" de l'informatique spatiale

L'informatique spatiale ne va pas prendre la place des smartphones et des ordinateurs. Mais elle est en train de devenir un élément important de la stratégie informatique des entreprises.

Nous avons déjà abordé les premières étapes. Les jumeaux numériques gagnent en pertinence lorsqu'on peut les parcourir et les explorer. Dans la formation, vivre une expérience a plus d'impact que de visionner une vidéo. Certes, la plupart de ces initiatives restent encore au stade de projets pilotes, mais une étude approfondie des avantages de l'informatique spatiale peut contribuer à éclairer et à orienter la stratégie des entreprises. Le marché est encore en phase de maturation, mais il semble évident que les applications spatiales trouvent tout leur intérêt lorsqu'elles répondent à un ou plusieurs de ces trois objectifs : transmettre de larges volumes d'informations complexes ; donner aux utilisateurs un contrôle sur leur expérience ; et, de manière un peu contre-intuitive, augmenter les espaces physiques.

C'est dans le domaine de la transmission d'informations complexes que l'avantage des technologies spatiales est probablement le plus évident. Lorsqu'une interface permet aux utilisateurs de se déplacer et d'agir de façon naturelle et instinctive, l'information peut être transmise de manière bien plus dynamique et immersive. Parmi les premiers exemples d'applications spatiales réussies figurent ainsi, comme nous l'avons vu, les jumeaux numériques industriels, les solutions de formation en réalité virtuelle ou l'assistance à distance en temps réel. Dans ces différents cas d'usage, de nombreuses informations doivent être partagées et les solutions habituelles peuvent provoquer un sentiment de saturation chez les utilisateurs.

Le deuxième avantage de l'informatique spatiale par rapport aux autres technologies est sa capacité à donner aux utilisateurs le pouvoir de définir et modifier leurs expériences au sein de l'application. Parce que l'informatique spatiale permet de développer des expériences numériques avec un sens physique de l'espace, des expériences qui donnent aux utilisateurs plus de flexibilité pour se déplacer et explorer peuvent être imaginées. Pour certaines applications, le fait de donner les commandes aux utilisateurs rendra les expériences plus personnalisées, naturelles et utiles.

A Paris, le Centre Pompidou a tiré parti de cet avantage pour personnaliser l'expérience de visite, grâce à une collaboration avec Snapchat et l'artiste Christian Marclay. Marclay a superposé sur la façade du Centre Pompidou un instrument virtuel que les visiteurs pouvaient utiliser en réalité augmentée, via l'application Snapchat. Les utilisateurs pouvaient enregistrer et partager leur façon de "jouer" avec le musée. De cette façon, l'expérience de visite n'est plus seulement définie par les conservateurs du musée, puisque les visiteurs peuvent désormais y insuffler leur propre créativité et s'approprier l'espace à leur manière.

Enfin, les applications spatiales représentent un avantage pour les espaces physiques : elles peuvent les augmenter, les améliorer et les étendre sans les modifier matériellement. Imaginez un bureau futuriste où les moniteurs, projecteurs et écrans physiques sont remplacés par des ordinateurs et des applications spatiales. Nous allons avoir davantage de flexibilité pour concevoir des espaces plus simples, peu coûteux et qui évoluent plus facilement.

Conclusion

L'informatique spatiale est sur le point de révéler tout son potentiel. La course est lancée et les premiers entrants prennent de l'avance. Pour se positionner en pionniers de cette nouvelle étape dans l'histoire de l'informatique, les dirigeants doivent réévaluer leur perception du sujet et reconnaître que les récentes avancées technologiques sont sur le point de changer la donne. Les nouvelles interfaces informatiques sont rares et elles peuvent avoir un impact majeur sur les entreprises et les utilisateurs pour des décennies.

Alors que le monde du travail devient "spatial", les entreprises doivent également prendre en compte les enjeux de sécurité. Il va y avoir plus d'appareils que jamais, puisque les employés vont utiliser de nouveaux appareils pour travailler, tandis que les clients les utiliseront pour accéder à des expériences spatiales. Cet écosystème en constante expansion créera davantage de points d'entrée pour les attaquants. Mais comment fixer des limites ? Les stratégies d'informatique spatiale des entreprises devront être conçues selon les principes du "zero-trust".

En outre, les entreprises doivent accepter d'avancer en territoire inconnu : fournisseurs et utilisateurs doivent s'attendre à être confrontés à des angles morts. Une seule ligne de défense ne sera pas suffisante, mais des stratégies de défense en profondeur, qui s'appuient sur plusieurs couches de sécurité (administratives, techniques et physiques) peuvent être déployées pour se protéger.

"Corps électroniques" : une nouvelle interface humaine

La vue d'ensemble

L'incapacité à comprendre les utilisateurs est un facteur limitant pour de nombreuses technologies que nous utilisons aujourd'hui. Il suffit de penser aux robots et aux drones qui ne peuvent être contrôlés qu'en traduisant ce que nous voulons en commandes qu'ils comprennent. Lorsque la technologie s'avère décevante, c'est souvent parce que les utilisateurs - ce qu'ils veulent, ce qu'ils attendent ou ce qu'ils ont l'intention de faire - restent une énigme.

Des innovateurs tentent aujourd'hui de résoudre ce problème. Dans tous les secteurs, ils mettent au point des technologies et des systèmes capables de comprendre les utilisateurs d'une manière inédite et de façon plus approfondie. Ils créent une "interface humaine" dont l'impact dépassera largement l'amélioration des maisons connectées, par exemple.

Il suffit de voir comment les neurotechnologies commencent à se connecter au cerveau humain pour s'en rendre compte. Récemment, deux études distinctes menées par des chercheurs de l'université de Californie à San Francisco et de l'université de Stanford ont démontré que les prothèses neuronales - comme les interfaces cerveau-ordinateur (ou "BCI" pour "Brain-Computer Interfaces") - permettaient de décoder la parole à partir de données neuronales. Cela pourrait aider les patients souffrant de handicaps verbaux à "parler", en traduisant les tentatives d'élocution en texte ou en voix synthétique.

Autre exemple : le développement des technologies qui analysent les mouvements du corps, comme le suivi des yeux et des mains. En 2023, le Vision Pro d'Apple a marqué le lancement de visionOS, qui permet aux utilisateurs de naviguer et de "cliquer" grâce à leur regard et un simple geste, sans avoir besoin d'une manette.

Ce type d'innovation redéfinit les règles et repousse les limites qui ont caractérisé les interactions entre l'homme et la machine pendant des dizaines d'années. Aujourd'hui, pour que les technologies fonctionnent, nous devons trop souvent faire des concessions, en nous adaptant et en modifiant nos comportements. Lorsque les technologies pourront mieux comprendre nos décisions et nos intentions, ce sont elles qui s'adapteront à nous.

Pour réussir, les entreprises vont devoir prendre en compte les différents enjeux liés à la confiance et en particulier les craintes des utilisateurs au sujet des mauvais usages de la technologie. Les entreprises, comme les individus, peuvent se montrer réticents à l'idée de laisser la technologie nous analyser et nous comprendre de façon aussi poussée. Les règles de protection de la vie privée applicables à la biométrie vont devoir être actualisées. De nouveaux principes neuroéthiques devront être définis, notamment en ce qui concerne le traitement des données cérébrales et l'analyse des différentes données biométriques, utilisées pour déduire les intentions et l'état d'esprit des utilisateurs. En attendant que les réglementations officielles rattrapent leur retard, c'est aux entreprises qu'il revient de créer un environnement de confiance.

La technologie : Une vision des utilisateurs centrée sur l'humain

Tenter de comprendre les gens - en tant qu'individus, cibles marketing ou populations - est un enjeu vieux de plusieurs siècles. Au cours des dernières décennies, l'utilisation des technologies numériques a été un facteur de différenciation majeur pour y parvenir. Les plateformes et solutions numériques ont permis aux entreprises de suivre et d'analyser les comportements des individus, avec des résultats remarquables. Aujourd'hui, l'"interface humaine" change à nouveau la donne, en permettant de comprendre les individus de manière encore plus précise, avec une approche davantage centrée sur l'humain.

31%

des consommateurs reconnaissent qu'ils sont souvent frustrés par le fait que la technologie ne les comprend pas et ne saisit pas leurs intentions avec précision.

Comment les technologies numériques "comprennent" les individus

Les principales stratégies utilisées aujourd'hui par les entreprises pour comprendre le comportement humain sont généralement de deux ordres : la collecte de données sur internet et l'usage de capteurs dans le monde physique.

Sur internet, la capacité des entreprises à comprendre les comportements est un atout majeur pour concevoir des expériences numériques. Les plateformes, en particulier, s'appuient sur les données des utilisateurs pour personnaliser les expériences et améliorer leurs produits.

Dans le monde physique, les appareils collectent depuis longtemps des données sur les individus, ce qui permet en échange aux entreprises de créer des produits et des services autour de la santé et de la localisation. Les capteurs installés dans les magasins pour mesurer le trafic ou la reconnaissance faciale et l'analyse des sentiments sont des outils qui permettent de mieux comprendre les individus, dans le but d'influencer ensuite leurs décisions.

Ces technologies sont importantes. Mais elles sont basées sur des modèles de suivi et d'analyse qui manquent encore de précision. Un consommateur peut lire ou regarder un contenu auquel il est habitué, mais il se peut très bien qu'il souhaite en fait quelque chose de totalement nouveau. Nous savons très bien reconnaître ce que les individus font, mais nous ne comprenons pas toujours pourquoi ils le font.

Comment l'"interface humaine" évalue les intentions

L'"interface humaine" ne définit pas une seule et unique technologie. Elle englobe plutôt un ensemble de technologies qui approfondissent la façon dont les acteurs les plus innovants voient et comprennent les individus.

Certains acteurs utilisent des appareils connectés pour collecter les données biologiques, afin de les aider à prédire ce que les individus veulent ou comprendre leur état d'esprit.

D'autres mettent au point des moyens plus sophistiqués pour comprendre les intentions des individus par rapport à leur environnement. Les chercheurs de l'école d'études automobiles de l'université de Tongji, par exemple, voulaient savoir comment réduire les collisions entre humains et véhicules. Alors que la plupart des efforts de prévention des accidents se concentrent simplement sur la détection des piétons, ces chercheurs ont pris en compte des détails tels que la distance entre le véhicule et le piéton, la vitesse du véhicule et la posture physique du piéton. Analyser la posture d'un piéton peut fournir un indice pour anticiper où il est susceptible de se déplacer ensuite, ce qui pourrait rendre les routes plus sûres pour tout le monde.

L'IA est une autre façon d'analyser les intentions. Prenons l'exemple des collaborations homme-robot. L'état d'esprit d'une personne - par exemple si elle se sent enthousiaste ou épuisée - peut influer sur la manière dont elle aborde une tâche. Les humains ont tendance à bien percevoir ces informations, mais ce n'est pas le cas des robots. Des chercheurs de l'université de Californie du Sud ont donc essayé d'apprendre aux robots à identifier les émotions afin de les aider à mieux assister les humains.

Enfin, les technologies d'"interface humaine" les plus intéressantes sont peut-être à chercher dans le domaine des neurotechnologies, avec la neurodétection et les interfaces cerveau-machine. De nombreuses entreprises de neurotechnologie sont apparues au cours de la dernière décennie et ce champ de recherche représente un potentiel évident pour nous aider à détecter et analyser les intentions humaines.

Les neurotechnologies font progresser l'"interface humaine"

Nombreux sont ceux qui pensent que la détection neuronale et les interfaces cerveau-machine en sont encore très loin du stade de l'utilisation commerciale, mais des progrès récents sont de nature à les détromper.

Les sceptiques ont tendance à considérer que les neurotechnologies vont rester cantonnées au domaine de la santé. Après tout, de nombreuses initiatives très médiatisées impliquent des implants très invasifs, utilisés dans le cadre d'un traitement médical. Mais à mesure que le panel d'options technologiques s'élargit, les initiatives commerciales et les cas d'usage se multiplient de jour en jour.

Deux avancées majeures sont à l'origine de cette évolution. La première est le décodage des signaux cérébraux. Depuis des décennies, il est possible de détecter les signaux cérébraux, mais le passage à des usages commerciaux implique un saut gigantesque. Il est en effet très difficile d'identifier des signaux et des mécanismes communs dans les cerveaux de différentes personnes. Mais les progrès de l'IA en matière de détection de tendances, ainsi qu'une plus grande disponibilité des données cérébrales, facilitent aujourd'hui les choses.

Le deuxième point à surveiller est l'évolution du matériel neurologique, et plus précisément la qualité des dispositifs externes. Historiquement, l'EEG (électroencéphalogramme) et l'IRMf (imagerie par résonance magnétique fonctionnelle) sont deux des techniques de détection externe du cerveau les plus utilisées. Néanmoins, jusqu'à récemment, ces deux techniques ne pouvaient être utilisées qu'en laboratoire.

Cela est aussi en train de changer. Par exemple, les électroencéphalogrammes étaient autrefois très sensibles aux bruits ambiants et aux mouvements musculaires, ce qui obligeait les patients à rester immobiles. Mais de nouveaux appareils, comme le casque DSI-24 de Wearable Sensing qui utilise un système à électrodes sèches, sont bien plus résistants au mouvement et au bruit. (xxxvi) Et tandis que l'IRMf restera probablement cantonné au milieu médical, une technologie plus récente appelée SPIRf (spectroscopie proche infrarouge fonctionnelle) permet de mesurer le flux sanguin dans le cerveau sans que les patients n'aient besoin d'être dans un tube au sein d'un laboratoire.

En plus de la portabilité, il est crucial de pouvoir traduire rapidement les signaux cérébraux en actions. Pour certains cas d'usage, l'envoi de données cérébrales brutes vers le cloud implique un temps de latence important, source de frustrations : cela pourrait notamment empêcher les utilisateurs de se déplacer ou de communiquer en temps réel. Mais des progrès sont également en cours dans ce domaine. En 2022, les investissements des fonds de capital-risque ont permis de démultiplier le nombre de startups spécialisées dans les puces destinées au edge computing. Les leaders de la fabrication de puces, comme Nvidia et Qualcomm, continuent, en parallèle, à travailler à la construction de puces de pointe plus petites et plus puissantes, et certains travaillent sur l'amélioration de l'efficacité informatique du traitement des signaux cérébraux.

94%

Les enjeux : se lancer, avec la bonne approche

Alors qu'un nombre croissant d'entreprises commencent à élaborer des stratégies d'"interface humaine", elles devraient commencer par identifier les différents domaines d'activité qui pourraient en bénéficier.

Les champs d'application de l'"interface humaine"

Avant tout, il convient d'évaluer à quel point les technologies d'"interface humaine" relèvent le niveau en matière d'anticipation des actions des individus. Certains des cas d'utilisation les plus prometteurs se situent dans des domaines où l'homme et la machine collaborent ensemble au sein du même espace. Par exemple, les entreprises pourraient concevoir des chaînes de production plus sûres et plus productives si les robots pouvaient anticiper ce que les ouvriers s'apprêtent à faire.

Un autre domaine susceptible d'être transformé est la collaboration directe entre l'homme et la machine, et en particulier la manière dont nous utilisons et contrôlons la technologie. C'est le cas par exemple avec les neurotechnologies, qui permettent d'utiliser notre cerveau et de nous connecter à la technologie d'une manière inédite, et potentiellement plus intuitive.

Des chercheurs de l'Université of Technology de Sydney, par exemple, ont mis au point un casque qui utilise un biocapteur pour mesurer les ondes cérébrales et les traduire en commandes. Lors d'un test avec l'armée australienne, des soldats ont pu utiliser l'appareil pour contrôler un chien robot à quatre pattes par la seule force de leur esprit, avec une précision allant jusqu'à 94 %.

Enfin, l'"interface humaine" pourrait être à l'origine de l'émergence de nouveaux produits et services. La détection cérébrale, par exemple, pourrait aider les gens à mieux se comprendre. C'est ainsi que l'Oréal, notamment, travaille avec la startup EMOTIV pour aider les gens à mieux comprendre leurs préférences en matière de parfum.

D'autres encore étudient l'intérêt de l'"interface humaine" pour la sécurité. C'est le cas de Meili Technologies, une startup qui travaille à l'amélioration de la sécurité des véhicules. Elle associe des modèles de deep learning, l'analyse d'images et des données captées dans l'habitacle pour détecter si un conducteur est victime d'une crise cardiaque, d'une crise d'épilepsie, d'un accident vasculaire cérébral ou d'une autre situation d'urgence.

La concurrence évolue et la confiance est plus importante que jamais

Dès à présent, les entreprises doivent commencer à évaluer les risques posés par ces technologies et étudier les nouvelles règles et mesures de protection à mettre en place. Plutôt que d'attendre que les réglementations se multiplient, les entreprises responsables doivent se pencher sur la question maintenant, en s'inspirant des lois biométriques existantes et des standards de l'industrie médicale. Le domaine de la neuroéthique fait déjà l'objet d'une attention particulière. Parmi les questions qui commencent à être soulevées figurent la sécurité et la fiabilité des dispositifs de neurotech, les risques psychologiques et les enjeux sociétaux tels que la confidentialité des données cérébrales ou le respect du consentement des utilisateurs et des principes d'équité.

Conclusion

L'interface humaine" ouvre la porte à une nouvelle approche pour résoudre l'un des plus vieux défis des entreprises : comprendre les individus. Cela représente une immense responsabilité, et une opportunité encore plus grande. Les individus vont poser des questions et exprimer des préoccupations à propos de la protection de la vie privée : ce sera le premier et le plus important obstacle que les entreprises vont devoir surmonter. Mais la possibilité de comprendre les individus d'une manière plus précise, avec une approche davantage centrée sur l'humain, en vaut la peine.

Davantage que dans toutes les autres tendances de cette année, la sécurité va être déterminante pour l'adoption de l'"interface humaine" par les entreprises et les consommateurs.

L'acceptation d'outils plus connectés et plus précis va dépendre de la capacité des utilisateurs à garder la main sur les informations qui sont partagées. Cet enjeu doit être pris en compte dans la conception de la prochaine génération d'interfaces homme-machine. Il faudra laisser aux utilisateurs le choix de donner accès à des données pertinentes pour les tâches à accomplir ou de refuser de partager des informations sensibles.

AUTEURS

Paul Daugherty

Chief Technology & Innovation Officer

Marc Carrel-Billiard

Senior Managing Director and Lead – Technology Innovation and Accenture Labs

Michael Biltz

Managing Director – Accenture Technology Vision

Adam Burden

Global Innovation Lead