REPORTE DE INVESTIGACIÓN
Technology Vision 2024
15 MINUTOS DE LECTURA
January 04, 2024
REPORTE DE INVESTIGACIÓN
15 MINUTOS DE LECTURA
January 04, 2024
Las empresas dispondrán en los próximos años de una enorme variedad de tecnologías que serán básicas para su reinvención y elevarán el potencial humano a un nuevo nivel. Las empresas líderes y pioneras ya han iniciado el camino hacia una nueva era de productividad, capacidad y oportunidad. Sus estrategias pueden variar, pero todas tienen un denominador común: la humanización de la tecnología.
Parece una paradoja. Al fin y al cabo, ¿no está hecha la tecnología por y para los humanos? Crear herramientas que extiendan nuestros límites físicos y cognitivos es algo tan humano que muchos consideran que eso es lo que nos define como especiei.
Pese a ello, muchas de esas de herramientas tienen muy poco de humanas: hacen lo que nosotros no podemos, transformando nuestra vida de manera drástica. Los automóviles aumentan nuestras movilidad, las grúas nos permiten construir puentes y rascacielos, y hay máquinas que nos ayudan a crear, distribuir y escuchar música.
La falta de humanidad de la tecnología puede ser un inconveniente. Las herramientas manuales causan artritis si se usan demasiado, mientras que las pantallas pueden agudizar los problemas de vista. Tenemos estupendas herramientas de navegación, pero pueden distraernos mientras conducimos. Las máquinas son cada vez más ergonómicas y fáciles de usar, pero ni siquiera eso evita que, en muchos casos, tomemos decisiones pensando más en las máquinas que en optimizar el potencial humano.
Pero todo indica que, por primera vez en la historia, esta tendencia se está invirtiendo. Eso no significa que estemos renunciando a la tecnología, sino que está surgiendo una generación de tecnología más humana: una tecnología que es más intuitiva por diseño y por naturaleza, que piensa más como las personas y que se integra sin problemas en todos los ámbitos de nuestras vidas.
No hay más que pensar en el impacto de la IA generativa y los modelos de transformación en el mundo que nos rodea. Lo que empezó con chatbots como ChatGPT y Bard se ha convertido en un motor que hace que la tecnología sea más intuitiva, inteligente y accesible para todos. La IA se usaba al principio para automatización y tareas rutinarias, pero ahora se emplea para enriquecer la forma de trabajar de las personas y está democratizando tecnologías y conocimientos especializados que, hasta hace poco, solo estaban al alcance de gente con mucha formación o mucho dinero.
El impacto de la IA generativa puede ir mucho más allá de tareas concretas, impulsando una profunda transformación de organizaciones y mercados.
Por supuesto, la humanización de la tecnología no se limita a la IA. Está empezando a solucionar muchos de nuestros problemas con la tecnología, lo que se traducirá en un mayor potencial humano.
La tecnología humanizada desde el diseño llegará a más personas y facilitará el acceso al conocimiento, lo que hará posible la innovación continua. Incluso quienes siempre se han sentido alienados por la tecnología podrán participar en la revolución digital, convirtiéndose en nuevos clientes y empleados gracias a una tecnología más intuitiva.
de los ejecutivos creen que humanizar la tecnología multiplicará las oportunidades en todas las industrias.
Los líderes seguirán haciéndose las mismas preguntas: ¿Qué productos y servicios están listos para su comercialización? ¿Qué datos pueden utilizar? ¿Qué medidas de transformación pueden adoptar? Pero también tendrán que responder preguntas que tal vez no esperaban: ¿Qué tipo de controles necesita la IA? ¿A quiénes afectará la transformación digital? ¿Cuáles son sus responsabilidades hacia las personas de su ecosistema?
La humanización desde el diseño no es solo una descripción de características, sino una necesidad para el futuro. La tecnología humanizada será fundamental para el éxito de la reinvención de la base digital de las empresas. Las empresas están empezando a ver el potencial de las nuevas tecnologías para reinventar los pilares de sus iniciativas digitales. La expansión de tecnologías como IA generativa, computación espacial y otras provocará cambios en productos, datos y analítica, y experiencias digitales.
En este momento de reinvención, las empresas tienen la oportunidad de desarrollar una estrategia que maximice el potencial humano y elimine fricciones entre personas y tecnología. La inteligencia artificial será la tecnología del futuro, pero debe estar diseñada para la inteligencia humana. Y del mismo modo que las empresas podrán hacer cada vez más cosas con la tecnología, también sus decisiones serán mucho más importantes. El mundo está observando. ¿Quieres ser un modelo a seguir o un ejemplo de lo que no hay que hacer?
de los ejecutivos cree que, ante los rápidos avances tecnológicos, es más importante que nunca que las organizaciones innoven con un objetivo claro.
El informe Technology Vision de año pasado se centró en la convergencia de átomos y bits, explorando cómo está asentando los cimientos de nuestra nueva realidad. Describía un mundo en que la desaparición de las barreras entre nuestras realidades física y digital está impulsando la innovación en casi todas las facetas de la tecnología, que se convierten así en un factor crítico para la reinvención de la empresa.
En el informe de este año nos centramos en lo que más importa: las personas. Las cuatro tendencias identificadas corresponden a los aspectos en los que la tecnología se está humanizando desde su diseño y describen lo que tendrán que hacer las organizaciones.
El mundo está llegando al que tal vez sea el punto de inflexión más importante de la historia. Y las empresas (y las decisiones de sus líderes) tienen mucho que decir al respecto.
El crecimiento y la innovación no siempre cambian las cosas para mejor. Cada vez habrá más (y nuevas) oportunidades para el fraude, la información falsa y los ataques a la seguridad. Si desarrollamos herramientas con capacidades humanas, pero sin la inteligencia (o incluso la conciencia) de las personas, el resultado puede ser perjudicial tanto para la cuenta de resultados como para el bien común.
En la era de la tecnología humanizada, cada producto y cada servicio que comercialicen las empresas tiene el potencial de transformar vidas, reforzar comunidades e impulsar cambios... para bien o para mal. Eso obligará a las empresas a buscar un difícil equilibrio entre la necesidad de actuar rápido y la necesidad de actuar con responsabilidad, sin olvidar que, muy probablemente, habrá empresas o países que no tengan las mismas prioridades o no impongan los mismos controles.
A la hora de humanizar la tecnología desde su diseño, debemos ver la seguridad como una forma de generar confianza entre personas y tecnología, y no como una limitación o una obligación. Y tenemos que desarrollar la tecnología pensando siempre en lo que significa ser humano. Es lo que llamamos “ingeniería positiva”. En los últimos años, el sector tecnológico ha tenido que afrontar cuestiones de ética en ámbitos como inclusividad, accesibilidad, sostenibilidad, seguridad laboral, protección de la propiedad intelectual y muchos más. Todas ellas se pueden reducir a una sola pregunta: ¿cómo conciliar lo que podemos hacer con la tecnología y lo que queremos como personas?
Estamos en un momento crucial para personas y tecnología. El mundo te necesita para encontrar el mejor camino a seguir.
Nuestra relación con los datos está cambiando y, con ella, nuestra forma de pensar, trabajar e interactuar con la tecnología, lo que afecta a toda la base de la empresa digital.
El modelo de “bibliotecario” para nuestra interacción con los datos está siendo sustituido por un nuevo modelo de “asesor”. En lugar de realizar búsquedas para obtener resultados, lo que hacemos ahora es pedir respuestas a chatbots de IA. Buen ejemplo de ello es ChatGPT, presentado por OpenAI en noviembre de 2022, que pronto se convirtió en la app con crecimiento más rápido en toda la historia. Hace años que existen los modelos grande de lenguaje (LLM), pero la gran diferencia está en la forma en que ChatGPT responde preguntas de un modo directo y conversacional.
Los datos son uno de los factores más importantes para construir las actuales empresas digitales, y los nuevos chatbots están cambiándolo con su capacidad de sintetizar enormes cantidades de información para ofrecer respuestas y recomendaciones, usar distintas modalidades de datos, recordar conversaciones anteriores e incluso sugerir preguntas. Además, esos chatbots pueden funcionar como asesores que permiten a las empresas poner todos los conocimientos corporativos al alcance de sus empleados. Eso podría destapar el valor latente de los datos para que las empresas aprovechen por fin todo su potencial.
Las empresas poseen información muy valiosa que quieren poner a disposición de sus clientes, empleados, socios e inversores. Pero ya sea porque no sabemos exactamente lo que hay que buscar, porque no podemos escribir la consulta, porque los datos están aislados o porque los documentos son demasiado densos, lo cierto es que resulta difícil acceder a gran parte de esa información. Para los actuales negocios basados en datos, eso supone un importante valor oculto que la IA generativa puede sacar a la luz.
Sin embargo, la verdadera disrupción no está únicamente en la forma de acceder a los datos, sino en el potencial para transformar todo el mercado del software. ¿Qué pasaría si todas las apps y plataformas digitales usaran como interfaz un chatbot de IA generativa? ¿Y si fuera así como leemos, escribimos e interactuamos con datos en todas las plataformas?
Para aprovechar todas las ventajas de la IA generativa y crear el negocio basado en más datos e IA del futuro, las empresas tienen que replantearse de principio a fin sus estrategias tecnológicas. Necesitan cambiar la forma en que obtienen y estructuran datos, sus arquitecturas y el uso que hacen de herramientas y funciones tecnológicas. Y deben crear desde cero nuevas prácticas como formación, reducción de sesgos y supervisión de IA.
de los ejecutivos esperan que la IA generativa lleve a sus organizaciones a modernizar la arquitectura tecnológica.
Las nuevas técnicas y tecnologías pueden ayudar a las empresas a reforzar sus estructuras de datos y a prepararse para el futuro del negocio basado en datos. De hecho, algunas empresas ya han dado los primeros pasos para modernizar sus estrategias de datos. Pero lo cierto es que la mayor parte de ellas aún no lo han hecho y sus sistemas de gestión de conocimientos se están quedando atrás. En cualquier caso, los asesores LLM requieren una estructura de datos mucho más accesible y contextual que las actuales.
Una de las tecnologías más importantes para ello es el gráfico de conocimientos. Se trata de un modelo de datos con estructura gráfica que incluye entidades y las relaciones entre ellas, lo que aumenta el nivel de contexto. Un gráfico de conocimientos no solo puede combinar información de más fuentes y admitir un mayor grado de personalización, sino que también facilita el acceso a datos mediante búsquedas semánticasii.
Para ver lo potentes que pueden llegar a ser los gráficos de conocimientos y las búsquedas semánticas, veamos un caso de uso de Cisco Systems. Como muchas grandes corporaciones, el equipo de ventas de Cisco disponía de toneladas de datos. Sin embargo, la falta de metadatos hacía que resultara difícil encontrar documentos usando búsquedas basadas en índices. Por eso decidieron usar Neo4j para crear un gráfico de conocimientos con metadatos.
Aunque no emplearon LLM, utilizaron procesamiento del lenguaje natural para crear una ontología y un servicio de etiquetado automático que asignaba metadatos a documentos, los cuales se guardaban luego en una base de datos gráfica. Ahora los vendedores de Cisco pueden encontrar información en la mitad de tiempo y se ahorran más de cuatro millones de horas anuales gracias a su mayor capacidad de gestión de conocimientosiii.
Además de los gráficos de conocimientos, también serán importantes otras estrategias de administración de datos. Los modelos Data Mesh y Data Fabric ofrecen dos formas de organizar información que ayudarán a las empresas a actualizar su arquitectura.
Los sistemas de gestión de conocimientos de las empresas mejorarían mucho con gráficos de conocimientos, Data Mesh y Data Fabric, pero realmente vale la pena ir un paso más allá y cambiar el modelo de bibliotecario por el modelo de asesor. Supongamos que, en vez de usar una barra de búsqueda, los empleados pudieran hacer preguntas en lenguaje natural y obtener respuestas claras en todas las apps y páginas web de la empresa. Eso es posible si las empresas disponen de una estructura de datos accesible y contextual. Para ello disponen de varias opciones.
En primer lugar, las empresas pueden entrenar sus propios LLM desde cero. Sin embargo, eso requiere muchos recursos y solo está al alcance de gigantes de la IA como OpenAI, Google, Meta, AI21 y Anthropic.
Una segunda opción consiste en “afinar” un LLM existente. Básicamente, eso supone partir de un LLM más general y entrenarlo con una serie de documentos específicos para adaptarlo a un sector. Importantes proveedores cloud como Amazon AWS, Microsoft Azure o Google Cloud ofrecen servicios que ayudan a sus clientes a afinar una versión privada de un modelo básico con sus propios datosiv, v, vi. Estos modelos se pueden integrar para utilizarlos en aplicaciones de empresa. Aunque requiere muchos menos recursos que los necesarios para entrenar un LLM desde cero, esta opción no garantiza que el modelo tenga la información más actualizada. Resulta especialmente útil si no se necesita información en tiempo real, como en aplicaciones de diseño o marketing.
Hay una pequeña variación de la opción anterior que también está ganando impulso. Las empresas afinan modelos de lenguaje pequeño (SLM) para casos de uso especializados. Algunos SLM, como Chinchilla de DeepMind o Alpaca de Stanford, requieren muchos menos recursos y empiezan a rivalizar con modelos más grandesvii. Estos SLM no solo son más eficientes, económicos y con menos huella de carbono, sino que además se pueden entrenar en menos tiempo y se usan en dispositivos de borde más pequeños.
Por último, una de las opciones más populares para crear un asesor LLM consiste en “conectar” modelos LLM previamente entrenados, proporcionándoles información sobre casos de uso concretos. Para ello se suele usar generación enriquecida con recuperación (RAG), una técnica que, como su propio nombre indica, combina un sistema de recuperación de información con un modelo generativo que puede entrenarse a sí mismo o al que se puede acceder con una API.
Conectar un LLM usando aprendizaje contextual y RAG requiere mucho menos tiempo, potencia de cálculo y conocimientos que afinar un LLM o entrenarlo desde cero. Esta opción está especialmente indicada para casos de uso que necesitan información en tiempo real, aunque sigue siendo necesario verificar esa información.
El campo de la IA generativa y los LLM no deja de avanzar, por lo que es muy posible que, cuando leas este informe, ya existan nuevas opciones para crear asesores de IA generativa. Elijas la opción que elijas, hay algo que no va a cambiar: si quieres sacar el máximo partido a un asesor LLM, necesitas una estructura de datos sólida y contextual.
Mientras exploran las nuevas posibilidades que ofrecen los asesores LLM, lo primero y más importante que deben hacer las empresas es comprender los riesgos.
Las “alucinaciones” son algo casi intrínseco a los LLM. Estos asesores están entrenados para dar respuestas probabilísticas con un alto grado de certidumbre, por lo que es inevitable que a veces utilicen información incorrecta. Eso puede tener graves consecuencias, ya que cada vez empleamos más aplicaciones LLM para acceder y distribuir información o para interactuar con un software. Ten en cuenata que algo va mal, cuando no sabes si lo que estás leyendo es verdad.
Las alucinaciones son tal vez el principal riesgo de los LLM, pero el uso de este tipo de chatbots en la empresa plantea también otros problemas. Si se utiliza un modelo público, los datos deben estar protegidos para evitar filtraciones. Incluso con modelos privados, hay que evitar compartir datos con empleados que no deban tener acceso a ellos. También es necesario controlar el coste de computación. A eso hay que añadir que poca gente tiene los conocimientos necesarios para usar correctamente estas soluciones.
Pero estas dificultades no deben verse como un impedimento, sino como un incentivo para usar la tecnología con los controles adecuados.
Los datos suministrados al LLM (ya sea en el entrenamiento o en la interfaz) tienen que ser de calidad: actualizados, bien etiquetados y sin sesgos. Los datos usados en el entrenamiento deben ser Zero-Party y compartidos activamente con clientes, o bien First-Party y obtenidos directamente por la empresaviii. También hay que definir normas de seguridad para proteger datos personales o de la empresa. Por último, debe haber permisos que garanticen que el usuario está autorizado a acceder a datos para aprendizaje contextual.
Además de exactas, las respuestas de un chatbot de IA generativa también tienen que ser explicables y estar en línea con la marca. Deben existir controles para que el modelo no responda con datos confidenciales o palabras ofensivas, así como para que rechace preguntas que no esté preparado para contestar. Las respuestas también pueden tener cierto grado de incertidumbre y ofrecer fuentes de verificación.
Por último, los chatbots de IA generativa deben estar sometidos a pruebas continuas y a supervisión humana. Las empresas tienen que invertir en IA ética y definir unas normas mínimas de obligado cumplimiento, así como consultar a sus empleados y ofrecerles la formación necesaria.
Por fin ha llegado el momento de aprovechar la nueva era de asesores LLM.
En las empresas, los chatbots de IA generativa permitirán que clientes y empleados accedan no solo a conocimientos, sino también a respuestas contextuales, como nunca antes lo habían hecho. Eso potenciará el intercambio interno de conocimientos, la atención al cliente, las capacidades de productos y mucho más.
Por lo que se refiere a oportunidades externas, los chatbots de IA generativa cambiarán la forma en que los clientes interesados en los productos o servicios de una empresa encuentran información sobre ella. La gente ya está empezando a sustituir los motores de búsqueda tradicionales por bots de IA generativa para búsquedas en Internet como Microsoft Bing Chat, o bien enriqueciendo la experiencia de búsqueda con Google SGE, que utiliza IA para ofrecer descripciones y respuestasix, x. De este modo obtienen respuestas directas a sus preguntas en lenguaje natural. Aunque se citen las fuentes y la página presente también los resultados de la búsqueda, es poco probable que alguien siga esos enlaces.
¿Qué significa eso para las páginas web, y especialmente para las corporativas? ¿Qué deben hacer las empresas para que sus clientes encuentren la información que buscan y necesitan, o la información más actualizada con enlaces a las fuentes correspondientes? Las empresas tienen la oportunidad de transformar por completo la forma en que llegan a los clientes.
La IA generativa ha venido a revolucionar los datos y el software. Los LLM están cambiando nuestra relación con la información y muchas otras cosas, desde la forma en que las empresas llegan a los clientes hasta cómo prepararan a sus empleados y colaboradores. Las empresas líderes ya están empezando a concebir y desarrollar la próxima generación de negocios basados en datos, pero pronto se les unirán todas las demás. Así será el futuro de la empresa digital.
Además de las muchas implicaciones para la seguridad de las que ya hemos hablado en esta tendencia, las empresas también deben tener en cuenta el efecto de los asesores LLM sobre la dinámica de los datos de usuarios.
Estamos ante una oportunidad de reinventar las búsquedas y recuperar la confianza entre las empresas y sus clientes. Las empresas pueden actuar como administradoras de su propia información, guardando, protegiendo, analizando y distribuyendo sus datos y conocimientos directamente a los clientes mediante asesores digitales. Es una gran responsabilidad, ya que la empresa debe garantizar que los datos están protegidos al tiempo que da respuestas precisas con sus servicios de asesoramiento. Pero la oportunidad es aún mayor: al poder intercambiar información sin necesidad de proveedores de búsqueda, las empresas pueden ofrecer directamente información fiable y recuperar la confianza de sus clientes.
La IA está superando su limitada capacidad de asistencia para desempeñar un papel cada vez más activo en el mundo. Durante la próxima década asistiremos a la aparición de ecosistemas de agentes: grandes redes de IA interconectadas que cambiarán por completo la forma en que las empresas se plantean sus estrategias de inteligencia y automatización.
Las actuales estrategias de IA tienden a centrarse en tareas o funciones concretas. La IA actúa así en solitario, y no como un ecosistema de partes interdependientes. Con agentes de IA, por el contrario, los sistemas automatizados pueden tomar decisiones y realizar acciones por su cuenta. Los agentes no solo aconsejan a las personas, sino que actúan en su nombre. La IA seguirá generando textos, imágenes e ideas, pero serán los agentes los que decidan qué hacer con todo eso.
Aunque esta evolución está aún en sus inicios, las empresas tienen que empezar a pensar ya en lo que va a ocurrir. Si los agentes comienzan a actuar, no pasará mucho tiempo antes de que empiecen también a interactuar. La estrategia de IA del futuro exigirá coordinar toda una serie de sistemas: IA especializadas, agentes generalizados, agentes adaptados a la colaboración con personas y agentes diseñados para la optimización de máquinas.
Pero aún queda mucho por hacer antes de que los agentes de IA puedan actuar en nuestro nombre o como nuestros representantes, y todavía más antes de que puedan hacerlo de manera coordinada. Lo cierto es que los agentes todavía fallan, utilizan mal las herramientas y generan respuestas incorrectas, y estos errores se pueden complicar con rapidez.
Personas y máquinas colaboran ya a nivel de tarea, pero los líderes no están preparados para que la IA gestione sus negocios. O no lo estaban hasta ahora. En la medida en que los agentes se conviertan en nuestros colaboradores y representantes, tendremos que reinventar con ellos el futuro de la tecnología y el talento. No se trata solo de nuevas habilidades, sino de garantizar que los agentes comparten nuestros valores y objetivos. Los agentes ayudarán a definir el futuro del mundo, pero es responsabilidad nuestra asegurarnos de que sea un mundo en el que queremos vivir.
de los ejecutivos creen que los ecosistemas de agentes de IA ofrecerán importantes oportunidades a sus organizaciones en los próximos tres años.
A medida que los asistentes de IA se vayan convirtiendo en representantes que actúen en nombre de personas, las oportunidades de negocio que ello genere dependerán de tres capacidades básicas: acceso a datos y servicios en tiempo real, razonamiento complejo y creación de herramientas (para uso de los propios agentes, no de las personas).
Empecemos con el acceso a datos y servicios en tiempo real. Cuando apareció ChatGPT, mucha gente cometió el error de pensar que la aplicación buscaba información en la web. En realidad, GPT-3.5 (el LLM que utilizaba ChatGPT al principio) había sido entrenado con un gran corpus de conocimientos y utilizaba las relaciones entre esos datos para ofrecer respuestas.
En marzo de 2023, OpenAI anunció los primeros complementos para ChatGPT. Gracias a los “complementos”, los LLM pueden buscar información, usar software digital, ejecutar código, recurrir a API y generar respuestas no solo en texto al permitir que el modelo acceda a Internet.
Estos complementos transforman modelos básicos a partir de potentes motores que están aislados de los agentes y tienen capacidad para explorar el mundo digital. Los complementos poseen un enorme potencial de innovación en sí mismos, pero también serán muy importantes para la aparición de ecosistemas de agentes.
El segundo paso en la evolución de los agentes es la capacidad de razonar y pensar con lógica, ya que las máquinas necesitan una serie de instrucciones complejas para realizar incluso las acciones cotidianas más sencillas.
La investigación sobre IA está empezando a derribar barreras que impiden razonar a las máquinas. La interacción Chain-of-Thought es un modelo creado para que los LLM entiendan mejor los pasos de una tarea concretaxi. Los investigadores se dieron cuenta de que podían obtener mejores resultados si descomponían las instrucciones en pasos explícitos, llegando incluso a hacer que el modelo “pensara paso a paso”. Este tipo de interacción puede requerir intervención humana al principio, pero la investigación indica que es posible diseñar modelos autocríticos que almacenan información en su memoria, lo que abre la puerta a la automatización de esta forma de razonarxii.
Con razonamiento lógico y complementos, la IA puede realizar tareas complejas usando una lógica más estricta y las numerosas herramientas digitales disponibles en la web. ¿Pero qué ocurre si la solución deseada todavía no existe?
Cuando nos enfrentamos a este reto, lo que hacemos las personas es crear las herramientas que necesitamos. La IA dependía hasta ahora de los humanos para adquirir nuevas capacidades, pero la tercera dimensión de representación que está apareciendo le permite desarrollar herramientas para sí misma.
El ecosistema de agentes puede parecer algo muy complicado. Después de todo, y más allá de las tres capacidades básicas de los agentes autónomos, estamos hablando de un problema de coordinación extraordinariamente complejo que exige una completa reinvención del trabajo humano. Incluso los líderes se preguntan por dónde empezar.
La buena noticia es que las iniciativas de transformación digital en curso resultarán muy útiles para las empresas. La modernización de datos y la creación de bibliotecas de API serán fundamentales para integrar los sistemas corporativos en el ecosistema de IA. Sin embargo, no hay que olvidar que estos modelos no están libres de inconvenientes. Los LLM siguen dando respuestas incorrectas. Y será necesario investigar mucho más sobre los riesgos y las implicaciones de estos modelos para la ciberseguridad.
¿Qué ocurre cuando entra en acción el ecosistema de agentes? Ya sea actuando como asistentes o nuestros representantes, los agentes causarán una explosión de productividad, más innovación y una completa transformación del trabajo humano.
Como asistentes o copilotos, los agentes pueden multiplicar la productividad de los empleados. En procesos corporativos que siempre dependen de humanos, los agentes actuarán como colaboradores.
En otras situaciones, cada vez tendremos más confianza en los agentes para que actúen en nuestro nombre. Como nuestros representantes, realizarán tareas ahora reservadas a las personas, pero con una gran ventaja: un solo agente tendrá a su disposición todos los conocimientos y datos de la empresa. Su base de conocimientos superará ampliamente la de los empleados humanos más experimentados y los agentes podrán aplicar esos conocimientos de manera simultánea en todas partes. Y si los agentes no tienen la información que necesitan o las herramientas adecuadas, podrán crearlas ellos mismos.
Las empresas tendrán que reflexionar sobre los aspectos humanos y tecnológicos necesarios para dar soporte a estos agentes. Desde el punto de vista tecnológico, será muy importante la manera en que se identifiquen estas entidades. A medida que los agentes vayan realizando más acciones por su cuenta con comportamientos que pueden imitar a los humanos, tecnologías como Web3, identidad descentralizada y otras soluciones serán fundamentales para garantizar que esos agentes pueden identificarse correctamente.
Habrá que prestar aún más atención a las consecuencias para los trabajadores humanos (sus nuevas responsabilidades, roles y funciones). Lo que está claro es que los humanos no van a desaparecer. Es cierto que los empleados tendrán más capacidad, pero les va a hacer falta. Aunque los agentes asuman funciones corporativas, no será una operación puramente automática. Serán personas quienes definan normas y las impongan a los agentes. Ha llegado el momento de replantearse la estrategia de talento y preparar al personal para esta nueva realidad.
En la era de los ecosistemas de agentes, los mejores empleados serán los más preparados para marcar pautas a esos agentes. A medida que los agentes ganen autonomía, los humanos deben definir e imponer normas para garantizar que sus representantes actúen en beneficio de la empresa y de su personal. Los agentes permiten que las personas hagan cosas que antes no podían, por lo que ambas partes deben pensar siempre en los objetivos de la empresa. Para bien o para mal, el efecto de las elecciones o decisiones de los empleados se amplificará.
El grado de confianza de una empresa en sus agentes autónomos determinará el valor que puedan generar esos agentes, mientras que construir esa confianza será responsabilidad del talento humano. Los ecosistemas de agentes actuarán sin necesidad de intervención humana, pero no siempre harán lo más correcto. Las personas tienen que dotar de normas, conocimientos y capacidad de razonamiento a los agentes antes de darles libertad, y luego someterlos a pruebas estrictas para comprobar que están preparados. Cuando los ecosistemas de agentes evolucionen, los humanos tendrán dos responsabilidades básicas para generar confianza en los sistemas semiautónomos: desarrollar sistemas de soporte a agentes y optimizar el razonamiento automático.
Los empleados de las organizaciones más avanzadas ya están mejorando las acciones de la IA autónoma con sus sistemas de soporte a agentes. Los LLM están entrenados con enormes cantidades de información, lo que permite que herramientas como ChatGPT respondan numerosas preguntas con una precisión aceptable. Pero si un agente controla la cadena de suministro, por ejemplo, lo primero que necesita es conocerla al detalle, por lo que cualquier otra información podría llevarle a error. Si los empleados incorporan los conocimientos de la empresa, sus datos y herramientas externas en una IA autónoma, estos sistemas de soporte pueden determinar la información a la que deben dar prioridad los sistemas de IA.
Pero pensar de forma lógica no es suficiente. Los agentes también tienen que saber cuáles son sus límites. ¿Cuándo tiene un agente suficiente información para actuar por su cuenta y cuándo debe pedir ayuda antes de actuar? La situación puede variar según el agente, la empresa y la industria, pero siempre serán personas quienes decidan cuánta independencia pueden tener sus sistemas autónomos. Los humanos tienen que enseñar a los agentes a determinar lo que saben, y especialmente lo que no saben, de modo que los agentes puedan tener la información y la confianza que necesitan para seguir trabajando.
¿Qué pueden hacer las empresas para facilitar el éxito de sus empleados y agentes? Es necesario que los agentes tengan la oportunidad de conocer la empresa y que la empresa tenga la oportunidad de conocer a los agentes.
Las empresas pueden empezar por trenzar el tejido conectivo entre los predecesores de los agentes (los LLM) y sus sistemas de soporte. Existen muchos modelos maduros de IA generativa y algunos copilotos digitales que ya están listos para relacionarse con personas, herramientas y robots que son vitales para la empresa. Los modelos básicos adquirirán conocimientos más fácilmente si los LLM están afinados con información de la empresa.
Cuanto antes se prepare la infraestructura y la información que necesitan los agentes, menos tiempo tardarán los futuros agentes en hacer realidad todo su potencial y actuar como representantes de humanos dentro y fuera de la organización. Esta preparación obligará a replantearse algunas prácticas de administración de datos, como vectorización de bases de datos, nuevas API para acceder a datos y herramientas de interfaz con sistemas corporativos.
También es momento de presentar a los humanos sus futuros compañeros digitales. Las empresas pueden sentar las bases para generar confianza en sus futuros agentes si enseñan a sus empleados a razonar con tecnologías inteligentes existentes. Hay que animar a los empleados a descubrir y superar los límites de los sistemas autónomos, ayudándoles a establecer normas bien definidas sobre lo que pueden y lo que no pueden pedir a los sistemas autónomos que tienen a su disposición. En otras palabras: los trabajadores humanos tienen que recibir formación que les prepare y les motive para tomar el control de los ecosistemas de agentes.
Por último, no debe haber ninguna ambigüedad sobre cuál es el objetivo de la empresa. Todo lo que hagan los agentes tiene que responder a los valores fundamentales y la misión de la empresa. Nunca es demasiado pronto para imponer los valores desde lo más alto hasta lo más bajo de la organización.
Los ecosistemas de agentes pueden multiplicar la productividad y la innovación de una empresa hasta niveles inalcanzables para las personas, pero su valor está limitado por el de los humanos que los controlan. El conocimiento y el razonamiento humanos son lo que hace que una red de agentes tenga ventaja sobre otra. La inteligencia artificial es hoy solo una herramienta, pero serán agentes de IA los que gestionen nuestras empresas en el futuro. Nuestra obligación es garantizar que esos agentes no actúan de manera descontrolada. La IA está evolucionando con gran rapidez, por lo que no hay que esperar más para empezar a prepararse.
Desde el punto de vista de la seguridad, los ecosistemas de agentes tendrán que ser transparentes en sus procesos y decisiones. Cada vez es más importante contar con una lista de materiales de software (es decir, una lista clara de todos los componentes y dependencias de código que forman una aplicación informática) para controlar a las empresas y sus agentes. Del mismo modo, una lista de materiales de agentes podría ser útil para explicar y controlar las decisiones tomadas por agentes.
¿Qué lógica ha seguido el agente para tomar una decisión? ¿Qué agente tomó esa decisión? ¿Qué código se escribió? ¿Qué datos se emplearon y con quién se compartieron? Cuanto más sepamos sobre el proceso de toma de decisiones de los agentes, más podremos confiar en los agentes para que actúen en nuestro nombre.
La computación espacial está a punto de cambiar no solo el curso de la innovación tecnológica, sino también la vida y el trabajo de las personas. Mientras que ordenadores y móviles usan pantallas como portales al mundo digital, la computación espacial fusionará lo físico con lo digital para combinar ambas realidades. Las apps que se creen para ese medio permitirán a las personas sumergirse en mundos digitales sin perder la sensación física de espacio o añadir contenidos a su entorno físico.
Si eso es así, ¿por qué no tenemos la sensación de estar a las puertas de una nueva era tecnológica? ¿Por qué no dejamos de hablar del “desplome del metaverso”? El metaverso es una de las aplicaciones más conocidas de la computación espacial. Sin embargo, el precio de las propiedades digitales, en el metaverso, que en 2021 y 2022 estaba en lo más alto, se desplomaron un 80-90 % en 2023(xiii).
Algunas empresas han optado por la cautela y se contentan con decir que, pese a las grandes expectativas generadas, la tecnología aún no está madura para el metaverso. Pero otras siguen adelante y están desarrollando nuevas capacidades tecnológicas. Meta ha creado productos de realidad virtual y aumentada y ha presentado Codex Avatars, que utiliza IA y cámaras de smartphone para crear avatares enormemente realistas (xv). La app RealityScan de Epic permite usar un teléfono para escanear objetos 3D en el mundo físico y convertirlos en activos virtuales tridimensionales (xvi).
Detrás de todo ello hay avanzadas tecnologías como la IA generativa, que aceleran y abaratan la creación de experiencias y entornos espaciales. Y es posible que estas tecnologías se estén probando ya discretamente en aplicaciones industriales. Entre las tecnologías que ya están teniendo importantes efectos prácticos, en la industria figuran los gemelos digitales en fabricación, la RV/RA en formación y control remoto, y los entornos de diseño colaborativo.
Lo cierto es que no todos los días aparecen nuevas soluciones y, cuando lo hacen, su adopción suele ser lenta. Pero los beneficios para las primeras empresas que los adopten son poco menos que incalculables.
Ahora es cuando hay que empezar. La tecnología está llegando a un punto de inflexión: no solo están bajando los costes de desarrollo y adopción, sino que además se están realizando grandes avances en la creación de apps espaciales de gran realismo que satisfacen las expectativas creadas.
de los consumidores quieren tener la posibilidad de interactuar con empresas a través de experiencias espaciales, además de apps y páginas web.
La aparición de nuevas normas, herramientas y tecnologías está contribuyendo a que sea más fácil (y barato) crear apps espaciales y experiencias que nos resultan familiares.
Pensemos en las páginas web que solemos visitar o en nuestras apps favoritas en el teléfono. Aunque tengan objetivos muy distintos, hay algo que nos parece común a todas ellas incluso en las circunstancias más dispares. ¿Por qué? Porque todas parten de la misma base.
Hasta ahora, lo espacial carecía de una base común. Esa falta de uniformidad constituía un grave problema a la hora de crear mundos que parecieran reales. Los creadores de espacios digitales tienen que ir más allá de los factores que son importantes para los diseñadores web y considerar componentes tales como texturas, formas, iluminación o física. Además, la computación espacial utilizaba modelos 3D procedentes de distintos campos (desde el diseño de juegos hasta la animación y aplicaciones industriales como planos de arquitectura o modelos CAD), por lo que existía una gran variedad de lenguajes, tipos de archivos, proveedores y métodos de diseño. Era un ecosistema muy fracturado.
Eso fue hasta que apareció Universal Scene Description (USD), un formato de archivos para espacios 3D. Desarrollado por Pixar, USD es un marco que permite a los creadores definir aspectos de una escena, incluyendo elementos concretos y fondos, iluminación, caracteres, etc. Está diseñado para combinar todos esos elementos en una escena, lo que permite usar un software diferente para cada elemento y facilita la creación colaborativa de contenidos y la edición no destructivaxvii. Aunque pueda parecer que sus aplicaciones principales están en el mundo del ocio, lo cierto es que en poco tiempo ha llegado a ser muy importante para las aplicaciones espaciales más avanzadas, especialmente en gemelos digitales.
Las empresas deben ser conscientes de que sus espacios no estarán aislados. Del mismo modo que las apps y páginas web son parte de Internet, la próxima generación de la web acercará todavía más estas experiencias paralelas. La identidad digital y Web3 serán muy importantes para definir estos espacios, desde cómo mover unos pantalones digitales o nuestros datos bancarios de un espacio a otro hasta cómo identificar las entidades presentes en esos espacios. Es posible que estas tecnologías no parezcan todavía imprescindibles para desarrollar un espacio, pero pronto determinarán la viabilidad a la largo plazo y el valor del espacio para el cliente.
Hay quien ya piensa en estas cosas. La Open Metaverse Alliance for Web3 (OMA3) está desarrollando una norma para definir cómo pasar de una experiencia a otra. En la actualidad, para ir de un mundo a otro en el metaverso hay que salir primero de una aplicación y pasar a la siguiente, casi como si tuviéramos que cerrar y reiniciar el navegador cada que quisiéramos visitar una nueva página web. En 2023, OMA3 puso en marcha el proyecto Inter-World Portaling System para desarrollar un protocolo que permita pasar de un espacio a otro sin destruir la inmersión, del mismo modo que la barra de direcciones aparece en la parte superior de cualquier página que visitemosxviii.
Pero por muy importante que sea, la interoperatividad no sirve de mucho si el coste de desarrollar elementos 3D sigue siendo tan elevado como hasta ahora. Según una estimación de 2020, el coste medio de los modelos 3D oscila entre 40 dólares y varios miles de dólares por elemento. Y las escenas 3D necesitarán un gran número de esos elementosxix. Pese a todo, es un campo en el que la presión de los costes está empezando a bajar.
“¿Dónde están?”, dijo el físico Enrico Fermi cuando le preguntaron si había otros seres vivos en el universo. Según las matemáticas, nuestro universo debería estar rebosante de vida. Pero el espacio interestelar nos parece desolado, la misma sensación que tenemos hoy al visitar muchos espacios en el metaverso. Por muy bien hechos que estén, los espacios vacíos pueden espantar a los usuarios. Por eso las empresas no pueden contentarse con crear espacios realistas. Tienen que darles vida.
Una forma obvia de poblar espacios es atraer a otros usuarios. Pero hay unos 400 millones de personas en el metaverso, por lo que el riesgo de superpoblación es evidente. Una cosa es entrar en una tienda del mundo físico que tiene varios establecimientos y otra muy distinta que toda la población mundial pueda acceder al mismo tiempo a la misma tienda virtual.
Otra estrategia consiste en crear personas de IA. Estos caracteres de IA pueden poblar apps espaciales para crear experiencias interactivas personalizadas. No es una idea nueva. En los videojuegos ha habido “personajes no jugables” (NPC) casi desde el principio, pero siempre han planteado problemas, como la sensación de ser fríos e impersonales.
Inworld AI propone algo diferente. Crea caracteres de IA con personalidad propia que se pueden comunicar con palabras y de otras formasxx. Estos caracteres son contextuales, por lo que no sufren alucinaciones ni remiten a contenidos ajenos a su mundo. De esta forma se reduce el riesgo de información falsaxxi.
Hay algo más que diferencia a la computación espacial de otras tecnologías digitales: su capacidad de excitar nuestros sentidos. Las nuevas tecnologías permiten a los ingenieros diseñar experiencias para todos los sentidos, incluyendo el tacto, el olfato y el oído.
Hasta ahora resultaba complicado dotar de tacto a la realidad virtual, pero investigadores de la Universidad de Chicago han propuesto usar electrodos para replicar mejor la sensación táctilxxii. Crearon un sistema de electrodos con 11 zonas táctiles controlables en los dedos de una persona para poder “sentir” contenidos digitales. Es como si una app espacial de meditación nos llevara a una playa virtual donde pudiéramos “sentir” los granos de arena.
También los olores pueden hacer que los espacios digitales cobren vida, al evocar recuerdos o inducir una respuesta elemental de defensa o huida. Scentient, una empresa que intenta dotar de sensaciones olfativas al metaverso, ha experimentado con la tecnología para la formación de bomberos y otros servicios de emergencia, que a menudo tienen que usar el olfato para evaluar una emergencia (detectando la presencia de gas natural, por ejemplo)xxiii
También el sonido (o audio espacial) es fundamental para crear escenas digitales realistas. El New York Times ha usado audio espacial en web para sumergir a los lectores en el ambiente sonoro de la catedral de Notre Dame en París. Los usuarios de ordenadores o móviles podían “entrar” en la catedral y escuchar el sonido del coro desde distintas “posiciones” en el espacioxxiv, xxv.
Por último, las apps espaciales inmersivas deberán ser capaces de responder a nuestros movimientos naturales. Vision Pro de Apple sigue los movimientos del ojo para situar mejor contenidos de baja latencia en su pantallaxxvi, mientras que la función Direct Touch de Meta explora el uso del seguimiento de movimientos de las manos en realidad virtual en lugar de dispositivos de control manual para ofrecer experiencias con movimientos más naturalesxxvii.
La computación espacial no va a sustituir a la informática para ordenadores y móviles, pero es una parte cada vez más importante de todo lo que forma la estrategia de IA de una empresa.
Ya se han dado los primeros pasos. Los gemelos digitales están demostrando su utilidad y la formación es mucho más eficaz cuando se vive una experiencia en lugar de ver un vídeo. Aunque a menudo se trata de proyectos aislados, un estudio atento de las ventajas que ofrece la computación espacial puede ayudar a definir la estrategia empresarial. El mercado aún tiene que madurar, pero cada vez está más claro que las apps espaciales funcionan cuando se aplican de tres maneras: transmitiendo grandes volúmenes de información compleja, dando control a los usuarios sobre su experiencia y, aunque pueda parecer paradójico, permitiéndonos enriquecer espacios físicos.
Es probablemente en la transmisión de información compleja donde la ventaja de la computación espacial sobre otras alternativas se aprecia con más claridad. Un espacio permite a los usuarios moverse y actuar con naturalidad, lo que hace posible transmitir información de un modo más dinámico e inmersivo. Ya lo hemos visto en la práctica. Algunas de las primeras apps espaciales eran para gemelos digitales industriales, cursos virtuales o asistencia remota en tiempo real, casos de uso en los que hay que compartir muchos datos y donde los métodos convencionales pueden provocar una sobrecarga de información, haciendo que los empleados se sientan confusos o no reciban una formación correcta.
La segunda ventaja de la computación espacial sobre otras opciones es la capacidad de dar control a los usuarios sobre sus experiencias en una app. Permite crear experiencias digitales que transmiten una sensación física de espacio, por lo que es posible diseñar experiencias que dan más flexibilidad a los usuarios para moverse y explorar. En algunas aplicaciones, dar el control a los usuarios hará que las experiencias sean más personales, orgánicas y útiles.
El Centro Pompidou de París aprovechó está capacidad para personalizar una experiencia museística en colaboración con Snapchat y el artista Christian Marclayxxviii. Marclay superpuso a la fachada del Centro Pompidou un colorido instrumento digital que los usuarios podía tocar con Snapchat AR. Los visitantes también podían grabar y compartir su forma de “tocar” el museo. Lejos de ser una experiencia pensada solo para los profesionales del museo, los visitantes podían aportar al espacio su propia creatividad.
Por último, las aplicaciones espaciales mejoran los espacios físicos, ya que pueden enriquecerlos y ampliarlos sin alterarlos. La oficina del futuro podría tener apps y ordenadores espaciales en lugar de monitores, proyectores y displays físicos. Las personas podrán diseñar espacios más simples con menos costes de mantenimiento y cambiar su entorno más fácilmente.
La computación espacial está a punto de despegar y los líderes tratan de adquirir ventaja. Para situarse a la vanguardia de la nueva era de innovación tecnológica, los líderes empresariales tendrán que replantearse su posición y comprender el efecto de los últimos avances tecnológicos. No es habitual que aparezcan nuevos medios de computación, pero pueden tener un impacto incalculable en empresas y personas durante décadas. ¿Estás listo para aprovechar el momento?
La expansión de la computación espacial también obligará a las empresas a pensar en la seguridad. Habrá más dispositivos que nunca: los empleados usarán dispositivos espaciales para trabajar, mientras que los clientes los utilizarán para acceder a experiencias. Pero ese enorme ecosistema de dispositivos también aumentará la probabilidad de ataques. ¿Cómo proteger algo que no tiene límites? Las estrategias de las empresas deberán estar basadas en principios de Zero Trust.
Además, las empresas deben ser conscientes de que se adentran en un terreno inexplorado que tendrá puntos ciegos para proveedores y usuarios. Una sola línea de defensa no será suficiente, pero se pueden utilizar estrategias de Defense in Depth con múltiples niveles de seguridad (administrativos, técnicos y físicos) para defender esta nueva frontera.
Muchas de las tecnologías que usamos están limitadas por sus problemas para comprender a las personas. Por ejemplo, para controlar un robot o un dron tenemos que traducir lo que queremos a comandos que pueda entender. Lo cierto es que, si la tecnología no conecta con nosotros, se debe en muchos casos a que las personas (sus deseos, expectativas o intenciones) son un enigma.
Pero ya hay innovadores que tratan de cambiar eso. En todas las industrias se están desarrollando tecnologías y sistemas que pueden entender a las personas de formas nuevas y más profundas. Se está creando una “interfaz humana” y eso tendrá consecuencias que irán mucho más allá de los hogares inteligentes, por citar un ejemplo.
Buena prueba de ello es la neurotecnología, que ya está empezando a conectar con la mente de las personas. Dos estudios, publicados recientemente por investigadores de la Universidad de California en San Francisco y la Universidad de Stanford, demuestran que es posible usar prótesis neuronales (como interfaces cerebro-ordenador o BCI) para descifrar el habla a partir de datos neuronales (xxix, xxx). Eso podría ayudar a “hablar” a pacientes con problemas de comunicación verbal, traduciendo lo que quieren decir a texto o voz generada por ordenador.
Otro buen ejemplo es el de las tecnologías que detectan movimientos corporales, como los de ojos y manos. En 2023, Vision Pro de Apple presentó visionOS, que permite a los usuarios navegar y hacer clic con la mirada y un simple gesto, sin necesidad de un dispositivo de control manual (xxxi).
Innovaciones como las descritas están cambiando las reglas y ampliando los límites por los que se ha regido desde hace décadas la interacción de personas y máquinas. Estamos acostumbrados a ser nosotros quienes se tienen que adaptar para que las tecnologías funcionen, pero eso va a cambiar gracias a la “interfaz humana”. Cuando las tecnologías nos entiendan mejor (nuestro comportamiento y nuestras intenciones), serán ellas las que se adapten a nosotros.
Las empresas que quieran alcanzar el éxito también tendrán que hacer frente a problemas de confianza y uso indebido de la tecnología. Tanto las empresas como las personas pueden ser reacias a dejar que la tecnología nos comprenda a un nivel tan íntimo. Será necesario actualizar las normas de privacidad biométrica. También habrá que definir nuevos controles neuroéticos, incluyendo el uso apropiado de datos cerebrales y otras medidas biométricas para conocer las intenciones y los estados cognitivos de las personas. Mientras se actualiza la legislación, son las empresas las que tienen que ganarse la confianza de las personas.
Tratar de entender a las personas (como individuos, como clientes potenciales o como grupos demográficos) es un reto para las empresas desde hace siglos. En las últimas décadas, el uso de tecnología digital ha demostrado ser decisivo para superar ese reto. Gracias a plataformas y dispositivos digitales, las empresas pueden seguir y cuantificar comportamientos para generar un enorme valor. Ahora la situación da un nuevo vuelco con la aparición de la “interfaz humana”, que permite comprender a las personas de un modo más profundo.
de los consumidores se sienten frustrados cuando la tecnología no les entiende y no sabe interpretar sus intenciones.
Pensemos en las estrategias que las empresas suelen usar hoy en día para entender el comportamiento de las personas. Por lo general, se pueden dividir en dos categorías: recopilación de datos en la web y sensores físicos en el mundo.
En la web, la capacidad de las empresas para entender el comportamiento es un factor clave en las experiencis digitales. Las plataformas emplean datos de los usuarios para personalizar experiencias y mejorar el producto.
En el mundo físico hace mucho que existen dispositivos que adquieren datos de personas, lo que permite a las empresas crear productos y servicios basados en su estado físico y su ubicación. Los sensores instalados en tiendas para analizar el tránsito de personas y el reconocimiento facial con análisis de emociones son herramientas que ayudan a comprender mejor a las personas para lograr distintos objetivos.
Aunque son importantes, estas tecnologías se basan en patrones de seguimiento y observación muy poco específicos. Las personas pueden ver o leer contenidos que ya conocen, pero es posible que quieran algo distinto. Se nos da muy bien reconocer lo que hacen las personas, pero no siempre entendemos por qué lo hacen.
La “interfaz humana” no es una tecnología concreta, sino una serie de tecnologías que permiten a los investigadores ver y entender mejor a las personas.
Algunos usan dispositivos wearables para detectar bioseñales que ayudan a predecir lo que quieren las personas o a entender su estado cognitivo.
Otros desarrollas formas más detalladas de comprender las intenciones de las personas en relación con su entorno. Los investigadores de la facultad de Estudios Automovilísticos de la Universidad de Tongji, por ejemplo, querían encontrar la forma de reducir las colisiones entre personas y vehículosxxxii. Aunque la mayor parte de las iniciativas para prevenir atropellos se centran simplemente en la detección de peatones, estos investigadores obtuvieron datos como la distancia entre el vehículo y el peatón, la velocidad del vehículo y la postura física del peatón. Identificar la postura de una persona mientras camina por la calle puede resultar clave para determinar hacia dónde se dirige, contribuyendo así a la seguridad de todos.
Las intenciones de las personas también se pueden medir con IA. Pensemos en la colaboración entre humanos y robots. El estado de ánimo de una persona (si está con ganas o cansada, por ejemplo) puede influir en su forma de abordar una tarea. Las personas suelen entender bien los estados de ánimo, pero no ocurre lo mismo con los robots. Por eso los investigadores de la Universidad del Sur de California intentaron enseñar a robots a identificar estos estados de ánimo para ser más útiles a las personasxxxiii.
Para terminar, la neurotecnología (sensores neuronales y BCI) es tal vez una de las tecnologías más interesantes de la “interfaz humana”. En la última década han surgido numerosas empresas de neurotecnología, un campo muy prometedor para la identificación e interpretación de las intenciones humanas.
Muchos piensan que aún faltan muchos años para el uso comercial de sensores neuronales y BCI, pero los últimos avances indican lo contrario.
Los escépticos sostienen que la neurotecnología no saldrá de los límites de la industria sanitaria. Después de todo, muchos de los principales dispositivos neurotecnológicos se basan en implantes muy invasivos que se usan en tratamientos médicos. Sin embargo, la aparición de nuevas opciones tecnológicas hace que sea más probable encontrar una solución adaptada a las necesidades y el bienestar del usuario, y constantemente surgen nuevas iniciativas comerciales y casos de uso.
La causa hay que buscarla en dos avances clave. El primero es la descodificación de señales cerebrales. Hace décadas que es posible detectar señales cerebrales, pero los productos comerciales quedan todavía lejosxxxiv. Resulta muy difícil identificar señales y patrones comunes en los cerebros de distintas personas. Pero los avances en identificación de patrones con IA, así como el aumento de datos cerebrales disponibles, permiten concebir esperanzas.
El segundo campo de interés es el del hardware neuronal y, en concreto, la calidad de los dispositivos externos. La electroencefalografía (EEG) y la resonancia magnética funcional (RMf) han sido tradicionalmente las dos técnicas externas más utilizadas para estudiar el cerebroxxxv, aunque hasta hace poco la señales cerebrales solo se podían medir en laboratorio.
Eso está empezando a cambiar. Los dispositivos EEG siempre han sido muy sensibles al ruido ambiental y a los movimientos musculares, lo que obliga a los pacientes a permanecer quietos. Pero ahora hay nuevos dispositivos más resistentes a ruidos y movimientos, como el DSI-24 de Wearable Sensing, que utiliza un sistema EEG de electrodos secosxxxvi. Y aunque es probable que la RMf se siga usando en medicina, una nueva tecnología denominada fNIRS (espectroscopía funcional de infrarrojo cercano) permite medir el flujo sanguíneo en el cerebro sin que el paciente tenga que meterse en un tubo en el laboratorioxxxvii.
Además de la portabilidad, también es muy importante la capacidad de convertir señales cerebrales en acciones. Hay casos en los que el envío de datos cerebrales a la cloud es excesivamente lento, lo que dificulta el uso y puede llegar a impedir a las personas moverse o comunicarse de manera adecuada. Pero también en eso se está avanzando. En 2022 se produjo un boom de startups financiadas con capital riesgo que fabrican chips avanzados de IAxxxviii. Los fabricantes de chips tradicionales, como Nvidia o Qualcomm, siguen trabajando en la producción de chips más pequeños y potentesxxxix. Y algunas empresas están intentando acelerar el procesamiento de señales cerebrales.
de los ejecutivos creen que las tecnologías de interfaz humana nos ayudarán a entender mejor intenciones y comportamientos, transformando la interacción de personas y máquinas.
Cada vez más empresas tratan de definir estrategias de “interfaz humana”. Lo primero que tienen que hacer es estudiar las áreas de negocio y los retos que pueden cambiar.
En primer lugar, hay que tener en cuenta la capacidad de las tecnologías de “interfaz humana” para prever lo que van a hacer las personas. Algunos de los casos de uso más prometedores se dan en áreas en las que personas y máquinas comparten el espacio de trabajo. Por ejemplo, las empresas podrían crear sistemas de fabricación más seguros y productivos si los robots pudieran prever lo que van a hacer las personas.
Otro área que se puede transformar es el de la colaboración directa entre personas y máquinas; es decir, cómo usamos y controlamos la tecnología. Un buen ejemplo es la forma en que la neurotecnología nos permite conectar nuestras mentes con la tecnología de formas nuevas y potencialmente más naturales.
Investigadores de la Universidad de Tecnología de Sydney, por ejemplo, han desarrollado una BCI que utiliza un biosensor para detectar ondas cerebrales y convertirlas en comandosxl. En una prueba realizada con el ejército australiano, los soldados usaron el dispositivo para controlar con la mente un perro robot de cuatro patas con una precisión del 94 %.
Por último, la “interfaz humana” podría hacer posible la invención de nuevos productos y servicios. Por ejemplo, los sensores en el cerebro podrían ayudar a las personas a “conocerse” mejor. L'Oréal colabora con EMOTIV para que los clientes puedan saber cuáles son sus fragancias preferidasxli.
Otras empresas prefieren ver la “interfaz humana” como una medida de seguridad. Meili Technologies es una startup que trabaja para mejorar la seguridad de los vehículos. Utiliza aprendizaje profundo, estímulos visuales y sensores en el habitáculo para detectar si un conductor ha quedado incapacitado por un ataque cardíaco, un accidente cerebrovascular u otra emergenciaxlii, xliii.
Las empresas deben valorar los riesgos asociados a estas tecnologías y las nuevas políticas y controles que exigen. En vez de esperar la introducción de nuevas normas, las empresas responsables tienen que empezar ya a analizar las leyes biométricas en vigor y seguir el ejemplo de la industria médica. Un campo que ya está recibiendo atención es el de la neuroética. Existen dudas sobre la seguridad física de los dispositivos neurotecnológicos, así como sobre los riesgos psicológicos relacionados con la autonomía de las personas y factores sociales como protección de datos cerebrales, consentimiento informado o imparcialidadxliv.
La interfaz humana es una nueva forma de enfrentarse a uno de los retos más antiguos para las empresas: cómo entender a las personas. Es una gran responsabilidad, pero la oportunidad es aún mayor. Las personas tendrán dudas y las relacionadas con la privacidad constituirán el primer obstáculo importante que deban salvar las empresas. Pero el esfuerzo vale la pena para comprender a las personas de un modo más profundo.
¿Hay alguna forma de evitar que nos lean la mente? Más que en cualquier otra de las tendencias de este año, la seguridad determinará en gran parte el nivel de adopción de la “interfaz humana” por empresas y consumidores.
La aceptación de herramientas conectadas más perceptivas dependerá de la capacidad de las personas de controlar (como mínimo) la información que se comparte. Esta práctica debe estar integrada en el diseño de la próxima generación de interfaces hombre-máquina, de modo que las personas puedan autorizar el uso de datos telemétricos relevantes para una tarea o bien negarse a compartir información confidencial o innecesaria.