Un marco de trabajo para diseñar experiencias de usuario con inteligencia artificial

Inteligencia Artificial
26/3/2026
|
Daniel Torres Burriel
Imagen conceptual que representa la integración de la inteligencia artificial generativa en el flujo de trabajo diario y el diseño de experiencia de usuario (UX)

He de reconocer que me genera cierto vértigo escribir este artículo. No porque el tema no lo domine. Precisamente porque sí lo domino, o al menos tengo una perspectiva trabajada sobre él, me cuesta encontrar el tono adecuado para contarlo. Hay mucho ruido sobre inteligencia artificial en el sector. Demasiado. Y no quiero añadir ruido, quiero añadir sustancia. Lo que voy a contar aquí es el resultado de meses de trabajo en Torresburriel Estudio. Meses de reflexión, de proyectos reales, de conversaciones con clientes que se hacen las mismas preguntas y de ordenar todo eso en algo que tenga coherencia.

El problema que nadie quiere nombrar

La mayoría de las organizaciones con las que trabajo están integrando IA en sus productos de manera reactiva. Añaden un chatbot aquí, un resumen generado automáticamente allá, un sistema de recomendación en aquella otra pantalla. Y lo hacen generalmente sin validar si eso funciona para las personas que lo van a usar.

Sin preguntarse si genera confianza o, por el contrario, la destruye. Sin entender si el modelo mental del usuario encaja con lo que el sistema está haciendo. Hay mucha incertidumbre y en algunos casos hay un mandato de usar inteligencia artificial. La gobernanza es una asignatura pendiente.

Por todo ello, el resultado es predecible. Funcionalidades de IA que la gente ignora, que generan fricción o que directamente erosionan la credibilidad del producto. He visto casos de los tres tipos.
Diseñar bien la experiencia cuando hay IA de por medio requiere responder preguntas distintas a las de siempre. No basta con aplicar los principios clásicos de usabilidad. Aparecen capas nuevas que antes no existían o que existían de forma marginal:

  • la explicabilidad del sistema
  • la gestión del error en sistemas probabilísticos
  • la confianza calibrada
  • la visibilidad en entornos de búsqueda generativa

Y para todo eso hay que tener un método.

Lo que hemos construido

El framework que hemos desarrollado organiza cinco problemas concretos que los equipos de producto y la dirección están enfrentando hoy cuando se preguntan qué hacer con la inteligencia artificial desde una perspectiva de UX.
El primer eje es la evaluación de madurez. Antes de diseñar nada, conviene saber dónde está realmente la organización. No en términos abstractos, sino en cuatro dimensiones concretas:

  • capacidades del equipo de diseño
  • procesos internos
  • cultura organizativa
  • posición respecto al sector

Sin ese diagnóstico, cualquier iniciativa de IA en producto corre el riesgo de construirse sobre suposiciones o un escenario excesivamente experimental. Y las suposiciones, en producto digital, son caras.
El segundo es la auditoría de experiencia con IA. Probablemente el módulo más técnico. Una auditoría de este tipo no es un análisis heurístico convencional. Implica revisar sistemáticamente cada punto de contacto donde el producto usa IA:

  • cómo comunica que hay IA de por medio
  • cómo gestiona los errores y las alucinaciones
  • si las personas entienden qué está haciendo el sistema y por qué
  • cómo construye o destruye confianza

La evaluación combinada, con revisión experta y pruebas con usuarios reales, produce hallazgos priorizados y recomendaciones de rediseño que se pueden ejecutar.

El tercero me genera especial interés y también es el que genera más sorpresa cuando lo explico: la visibilidad y percepción en plataformas de IA generativa. ChatGPT, Gemini, Perplexity, Claude. Se han convertido en un canal de discovery de productos y marcas. Una parte cada día más creciente de los usuarios llega a tomar sus decisiones a través de respuestas generadas por IA, no a través de una búsqueda tradicional. La pregunta relevante para cualquier marca no es sólo si aparece en esas plataformas sino que es qué dice el modelo sobre ella, con qué tono, con qué precisión, en qué contexto. Y qué hace el usuario con esa información. Esto requiere investigación de usuarios específica para estos contextos, no sólo monitorización técnica de menciones. Esta es una práctica emergente, pero es ya estratégica.

El cuarto son los principios de diseño para IA. Cuando una organización empieza a integrar IA en múltiples productos o en distintos puntos del mismo producto, aparece rápidamente un problema de coherencia. Cada equipo toma decisiones de forma independiente. Los principios de diseño son la respuesta estructural a eso: no un documento de valores corporativos, sino guías prácticas con patrones de interacción validados, antipatrones documentados con sus consecuencias y una checklist de verificación que cualquier diseñador o product manager  puede aplicar en su trabajo del día a día.

Y el quinto es la formación de equipos. La brecha entre lo que los equipos saben hacer y lo que necesitan saber para trabajar bien con IA es real y está creciendo. Pero aquí hay un matiz importante que solemos pasar por alto: no toda la formación sirve para lo mismo, y mezclarlas en un mismo programa es un error habitual. Usar IA como herramienta de diseño es una competencia. Diseñar experiencias para productos con IA es otra. Y aplicar criterio ético en decisiones de diseño concretas es una tercera. Las tres son necesarias pero las tres son distintas.

Por qué me parece que esto es relevante ahora

La inteligencia artificial no es una funcionalidad que se añade a un producto. Es una capa que afecta a cómo el producto se percibe, a cómo genera o destruye confianza, a cómo se descubre y a cómo se usa. Ignorar la perspectiva de experiencia de usuario en ese proceso es costoso, aunque el coste no siempre sea inmediatamente visible. Y en mi experiencia, suele serlo cuando ya es tarde.

Los números no mienten, aunque incomoden

Entre el 70 y el 85% de las iniciativas de IA en empresa no alcanzan los resultados esperados, y el 42% de las compañías abandonaron la mayoría de sus proyectos de IA en 2025, más del doble que el año anterior. Y eso que hablamos de organizaciones que han invertido una media de 6,5 millones de dólares anuales en estas iniciativas. Solo el 31% de los casos de uso estudiados llegó a producción real en 2025.

El resto se quedó en piloto o directamente se descartó. Una parte de ese fracaso tiene que ver con la tecnología, con los datos, con la integración en sistemas legados. Pero hay otra parte que nadie quiere nombrar: la experiencia de usuario. El 39% de los bots de atención al cliente basados en IA fueron retirados o rediseñados a causa de errores en 2024

No porque la tecnología fallara en un sentido técnico, sino porque las personas no entendían qué hacía el sistema, no le confiaban sus decisiones o directamente dejaban de usarlo. Eso tiene un coste de oportunidad muy concreto: todo el dinero invertido en desarrollar la funcionalidad, más el tiempo perdido, más el daño reputacional sobre el producto. El coste de no hacer las cosas bien desde el principio no es cero. Es simplemente diferido.​​​​​​​​​​​​​​​​

Lo que distingue un enfoque serio de uno superficial no es la cantidad de herramientas que se despliegan ni el volumen de datos que se generan. Es tener preguntas bien formuladas, métodos adecuados para cada pregunta y criterio suficiente para interpretar lo que se encuentra.

Eso es lo que llevamos meses construyendo. Y es lo que vamos a seguir desarrollando.

Foto de portada de BoliviaInteligente en Unsplash.

¿Quieres darnos tu impresión sobre este post?

Deja una respuesta

Aquí va tu texto personalizado.

Blog

Nos encanta compartir lo que sabemos sobre diseño de producto y experiencia de usuario.
Ver todo el blog
Puedes consultarnos lo que necesites
Envíanos un mensaje
Nombre
Email
Mensaje
Gracias por escribirnos. Nuestro equipo se pondrá en contacto contigo tan pronto como sea posible.
Ha ocurrido un error. Estamos trabajando para resolverlo. Puedes escribirnos al chat.
Mastodon