Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.
¿En algún momento has tenido que tomar una decisión de diseño sin saber de qué forma la aceptarán los usuarios? Seguro que sí. Por ello este post, hablando de una de las técnicas más democratizadoras que nos podemos encontrar cuando se trata de buscar las respuestas mejor acogidas por los usuarios.
El origen de este post es el original en inglés de John Hyde titulado How To Increase Site Performance Through A/B Split Testing, del que he extraído algunas conclusiones que creo que son interesantes.
En realidad el problema se plantea cuando tenemos que tomar una decisión de diseño y tenemos claras dos alternativas diferentes como respuesta a un problema o a una posible mejora. ¿Cuál de las dos será la más adecuada? ¿Cuál de las dos será mejor acogida por parte de los usuarios? ¿Cuál de las dos proporcionará mejores ratios de conversión?
Para dar respuesta a esta disyuntiva podemos contar con el test A/B. Este tipo de tests son una técnica que nos permite encontrar cuáles son los cambios o mejoras que realmente funcionan bien en un sitio web y cuáles no.
Un ejemplo: si tengo dos opciones de diseño para un botón que inicia un proceso de compra, ¿cuál de las dos opciones de diseño es la más adecuada? ¿cuál es la que más procesos va a iniciar? Para ello tenemos la posibilidad de ejecutar un test A/B mediante el que a través de las herramientas oportunas, sirvamos a un 50% de los usuarios el botón con un diseño A y al otro 50% de los usuarios el botón con un diseño B. Los resultados de conversión nos dirán cuál de los dos diseños de botón es el más adecuado. El diseño de botón que más procesos inicie será el adecuado para nuestro caso.
Vale pero, ¿por qué no hacer primero una prueba con el diseño de botón A y después una prueba con el diseño de botón B? La respuesta es simple: las condiciones de entorno y contexto pueden variar de una prueba a otra: época del año, conectividad, tiempo cronológico, etc. Por eso los resultados obtenidos al hacer un test A/B, repartiendo el tráfico al 50%, asegura las mismas condiciones de entorno para la prueba y los resultados son más fiables.
¿Y esto sólo sirve para probar si un diseño de botón es mejor que otro? La respuesta es no. Sirve para probar lo que queramos:
- Diseño de elementos
- Copys
- Imágenes
- Gráficos
- Layouts
- Procesos
- etc.
¿Y sirve este tipo de testeo para cualquier sitio web? En realidad entiendo que no. Y digo que no porque este tipo de tests dependen en gran medida del tráfico que es capaz de generar un sitio web. Depende de las respuestas que da la acción de la masa crítica, de los usuarios. Por ello, es importante tener en cuenta que el tráfico que tenga nuestro sitio web permitirá otorgar mayor fiabilidad a los resultados de este tipo de pruebas. Simplificando mucho, a más tráfico más exactas conclusiones.
Hay una frase del artículo de John Hyde que me parece definitiva en este sentido: Let the people decide!
En Torresburriel Estudio realizamos estudios heurísticos de usabilidad y de accesibilidad web, verificando el cumplimiento de estándares de usabilidad y accesibilidad como WCAG y WAI-ARIA del W3C. Contacta con nosotros y estudiaremos tu proyecto para diseñar una investigación acorde con tus objetivos de negocio.
Hola,
para WedTool.com utilizamos las pruebas A/B y la verdad que mereció la pena. Aumentamos en casi un 30% la conversión, y lo mejor es que fue con la opción que menos confiábamos.
Importante lo que comentas de hacer pruebas en páginas con un mínimo de tráfico (hasta las 200-300 conversiones no se empiezan a obtener resultados fiables).
Una buena herramienta para tomar decisiones desde la experiencia y no desde el «yo creo que».
Sólo apuntar que se pueden hacer pruebas A/B con el google analytics.
Videotutorial en:
http://www.youtube.com/watch%3fv=1yTjj9MnzRY
Caso práctico en:
http://www.google.com/intl/en/analytics/case_study_build_direct.html
Hace unos días escribí un post sobre los tests A/B
http://www.analiticaweb.es/test-ab/
Os lo dejo por si os apetece leer un poco más.
Buenas Dani
Lo mismo que Olga, yo encontre hace tiempo un ejemplo de test A/B que hicieron con analytics y lo que sacaron en consecuencia: http://www.doctormetrics.com/2008/12/01/test-ab-o-multivariante-que-son-y-cual-aplicar/
Saludos
[…] Introducci
Desde luego si el objetivo de la web es captar leads, venta directa o cualqueir objetivo que implique interacción del usuario con tus páginas, las pruebas A/B son imprescindible. Mi experiencia es con Google Optimizer y con Omniture (solo a nivel de prueba) y desde luego son pruebas que verdaderamente te dicen si le estás dando a tu público lo que quiere y, sobre todo, si le estás dando facilidades en el camino hacia la conversión. En mi caso, el resultado más abultado fue una prueba A/B en la web http://www.madrid-oposiciones.com con Google optimizer que hizo que mejorara la conversión a leads de esa web en un 47%, y de hecho esa tendencia se mantiene ahora después de tres meses desde el cambio, y eso es lo importante, que son cambios y mejoras que pueden perdurar. Y ahora mismo estamos en un test multivariante que a ver que resultados nos da.
[…] en este punto plantearía hacer un test A/B, probando a poner otro copy o un botón que llame a la acción y según los resultados valoraría […]
[…] que llegó a la misma conclusión mucho antes que yo, inventó los tests A/B. El concepto es muy básico: “como no sabemos qué puede funcionar mejor online, probamos […]
[…] con el menú hamburguesa hay que tener cierta atención porque puede generar confusión al usuario. Haz un test A/B entre un icono hamburguesa y una opción “Menú”para incluirlo en tu interfaz. Si tu entorno de […]
[…] con el menú hamburguesa hay que tener cierta atención porque puede generar confusión al usuario. Haz un test A/B entre un icono hamburguesa y una opción “Menú”para incluirlo en tu interfaz. Si tu entorno de […]
[…] otro, realizar una batería extensa de tests con usuarios, que nos ayuden a refinar el diseño inicial antes de llegar al fuego real. Cualquier servicio que […]
[…] repetirlo, las pruebas de usuario de CTA son absolutamente críticas. Si estás pensando en abordar pruebas A/B de tu interfaz, las llamadas a la acción son el lugar perfecto para empezar. Precisamente, porque incluso cambios […]
[…] sorting o tree tests, pero también existen otras herramientas como análisis heurístico experto, test A/B, test de […]
[…] si lo piensas fríamente, tomar decisiones de gestión no es muy diferente de poner en marcha un test A/B. solo añade más incertidumbre a la ecuación, porque podemos tener personas implicadas, con todas […]
[…] multitud de ejemplos de tests A/B que muestran cómo un cambio en el color de un botón tuvo un impacto drástico en el aumento de la […]
[…] hacer un test A/B con las diferentes opciones para ver cuál es más eficaz para el usuario al realizar una […]
[…] usuarios. Esa información podemos obtenerla mediante tests A/B. En el pasado, ya hemos hablado de tests A/B. Por recordarlo, un test A/B es un método de pruebas con usuarios donde se trabaja con dos (y solo […]
[…] mejor para encontrar las palabras adecuadas en tus prototipos y facilitar una mejor […]