El Sesgo de Autoservicio en los Analistas

El Sesgo de Autoservicio en los Analistas

Hace unas semanas realicé en mi cuenta de Twitter una reflexión sobre uno de los principales problemas que tenemos los analistas a la hora de realizar nuestro trabajo y a raíz de varios comentarios me han animado a publicarla también aquí para poder comentarla.

El problema tiene nombre y apellidos: el Sesgo de Autoservicio. Un sesgo no muy popular pero muy frecuente en nuestro trabajo.

¿Qué es el Sesgo de Autoservicio?

El Sesgo de Autoservicio se puede definir como la tendencia a evaluar la información ambigua de tal forma que beneficie a intereses propios. El ejemplo que se suele utilizar al explicarlo es que la mayoría de los conductores piensa que ellos conducen mejor que la media.

Este sesgo es muy importante a la hora de definir un estudio. Hay que asegurarse que la forma de recabar los datos (por la forma de realizar las preguntas, el entorno, la tecnología empleada...) no favorezca que el usuario pueda responder con este sesgo.

Pero mi reflexión no tiene que ver con el sesgo entre los usuarios de un estudio. Mi reflexión es sobre el Sesgo de Autoservicio entre los propios analistas de datos.

"Si los datos no encajan con lo que opino, los datos están mal".

El Sesgo de Autoservicio en los analistas.

El Sesgo de Autoservicio en los analistas es un tema complejo. Opone dos claves a la hora de analizar datos.

Por un lado, hay que estar abierto al nuevo conocimiento que ofrezca los datos. Pero, por otro lado, los datos sirven de guía para comprobar que el estudio se hizo bien. El primer punto parece evidente, aunque no es fácil de conseguir. Todos los analistas intentamos afrontar nuestro trabajo tratando de confiar al máximo en los datos que tenemos delante, abiertos siempre a aprender de ellos, pero es difícil aislarse de nuestros propios sesgos.

Os sorprendería la cantidad de veces que se analizan los resultados de un estudio según si encaja con lo que hacen las 3/4 personas que lo realizan o las 2/3 personas de su entorno a las que les preguntan. Hay que evitar eso a toda costa y estar abierto a nueva información.

El segundo punto, en cambio, no suena tan bien pero es fundamental.

Muchas veces, por mucho que diseñes un estudio concienzudamente, sólo al ver los resultados te das cuenta de que preguntaste algo de una forma que no buscabas. Que el dato necesita otra operación detrás. De nuevo, al diseñar un estudio nuestros propios sesgos nos hacen creer que el usuario promedio responderá como esperamos para medir lo que queremos. O que la tecnología está midiendo lo que buscamos. Pero los resultados introducen matices que nos indican que no es así al 100%.

Por eso es muy importante saberse mover en esa delgada línea a la hora de hacer un análisis. Mantener el equilibrio. Y la clave aquí es hacer la línea lo menos delgada posible para poder movernos con facilidad sobre ella. ¿Cómo? Con una metodología impecable.

La metodología del estudio como clave.

La metodología empleada para hacer un análisis es la clave en ese equilibrio. Cuanto mejor diseñada esté, más fácil será abrazar las conclusiones que ofrezcan los datos sin miedo a equivocarse. Acabar diciendo:

"Si los datos no encajan con lo que opino, igual cambio de opinión".

Por ejemplo, no es lo mismo medir cuánto usa Twitter la gente haciéndoles preguntas que monitorizando su uso con tecnología. ¿Sabríais decir cuánto tiempo has pasado en Twitter en el último mes? ¿Cuántas veces accediste? ¿Cuántos tweets publicaste? No tiene sentido. Por eso, a la hora de analizar los resultados de un estudio, antes de decir "A ver si los datos encajan con lo que opino o no" para decidir sobre la validez de los resultados, céntrate en la metodología. En saber cómo se ha hecho el estudio y pensar el sentido que tiene.

Y ojo, centrarse en la metodología no sólo es pensar si se usó el mejor método para medir el objeto de análisis (encuestas, monitorización,...). También es reflexionar sobre si el dato y la operación matemática que tienen detrás son los idóneos o tienen matices clave.

Conclusión

De todo lo que he dicho, y tras mi experiencia personal analizando los datos de varios estudios, el resumen de todo sería el siguiente.

Si confías en la metodología al 100%, confía en lo que te digan los datos y trata de explicarlos después. Si no confías en la metodología al 100%, piensa si se puede corregir. Y si no se puede, ten en cuenta esos posibles problemas al analizarlo, usando tu criterio, para tomar las mejores decisiones posibles poniendo esos datos en el contexto de esos problemas.

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas