Doxa 1563

Los datos erróneos están minando la productividad de su equipo.

La información mal etiquetada, faltante o incorrecta crea más trabajo para todos.

Por Thomas C Redman
Analítica y ciencia de datos
Harvard Business Review

#Doxa #datos #errores #productividad #trabajo #equipo #analítica #ciencia #datos #empresa #datos #sistema #calidad #empleado #calidad #tecnología
Resumen. Se suponía que la ciencia de datos crearía un nuevo auge de la productividad. Pero, para muchas empresas, ese boom nunca llegó. ¿Qué salió mal? Si bien las empresas han invertido en herramientas de datos, gran parte de los datos que ingresan a estos sistemas son de baja calidad, con información mal etiquetada, faltante o incorrecta, lo que a su vez crea más trabajo y más resistencia en el sistema. Para abordar esto, las empresas deben: 1) unir a los empleados a la causa y explicar por qué esto es importante, 2) medir la calidad de los datos en toda la gama de departamentos, funciones y tareas, 3) atacar sin descanso las fuentes del impuesto sobre la calidad de los datos.
En principio, las nuevas tecnologías ayudan a las empresas a aumentar la productividad: los sistemas de logística garantizan que tengan las cantidades correctas de las cosas que necesitan, los sistemas operativos ayudan a automatizar la producción y la entrega de bienes y servicios, y los sistemas de soporte de decisiones aportan los análisis y pronósticos que los gerentes necesitan hacer. mejores decisiones a sus huellas dactilares. Además, durante la pandemia, muchas empresas se apresuraron a digitalizarse aún más rápido. La productividad debería estar por las nubes. Desafortunadamente, no ha sucedido.

Si bien hay muchas explicaciones contrapuestas, creo que hay una explicación fundamental para las ganancias de productividad bajas y, lo que es más importante, una forma de impulsarlas: las tecnologías digitales se alimentan de datos y demasiados datos son simplemente malos, ya que anulan las posibles ganancias de productividad. Las nuevas tecnologías han proliferado, pero la gestión de datos no ha seguido el mismo ritmo, lo que ha agregado enormes costos y fricciones. La clave para aumentar la productividad radica en eliminar las causas fundamentales de los datos erróneos.

¿Qué hace que los datos sean "buenos" o "malos"?

Por definición, los datos son de alta calidad si son aptos para los usos previstos en operaciones, toma de decisiones, planificación y ciencia de datos. Hay mucho en esta definición. Cada uso viene con sus propios requisitos, y no cumplirlos reduce la productividad. Para ilustrar, considere tres escenarios.

En el escenario uno, un vendedor depende de los datos de clientes potenciales del departamento de marketing para hacer su trabajo. Se requieren relativamente pocos datos (alrededor de 20 elementos de datos), pero el registro debe ser completo y correcto. Por lo tanto, cuando falta el nombre del contacto, o es incorrecto pero fácil de detectar, el vendedor tiene que encontrarlo o corregirlo. Esto es difícil y, en el mejor de los casos, lleva un tiempo considerable. Peor aún, si no detectan un error, pueden perder la venta. Ambos reducen la productividad. Y tenga en cuenta que podría reemplazar " datos de clientes potenciales y ventas" con " datos de ventas y operaciones", " datos de pedidos procesados ​​con administración de inventario y finanzas" o cualquiera de las cientos de formas en que un departamento depende de los datos de otro.

En el escenario dos, un gerente necesita saber cuántos clientes nuevos ha adquirido la empresa en el último trimestre para establecer presupuestos. Utilizan datos de los sistemas de gestión de relaciones con clientes y finanzas, porque ninguno de ellos ofrece una respuesta en la que todos confíen. Surgen problemas adicionales porque Ventas se da crédito por un nuevo cliente cuando se firma el primer trato, mientras que Finanzas espera hasta que se paga la primera factura. En la mayoría de los trimestres, los números son "lo suficientemente cercanos", pero cuando la discrepancia es grande, el gerente debe pedirle a su personal que indague profundamente en ambos sistemas para solucionarlo. Incluso entonces, nunca se confía plenamente en "la respuesta", por lo que, como realidad práctica, los nuevos presupuestos se basan más en conjeturas que en datos. Se desperdicia más dinero cuando los presupuestos son demasiado altos y se pierden oportunidades cuando son demasiado bajos. Una vez más, aunque los detalles difieren,

El tercer escenario implica desarrollar un algoritmo para mejorar la retención de clientes utilizando inteligencia artificial. El conjunto de datos de entrenamiento debe ser razonablemente preciso y las diversas fuentes de datos deben estar alineadas. De lo contrario, los científicos de datos deben dedicar tiempo a poner los datos en forma. Además, estas fuentes deben estar libres de sesgos, lo que puede ser especialmente complejo, ya que los sesgos solo se revelan una vez que se usa el nuevo algoritmo. Finalmente, hay requisitos de datos adicionales una vez que el algoritmo se activa. Si bien los costos de lidiar con todos estos problemas pueden ser considerables, los costos de oportunidades perdidas son aún más importantes. Los datos incorrectos hacen que sea más difícil aprovechar la inteligencia artificial y la transformación digital, lo que priva a las empresas de posibles ganancias de productividad.

Las empresas no capturan estos costos en su sistema contable. Afortunadamente, se pueden obtener estimaciones lo suficientemente buenas como para comenzar aplicando la " regla de 10 ": cuesta 10 veces más completar una unidad de trabajo cuando los datos son defectuosos de alguna manera que cuando el los datos son buenos En la práctica, esto significa que si los datos son buenos para el 90 % de su trabajo, terminar el 10 % restante costará más debido a toda la fricción adicional. (90 x 1 = 90, 10 x 10 = 100). Uno puede ver estos costos adicionales de varias maneras:
  • el costo del trabajo "sin valor agregado" (ningún cliente informado paga más porque tiene que corregir datos incorrectos),
  • el costo incurrido en la fábrica de datos ocultos ("oculto", porque el sistema de contabilidad no captura el costo; "fábrica de datos", porque las personas están reelaborando los datos),
  • el costo de las ineficiencias,
  • el "golpe de productividad" o
  • quizás de forma contraintuitiva, el tamaño de la oportunidad de mejorar la calidad y aumentar la productividad.
Un gerente o empresa no necesita eliminar por completo los errores. Incluso al reducir la tasa de error a la mitad, reducen significativamente los costos y aumentan la productividad.

¿Cuánto le cuestan los datos de baja calidad?

Como deja claro la regla del 10, cuanto menor es la calidad de los datos, menor es la productividad y mayor el impuesto. Pero, ¿cómo pueden los líderes saber, o estimar, cuando se trata de datos de baja calidad?

Cuando dirijo sesiones de formación ejecutiva, pido a los asistentes que realicen un ejercicio que llamo "método de la tarde del viernes", en el que auditan una muestra de los datos de sus últimas 100 unidades de trabajo. Usando una hoja de cálculo, revisan los elementos de datos para cada unidad de trabajo y buscan errores, marcando cada celda donde encuentran un error. Luego, cuentan cuántas unidades sin errores tenían, lo que proporciona un puntaje de calidad de datos en una escala de 0 a 100. (Por ejemplo, si tuviera 85 unidades con datos sin errores, obtendría un puntaje de 85). Finalmente, para completar la tarea, aplican la regla de 10 y estiman el impuesto para sus áreas.

Permítanme ofrecer dos aspectos destacados de estas sesiones:
  • Solo el 8% informa una puntuación DQ de 90 o mejor.
  • La mayoría obtiene una puntuación en el rango de 40 a 80, con una puntuación media de 61. En ese nivel, el impuesto es 3,5 veces mayor que el costo total si todos los datos fueran buenos. Del mismo modo, la productividad se reduce a menos de una cuarta parte de lo que sería.
Sin duda, cada empresa es diferente, y también lo es su oportunidad de reducir el costo de los datos incorrectos y mejorar la productividad. Pero es significativo, incluso para las empresas con menos datos. Y para algunos, puede representar su mejor oportunidad para mejorar el rendimiento general.

Qué pueden hacer las empresas

Entonces, ¿cómo deberían las empresas seguir elevando el nivel de calidad de los datos? Encuentro que muchos simplemente aceptan el impuesto asociado con la baja calidad de los datos como otro costo más de hacer negocios. Pero esto es un desperdicio, puro y simple. Los líderes deben reconocer la oportunidad de mejora y actuar.

Primero, adopte el lenguaje que mejor acerque a las personas a la causa y les ayude a comprender el problema. He usado "impuesto" aquí, pero el "trabajo sin valor agregado", la "fábrica de datos ocultos" o la "oportunidad" pueden resonar con otros.

En segundo lugar, desarrolle sus perfiles de calidad de datos, midiendo la calidad de los datos en toda la gama de departamentos, funciones y tareas, utilizando la medición de la tarde del viernes descrita anteriormente.

Tercero, atacar implacablemente las fuentes del impuesto sobre la calidad de los datos. Crear datos correctamente la primera vez es la forma mejor y más rápida de hacerlo. Esto significa eliminar las causas fundamentales del error. He ayudado a las empresas a hacer esto durante mucho tiempo y, de lejos, las dos causas principales más frecuentes involucran:
  1. Aquellos que crean datos simplemente no saben que otros tienen requisitos para sus datos, y
  2. Los clientes de datos (aquellos que son víctimas de datos incorrectos) actúan por reflejo para corregir datos incorrectos, incurriendo inconscientemente en el impuesto.
Ambos son relativamente fáciles de resolver: los clientes de datos deben acostumbrarse a buscar a los creadores y explicarles sus requisitos de calidad. Los creadores de datos, a su vez, deben comprender estos requisitos y encontrar y eliminar las causas fundamentales de las fallas para cumplirlos. Si esto suena como una gestión de calidad de la “vieja escuela”, lo es. Lo más importante, es increíblemente eficaz.

Finalmente, ignore el discurso de que "la calidad de los datos es aburrido", porque simplemente no es cierto. En mi experiencia, a la mayoría de las personas les gustan sus nuevos roles como creadores de datos y clientes de datos, y ciertamente aprecian pasar menos tiempo trabajando en problemas de datos mundanos. Comience en áreas donde los gerentes tengan la mente abierta y establezca una meta inicial de reducir a la mitad la tasa de error en seis meses. Capacite a las personas, ayúdelas a hacer una o dos mejoras y luego suéltelas. Muévete a la siguiente área, generando impulso a medida que avanzas.

La productividad no necesita, de hecho no debe, estancarse. Muchos encontrarán que la conexión entre productividad y calidad es contraria a la intuición, pero ahí radica una gran oportunidad. Los datos erróneos afectan la productividad. Es hora de hacer que desaparezca.

Thomas C. Redman, "el médico de datos", es presidente de Data Quality Solutions. Ayuda a empresas y personas, incluidas empresas emergentes, multinacionales, ejecutivos y líderes de todos los niveles, a trazar sus rumbos hacia futuros basados ​​en datos. Pone especial énfasis en la calidad, el análisis y las capacidades organizacionales.


No hay comentarios:

Publicar un comentario