Por qué los equipos de ciencia de datos necesitan generalistas, no especialistas
Por Eric Colson
Organizaciones gestoras
Harvard Business Review
En The Wealth of Nations, Adam Smith demuestra cómo la división del trabajo es la principal fuente de ganancias de productividad utilizando el ejemplo vívido de una línea de ensamblaje de fábrica de alfileres: "Una [persona] extrae el cable, otra la endereza, la tercera lo corta" , un cuarto lo señala, un quinto lo muele ”. Con una especialización orientada a la función, cada trabajador se vuelve altamente capacitado en una tarea limitada que conduce a la eficiencia del proceso. La producción por trabajador aumenta muchas veces; La fábrica se vuelve extremadamente eficiente en la producción de pasadores.
Esta división del trabajo por función está tan arraigada en nosotros incluso hoy en día que organizamos nuestros equipos rápidamente. La ciencia de los datos no es una excepción. Una capacidad empresarial algorítmica de extremo a extremo requiere muchas funciones, por lo que las empresas suelen crear equipos de especialistas: científicos de investigación, ingenieros de datos, ingenieros de aprendizaje automático, científicos de inferencia causal, etc. El trabajo de los especialistas es coordinado por un gerente de producto, con transferencias entre las funciones de una manera similar a la fábrica de pines: "una persona obtiene los datos, otra la modela, una tercera la implementa, una cuarta la mide" y así sucesivamente .
Por desgracia, no deberíamos optimizar nuestros equipos de ciencia de datos para aumentar la productividad; eso es lo que haces cuando sabes qué es lo que estás produciendo, pines o no, y simplemente estás buscando eficiencias incrementales. El objetivo de las líneas de montaje es la ejecución. Sabemos exactamente lo que queremos, pines en el ejemplo de Smith, pero uno puede pensar en cualquier producto o servicio en el que los requisitos describan completamente todos los aspectos del producto y su comportamiento. El papel de los trabajadores es, entonces, ejecutar esos requisitos de la manera más eficiente posible.
Pero el objetivo de la ciencia de datos no es ejecutar. Más bien, el objetivo es aprender y desarrollar nuevas y profundas capacidades empresariales. Los productos y servicios algorítmicos como sistemas de recomendaciones, bandidos de participación del cliente, clasificación de preferencias de estilo, ajuste de tamaño, sistemas de diseño de moda, optimizadores de logística, detección de tendencias estacionales y más no pueden diseñarse por adelantado. Necesitan ser aprendidos. No hay planos a seguir; Estas son capacidades novedosas con incertidumbre inherente. Los coeficientes, modelos, tipos de modelo, parámetros hiper, todos los elementos que necesita deben aprenderse a través de la experimentación, prueba y error, y la iteración. Con alfileres, el aprendizaje y el diseño se hacen por adelantado, antes de que lo hagas. Con la ciencia de datos, aprendes sobre la marcha, no antes de ir.
En la fábrica de alfileres, cuando el aprendizaje es lo primero, no esperamos ni queremos que los trabajadores improvisen ningún aspecto del producto, excepto para producirlo de manera más eficiente. Organizar por función tiene sentido, ya que la especialización de tareas conduce a eficiencias de proceso y consistencia de producción (sin variaciones en el producto final).
Pero cuando el producto sigue evolucionando y el objetivo es aprender, la especialización dificulta nuestros objetivos de varias maneras:
1. Aumenta los costos de coordinación. Esos son los costos que se acumulan en el tiempo dedicado a la comunicación, la discusión, la justificación y la priorización del trabajo a realizar. Estos costos se escalan de manera super-lineal con el número de personas involucradas. (Como J. Richard Hackman nos enseñó, el número de relaciones (r) crece como un número de función de miembros (n) según esta ecuación: r = (n ^ 2-n) / 2. Y, cada relación tiene una cierta cantidad de gastos de coordinación). Cuando los científicos de datos se organizan por función, los muchos especialistas necesarios en cada paso, y con cada cambio, y cada transferencia, y así sucesivamente, hacen que los costos de coordinación sean altos. Por ejemplo, los especialistas en modelado estadístico que quieran experimentar con nuevas funciones deberán coordinarse con los ingenieros de datos que aumentan los conjuntos de datos cada vez que desean probar algo nuevo. De manera similar, cada nuevo modelo capacitado significa que el modelador necesitará a alguien con quien coordinar para la implementación. Los costos de coordinación actúan como un impuesto sobre la iteración, lo que hace que sea más difícil y costoso, y es más probable que disuadan la exploración. Eso puede dificultar el aprendizaje.
2. Exacerba el tiempo de espera. Incluso más nefasto que los costos de coordinación es el tiempo que transcurre entre el trabajo. Mientras que los costos de coordinación generalmente se pueden medir en horas, el tiempo que toma mantener reuniones, discusiones, revisiones de diseño, ¡los tiempos de espera se miden generalmente en días o semanas o incluso meses! Los horarios de los especialistas funcionales son difíciles de alinear, ya que cada especialista está destinado a ser asignado a varias iniciativas. Una reunión de una hora para discutir los cambios puede tardar semanas en alinearse. Y, una vez alineado con los cambios, el trabajo real en sí también debe programarse en el contexto de muchos otros proyectos que compiten por el tiempo de los especialistas. Los trabajos como cambios de código o investigación que requieren solo unas pocas horas o días para completarlos pueden quedarse sin hacer mucho más tiempo antes de que los recursos estén disponibles. Hasta entonces, la iteración y el aprendizaje languidecen.
3. Se estrecha el contexto. La división del trabajo puede limitar artificialmente el aprendizaje al recompensar a las personas por permanecer en su carril. Por ejemplo, el científico investigador que está relegado a permanecer dentro de su función centrará su energía en experimentar con diferentes tipos de algoritmos: regresión, redes neuronales, bosques aleatorios, etc. Sin duda, una buena elección de algoritmos podría llevar a mejoras incrementales. Pero generalmente hay mucho más que ganar de otras actividades como la integración de nuevas fuentes de datos. De manera similar, ella puede desarrollar un modelo que agote todo el poder explicativo inherente a los datos. Sin embargo, su mayor oportunidad puede ser cambiar la función objetivo o relajar ciertas restricciones. Esto es difícil de ver o hacer cuando la función de su trabajo es limitada. Dado que la investigadora científica está especializada en la optimización de algoritmos, es mucho menos probable que busque algo más, incluso cuando conlleva beneficios de gran tamaño.
Los síntomas de alerta pueden surgir cuando los equipos de ciencia de datos se ejecutan como fábricas de pines, por ejemplo, en actualizaciones de estado simples: "espera en los cambios de la tubería de datos" y "espera en recursos ML Eng" son bloqueadores comunes. Sin embargo, creo que el impacto más insidioso reside en lo que no escuchas, porque no puedes lamentar lo que aún no has aprendido. La ejecución perfecta de los requisitos y la complacencia provocada por el logro de la eficiencia de los procesos puede enmascarar la difícil verdad, que la organización ignora a la perfección el valioso aprendizaje que se están perdiendo.
La solución a este problema es, por supuesto, deshacerse de la fábrica de pines. Con el fin de fomentar el aprendizaje y la iteración, los roles de la ciencia de datos deben hacerse más generales, con amplias responsabilidades en función de la función técnica. Es decir, organizar a los científicos de datos de manera que estén optimizados para aprender. Esto significa contratar "científicos de datos de pila completa", generalistas, que pueden realizar diversas funciones: desde la concepción hasta el modelado, la implementación y la medición. Es importante tener en cuenta que no estoy sugiriendo que la contratación de científicos de datos de pila completa dé como resultado menos personas en general. Más bien, simplemente estoy sugiriendo que cuando se organizan de manera diferente, sus incentivos están mejor alineados con el aprendizaje frente a los aumentos de eficiencia. Por ejemplo, supongamos que tiene un equipo de tres que crea tres capacidades comerciales. En la fábrica de alfileres, cada especialista se dedicará un tercio a cada capacidad, ya que nadie más puede hacer su trabajo. En la pila completa, cada generalista está completamente dedicado a una capacidad empresarial, aumentando la escala y el aprendizaje.
Con menos personas para mantener en el circuito, los costos de coordinación se desploman. El generalista se mueve con fluidez entre las funciones, ampliando el flujo de datos para agregar más datos, probando nuevas características en el modelo, desplegando nuevas versiones en la producción para la medición causal y repitiendo los pasos tan rápido como le llegan nuevas ideas. Por supuesto, el generalista realiza las diferentes funciones de forma secuencial en lugar de paralela: después de todo, solo es una persona. Sin embargo, hacer el trabajo generalmente toma solo una fracción del tiempo de espera que tomaría para que otro recurso especializado esté disponible. Por lo tanto, el tiempo de iteración se reduce.
Nuestro generalista puede no ser tan hábil como un especialista en cualquier función. Pero no estamos buscando la excelencia funcional o pequeñas mejoras incrementales. Más bien, buscamos aprender y descubrir nuevas capacidades de negocios con un cambio en el impacto. Con un contexto completo para la solución holística, ella ve oportunidades que un especialista limitado no podrá. Ella tiene más ideas y trata más cosas. Ella también falla más. Sin embargo, el costo del fracaso es bajo y los beneficios del aprendizaje son altos. Esta asimetría favorece la iteración rápida y premia el aprendizaje.
Es importante tener en cuenta que esta cantidad de autonomía y diversidad en la habilidad otorgada a los científicos de datos de pila completa depende en gran medida del supuesto de una plataforma de datos sólida sobre la cual trabajar. Una plataforma de datos bien construida abstrae a los científicos de datos de las complejidades de la contenedorización, el procesamiento distribuido, la conmutación por error automática y otros conceptos avanzados de informática. Además de la abstracción, una plataforma de datos robusta puede proporcionar enlaces sin problemas en una infraestructura de experimentación, automatizar el monitoreo y las alertas, proporcionar una escala automática y permitir la visualización de resultados de depuración y resultados algorítmicos. Estos componentes están diseñados y construidos por los ingenieros de la plataforma de datos, pero para ser claros, no hay un traspaso del científico de datos a un equipo de plataforma de datos. Es el científico de datos el responsable de todo el código que se implementa para ejecutarse en la parte superior de la plataforma.
Organizaciones gestoras
Harvard Business Review
En The Wealth of Nations, Adam Smith demuestra cómo la división del trabajo es la principal fuente de ganancias de productividad utilizando el ejemplo vívido de una línea de ensamblaje de fábrica de alfileres: "Una [persona] extrae el cable, otra la endereza, la tercera lo corta" , un cuarto lo señala, un quinto lo muele ”. Con una especialización orientada a la función, cada trabajador se vuelve altamente capacitado en una tarea limitada que conduce a la eficiencia del proceso. La producción por trabajador aumenta muchas veces; La fábrica se vuelve extremadamente eficiente en la producción de pasadores.
Esta división del trabajo por función está tan arraigada en nosotros incluso hoy en día que organizamos nuestros equipos rápidamente. La ciencia de los datos no es una excepción. Una capacidad empresarial algorítmica de extremo a extremo requiere muchas funciones, por lo que las empresas suelen crear equipos de especialistas: científicos de investigación, ingenieros de datos, ingenieros de aprendizaje automático, científicos de inferencia causal, etc. El trabajo de los especialistas es coordinado por un gerente de producto, con transferencias entre las funciones de una manera similar a la fábrica de pines: "una persona obtiene los datos, otra la modela, una tercera la implementa, una cuarta la mide" y así sucesivamente .
Por desgracia, no deberíamos optimizar nuestros equipos de ciencia de datos para aumentar la productividad; eso es lo que haces cuando sabes qué es lo que estás produciendo, pines o no, y simplemente estás buscando eficiencias incrementales. El objetivo de las líneas de montaje es la ejecución. Sabemos exactamente lo que queremos, pines en el ejemplo de Smith, pero uno puede pensar en cualquier producto o servicio en el que los requisitos describan completamente todos los aspectos del producto y su comportamiento. El papel de los trabajadores es, entonces, ejecutar esos requisitos de la manera más eficiente posible.
Pero el objetivo de la ciencia de datos no es ejecutar. Más bien, el objetivo es aprender y desarrollar nuevas y profundas capacidades empresariales. Los productos y servicios algorítmicos como sistemas de recomendaciones, bandidos de participación del cliente, clasificación de preferencias de estilo, ajuste de tamaño, sistemas de diseño de moda, optimizadores de logística, detección de tendencias estacionales y más no pueden diseñarse por adelantado. Necesitan ser aprendidos. No hay planos a seguir; Estas son capacidades novedosas con incertidumbre inherente. Los coeficientes, modelos, tipos de modelo, parámetros hiper, todos los elementos que necesita deben aprenderse a través de la experimentación, prueba y error, y la iteración. Con alfileres, el aprendizaje y el diseño se hacen por adelantado, antes de que lo hagas. Con la ciencia de datos, aprendes sobre la marcha, no antes de ir.
En la fábrica de alfileres, cuando el aprendizaje es lo primero, no esperamos ni queremos que los trabajadores improvisen ningún aspecto del producto, excepto para producirlo de manera más eficiente. Organizar por función tiene sentido, ya que la especialización de tareas conduce a eficiencias de proceso y consistencia de producción (sin variaciones en el producto final).
Pero cuando el producto sigue evolucionando y el objetivo es aprender, la especialización dificulta nuestros objetivos de varias maneras:
1. Aumenta los costos de coordinación. Esos son los costos que se acumulan en el tiempo dedicado a la comunicación, la discusión, la justificación y la priorización del trabajo a realizar. Estos costos se escalan de manera super-lineal con el número de personas involucradas. (Como J. Richard Hackman nos enseñó, el número de relaciones (r) crece como un número de función de miembros (n) según esta ecuación: r = (n ^ 2-n) / 2. Y, cada relación tiene una cierta cantidad de gastos de coordinación). Cuando los científicos de datos se organizan por función, los muchos especialistas necesarios en cada paso, y con cada cambio, y cada transferencia, y así sucesivamente, hacen que los costos de coordinación sean altos. Por ejemplo, los especialistas en modelado estadístico que quieran experimentar con nuevas funciones deberán coordinarse con los ingenieros de datos que aumentan los conjuntos de datos cada vez que desean probar algo nuevo. De manera similar, cada nuevo modelo capacitado significa que el modelador necesitará a alguien con quien coordinar para la implementación. Los costos de coordinación actúan como un impuesto sobre la iteración, lo que hace que sea más difícil y costoso, y es más probable que disuadan la exploración. Eso puede dificultar el aprendizaje.
2. Exacerba el tiempo de espera. Incluso más nefasto que los costos de coordinación es el tiempo que transcurre entre el trabajo. Mientras que los costos de coordinación generalmente se pueden medir en horas, el tiempo que toma mantener reuniones, discusiones, revisiones de diseño, ¡los tiempos de espera se miden generalmente en días o semanas o incluso meses! Los horarios de los especialistas funcionales son difíciles de alinear, ya que cada especialista está destinado a ser asignado a varias iniciativas. Una reunión de una hora para discutir los cambios puede tardar semanas en alinearse. Y, una vez alineado con los cambios, el trabajo real en sí también debe programarse en el contexto de muchos otros proyectos que compiten por el tiempo de los especialistas. Los trabajos como cambios de código o investigación que requieren solo unas pocas horas o días para completarlos pueden quedarse sin hacer mucho más tiempo antes de que los recursos estén disponibles. Hasta entonces, la iteración y el aprendizaje languidecen.
3. Se estrecha el contexto. La división del trabajo puede limitar artificialmente el aprendizaje al recompensar a las personas por permanecer en su carril. Por ejemplo, el científico investigador que está relegado a permanecer dentro de su función centrará su energía en experimentar con diferentes tipos de algoritmos: regresión, redes neuronales, bosques aleatorios, etc. Sin duda, una buena elección de algoritmos podría llevar a mejoras incrementales. Pero generalmente hay mucho más que ganar de otras actividades como la integración de nuevas fuentes de datos. De manera similar, ella puede desarrollar un modelo que agote todo el poder explicativo inherente a los datos. Sin embargo, su mayor oportunidad puede ser cambiar la función objetivo o relajar ciertas restricciones. Esto es difícil de ver o hacer cuando la función de su trabajo es limitada. Dado que la investigadora científica está especializada en la optimización de algoritmos, es mucho menos probable que busque algo más, incluso cuando conlleva beneficios de gran tamaño.
Los síntomas de alerta pueden surgir cuando los equipos de ciencia de datos se ejecutan como fábricas de pines, por ejemplo, en actualizaciones de estado simples: "espera en los cambios de la tubería de datos" y "espera en recursos ML Eng" son bloqueadores comunes. Sin embargo, creo que el impacto más insidioso reside en lo que no escuchas, porque no puedes lamentar lo que aún no has aprendido. La ejecución perfecta de los requisitos y la complacencia provocada por el logro de la eficiencia de los procesos puede enmascarar la difícil verdad, que la organización ignora a la perfección el valioso aprendizaje que se están perdiendo.
La solución a este problema es, por supuesto, deshacerse de la fábrica de pines. Con el fin de fomentar el aprendizaje y la iteración, los roles de la ciencia de datos deben hacerse más generales, con amplias responsabilidades en función de la función técnica. Es decir, organizar a los científicos de datos de manera que estén optimizados para aprender. Esto significa contratar "científicos de datos de pila completa", generalistas, que pueden realizar diversas funciones: desde la concepción hasta el modelado, la implementación y la medición. Es importante tener en cuenta que no estoy sugiriendo que la contratación de científicos de datos de pila completa dé como resultado menos personas en general. Más bien, simplemente estoy sugiriendo que cuando se organizan de manera diferente, sus incentivos están mejor alineados con el aprendizaje frente a los aumentos de eficiencia. Por ejemplo, supongamos que tiene un equipo de tres que crea tres capacidades comerciales. En la fábrica de alfileres, cada especialista se dedicará un tercio a cada capacidad, ya que nadie más puede hacer su trabajo. En la pila completa, cada generalista está completamente dedicado a una capacidad empresarial, aumentando la escala y el aprendizaje.
Con menos personas para mantener en el circuito, los costos de coordinación se desploman. El generalista se mueve con fluidez entre las funciones, ampliando el flujo de datos para agregar más datos, probando nuevas características en el modelo, desplegando nuevas versiones en la producción para la medición causal y repitiendo los pasos tan rápido como le llegan nuevas ideas. Por supuesto, el generalista realiza las diferentes funciones de forma secuencial en lugar de paralela: después de todo, solo es una persona. Sin embargo, hacer el trabajo generalmente toma solo una fracción del tiempo de espera que tomaría para que otro recurso especializado esté disponible. Por lo tanto, el tiempo de iteración se reduce.
Nuestro generalista puede no ser tan hábil como un especialista en cualquier función. Pero no estamos buscando la excelencia funcional o pequeñas mejoras incrementales. Más bien, buscamos aprender y descubrir nuevas capacidades de negocios con un cambio en el impacto. Con un contexto completo para la solución holística, ella ve oportunidades que un especialista limitado no podrá. Ella tiene más ideas y trata más cosas. Ella también falla más. Sin embargo, el costo del fracaso es bajo y los beneficios del aprendizaje son altos. Esta asimetría favorece la iteración rápida y premia el aprendizaje.
Es importante tener en cuenta que esta cantidad de autonomía y diversidad en la habilidad otorgada a los científicos de datos de pila completa depende en gran medida del supuesto de una plataforma de datos sólida sobre la cual trabajar. Una plataforma de datos bien construida abstrae a los científicos de datos de las complejidades de la contenedorización, el procesamiento distribuido, la conmutación por error automática y otros conceptos avanzados de informática. Además de la abstracción, una plataforma de datos robusta puede proporcionar enlaces sin problemas en una infraestructura de experimentación, automatizar el monitoreo y las alertas, proporcionar una escala automática y permitir la visualización de resultados de depuración y resultados algorítmicos. Estos componentes están diseñados y construidos por los ingenieros de la plataforma de datos, pero para ser claros, no hay un traspaso del científico de datos a un equipo de plataforma de datos. Es el científico de datos el responsable de todo el código que se implementa para ejecutarse en la parte superior de la plataforma.
Una vez fui atraído a una división del trabajo basada en funciones por la atracción de eficiencias de proceso. Pero, a través de la prueba y el error (no hay mejor manera de aprender), he descubierto que los roles más generalizados facilitan el aprendizaje y la innovación, y proporcionan los tipos adecuados de escalamiento: para descubrir y desarrollar muchas más capacidades empresariales que un enfoque especializado. (Una forma más eficiente de aprender sobre este enfoque de organización en comparación con la prueba y el error que experimenté es leer el libro de Amy C. Edmondson "Equipo: Cómo las organizaciones aprenden, innovan y compiten en la economía del conocimiento").
Hay algunas consideraciones importantes que pueden hacer que este enfoque de la organización sea más o menos sostenible en algunas empresas. Este proceso de iteración supone un bajo costo de prueba y error. Si el costo del error es alto, es posible que desee replantearse (es decir, no se recomienda para aplicaciones médicas o de fabricación). Además, si está tratando con petabytes o exabytes de datos, la especialización en ingeniería de datos puede estar justificada. De manera similar, si mantener una capacidad comercial en línea y disponible es más importante que mejorarla, la excelencia funcional puede triunfar sobre el aprendizaje. Finalmente, el modelo de ciencia de datos de pila completa se basa en el supuesto de grandes personas. No son unicornios; Se pueden encontrar tan bien como se hacen. Pero tienen una gran demanda y requerirán una compensación competitiva, valores sólidos de la empresa y un trabajo interesante para atraerlos y retenerlos. Asegúrese de que la cultura de su empresa pueda apoyar esto.
Incluso con todo lo dicho, creo que el modelo científico de datos de pila completa proporciona un mejor punto de partida. Comience con ellos, y luego muévase conscientemente (a regañadientes) hacia una división del trabajo basada en la función solo cuando sea claramente necesario.
Hay otras desventajas a la especialización funcional. Puede llevar a la pérdida de la responsabilidad y la pasión de los trabajadores. El mismo Smith critica la división del trabajo, sugiriendo que conduce a la disminución del talento, que los trabajadores se vuelven ignorantes e insulares, ya que sus roles se limitan a una tarea repetitiva. Si bien la especialización puede proporcionar eficiencia en los procesos, es menos probable que inspire a los trabajadores.
Por el contrario, los roles generalistas proporcionan todas las cosas que conducen a la satisfacción laboral: autonomía, dominio y propósito. Autonomía en el sentido de que no dependen de otra persona para el éxito. Dominio en que conocen la capacidad de negocios de punta a punta. Y, el propósito es que tienen una conexión directa con el impacto en el negocio que están haciendo. Si conseguimos que las personas se apasionen con su trabajo y causen un gran impacto en la empresa, el resto queda en su lugar de forma natural.
Eric Colson es el Director de Algoritmos de Stitch Fix. Anteriormente, fue vicepresidente de ciencia de datos e ingeniería en Netflix. @ericcolson
Hay algunas consideraciones importantes que pueden hacer que este enfoque de la organización sea más o menos sostenible en algunas empresas. Este proceso de iteración supone un bajo costo de prueba y error. Si el costo del error es alto, es posible que desee replantearse (es decir, no se recomienda para aplicaciones médicas o de fabricación). Además, si está tratando con petabytes o exabytes de datos, la especialización en ingeniería de datos puede estar justificada. De manera similar, si mantener una capacidad comercial en línea y disponible es más importante que mejorarla, la excelencia funcional puede triunfar sobre el aprendizaje. Finalmente, el modelo de ciencia de datos de pila completa se basa en el supuesto de grandes personas. No son unicornios; Se pueden encontrar tan bien como se hacen. Pero tienen una gran demanda y requerirán una compensación competitiva, valores sólidos de la empresa y un trabajo interesante para atraerlos y retenerlos. Asegúrese de que la cultura de su empresa pueda apoyar esto.
Incluso con todo lo dicho, creo que el modelo científico de datos de pila completa proporciona un mejor punto de partida. Comience con ellos, y luego muévase conscientemente (a regañadientes) hacia una división del trabajo basada en la función solo cuando sea claramente necesario.
Hay otras desventajas a la especialización funcional. Puede llevar a la pérdida de la responsabilidad y la pasión de los trabajadores. El mismo Smith critica la división del trabajo, sugiriendo que conduce a la disminución del talento, que los trabajadores se vuelven ignorantes e insulares, ya que sus roles se limitan a una tarea repetitiva. Si bien la especialización puede proporcionar eficiencia en los procesos, es menos probable que inspire a los trabajadores.
Por el contrario, los roles generalistas proporcionan todas las cosas que conducen a la satisfacción laboral: autonomía, dominio y propósito. Autonomía en el sentido de que no dependen de otra persona para el éxito. Dominio en que conocen la capacidad de negocios de punta a punta. Y, el propósito es que tienen una conexión directa con el impacto en el negocio que están haciendo. Si conseguimos que las personas se apasionen con su trabajo y causen un gran impacto en la empresa, el resto queda en su lugar de forma natural.
Eric Colson es el Director de Algoritmos de Stitch Fix. Anteriormente, fue vicepresidente de ciencia de datos e ingeniería en Netflix. @ericcolson
No hay comentarios:
Publicar un comentario