Doxa 2130

Tome mejores decisiones estratégicas en relación con tecnologías de desarrollo lento

Por Tucker J. Marion, David Deeds y John H. Friar
Innovación
Harvard Business Review

#Doxa #decisión #estrategia #tecnología #desarrollo #innovación #competencia #empresa #seguimiento #sistemático #evolución #rendimiento #precio #oportunidad #madurez
Resumen. Muchos productos innovadores incluyen múltiples tecnologías que evolucionaron muy lentamente, a veces durante décadas. Para evitar ser sorprendidas o superadas por la competencia, las empresas deben realizar un seguimiento sistemático de la evolución de estas tecnologías de “cocción lenta” a medida que mejoran en rendimiento y bajan de precio. La ventana de oportunidad que se presenta cuando todas las tecnologías adecuadas alcanzan el punto de madurez puede ser más pequeña de lo que se cree.
Los automóviles autónomos pueden parecer una tecnología de vanguardia del siglo XXI, un desafío que aún enfrenta obstáculos antes de su adopción generalizada. Pero, de hecho, la conducción autónoma ha estado evolucionando a trompicones durante un siglo entero. Su evolución puede enseñar a los gerentes cómo lidiar con innovaciones que dependen de múltiples tecnologías de desarrollo lento que se unen a diferentes velocidades y costos.

En 1925, Ford Motor Company exhibió un vehículo llamado American Wonder que se desplazaba por Broadway y la Quinta Avenida (se dice que incluso sorteó un atasco) sin nadie en el asiento del conductor. En cambio, el coche se manejaba de forma remota mediante señales de radio que provenían de otro vehículo que lo seguía. No era exactamente un vehículo “autónomo”, pero aun así era un logro notable para esa época.

En 1958, General Motors exhibió un prototipo experimental llamado Firebird III, que contaba con un sistema de guía eléctrica que le permitía navegar por una autopista automática mientras el conductor se relajaba sin tener las manos en el volante. Sin embargo, funcionaba solo en un tramo de carretera de un cuarto de milla con circuitos integrados.

En 2005, cinco vehículos autónomos patrocinados por DARPA recorrieron con éxito un recorrido de 240 kilómetros en el desierto de Mojave. Desde entonces, empresas como Google, Tesla, Apple y una serie de empresas emergentes han invertido miles de millones en tecnología de conducción autónoma, pero a pesar de la importante inversión, todavía se utiliza solo a pequeña escala en proyectos piloto en un puñado de ciudades.

¿Por qué resulta tan difícil lograr que esta tecnología sea comercialmente viable?

Un vehículo autónomo depende de una variedad de tecnologías, entre ellas sensores LiDAR, sensores MEMS (como acelerómetros), GPS, comunicaciones celulares 5G e inteligencia artificial. Estas tecnologías han madurado a diferentes ritmos y sus trayectorias de costos también han evolucionado a diferentes ritmos.

Por ejemplo, pensemos en un sistema LiDAR, que proyecta rayos láser sobre el entorno de un vehículo y los objetos que encuentra en su camino, mide los reflejos y utiliza las diferencias en los tiempos de retorno y las longitudes de onda para crear representaciones digitales en 3D que determinan las ubicaciones. La Hughes Aircraft Company introdujo esta tecnología en 1961, y el Centro Nacional de Investigación Atmosférica fue uno de los primeros en utilizarla para analizar las nubes y la contaminación del aire. Los sistemas LiDAR, que inicialmente costaban millones, ahora cuestan entre 100 y 200 dólares. De manera similar, las capacidades del GPS, desarrolladas por primera vez durante la década de 1980, no se generalizaron hasta principios de la década de 2000; a mediados de la década de 2010, se convirtieron en una tecnología basada en chips que cuesta menos de 5 dólares por unidad. En el campo de la inteligencia artificial, que evoluciona rápidamente, las capacidades que permiten a los vehículos autónomos reconocer obstáculos y tomar decisiones están evolucionando en capacidad y costo mes a mes. Solo cuando el conjunto completo de tecnologías sea lo suficientemente robusto y asequible, la conducción autónoma podrá cumplir plenamente la promesa que los investigadores han contemplado durante más de 100 años.

¿Cómo se las arreglan las empresas cuando un producto imaginado depende de un grupo de innovaciones que surgen lentamente, un concepto que hemos llegado a denominar “tecnologías de cocción lenta”? En estas situaciones, cuando el desarrollo de las tecnologías subyacentes aumenta y disminuye a lo largo de décadas, realizar un seguimiento y crear una estrategia de I+D en torno a ellas (sin invertir demasiado demasiado pronto) puede suponer un desafío importante.

La mayoría de las corporaciones no pueden permitirse invertir mucho esfuerzo en el seguimiento de tecnologías que pueden tardar décadas en ser eficaces y lo suficientemente asequibles para comercializarse. Al mismo tiempo, cuando el grupo adecuado de tecnologías alcanza la madurez y el costo adecuados, pueden ser extremadamente disruptivas y, como a menudo toman por sorpresa a las empresas, su impacto puede ser devastador.

Un ejemplo de ello es Internet. La versión académica se puso en línea en 1969, pero se necesitaron más de dos décadas (y la invención de los protocolos de Internet, HTML, el navegador web y, finalmente, el acceso a la banda ancha) para impulsar el auge de las puntocom y las innumerables innovaciones en las décadas posteriores. Se trata de una innovación que ha trastocado sectores enteros y las empresas que tuvieron dificultades para determinar el momento adecuado para invertir en una estrategia de Internet a menudo no sobrevivieron.

Determinar cuándo apostar por las tecnologías emergentes es una ciencia, no un arte. Lo más fundamental que debe hacer un director ejecutivo es dejar de pensar en la innovación a través de tecnologías singulares. Aunque muchos ejecutivos no se dan cuenta, las innovaciones que crean nuevas industrias y ecosistemas (o revolucionan los existentes) suelen estar compuestas por múltiples tecnologías. En cambio, deberían identificar las diversas ciencias y tecnologías que subyacen a una innovación potencial y establecer un proceso para supervisarlas y gestionarlas a medida que se desarrollan, incluso si eso puede llevar décadas.

Muchas empresas descuidan este aspecto debido a una creencia simple pero incorrecta: esperar es lo lógico. La opinión predominante es que la mayor cantidad de oportunidades de negocio surgirá después de que las tecnologías se hayan comercializado, pero antes de que un competidor tenga tiempo de dominar el mercado. Basándonos en nuestra investigación y experiencia profesional, creemos que esto es un error. Las empresas que intentan esto normalmente pierden la oportunidad y nunca estarán en condiciones de obtener una ventaja.

Repensando el mapeo tecnológico
Las empresas ya utilizan herramientas sofisticadas para predecir la rapidez con la que una tecnología podría estar lista para su comercialización. Un ejemplo es el Nivel de preparación tecnológica (TRL) creado por la NASA; otro son las curvas de difusión. Se supone que estas representaciones visuales ayudan con la planificación de I+D a largo plazo, la financiación de la investigación y la estrategia de fusiones y adquisiciones. Sin embargo, con demasiada frecuencia estas herramientas se centran en pronosticar tecnologías individuales en lugar del conjunto de innovaciones necesarias para hacer posible algo como la conducción autónoma.

Además, las empresas han recurrido a futurólogos, paneles de expertos y extrapolaciones de tendencias para ayudar en la planificación tecnológica. Sin embargo, estos métodos pueden verse empañados por fijaciones personales, opiniones y fallas en la medición de la preparación del mercado. Sobre todo, la previsión tecnológica convencional no funciona bien cuando las empresas deben lidiar con tecnologías novedosas y su interacción.

Tomemos como ejemplo algunas de las tecnologías clave del iPhone. Cada una de ellas se desarrolló siguiendo una trayectoria diferente, se puso a disposición a un precio extremadamente alto y se utilizó por primera vez en aplicaciones de vanguardia tecnológica. Las baterías de iones de litio, las interfaces gráficas de usuario y los circuitos integrados de silicio densamente empaquetados fueron pioneros en la década de 1960. A finales de la década, la NASA se había convertido en el mayor comprador de circuitos integrados, lo que impulsó el crecimiento de empresas como Fairchild Semiconductor y, más tarde, Intel. La consiguiente caída del precio de los microprocesadores de 8 bits condujo al desarrollo de los primeros ordenadores personales, como el Apple II, lanzado en 1977. De hecho, muchas de las tecnologías que componen un iPhone ya existían desde hacía 50 años antes de que las capacidades, tamaños y costes cayeran lo suficiente como para que Apple las combinara y lanzara el iPhone en 2007.

La forma más eficaz de abordar las innovaciones transformadoras es identificar todas las tecnologías emergentes que podrían afectar a una industria en el largo plazo, priorizarlas en términos de sus posibles funciones e impacto y centrarse en las tres o cuatro clave. Para ello será necesario seguir las tendencias de investigación en universidades y centros de estudios; analizar las tendencias de las políticas gubernamentales, el capital de riesgo, las fundaciones globales y las competiciones; el gasto en I+D de las empresas; y seguir las convocatorias de propuestas y los resultados de los NIH, la NSF y la DARPA. Por ejemplo, la DARPA fue muy activa en actividades de vehículos autónomos a principios de la década de 2000, y los fabricantes de automóviles comerciales prestaban mucha atención a los sistemas de visión, el LiDAR, el aprendizaje automático integrado y el software de inteligencia artificial inicial.

Diseño de la matriz de viabilidad tecnológica
Después de identificar las tecnologías emergentes más prometedoras, las empresas deben plantearse dos preguntas sobre cada una de ellas: ¿puede funcionar? ¿Y a qué coste? Las respuestas les permitirán crear una Matriz de Viabilidad Tecnológica, un dos por dos que nos resulta útil en nuestro trabajo de enseñanza y consultoría.

Las tecnologías se dividen en cuatro cuadrantes: proyectos ambiciosos, misiones críticas, soluciones mágicas o mercado masivo.

Matriz de viabilidad de la tecnología. Este gráfico de 2x2, utilizado para identificar tecnologías emergentes prometedoras, identifica cuatro cuadrantes según el costo unitario y la viabilidad de una tecnología. La tecnología con un costo unitario bajo y una viabilidad baja es una innovación milagrosa y debe incorporarse a la ciencia para avanzar hacia la viabilidad del mercado masivo. La tecnología con un costo unitario alto y una viabilidad baja es un objetivo inalcanzable; para avanzar hacia el mercado masivo, debe encontrar aplicaciones de alto costo o asociarse con empresas emergentes. La tecnología con un costo unitario alto y una viabilidad alta es una misión crítica; para avanzar hacia el mercado masivo, debe desarrollar capacidades internas o productos intermedios. Finalmente, cuanto menor sea el costo unitario de una innovación y mayor su viabilidad, más se ubicará en la viabilidad del mercado masivo. Fuente: Tucker J. Marion, David Deeds y John H. Friar.

Ver más gráficos de HBR en Datos y elementos visuales

El desafío de gestionar innovaciones transformadoras se agrava cuando las tecnologías subyacentes caen en diferentes cuadrantes en un momento dado. En el caso de los automóviles autónomos, por ejemplo, desarrollar la inteligencia artificial que pueda conducir un vehículo sigue siendo una tarea ardua, mientras que las comunicaciones celulares 5G entre automóviles son factibles, pero requieren una gran inversión debido a la infraestructura que debe crearse, lo que las convierte en una misión crítica.

Esto nos lleva a la siguiente dimensión del problema: ¿cuándo es probable que se unan las tecnologías subyacentes de una innovación transformadora? Aunque encontrar respuestas a esa pregunta puede no ser fácil, tampoco es imposible. La clave, según muestran nuestros estudios, es centrarse en el costo.

Al analizar las inversiones en I+D necesarias para desarrollarlas, los costos de producción de las tecnologías clave y proyectar sus trayectorias futuras lo más lejos posible, es posible comprender cómo influirán los costos en la creación de una innovación transformadora. Eso permitirá a los directores ejecutivos determinar con qué tecnologías trabajar y cómo gestionarlas, lo que generará un enfoque estratégico para la I+D.

Siempre pasa mucho tiempo antes de que los costos de todas las tecnologías subyacentes bajen hasta el punto en que las empresas puedan integrarlas en una innovación transformadora que pueda fabricarse a un precio viable. Esto representa una ventana de convergencia de costos : las empresas han podido combinarlas en nuevos productos en un futuro previsible. La capacidad de gestionar la convergencia puede hacer que una empresa triunfe o fracase, por lo que es esencial hacerlo bien.

Pensemos en Eastman Kodak, que no supo aprovechar ni su invención de la fotografía digital ni su tardía incursión en las cámaras digitales y las plataformas de impresión basadas en la red. Tuvo que declararse en quiebra en 2012, cuando las redes sociales y los teléfonos inteligentes habían cambiado por completo la forma en que los usuarios comparten y consumen imágenes. Kodak demuestra que navegar por la ventana de convergencia es fundamental para las empresas establecidas, tanto al principio como al final del juego, especialmente porque los retadores se apresurarán a utilizar las tecnologías emergentes durante este período. Las empresas emergentes tienden a moverse rápidamente, creando efectos de red en los que el ganador se lleva todo antes de que surjan todas las tecnologías que pueden crear un producto o servicio que cambie las reglas del juego.

Las empresas pueden utilizar varios enfoques para gestionar las tecnologías emergentes antes de comercializarlas:
  • Si detectan la ventana de convergencia a tiempo, tendrán tiempo suficiente para adoptar una estrategia proactiva. Las estrategias proactivas permiten a las empresas moldear las trayectorias de desarrollo de las tecnologías para que satisfagan sus necesidades futuras.
  • Otra estrategia es utilizar productos intermedios para crear activos y refinar capacidades. Netflix siguió esta estrategia durante 10 años desarrollando su negocio de distribución de DVD mientras Internet de banda ancha maduraba hasta el punto en que el streaming se volvía viable.
  • Por el contrario, las empresas que aprovechan la ventana de convergencia más tarde que sus rivales deben actuar con rapidez para ponerse al día con una estrategia reactiva. Cuando la ventana se estrecha, las empresas pueden poner a prueba rápidamente proyectos con competidores avanzados, como hizo recientemente Honda con GM con su Prologue EV. Esto ayuda a las empresas a probar aplicaciones y capacidades sin comprometer recursos en exceso mientras el mercado madura. En los esfuerzos reactivos, las empresas pueden obtener acceso de primera mano a tecnologías disruptivas al asociarse con empresas emergentes. Vemos esto con el espectacular crecimiento en la cantidad de proyectos piloto que se llevan a cabo entre corporaciones establecidas y empresas de inteligencia artificial.
  • Otra opción es apuntar a puntos de entrada de alto costo, como los mercados de lujo o de nicho, que pueden sostener una adopción temprana hasta que los costos caigan aún más, como se vio con los vehículos eléctricos de lujo o el uso de circuitos integrados en aplicaciones espaciales y militares en los años 1960 y principios de los 1970.
Revisando las estrategias de gestión tecnológica
Si bien es importante comprender el potencial disruptivo de cualquier nueva tecnología, la convergencia de tecnologías que evolucionan lentamente es un desafío más apremiante en la actualidad. Para gestionarlo, sin duda, se requiere una metaestrategia.

En primer lugar, los directores ejecutivos no deberían comportarse como si sólo la función de I+D o TI tuviera que preocuparse por el desafío; deben capacitar a todos los niveles de la organización para desarrollar una comprensión de las tecnologías emergentes. Esto ayuda a la planificación de innovaciones transformadoras, la I+D y la hoja de ruta. El proceso requerirá la creación de múltiples modos de investigación y desarrollo, desde la creación de mejores ecosistemas de innovación hasta la observación de la cultura tecnológica de la próxima generación.

Los equipos que comprenden, desarrollan e implementan estos planes deben trascender los límites de la organización. DARPA, por ejemplo, cuenta con procesos bien perfeccionados para incorporar a expertos de la industria, el gobierno y el mundo académico para que trabajen en proyectos específicos con sus equipos. La polinización cruzada aumenta la calidad del conocimiento, lo que permite que los equipos y las funciones tecnológicas desarrollen una imagen más completa del futuro.

Ninguna organización puede aspirar a desarrollar un panorama completo de todas las tecnologías que pueden afectarla ni a poder predecir todos los descubrimientos científicos inesperados, pero sí puede intentar hacer previsiones de futuro, lo que le permite comprender las posibilidades del mañana y trabajar a partir de ellas para crear líneas de investigación útiles. Por ejemplo, el proyecto Convergent Aeronautics Solutions (CAS) de la NASA está trabajando con empresas de diseño, instituciones académicas, empresas, empresas emergentes, inversores de riesgo y otros para entender cómo evolucionan las tecnologías de taxis aéreos, un proceso que denomina mapeo. Está sistematizando el proceso de mapeo para comprender mejor y abordar las deficiencias en las capacidades actuales y del futuro cercano.
• • •
En la última década, las empresas han comenzado a combinar la maquinaria de ingeniería, los sistemas de transporte y las redes físicas generados por las revoluciones industriales del siglo XVIII con los dispositivos inteligentes, las redes inteligentes y los sistemas expertos que hizo posible la revolución de Internet del siglo XX, para desencadenar una cuarta ola de innovación global. En consecuencia, nada le da a una empresa una ventaja competitiva sobre sus rivales tanto como la tecnología disruptiva.

Sin embargo, en lugar de limitarse a esperar y preocuparse por las disrupciones, las empresas, especialmente las líderes del mercado, harían bien en gestionar la dinámica de lo que está demostrando ser una era dorada de cambio y convergencia tecnológica. Eso requiere invertir tiempo y atención en el seguimiento de las tecnologías de cocción lenta.

Leer más sobre Innovación o temas relacionados Estrategia competitiva e Invenciones

Tucker J. Marion es profesor asociado de emprendimiento e innovación en la Escuela de Negocios D'Amore-McKim de Northeastern y en el Departamento de Ingeniería Mecánica e Industrial de la Facultad de Ingeniería.

David Deeds es profesor de emprendimiento de la Cátedra Schulze en la Universidad de St. Thomas y director académico de la Escuela Schulze de Emprendimiento. También es cofundador de The Entrepreneurship and Innovation Exchange y FamilyBusiness.org.

John H. Friar es profesor ejecutivo de gestión y emprendimiento en la Northeastern University.

 

No hay comentarios:

Publicar un comentario