Doxa 2235

Un nuevo marco para volverse viral

Por David Dubois
Ventas y Marketing
Harvard Business Review

#Doxa #marco #viral #ventas #marketing #cliente #polarización #marca #viral #investigación
Resumen. Hace diez años, "hacerse viral" era la regla de oro para las marcas, ya que les ayudaba a implicar a su base y a llegar a un amplio abanico de nuevos clientes. Pero en una época de mayor polarización y escrutinio de las marcas, ¿sigue importando la viralidad? El autor sostiene que, aunque la viralidad sigue siendo una de las formas más importantes de aumentar la notoriedad de una marca, lo que importa es cómo se hace. Un marco de seis puntos respaldado por la investigación (denominado SPREAD) puede ayudar a las marcas a abrirse paso entre el ruido y destacar por las razones adecuadas.
No hace mucho, "hacerse viral" era la regla de oro para los profesionales del marketing. Una campaña viral significaba un alcance, un compromiso y una notoriedad de marca sin precedentes. La campaña de 2012 "Dumb Ways to Die" de Metro Trains en Melbourne, por ejemplo, era divertida, pegadiza e inspiró innumerables remakes, parodias y descargas, convirtiéndola en una de las campañas de seguridad pública más queridas de todos los tiempos.

Pero hoy en día, las cosas que se hacen virales a menudo lo hacen por las razones equivocadas: controversia, indignación, desinformación o simple incomodidad. Consideremos la desastrosacampaña de Dolce & Gabbana "DG Loves China": Consiguió millones de visitas, pero también provocó una reacción violenta a escala mundial que costó a la marca unos 400 millones de dólares en pérdidas de ventas y daños a largo plazo en su segundo mercado más importante. Esto no es en absoluto una excepción: Según un informe de 2023 de Hootsuite, sólo el 5% de los contenidos de las plataformas de medios sociales alcanzan el estatus de virales, y gran parte de ellos lo son por motivos negativos o polarizadores. En este clima tan delicado, la pregunta crítica que deben plantearse los líderes de las marcas es: ¿Queremos siquiera seguir siendo virales?

La verdad es que la viralidad no ha muerto y sigue importando. Incluso con los cambios en los algoritmos y el comportamiento de la audiencia, generar expectación en torno a su contenido sigue siendo una herramienta poderosa para las marcas, ya que la viralidad es un importante impulsor conocido tanto del recuerdo de la marca como del compromiso del consumidor.

Para ayudar a las marcas a navegar por las complejidades de la viralidad moderna, desarrollé el marco SPREAD, basado en la investigación de las ciencias sociales y perfeccionado a lo largo de años de impartir cursos de educación ejecutiva a responsables de marketing de marcas y otros responsables de la toma de decisiones. Este marco capacita a los equipos para desentrañar, evaluar y optimizar de forma crítica el potencial viral de sus contenidos antes de publicarlos y ayuda a garantizar que lo que producen es impactante y seguro de compartir.

A continuación se presentan las seis dimensiones del marco SPREAD.

Socialmente útil y sensible
Las campañas que triunfan hoy en día suelen hacer algo más que entretener: ayudan al público a hacer o decir algo valioso. Duolingo, por ejemplo, utilizó su mascota búho viral en 2024 para defender la equidad lingüística. A través de TikTok, promovió programas de alfabetización multilingüe, lo que dio lugar a más de 800 millones de visualizaciones de vídeos generados por los usuarios y a un aumento interanual del 54% en las descargas de la aplicación en todo el mundo.

O consideremos la campaña "El coste de la belleza" de Dove, que puso de relieve el impacto de las redes sociales en la salud mental de los jóvenes. La marca se asoció con organizaciones de salud mental, lo que dio lugar a más de 6.600 millones de impresiones en EE.UU. y a un aumento del 5,5% en las ventas en valor. La resonancia de la campaña fue profundamente personal: Al compartirla, la gente pudo señalar su empatía, su alineación con la positividad corporal y su apoyo a la salud mental, ayudando a los demás y reforzando al mismo tiempo sus propios valores. Esta mezcla de expresión de la identidad individual y contribución social ayuda a explicar el poderoso alcance del anuncio. Juntas, la utilidad social y la sensibilidad impulsan las comparticiones porque fomentan el acto de compartir.

Preguntas para calibrar si el contenido es socialmente útil y sensible:
  1. ¿Ofrece el contenido valor o significado a quien lo comparte (por ejemplo, ayudándole a señalar sus valores a los demás o reforzando los lazos sociales entre quien lo comparte y su audiencia)?
  2. ¿Se trata de un contenido que la gente se sentirá bien compartiendo y que amplifica valores como la empatía o la identidad personal?
  3. ¿Compartir este contenido repercutirá positivamente en la relación del emisor con los destinatarios (tanto los seguidores existentes como los nuevos espectadores)?
  4. ¿Ignora o trivializa este contenido sensibilidades sociales actuales?
Provocador
Las grandes campañas incitan a la gente a reflexionar -incluso a discutir- siempre que sean estratégicas y sensibles desde el punto de vista cultural. Los contenidos provocadores desafían las normas, sorprenden al público o despiertan la curiosidad, un conocido motor del intercambio humano. La campaña "No compre esta chaqueta" de Patagonia es otro buen ejemplo, ya que instaba a los consumidores a reconsiderar el consumo excesivo al tiempo que se alineaba con la misión de la marca de defender la sostenibilidad.

Del mismo modo, Elf Beauty lanzó la campaña "So Many Dicks" 2024 como un audaz movimiento para poner de relieve la sobrerrepresentación de hombres llamados Richard, Rick o Dick en los consejos de administración de EE.UU. (frente a mujeres o personas de grupos infrarrepresentados). Aprovechando el humor descarado y un título provocador, la marca puso eficazmente el foco en la falta de diversidad de los consejos de administración de las empresas, logrando 2.300 millones de impresiones orgánicas en los medios y aumentando la notoriedad en un 20%.

Pero no toda provocación es productiva, sobre todo cuando no tiene en cuenta el sistema más amplio. Tomemos como ejemplo el anuncio de Apple para el iPad de 2023 "¡Crush! Destinado a suscitar un diálogo mundial en torno a la creatividad, la tecnología y la IA, acabó recibiendo una reacción masiva por parecer insensible al tono (destruyendo herramientas creativas, el propio posicionamiento de Apple, núcleo de la identidad de los seguidores de la marca). ¿La lección? La provocación debe servir para algo, no sólo para llamar la atención.

Del mismo modo, incluso las campañas con buenas intenciones pueden resultar contraproducentes cuando parecen pasar por alto los puntos de dolor sociales. Por ejemplo, el anuncio de Pepsi de 2017 protagonizado por Kendall Jenner intentó aprovechar el poder de las imágenes de protesta para promover la unidad, pero trivializó movimientos serios como Black Lives Matter al sugerir que un refresco podía resolver las tensiones sistémicas. La reacción fue rápida y global: el anuncio se retiró en 24 horas y Pepsi emitió una disculpa pública.

Preguntas para calibrar si el contenido es provocativo:
  1. ¿Este contenido desafía las normas o despierta curiosidad?
  2. ¿Hasta qué punto es sorprendente o contraintuitivo el formato o el mensaje del contenido?
  3. ¿Provoca este contenido de un modo que podría leerse como sordo al tono u ofensivo? Por ejemplo, ¿simplifica en exceso cuestiones complejas? ¿Ofrece la marca como una solución rápida a problemas sistémicos? ¿Se caracteriza a sí misma como un héroe (en lugar de amplificar las voces afectadas)? ¿Adopta un tono prescriptivo, diciendo a la gente lo que debe hacer?
Replicable
Los memes, los retos y los remixes prosperan porque dan a la gente un sentimiento de propiedad o de participación en la campaña. Por ejemplo, la tendencia de TikTok "Imperio Romano" de 2024 -en la que los usuarios bromeaban sobre la frecuencia con la que los hombres piensan en la antigua Roma- desencadenó que marcas como Netflix, Domino's e incluso instituciones académicas la cooptaran. La tendencia original generó más de 2.100 millones de visitas, con más de 12.000 remakes afiliados a marcas. La campaña "Draw Ketchup" de Heinz también dio en el clavo. Al pedir a los fans que "dibujaran ketchup" y lo colgaran en Internet, generó más de 5,8 millones de dólares en medios ganados, 127 veces la inversión inicial en medios, y consiguió que las botellas de edición limitada se agotaran en menos de tres horas. La clave está en facilitar que la gente se sienta comprometida y capaz de participar.

Preguntas para calibrar si el contenido es replicable:
  1. ¿Cómo de fácil sería para alguien copiar, remezclar o responder a este contenido?
  2. ¿Este contenido hace que los usuarios quieran participar y crear su propia versión (por ejemplo, fomentando activamente los memes, las remezclas, los duetos o los retos)?
  3. ¿Es el contenido demasiado complejo o pulido para inspirar la participación de los usuarios?
Emocional
Activar las emociones -y, en particular, diseñar montañas rusas emocionales- impulsa la viralidad. Pero en el clima actual, las emociones relevantes importan más que la intensidad. Made Possible by Hosts" de Airbnb construyó viajes emocionales a través de historias reales de viajeros que se reencontraban con sus seres queridos. Al explotar la nostalgia y la reconexión después de Covid, la serie resonó profundamente en el público que salía de los cierres por pandemia y dio lugar a un aumento del 15% en el tráfico global en el tercer trimestre de 2021 en los países en los que se ha desarrollado la campaña, en comparación con 2019. Tras seis meses de campaña, Airbnb obtuvo el mayor beneficio de su historia, con un aumento interanual de los ingresos netos del 280%, hasta los 834 millones de dólares. Compárelo con el infame anuncio"Regalo de Navidad" de Peloton, que intentó tirar de las emociones pero fue interpretado como insensible al tono y sexista, un recordatorio de que interpretar mal el tono emocional puede ser contraproducente.

Preguntas para calibrar si el contenido es emocional
  1. ¿Evoca el contenido una respuesta emocional fuerte (por ejemplo, alegría, tristeza, asombro)?
  2. ¿La emoción evocada parece relevante y acorde con el producto que se anuncia o el objetivo de la campaña?
Ambiguo
La ambigüedad despierta la curiosidad y alimenta el intercambio. La campaña "Reconstruye el mundo" de Lego utilizó escenas surrealistas y oníricas que desafiaban la lógica, lo que incitó a los espectadores a interpretar la campaña a su manera, lo que se tradujo en un aumento de los ingresos del 14%. Del mismo modo, la marca de moda india Wrogn, cofundada por el jugador de críquet Virat Kohli, lanzó la campaña "Misterio Wrogn" en marzo de 2023. La marca publicó imágenes crípticas de Kohli con objetos no relacionados, subtituladas con #IYKYK ("Si lo sabes, lo sabes"), prompting fans to decipher the hidden meanings. La campaña logró más de 42 millones de impresiones en un solo día.

La ambigüedad funciona porque la gente disfruta con el proceso de descifrar -ycompartir- sus teorías. Del mismo modo, el reciente éxito mundial de Fix Dessert Chocolatier se debió, en parte, a la falta de claridad inicial sobre los orígenes de la marca. Esto alimentó la curiosidad y suscitó debates, animando al público a explorar más a fondo y descubrir más cosas sobre el producto.

Preguntas para calibrar si el contenido es ambiguo:
  1. ¿Deja el contenido espacio para diferentes interpretaciones o significados personales?
  2. ¿Hay partes del contenido que despiertan curiosidad o dejan preguntas sin respuesta?
  3. ¿Qué probabilidades hay de que la gente discuta o debata sobre lo que realmente significa este contenido?
Distribución
Por último, el contenido debe diseñarse para su distribución, no sólo para su creación. El contenido que viaja bien se adapta a la lógica de múltiples plataformas: desde remezclas de TikTok y reposts de Instagram hasta hilos de Reddit y mensajes reenviados en WhatsApp. Esto significa que no depende excesivamente de las normas de un canal (como los sonidos que marcan tendencia o los filtros visuales), sino que se construye en torno a formatos, historias o tropos que la gente puede recoger y modificar para adaptarlos a cualquier lugar.

Mientras que el contenido replicable invita a la imitación (como los retos o los memes), el contenido distributivo está diseñado para viajar, para no tener fricción entre canales, formatos y audiencias. Por ejemplo, el #DollyPartonChallenge -en el que los usuarios publicaron cuatro versiones de sí mismos para LinkedIn, Facebook, Instagram y Tinder- se difundió ampliamente porque invitaba de forma natural a la réplica en todas las plataformas, no sólo en una. Del mismo modo, la campaña #ShareYourEars de Disney hizo que compartir no supusiera ningún esfuerzo al invitar a los fans a publicar fotos de sí mismos con las orejas de Mickey Mouse, cada publicación contribuía a una donación para la Fundación Make-A-Wish.

En la misma línea, el equipo de marketing de la película Barbie 2023 desarrolló memes, filtros y "plantillas" visuales hechas explícitamente para ser compartidas. Su herramienta de creación de carteles generada por IA dio lugar a más de 4 millones de imágenes creadas por los usuarios en un mes, contribuyendo a que "Barbenheimer" se convirtiera en un fenómeno cultural.

En las campañas distributivas, los profesionales del marketing incitan a la gente a etiquetar a otras personas (por ejemplo, a través de un reto como "Etiqueta a alguien que superaría esto en 3 segundos" o un encuadre específico de identidad como "Sólo los niños de los 90 recordarán esto" o "Etiqueta a un compañero corredor que entienda esto"). Estas campañas también crean hashtags ingeniosos y animan a su público a utilizarlos, añadiendo así sus contribuciones individuales a la comunidad en general. Por ejemplo, los responsables de marketing de Barbie animaron a la gente a utilizar el hashtag #Barbiecore en fotos o vídeos en los que aparecieran vestidas de rosa pálido. Del mismo modo, "Can't Get #Knafeh Of It" de Fix Dessert Chocolatier, pedía a la gente que utilizara el hashtag #knafeh cuando comieran o reseñaran el chocolate de Fix Dessert en cualquiera de sus plataformas de medios sociales.

Preguntas para calibrar si el contenido es distribuible:
  1. ¿El formato permite compartir sin esfuerzo, por ejemplo, ofreciendo prompts claros (como "Etiqueta a un amigo que..."), plantillas fáciles de copiar, lenguaje específico de la campaña (como hashtags) o funciones nativas de la plataforma como reposiciones con un solo clic o integraciones de pegatinas?
  2. ¿Es fácil imaginar a la gente compartiendo o amplificando este contenido a través de diferentes canales?
  3. ¿Incita el mensaje activamente a los destinatarios a compartir el contenido con otras personas (por ejemplo, a través de Instagram o TikTok)?
. . .
El objetivo de este marco no es responder "sí" a todas las preguntas, sino dar a las marcas la posibilidad de alinearse sobre qué aspectos de la viralidad esperan alcanzar con su campaña.

Ahora que los algoritmos dan prioridad a los contenidos personalizados frente al amplio alcance, las métricas de compromiso han evolucionado para centrarse en las interacciones significativas y el comportamiento de la audiencia se ha vuelto más exigente y fragmentado. El marco SPREAD proporciona una hoja de ruta para que las marcas logren resonancia y relevancia y construyan conexiones auténticas, ayudándoles a abrirse paso entre el ruido y a destacar por todas las razones correctas. Al equilibrar cuidadosamente las seis dimensiones, las marcas pueden crear contenidos que resuenen sin comprometer sus valores.

Lea más sobre ventas y marketing o temas relacionados: gestión de marca, marketing, estrategia de clientes, marketing en redes sociales, publicidad, redes sociales y movimientos sociales.

David Dubois es profesor asociado en INSEAD.

Doxa 2234

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Estudios de mas de 3500 personas revelan las desventajas ocultas con herramientas de IA.

Por Yukun Liu, Suqing Wu, Mengqi Ruan, Siyu Chen y Xiao-Yun Xie
Ciencia del Comportamiento
Harvard Business Review

#Doxa #investigación #IA #generativa #productiva #motivada #estudio #desventaja #herramienta #comportamiento #ciencia #innovación #empleado #rendimiento #aburrido #tarea #hallazgo #intrínseca #flujo #trabajo #empresa #potencial
Resumen. La integración de la IA generativa en el lugar de trabajo representa una enorme oportunidad para mejorar la productividad, la creatividad y la innovación. Pero una nueva investigación muestra que puede tener un lado negativo: un estudio de más de 3.500 personas descubrió que el uso de herramientas de IA conducía a un aumento del rendimiento, pero también hacía que los empleados estuvieran menos motivados y más aburridos cuando tenían que trabajar en otras tareas, sin el uso de la IA. Los investigadores examinan sus hallazgos para ofrecer formas en que los líderes pueden rediseñar los flujos de trabajo y preservar los elementos del trabajo que impulsan la motivación intrínseca. Al hacerlo, las empresas pueden liberar todo el potencial tanto de la IA como de su mano de obra.
La IA generativa (IA gen) ha revolucionado los lugares de trabajo, permitiendo a los profesionales producir trabajo de alta calidad en menos tiempo. Tanto si se trata de redactar un informe de rendimiento como de realizar una lluvia de ideas o de redactar un correo electrónico de marketing, los humanos que colaboran con la IA generativa consiguen resultados más eficientes y, a menudo, de mayor calidad. Sin embargo, nuestra investigación revela una contrapartida oculta: mientras que la colaboración con IA generativa aumenta el rendimiento inmediato de las tareas, puede minar la motivación intrínseca de los trabajadores y aumentar la sensación de aburrimiento cuando pasan a realizar tareas en las que no cuentan con esta ayuda tecnológica. Nuestros hallazgos tienen grandes implicaciones para las empresas que buscan aprovechar los beneficios potenciales de la IA generativa sin perjudicar el impulso de sus empleados cuando se trata de sus otras responsabilidades.

La investigación
En cuatro estudios con más de 3.500 participantes, exploramos qué ocurre cuando los humanos y la IA generativa colaboran en tareas laborales comunes. Los participantes completaron tareas profesionales del mundo real, como escribir mensajes en Facebook, aportar ideas y redactar correos electrónicos, con o sin IA generativa. A continuación, evaluamos tanto el rendimiento de las tareas como las experiencias psicológicas de los participantes, incluida su sensación de control, motivación intrínseca y niveles de aburrimiento.

Nuestros hallazgos apuntan a dos resultados contrastados de la colaboración entre humanos e IA generativa:
  • Aumento inmediato del rendimiento: La IA generativa mejoró la calidad y la eficacia de las tareas. Por ejemplo, las revisiones de rendimiento redactadas con IA generativa fueron significativamente más largas, más analíticas y demostraron un tono más servicial en comparación con las revisiones redactadas sin ayuda. Del mismo modo, los correos electrónicos redactados con IA generativa tendían a utilizar un lenguaje más cálido y personal, conteniendo más expresiones de ánimo, empatía y conexión social, en comparación con los redactados sin asistencia de IA. Esto pone de relieve cómo la IA generativa puede ayudar a los trabajadores a ofrecer resultados pulidos, atractivos y bien estructurados.
  • Costes psicológicos: A pesar de los beneficios en el rendimiento, los participantes que colaboraron con IA generativa en una tarea y luego pasaron a otra diferente sin ayuda informaron sistemáticamente de un descenso de la motivación intrínseca y un aumento del aburrimiento. En todos nuestros estudios, la motivación intrínseca descendió una media del 11% y el aburrimiento aumentó una media del 20%. Por el contrario, los que trabajaron sin IA mantuvieron un estado psicológico relativamente estable. Este hallazgo revela un matiz crítico de los beneficios de la colaboración: Aunque el uso de herramientas de IA generativa puede resultar productivo y fortalecedor al principio, puede hacer que los trabajadores se sientan menos comprometidos cuando pasan a realizar tareas que no implican el apoyo de la IA, una realidad común en los flujos de trabajo en los que no todas las tareas pueden o deben estar asistidas por la IA.
Por qué disminuye la motivación y aumenta el aburrimiento
La colaboración con la IA generativa puede eliminar las partes más exigentes desde el punto de vista cognitivo de una tarea, a menudo los aspectos que hacen que el trabajo sea estimulante y personalmente satisfactorio. Por ejemplo, elaborar una revisión del rendimiento requiere pensamiento crítico y comentarios a medida. Cuando la IA generativa genera gran parte de este contenido, el proceso resulta menos atractivo y los humanos pueden sentirse desconectados de la tarea. Este fuerte contraste se hace evidente cuando los individuos vuelven al trabajo en solitario, lo que provoca aburrimiento y una disminución de la motivación.

En nuestro estudio, descubrimos que la colaboración en IA generativa reduce inicialmente la sensación de control de los trabajadores, es decir, la sensación de ser el agente principal de su trabajo. La sensación de control es un componente clave de la motivación intrínseca: Cuando las personas sienten que no están totalmente a cargo del resultado, puede minar su conexión con la tarea. Sin embargo, descubrimos que la transición al trabajo en solitario restablece esta sensación de control, aunque a costa del disfrute. Esencialmente, los trabajadores recuperan su autonomía pero se sienten menos inspirados y desafiados.

Estas conclusiones tienen importantes implicaciones para el futuro del trabajo. Mientras que la IA generativa puede ayudar a las organizaciones a conseguir ganancias de rendimiento a corto plazo, su uso excesivo puede tener consecuencias a largo plazo para el bienestar psicológico de los trabajadores. Si los empleados confían constantemente en la IA para tareas creativas o cognitivamente desafiantes, corren el riesgo de perder los mismos aspectos del trabajo que impulsan el compromiso, el crecimiento y la satisfacción.

Pensemos en un profesional del marketing que utilice regularmente la IA generativa para generar ideas para campañas. La IA puede producir resultados más rápidos e incluso más pulidos que los desarrollados de forma independiente. Sin embargo, si este profesional empieza a depender por completo de la IA generativa, puede perder oportunidades de perfeccionar su pensamiento creativo, su capacidad para resolver problemas y su sentido del logro, motores clave del desarrollo personal y profesional.

Con el tiempo, la falta de motivación intrínseca puede conducir a la falta de compromiso, a una menor satisfacción laboral e incluso al agotamiento. El aumento del aburrimiento, que nuestra investigación mostró tras el uso de la IA, también puede ser una señal de advertencia de que estas consecuencias negativas podrían estar en camino.

Qué pueden hacer las empresas
La solución no es abandonar la IA generativa. Se trata más bien de rediseñar las tareas y los flujos de trabajo para preservar la motivación intrínseca de los seres humanos al tiempo que se aprovechan los puntos fuertes de la IA. He aquí tres estrategias procesables:
  1. Combinar la IA y las contribuciones humanas: En lugar de dejar que la IA generativa complete tareas enteras, integre los resultados de la IA como punto de partida al tiempo que fomenta la creatividad humana. Por ejemplo, la IA generativa puede redactar un esquema de revisión del rendimiento, pero el directivo debe perfeccionar el contenido con ideas personalizadas. Del mismo modo, la IA podría generar ideas iniciales para un proyecto, mientras que los miembros del equipo deben ampliarlas, perfeccionarlas y construir sobre ellas.
  2. Diseñe tareas en solitario atractivas: Para contrarrestar los costes psicológicos de la colaboración con IA, siga las tareas asistidas por IA con trabajo que proporcione autonomía y una sensación de desafío creativo. Por ejemplo, después de redactar correos electrónicos asistidos por IA, asigne una tarea que permita a los trabajadores tener el control del diseño de un nuevo proyecto. Estas tareas permiten a los empleados ejercitar sus habilidades, creatividad y toma de decisiones sin depender de la IA.
  3. Haga que la colaboración con IA sea transparente: Nuestro estudio reveló que los trabajadores pueden sentirse desvinculados cuando perciben que la IA ha tomado el control. Una comunicación clara sobre cómo la IA está ayudando -no sustituyendo- a sus contribuciones puede ayudar a los trabajadores a mantener un sentido de propiedad y satisfacción en sus tareas.
  4. Rote entre tareas: Las organizaciones pueden mantener tanto la productividad como el compromiso estructurando flujos de trabajo que alternen entre tareas asistidas por IA y tareas independientes. En lugar de agrupar tipos de tareas similares, los directivos pueden secuenciar la jornada para comenzar con el trabajo en solitario, exigente desde el punto de vista cognitivo, y pasar más tarde a las tareas asistidas por la IA en aras de la eficiencia. Por ejemplo, empezar con el desarrollo de la estrategia y terminar con la edición asistida por IA equilibra la estimulación mental con la calidad del resultado.
  5. Forme a los empleados para que utilicen la IA de forma consciente: Para evitar una dependencia excesiva de la IA, las organizaciones pueden ofrecer formación para desarrollar la capacidad de los empleados de utilizar la IA generativa de forma reflexiva y eficaz. Esto podría incluir la organización de talleres sobre la redacción de prompt, la realización de evaluaciones críticas de los contenidos generados por la IA o la introducción de ejercicios basados en escenarios que pongan de relieve cuándo el juicio humano debe tomar la iniciativa. Los trabajadores pueden aprender cómo la IA puede complementar su trabajo y qué papel deben desempeñar sus propias habilidades en sus tareas, una perspectiva que fomenta la autonomía, la creatividad y el desarrollo de habilidades a largo plazo.
- - -
La colaboración entre humanos y IA generativa tiene un inmenso potencial para impulsar la productividad y el rendimiento, pero las organizaciones deben ser conscientes de sus consecuencias psicológicas. Diseñando cuidadosamente flujos de trabajo que integren la IA generativa, las empresas pueden desbloquear sus beneficios sin comprometer la motivación y el compromiso de los trabajadores. Al fin y al cabo, el futuro del trabajo no es sólo lo que la IA puede hacer, sino lo que los humanos y la IA pueden lograr juntos.

Lea más sobre ciencias del comportamiento o temas relacionados: creatividad, motivación de personas, IA y aprendizaje automático, IA generativa y gestión de personas.

Yukun Liu es profesor adjunto en la Facultad de Administración de la Universidad de Zhejiang. Su investigación se centra en el diseño transformador del trabajo, el bienestar de los empleados y cómo las organizaciones pueden promover la sostenibilidad humana en la era digital.

Suqing Wu es profesor adjunto en la Facultad de Administración de la Universidad de Zhejiang. Su investigación se centra en la creatividad y la innovación, la motivación laboral, la dinámica de equipo y cómo las personas prosperan en entornos organizacionales contemporáneos.

Mengqi Ruan es candidata a doctorado en la Facultad de Administración de la Universidad de Zhejiang. Su investigación se centra en cómo las tecnologías digitales transforman el comportamiento de los empleados y la dinámica laboral.

Siyu Chen es candidata a doctorado en la Facultad de Administración de la Universidad de Zhejiang. Estudia las implicaciones de las tecnologías emergentes para la gestión de recursos humanos y el comportamiento organizacional. XX

Xiao-Yun Xie es profesor y decano de la Facultad de Administración de la Universidad de Zhejiang, donde también dirige el Laboratorio de Innovación y Gestión Digital. Su investigación se centra en el cambio organizacional, la dinámica de equipo en entornos extremos, el liderazgo y la gestión de RR. HH. en la era digital.


Doxa 2233

Investigación: ¿Está penalizando a sus mejores empleados por desconectarse?

Un nuevo estudio descubrió que los empleados que se desconectan del trabajo son vistos como más efectivos por sus gerentes, pero también tienen menos posibilidades de ser promovidos.

Por Eva Buechel y Elisa Solinas
Tiempo libre
Harvard Business Review

#Doxa #investigación #empleado #trabajo #gerente #tiempo #libre #personal #estudio #líder bienestar #puesto #laboral #compoetamiento #sugerencia #empresa #políticas #límite #agotamiento #recompensa
Resumen. Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.
La difuminación de los límites entre el trabajo y la vida personal de las personas, exacerbada por la pandemia, puede hacer que parezca que la jornada laboral no termina nunca. El agotamiento que resulta de no sentirse nunca del todo desconectado se ha convertido en una importante sangría para los trabajadores y las empresas, reduciendo el bienestar y la productividad de los empleados.

Los empresarios han respondido promoviendo programas de bienestar y fomentando la conciliación de la vida laboral y familiar, iniciativas que se ha demostrado que aumentan la productividad, reducen la rotación y aumentan la satisfacción laboral. Pero nuestra investigación revela una contradicción oculta en el corazón de estos esfuerzos: Mientras las empresas dicen que quieren que los empleados desconecten, pueden estar castigando silenciosamente a los que realmente lo hacen.

En una nueva investigación, publicada en Organizational Behavior and Human Decision Processes, descubrimos que incluso cuando los líderes reconocían que desconectar del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Esto se debe a que estos trabajadores eran vistos como menos comprometidos que los que trabajaban las 24 horas del día, incluso si su rendimiento laboral durante las horas de trabajo se percibía como superior al de sus homólogos "comprometidos".

Pero también descubrimos que hay cambios estructurales que las organizaciones pueden hacer para ayudar a proteger los límites de los trabajadores sin penalizarlos al mismo tiempo: crear una cultura que mitigue el agotamiento y recompense al mismo tiempo el trabajo fuerte.

La investigación
A través de 16 estudios con 7.800 de participantes, exploramos una pregunta sencilla: ¿Cómo se percibe a los empleados que intentan desconectar del trabajo durante las horas no laborales?

En experimentos controlados, presentamos a los directivos perfiles de empleados idénticos en calidad (es decir, evaluaciones anuales anteriores) pero que variaban en el uso de estrategias de distanciamiento. Por ejemplo, un empleado dejó una respuesta fuera de la oficina durante una escapada de fin de semana mientras que el otro empleado no lo hizo.

Los directivos informaron sistemáticamente de que el empleado que desconectó del trabajo durante el fin de semana estaría más recargado y sería más productivo a su regreso, reconociendo así los beneficios del desapego en el rendimiento del empleado. Sin embargo, también penalizaron a ese mismo empleado en las evaluaciones, calificándolo sistemáticamente como menos comprometido y menos promocionable que su colega.

Esta penalización persistía incluso cuando el empleado que se desvinculaba era el subordinado directo de un directivo, cuando el empleado que se desvinculaba era objetivamente mejor en su trabajo, cuando ninguno de los dos empleados realizó realmente ningún trabajo durante su tiempo libre y cuando el motivo de la desvinculación era virtuoso (por ejemplo, cuidar de un familiar enfermo).

¿Quizás nuestro hallazgo más revelador? El efecto fue tan fuerte entre los directivos que dicen valorar el equilibrio entre la vida laboral y personal como entre los que no lo hacen. Incluso los directivos que afirman haber fomentado explícitamente el desapego en sus organizaciones penalizaron a los empleados desapegados en nuestros estudios. Eso no sólo es incoherente e injusto, sino que es una receta para una cultura del agotamiento.

Por qué ocurre
La cuestión radica en cómo interpretamos, como líderes, el esfuerzo y el compromiso. Estamos entrenados, a menudo inconscientemente, para valorar la visibilidad y la capacidad de respuesta como un indicador de dedicación. Los empleados que responden a altas horas de la noche o se saltan las vacaciones son vistos como "haciendo un esfuerzo extra". Mientras tanto, los que protegen sus horas no laborales son vistos como menos apasionados, menos comprometidos y, por tanto, menos promocionables, incluso cuando son igual o más eficaces en el trabajo. Esta forma de pensar ignora nuestras propias teorías laicas y años de investigaciones de apoyo que demuestran que las personas que se desvinculan del trabajo vuelven con más energía, más productivas y con menos probabilidades de agotarse.

Esta paradoja del desapego refuerza una cultura perjudicial, recompensando a quienes permanecen constantemente enchufados y, con el tiempo, creando un conducto de liderazgo que infravalora el equilibrio entre el trabajo y la vida privada. El resultado es un ciclo autoperpetuador de exceso de trabajo y agotamiento cada vez más difícil de romper. En última instancia, todos pierden: Los empleados sufren, las organizaciones pagan el precio en forma de menor productividad y mayor rotación, y la economía en general siente el impacto a través del aumento de los costes sanitarios debido al estrés laboral.

Lo que pueden hacer los líderes
Nuestros hallazgos sugieren que los ejecutivos y directivos deben ser intencionados sobre cómo se comunican en torno al equilibrio entre la vida laboral y personal y deben aplicar políticas concretas para que su organización esté practicando lo que predican. Los esfuerzos vagos o poco entusiastas por promover el equilibrio pueden hacer más mal que bien si el sistema de evaluación premia el rendimiento de la disponibilidad constante.

Ofrecemos a los líderes las siguientes recomendaciones para ayudarles a sacar a sus equipos del perjudicial ciclo del exceso de trabajo:
  • Pregúntese: ¿A quién está recompensando? ¿Sus empleados mejor valorados son los que parecen más "disponibles" o los que realmente están haciendo el mejor trabajo? Si sus empleados de mayor rendimiento sienten que deben sacrificar el descanso para demostrar su compromiso, es posible que su sistema de evaluación esté roto.
  • Redefina el compromiso. Empiece a separar el rendimiento de la presencia. Estar constantemente disponible no debe equipararse a la dedicación. Deje claro que los resultados, y no la capacidad de respuesta o las horas registradas, son el punto de referencia.
  • Cíñase a los horarios de trabajo. Disuada a los directivos de ponerse en contacto con los empleados fuera del horario laboral a menos que sea necesario. Muchos programas de correo electrónico llevan incorporadas alertas que pueden recordar a directivos y empleados cuándo están enviando mensajes fuera del horario habitual. Cuando se espere que trabajen fuera del horario laboral, ofrezca el pago de horas extraordinarias o tiempo compensatorio.
  • Implemente políticas que fomenten el desapego. Las políticas claras y formales cambian las normas. En uno de nuestros estudios, en el que participaron 200 directivos estadounidenses, descubrimos que el simple hecho de mostrarles una política de empresa que fomentaba los fines de semana sin correo electrónico reducía significativamente los prejuicios subconscientes de los directivos contra los que desconectan. Asegúrese de que su empresa cuenta con políticas que ayuden a reforzar los valores declarados.
  • Forme a los directivos. Penalizar a los que desconectan -o favorecer a los que no lo hacen- suele hacerse de forma inconsciente. Ayude a sus directivos a detectar estos prejuicios y a contrarrestarlos durante las revisiones de rendimiento y las conversaciones de contratación recordándoles los valores y las políticas de la empresa en torno al equilibrio entre la vida laboral y personal.
Sean cuales sean las medidas que adopte, asegúrese de que los líderes de toda la organización las asumen. Las políticas claras y aplicadas de forma coherente son más eficaces que las declaraciones generales de apoyo.
...
Las expectativas sobre cuándo y cómo los empleados deben estar disponibles para trabajar han impregnado nuestra cultura laboral. Nuestra investigación muestra lo difícil que es sacudirse estas suposiciones, incluso cuando las personas reconocen el valor de un mayor equilibrio entre la vida laboral y personal y apoyan el bienestar en teoría. Para construir una organización sostenible y de alto rendimiento, debemos eliminar los prejuicios contra los empleados que están dispuestos a establecer límites claros en torno a su trabajo y, en su lugar, ponerlos como modelos para los demás. Tenemos que redefinir el compromiso no como autosacrificio, sino como la capacidad de presentarse con energía, centrados y dispuestos a contribuir.

Si su empresa afirma valorar el bienestar de los empleados, sus promociones y políticas deben reflejarlo. A largo plazo, sus mejores empleados no son los que se queman intentando demostrar su valía. Son los que saben cuándo desconectar para poder mostrarse constantemente en su mejor momento.

Más información sobre tiempo libre o temas relacionados: conciliación de la vida laboral y personal, gestión de personas, gestión de empleados, comunicación directiva, síndrome de burnout, bienestar, entornos laborales y cultura organizacional.

Eva Buechel es profesora adjunta de Marketing en la Escuela de Negocios Marshall de la Universidad del Sur de California.

Elisa Solinas es profesora adjunta de Marketing en la Universidad IE (España) y realizó su doctorado en la USC Marshall.


Doxa 2232

Cómo pueden las empresas mitigar los daños de la desigualdad impulsada por la IA

Estrategias para navegar a través de seis divisiones sociales que la IA amenaza con agravar.
Por Bhaskar Chakravorti
Negocios y Sociedad
Harvard Business Review

#Doxa #empresa #mitigar #daños #desigualdad #IA #negocios #sociedad #oportunidad #resultado #segmento #solucionar #fenómeno #dato #ingreso #industria #energía #palanca #división #tecnología #instituciones #sugerencia
Resumen. Una de las principales fuentes de malestar en torno a la IA es cómo su avance puede empeorar aún más las desigualdades existentes en las sociedades, un fenómeno sistémico denominado "desigualdad artificial". Esto sucede cuando las oportunidades y los resultados socioeconómicos se concentran en estrechos segmentos de la sociedad. Por desgracia, la desigualdad artificial es compleja y puede ser difícil de solucionar. Para comprender -y combatir- este fenómeno, las empresas deben entender cómo y dónde existe. Deben fijarse en seis divisiones específicas: datos, ingresos, uso, global, industria y energía. Hay tres palancas que las empresas pueden manipular para intentar mitigar el daño a través de estas seis divisiones: tecnologías, instituciones y mercados. El artículo ofrece sugerencias de acciones específicas que las empresas pueden llevar a cabo a través de las seis divisorias y las tres palancas.
Tras más de dos años de acumulación y rumores, los titulares siguen prometiendo que la IA está introduciendo cambios sociales de proporciones revolucionarias. Mientras tanto, persiste el malestar por la fragilidad socioeconómica que podría causar la tecnología. Premios Nobel como Daron Acemoglu, del MIT, están preocupados por su capacidad para empeorar las desigualdades de ingresos, y los trabajadores estadounidenses de a pie están inquietos por el impacto de la IA en los puestos de trabajo. De hecho, la confianza en la IA ha ido disminuyendo, a pesar de las mejoras en su rendimiento.

Una fuente importante del malestar con la IA es un fenómeno sistémico que yo llamo "desigualdad artificial", en el que el avance de la IA empeora aún más las desigualdades existentes en las sociedades. Lo hace concentrando las oportunidades y los resultados socioeconómicos en estrechos segmentos sociales mientras priva a otros.

Por desgracia, la desigualdad artificial es compleja y puede ser difícil de solucionar. En mi investigación sobre el impacto de la IA en una serie de cuestiones sociales -empleos vulnerables a la disrupción, impacto climático de la IA y regiones que podrían beneficiarse más del desarrollo de la IA-he encontrado seis "divisiones" distintas que contribuyen a la desigualdad artificial: datos, ingresos, uso, geografía, industria y energía. Estas divisiones a menudo se refuerzan entre sí. Por ejemplo, alguien que tiene más probabilidades de verse perjudicado por los sesgos en los datos también puede tener menos probabilidades de beneficiarse de las herramientas de productividad de la IA y verse afectado de forma desproporcionada por unos costes energéticos más elevados.

En estos momentos, es probable que la solución más natural -la regulación y la intervención política- no tenga prioridad. En EE.UU., líder mundial de la IA, se espera que la administración Trump desregule y deje a un lado los guardarraíles sobre la IA. Incluso la UE, que cuenta con un sólido marco regulador, está enviando señales de priorizar la "acción"y la "oportunidad"sobre la salvaguarda de los usuarios.

La noticia positiva es que los líderes de las empresas pueden actuar para mitigar los riesgos de la desigualdad artificial a través de las seis brechas. La desigualdad artificial puede ser perjudicial tanto para los productores como para los adoptantes de la IA, y las empresas deben actuar cuando puedan.

Hay tres palancas de las que pueden tirar los líderes empresariales:
  • Tecnologías: Aunque las nuevas herramientas pueden crear nuevos problemas, también pueden ayudar a resolverlos. Las empresas necesitan saber cómo funciona su tecnología y dónde puede fallar, y qué nuevas herramientas pueden ayudarles a alcanzar sus objetivos de forma responsable.
  • Instituciones: Las empresas no necesitan hacer este trabajo solas. Deben buscar organizaciones externas que puedan actuar como socios, así como prácticas y marcos externos que puedan ayudarles a aprender y adaptarse.
  • Mercados: Aunque la mayoría de las empresas no pueden crear o cambiar los mercados, sí pueden leer las señales sobre la demanda de los usuarios. Saber qué buscar en este paradigma emergente puede ayudar a encontrar las soluciones y los modelos empresariales adecuados.
Con las múltiples brechas que contribuyen a la desigualdad artificial, las empresas pueden tener capacidades limitadas para abordar el problema en su conjunto. Pero al considerar cada división individualmente, pueden ver lugares específicos en los que tienen más poder para intervenir.

Veamos cada una por separado.

[  1  ]
La división de los datos
La IA combina las matemáticas con los conjuntos de datos. Mientras que las matemáticas pueden no discriminar, los conjuntos de datos sí lo hacen: a menudo incluyen sesgos en forma de información incompleta e incluso falsedades. La división de los datos puede tener consecuencias devastadoras. Por ejemplo, los clasificadores de radiografías de tórax asistidos por algoritmos infradiagnostican sistemáticamente a los pacientes de color y a las mujeres. Y cuando se utilizaron algoritmos para evaluar las solicitudes de hipotecas, los prestamistas de Chicago tenían un 150% más de probabilidades de rechazar a solicitantes negros en relación con solicitantes blancos similares. En Waco, Texas, esa cifra era aún mayor, del 200% para los solicitantes latinos.

En el actual clima político de EE.UU., es poco probable que las barreras contra el sesgo de la IA sean una prioridad normativa. He aquí cómo los líderes de las empresas pueden tomar medidas y proceder con responsabilidad:

Tecnologías
Una preocupación primordial para los desarrolladores de IA y las empresas en este caso son los desequilibrios en los datos que podrían crear daños. Los desarrolladores deben considerar: 1) buscar conjuntos de datos que sean representativos de las poblaciones a las que pretenden servir, 2) comprobar la distribución de fuentes potenciales de sesgo y atributos demográficos alternativos en los datos de entrenamiento, y 3) utilizar métricas como el impacto dispar para medir la disparidad de resultados entre grupos, o las probabilidades igualadas para garantizar que las predicciones de un modelo son igual de precisas en los diferentes grupos protegidos.

Las empresas también pueden recurrir a las herramientas disponibles, como el AI Fairness 360 Toolkit de IBM o las herramientas de código abierto, como Fairlearn, cuando persigan estas prácticas.

Instituciones
Las empresas deben crear nuevas prácticas y rutinas en torno a la forma en que los empleados trabajan con la IA, haciendo especial hincapié en detectar los sesgos que contribuyen a la brecha de datos. Esto puede incluir la creación de equipos de trabajo y el análisis de escenarios; la realización de auditorías periódicas; y el desarrollo de "declaraciones de impacto de los sesgos" en las que los equipos se autorregulen e investiguen los sesgos en sus decisiones algorítmicas.

Varias organizaciones independientes, como Partnership on AI y Algorithmic Justice League -conherramientas de formación y promoción de la concienciación- pueden actuar como facilitadores para que estas prácticas se conviertan en algo habitual.

Mercados
En estos momentos, las empresas están sometidas a intensas presiones para introducir en el mercado productos impulsados por la IA. A menudo, las empresas se centran en cómo las pruebas o las prácticas de desprestigio pueden ralentizar ese proceso, pero deben tener en cuenta el riesgo de perder cuota de mercado a medida que la concienciación de los clientes y la demanda de este tipo de productos se conviertan en la norma. Un estudio de 350 empresas reveló que el 36% de ellas ya han sufrido pérdidas comerciales debido al sesgo de la IA. Mientras tanto, otras están diferenciando sus productos por ser menos sesgados, como SAP, que declaró que el sesgo es "mal negocio".

[  2  ]
Brecha de ingresos
Se prevé que la adopción de la IA aumente la productividad de ciertos trabajadores, mientras que hará redundante el trabajo de otros, un cambio preparado para acelerar las desigualdades de ingresos. A la mitad de los estadounidenses les preocupa que la IA provoque una mayor desigualdad de ingresos, y es fácil ver por qué: El FMI prevé que casi el 40% de los puestos de trabajo de todo el mundo se verán afectados por esta tecnología. De forma más conservadora, Acemoglu, del MIT, prevé que el 5% de todas las tareas serán realizadas de forma rentable por la IA en la próxima década. Las personas en ocupaciones expuestas a la IA con funciones que son altamente sustituibles experimentarán desplazamientos y pérdidas de ingresos, mientras que las ocupaciones y funciones complementarias a la IA pueden esperar ganancias de productividad y aumentos de ingresos.

Los líderes de las empresas deben considerar varias opciones para mitigar los efectos sociales de esta división:

Tecnologías
Las empresas pueden trabajar para abordar esta brecha invirtiendo en las habilidades de sus trabajadores, en particularde los trabajadores con menos experiencia o formación. Hacer que las herramientas de IA y la formación sean ampliamente accesibles podría aumentar el potencial de ingresos, especialmente para aquellos que tienen un menor rendimiento y ganan menos que sus compañeros. Además, muchas empresas más pequeñas pueden invertir en herramientas para ellas mismas, como las herramientas de análisis empresarial, que pueden ayudarles a reducir costes y a competir mejor con los competidores más grandes.

Instituciones
Las asociaciones pueden ayudar a cerrar la brecha de habilidades. Por ejemplo, AI4ALL ofrece experiencia práctica en herramientas de IA a un amplio abanico de usuarios, Charity Excellence proporciona herramientas de IA gratuitas para organizaciones sin ánimo de lucro, y la Coalición de Competencias en IA de la UIT persigue objetivos similares. Los grandes productores de IA también tienen iniciativas, como el Fondo de Oportunidades de IA de Google, las habilidades de IA para organizaciones sin ánimo de lucro de Microsoft, los esfuerzos de "democratización" de la IA de IBM, y los concursos y premios de Mastercard destacan el uso de la IA para acelerar la inclusión y ponen el foco en cómo las herramientas de IA pueden reducir las diferencias de ingresos.

Mercados
A medida que se adopten más ampliamente las herramientas de IA que reducen las diferencias de ingresos, las empresas tendrán acceso a una reserva más amplia de trabajadores cualificados. Y a medida que las empresas más pequeñas sean más rentables, el mercado se ampliará debido a la mayor competitividad de la mano de obra y entre las empresas. En vista de ello, las empresas tendrán el incentivo de aplicar dichas herramientas -y deberían hacerlo de forma más coherente- para establecer y mantener modelos empresariales que puedan hacer frente a la competencia.

[  3  ]
División de uso
La adopción de la IA ha sido desigual. En EE.UU., por ejemplo, es más probable que las personas con más estudios y mayores ingresos confíen en las herramientas de IA y las utilicen, y su uso se concentra geográficamente en unas pocas ciudades "superestrella" y centros emergentes. La creciente desconfianza en la IA sugiere que es probable que esta división aumente. Y aunque no está del todo claro cómo cambiará el empleo el uso de la IA, es justo suponer que las personas que la utilicen estarán mejor posicionadas para navegar por el cambio que se avecina.

La desconfianza está impulsada principalmente por las preocupaciones sobre la autenticidad, la fiabilidad de la información generada por la IA, los impactos sociales y medioambientales, etc. Los líderes de las empresas que aspiran a cerrar la brecha en el uso de la IA pueden considerar varias palancas para generar confianza:

Tecnologías
Las empresas pueden invertir en tecnologías que mejoren la fiabilidad de la IA. Por ejemplo, existen herramientas que pueden mejorar el volumen y la variedad de los datos de entrenamiento (por ejemplo, las técnicas de aumento de datos que utilizan TensorFlow y Keras), incorporar bucles de retroalimentación (por ejemplo, la aplicación Fiabilidad de C3AI) y supervisar y probar las arquitecturas avanzadas de IA. Otras herramientas, como una herramienta de diagnóstico utilizada en la generación de energía nuclear, pueden ayudar a incorporar sistemas expertos al aprendizaje automático y las redes neuronales. Las organizaciones también pueden considerar la posibilidad de emparejar otras tecnologías con la IA para mejorar su calidad: Los sensores IoT, por ejemplo, pueden realizar un seguimiento en tiempo real de los sistemas y aportar datos que ayuden a los algoritmos a aprender y adaptarse.

Instituciones
Varias organizaciones están trabajando para infundir confianza en la IA y pueden ofrecer orientación sobre cómo hacerlo. Entre ellas se incluyen instituciones académicas, como el Institute for Ethics in AI de Oxford; organizaciones sin ánimo de lucro, como la Partnership on AI; e iniciativas financiadas por múltiples filantropías, junto con tablas de puntuación, como la del Stanford Center for Research on Foundation Models sobre transparencia. Los estudios de"interpretabilidad de la IA" en la atención sanitaria y la formación por parte de los desarrolladores de la IA o de organismos intergubernamentales también son fundamentales para garantizar la fiabilidad de la IA. Los empresarios también pueden formar a los trabajadores en la detección de información poco fiable generada por la IA.

Mercados
Las empresas que invierten en herramientas de creación de confianza descubrirán que ésta aumenta la demanda. Un estudio sobre los asistentes de voz de IA descubrió que la confianza tiene un efecto positivo en la adopción, mientras que la confianza también fue clave en la disposición de los usuarios a persistir con los chatbots para los servicios sanitarios. Los clientes tienen el doble de probabilidades de comprometerse con la IA de confianza, y los trabajadores tienen dos veces y media más probabilidades de utilizar las herramientas de IA de sus empleadores en el trabajo si confían en ellas.

Muchas empresas ya se están diferenciando en cuanto a la fiabilidad de la IA: Microsoft hace hincapié en la seguridad y la privacidad, mientras que Salesforce promete "humanos al timón" para generar confianza. Por el contrario, la falta de confianza tiene un coste: por ejemplo, Zillow experimentó con la compra de viviendas basándose en su modelo de valoración de IA, sólo para cerrar el proyecto con una pérdida de 300 millones de dólares ocho meses después, un fracaso que llevó a la empresa a despedir al 25% de su plantilla y minó la confianza en sus estimaciones de precios de IA.

[  4  ]
División global
Según las investigaciones del FMI, los beneficios de la IA en términos de productividad e ingresos se inclinarán probablemente a favor de las naciones de altos ingresos. El 60% de los puestos de trabajo pueden estar expuestos a la IA en estas naciones, frente al 40% y el 26%, respectivamente, en las economías de mercado emergentes y en los países de renta baja. Como se prevé que la adopción de la IA aumente el crecimiento del PIB y la productividad en general, se espera que lo haga en proporción a la exposición en cualquier país dado; como anticipa el FMI, esto plantea "el riesgo de que con el tiempo la tecnología pueda empeorar la desigualdad entre las naciones." Las políticas estadounidenses que limitan el acceso de muchas partes del mundo a los chips avanzados, si continúan, probablemente exacerbarán estas divisiones.

Esta fragmentación de los mercados en todo el mundo limita el potencial de la tecnología, elevando las barreras de entrada y los costes. Los dirigentes de las empresas pueden considerar varias medidas paliativas:

Tecnologías
Las empresas -especialmente las de fuera de EE.UU.- pueden protegerse de las restricciones y de estar atadas a un único ecosistema adoptando iniciativas de IA de código abierto y ampliamente accesibles, incluidas las de "peso abierto", en las que los parámetros entrenados están a disposición del público, pero no el código de entrenamiento ni los conjuntos de datos. El laboratorio chino DeepSeek ha demostrado que estos modelos de IA de código abierto pueden funcionar casi tan bien como los mejores modelos de IA patentados y hacerlo con una fracción de los costes y recursos.

Las empresas, sobre todo las del mundo en desarrollo, también pueden aprovechar la ampliación del acceso a las herramientas de IA para desarrollar innovaciones de "pequeña IA" dirigidas a sectores específicos y mejorarlas con pequeñas inyecciones de información relevante. Por ejemplo, la aplicación Plantix ayuda a los pequeños agricultores a identificar las plagas que destruyen los cultivos y a tratarlas.

Instituciones
Las prácticas de código abierto son fundamentales para ampliar el acceso global a las herramientas de IA, y hay muchas organizaciones que pueden ayudar a las empresas a hacer uso de ellas. Considere la Red Internacional de Computación e IA, que promueve el acceso a la IA en todo el mundo, y AI for Good, que se centra en la resolución de retos globales.

Mercados
Las herramientas y aplicaciones de código abierto crean más oportunidades para que las empresas de todo el mundo aprovechen la IA. Los beneficios comerciales pueden ser significativos, ya que la democratización de la tecnología no sólo puede resolver problemas locales, sino que puede generar demanda en múltiples mercados. Consideremos los ejemplos de la identificación de enfermedades en plantas con ayuda de la IA procedentes de África, los servicios de telesalud para mujeres embarazadas de la India, la asistencia sanitaria para diabéticos con ayuda de la IA desarrollada en México y los sistemas de vigilancia forestal de Brasil, todos ellos con un potencial de ingresos global más amplio.

[  5  ]
División industrial
Hasta ahora, la cadena de valor de la IA ha estado dominada por un puñado de empresas. Además, estas empresas gastan dinero entre sí a través de la exclusividad de productos o canales, lo que refuerza la concentración y bloquea eficazmente a los nuevos participantes. Por ejemplo, Meta compra servicios en la nube a Amazon para potenciar sus ambiciones de IA y los principales desarrolladores de IA utilizan los chips de mayor rendimiento de Nvidia para mantenerse en cabeza de la carrera. Estas prácticas sesgan las inversiones hacia las más atractivas comercialmente para unas pocas empresas dominantes, y dejan a las empresas que compran servicios de IA sintiéndose bloqueadas por un puñado de gigantes tecnológicos que pueden dictar los precios y las condiciones.

Como las empresas están deseosas de probar herramientas de IA, pero aún no están dispuestas a pagar los precios que imponen los líderes comerciales, pueden considerar alternativas más baratas que ofrezcan opciones adicionales sin comprometer el rendimiento para la mayoría de los usos.

Tecnologías
De forma similar a la cobertura contra la fragmentación de los ecosistemas globales de IA, las empresas pueden considerar la IA de código abierto, como DeepSeek y otras empresas de IA de China, o actores no chinos, como Meta (EE.UU.), Cohere (Canadá) o Mistral (Francia). Además, también pueden obtener beneficios de pequeños modelos lingüísticos entrenados en conjuntos de datos más reducidos para aplicaciones personalizadas, o herramientas de "IA de borde" que realizan tareas en dispositivos interconectados con datos almacenados cerca de los dispositivos, con un procesamiento realizado en el borde de la red para sortear los puntos de concentración de la industria.

Instituciones
Las empresas también pueden abastecerse de productos de organizaciones que construyan modelos de IA de "bienes públicos digitales", rieles de acceso público sobre los que se construyen las aplicaciones. Por ejemplo, la Alianza de Bienes Públicos Digitales, una iniciativa de múltiples stakeholders, promueve el software de código abierto, los datos abiertos, los modelos de IA abiertos y las colecciones de contenidos abiertos que se adhieren a las normas de privacidad. Para dar cabida a consideraciones comerciales, también promueve un modelo de "apertura escalonada", que permite distintos niveles de acceso a los diferentes componentes de la IA.

Mercados
Las empresas pueden beneficiarse de que la industria de la IA sea más competitiva y del crecimiento de aplicaciones de IA especializadas adaptadas a diferentes necesidades. Éstas podrían incluir "pequeñas" empresas y modelos de IA que se dirijan a intervenciones muy necesarias en sectores de baja productividad en el mundo en desarrollo, como la agricultura o la educación, y desbloqueen una cantidad desproporcionada de valor al resolver una necesidad no cubierta.

Sin embargo, estos desarrollos también deben abordar el problema de confianza de la IA. Aunque la IA de código abierto facilita la competitividad, también puede introducir nuevas vulnerabilidades de seguridad. Las inversiones para fomentar la confianza que también mantengan accesible la IA de alto rendimiento serán diferenciadores clave del mercado; las empresas pueden considerar herramientas, como Dependabot, Renovate o Snyk para comprobar los modelos de código abierto en busca de vulnerabilidades de seguridad conocidas.

[  6  ]
División energética
La IA tiene enormes demandas de energía y agua: para 2026, se espera que el consumo de energía de los centros de datos crezca entre un 35% y un 128%. Incluso con las inversiones previstas en nuevas infraestructuras energéticas, la demanda seguirá yendo por delante del aumento de la oferta. Aunque la IA puede utilizarse para hacer un uso más inteligente de la energía, es más probable que contribuya a la pobreza energética, ya que los sistemas de energía inteligente se concentran en las zonas más ricas y más de mil millones de personas viven sin acceso a una energía asequible. Además, muchas empresas corren el riesgo de no alcanzar sus propios objetivos de energía neta cero, ya que las inversiones en IA las han desviado de su rumbo. Para hacer frente a estos problemas, los líderes de las empresas -especialmente en las empresas de IA o con grandes necesidades de IA- pueden considerar varias opciones de mitigación:

Tecnologías
Hay una serie de innovaciones que pueden hacer que el uso de la IA sea más eficiente. Si gestiona sus propios centros de datos, la IA DeepMind de Google puede reducir los gastos de refrigeración hasta en un 40%. Además, Nvidia está desarrollando GPU más eficientes que pueden ofrecer hasta 30 veces más rendimiento y, al mismo tiempo, consumir 25 veces menos energía.

También puede explorar enfoques novedosos en el diseño de hardware, como ubicar la memoria dentro de los núcleos de cálculo, lo que puede reducir la disipación de energía al acortar las distancias de viaje de los datos. O bien, desplegar dispositivos que imiten las funciones cerebrales, que han demostrado utilizar 1.000 veces menos energía que los estándares actuales. Otros modelos han experimentado funcionando con microcontroladores de baja potencia. Los nuevos componentes, como los aceleradores fotónicos, los chips 3D y las nuevas técnicas de refrigeración de chips pueden proporcionar potencia de cálculo con un menor consumo de energía.

También se pueden encontrar eficiencias en el diseño de los modelos. DeepSeek, por ejemplo, demostró cómo podía ahorrar en recursos informáticos y energéticos desplegando una técnica de "mezcla de expertos" que divide las redes neuronales de la IA en diferentes categorías. La empresa también utilizó otros enfoques creativos, como recortar los decimales de los números utilizados en los cálculos sin pérdidas notables de rendimiento.

Instituciones
Dada la importancia de las demandas energéticas de la IA, muchas organizaciones están trabajando en este problema y ofrecen programas de formación para desarrollar conocimientos especializados en IA y conservación de la energía. Por ejemplo, la Cornell AI for Sustainability Initiative lidera la investigación, la innovación y la educación sobre cómo gestionar el uso energético de la IA, así como sobre la forma en que la IA puede ayudarnos a utilizar la energía de forma más eficiente.

Mercados
Las empresas se benefician del hecho de que la eficiencia energética contribuye a la eficiencia general de costes y recursos y mejora su competitividad. Los productores de IA están tomando decisiones sobre la ubicación de los centros de datos teniendo en cuenta el impacto medioambiental junto con otros criterios, como el coste, las cuestiones técnicas y la proximidad a los usuarios. Las innovaciones en la fijación de precios de la energía, utilizando análisis predictivos o sistemas de pago por uso, están haciendo que el acceso a la energía sea más asequible y pueden ayudar a aumentar la demanda. Aunque los beneficios en materia de eficiencia energética de los modelos de código abierto son aún discutibles, según un análisis, DeepSeek requiere 11 veces menos recursos informáticos que uno similar de Meta. Según la empresa, esto equivale a entre 10 y 40 veces menos energía que los modelos estadounidenses similares y, por tanto, su funcionamiento es más barato. Estos cambios en el campo de juego competitivo y las tecnologías de ahorro energético disponibles presionan a todas las empresas de IA para que aumenten su eficiencia energética.
- - -
Compensar estas seis brechas es un imperativo empresarial, especialmente en un momento en el que es menos probable que los gobiernos y los reguladores intervengan. Esto significa que los líderes de las empresas -tanto los productores como los adoptantes de IA- deben atender las necesidades críticas insatisfechas de los usuarios tirando de palancas alternativas. Afortunadamente, las empresas tienen opciones para contrarrestar la desigualdad artificial siempre que se centren en las tecnologías, las instituciones y los mercados.

La aceleración de la IA no tiene por qué traducirse en un mundo más frágil y dividido. Lograr el equilibrio adecuado puede facilitar la adopción generalizada de la IA y ayudar a hacer realidad sus numerosas promesas revolucionarias.

Lea más sobre Negocios y sociedad o temas relacionados: IA y aprendizaje automático, Problemas sociales y globales, Tecnología y analítica, Desigualdad de ingresos, IA generativa, Analítica y ciencia de datos, y Ética empresarial.

Bhaskar Chakravorti es decano de Negocios Globales en la Escuela Fletcher de la Universidad de Tufts y director ejecutivo fundador del Instituto Fletcher para Negocios en el Contexto Global. Es autor de "El ritmo lento del cambio rápido".

 

Doxa 2231

El enfoque de Adobe para evaluar el riesgo de la IA 

Por Grace Yee
IA y Aprendizaje Automático
Harvard Business Review

#Doxa #enfoque #Adobe #evaluar #riesgo #IA #aprendizaje #automático #agéntica #tarea #innovación #calidad #comportamiento #fiabilidad #contexto #datos #entrenamiento #modelo #evaluación #riesgo #legal #desarrollo #viable #ética
Resumen. Mantener la supervisión humana de la IA es crucial, especialmente con el auge de la IA agéntica, que puede realizar tareas complejas con una supervisión mínima. La innovación no debe comprometer la calidad, y la retroalimentación del mundo real es esencial para identificar comportamientos no intencionados y mejorar la fiabilidad. Los guardarraíles de la IA deben ser adaptables y conscientes del contexto, ajustados a los datos de entrenamiento del modelo. Incorporar la evaluación de riesgos legales y éticos en una fase temprana del desarrollo de la IA es crucial para crear una IA que siga siendo viable, ética y legalmente sólida a lo largo del tiempo.
Aunque persisten las preocupaciones sobre los riesgos de la IA generativa, la gente está adoptando cada vez más el poder de la IA y sus aplicaciones prácticas en la vida cotidiana. Pero a pesar de compartir una tecnología subyacente común, las aplicaciones de la IA van de lo mundano a lo complejo. Este amplio espectro de casos de uso hace que sea un reto determinar qué barandillas son apropiadas para apoyar la innovación responsable de la IA.

Para hacerlo con eficacia, es fundamental que los líderes consideren detenidamente el contexto en el que opera la IA: comprender las circunstancias, los entornos y las aplicaciones específicas de las tecnologías de IA en los casos de uso del mundo real. La IA se evalúa a menudo a través de sus entradas y salidas, pero esto sólo pinta una imagen parcial. Al dar prioridad al análisis contextual, las empresas pueden diseñar salvaguardas que ayuden a anticipar y mitigar los riesgos en una amplia gama de escenarios y casos de uso.

Las empresas deben pasar de ver la IA como una entidad singular a evaluar su impacto en contextos específicos. He aquí cuatro principios que deben tenerse en cuenta a la hora de codificar un proceso de revisión ética basado en el contexto que permita una evaluación más precisa de los riesgos y garantice que las salvaguardias se ajustan a los casos de uso en el mundo real.

La participación humana es fundamental.
Las diferentes aplicaciones de la IA varían mucho en su nivel de impacto. El mismo gran modelo lingüístico (LLM) que genera una recomendación de viaje inspiradora también podría fabricar información médica crítica; sin embargo, sólo uno de ellos tiene consecuencias que alteran la vida. Aunque estos LLM pueden compartir similitudes técnicas, sus riesgos difieren drásticamente para la persona que utiliza esa tecnología.

Y con el auge de la IA agéntica, los líderes necesitan mantenerse ágiles con la forma en que evalúan los casos de uso. Según Deloitte, para 2027, la mitad de las empresas que utilicen IA generativa habrán puesto en marcha pilotos de IA agéntica que puedan actuar como asistentes inteligentes, realizando tareas complejas con una supervisión humana mínima. Aunque una mayor autonomía podría permitir a los agentes de IA agilizar las operaciones o mejorar las interacciones con los clientes, sin una supervisión humana adecuada también puede dar lugar a errores graves. Al desplegar la IA agéntica, mantener la supervisión humana será esencial para garantizar que los agentes de IA no realicen acciones en nombre de los usuarios sin su conocimiento.

En Adobe, evaluamos las funciones de la IA clasificándolas como de bajo o alto impacto, dando prioridad a una revisión concienzuda de las áreas de mayor riesgo. Aunque los riesgos de la IA existen en un espectro, esta distinción nos ayuda a centrarnos en los casos en los que el daño es más significativo. Por ejemplo, un modelo de IA que recomiende el estilo de letra conlleva pocos inconvenientes: en el peor de los casos, proporciona sugerencias deficientes. Pero un modelo de generación de texto a imagen tiene implicaciones mucho más amplias e impredecibles.

Al aplicar el análisis de alto/bajo riesgo a la gobernanza de la IA, los líderes pueden garantizar que la supervisión humana siga siendo una salvaguarda central a medida que evoluciona la IA. Este enfoque centrado permite a las organizaciones mitigar los riesgos críticos sin dejar de fomentar la innovación.

El bombo publicitario no equivale a la calidad.
En la carrera de la IA, sacar productos rápidamente a menudo ha tenido prioridad sobre garantizar la fiabilidad y la precisión y mitigar los daños. Una demostración de IA llamativa puede parecer impresionante, pero sin pruebas rigurosas, puede carecer de eficacia en el mundo real e incluso causar daños en el mundo real. La innovación nunca debe comprometer la calidad ni la perspectiva: incorporar una serie de perspectivas al desarrollo inicial de la IA y probar continuamente la tecnología puede ayudar a garantizar que se utilice como se pretende en contextos del mundo real.

Hay una razón por la que las empresas invierten en pruebas beta: Las pruebas internas por sí solas no pueden predecir todas las formas en que los usuarios se relacionarán con la IA. Los comentarios del mundo real son esenciales para identificar comportamientos no deseados y mejorar la fiabilidad. Si es una empresa global o aspira a que su tecnología se convierta en global, debe ampliar el grupo de personas que prueban y utilizan su tecnología para tener en cuenta amplios escenarios y casos de uso culturales.

Por ejemplo, cuando desarrollamos Adobe Firefly, nuestra familia de modelos creativos de IA generativa, inicialmente restringimos el modelo de texto a imagen para que no generara contenidos basados en la palabra "esqueleto", como precaución ante resultados potencialmente dañinos o perturbadores. Sin embargo, gracias a los comentarios de los usuarios, nos dimos cuenta de que esta restricción también bloqueaba casos de uso cotidianos e inofensivos, como la generación de imágenes de esqueletos para Halloween. Sin la aportación del mundo real, podríamos haber limitado involuntariamente la expresión creativa y las aplicaciones valiosas de la tecnología.

Las barreras de protección de la IA no son de talla única: deben ser adaptables. Lo que es necesario en un contexto puede ser excesivamente restrictivo en otro. Los comentarios continuos de una amplia gama de usuarios ayudan a garantizar que las salvaguardas sigan siendo eficaces y pertinentes.

La IA siempre evolucionará, pero puede anticiparse a las preocupaciones.
Un concepto erróneo común es que los modelos de IA más seguros conducen inherentemente a mejores resultados. En realidad, no existe una IA completamente segura. Se puede diseñar un modelo para que sea "seguro", pero aún así puede causar daños involuntarios.

Preparar la IA para el futuro no consiste sólo en evitar resultados perjudiciales, sino en crear una IA que siga siendo viable, ética y legalmente sólida a lo largo del tiempo. Las empresas de IA se enfrentan ahora a demandas por derechos de autor, lo que pone de relieve los riesgos de entrenar modelos con datos sin licencia. Si las empresas integran la IA en sus productos sin una base estable, se arriesgan a costosas batallas legales, esfuerzos de reentrenamiento o incluso a tener que eliminar por completo la tecnología de sus servicios.

Comprender los datos de entrenamiento de un modelo es vital para evaluar las limitaciones y los riesgos potenciales. Nuestros modelos de IA generativa Firefly son comercialmente seguros y respetuosos con la propiedad intelectual porque se entrenan exclusivamente con contenido que Adobe tiene permiso para utilizar, incluido el contenido con licencia de Adobe Stock y el contenido de dominio público. Pero eso no significa que no realicemos pruebas rigurosas para detectar riesgos: seguimos haciéndolo. Las barandillas y los mecanismos de seguridad deben ser conscientes del contexto y adaptarse a los datos de entrenamiento del modelo.

Los líderes deben adoptar un enfoque proactivo integrando la evaluación de riesgos legales y éticos en las primeras fases del desarrollo de la IA, en lugar de abordar los problemas de forma retroactiva. Probando rigurosamente los modelos en escenarios del mundo real y adaptando las salvaguardias a la evolución de los riesgos, las empresas pueden crear una IA que no sólo cumpla las normas actuales, sino que también se mantenga resistente frente a futuros retos.

La IA requiere un marco ético sólido.
La innovación responsable comienza con una sólida base ética. Aunque la IA es compleja, su proceso de revisión de la tecnología debe ser claro y procesable. Para construir un marco eficaz de revisión y gobernanza de la IA, los líderes deben establecer la visión y asegurarse de que la estrategia de la IA se alinea con los valores de la empresa.

En Adobe, nuestro equipo directivo convocó a un grupo interfuncional hace seis años para ayudar a establecer nuestros principios éticos de la IA de Rendición de Cuentas, Responsabilidad y Transparencia como base de nuestro enfoque para desarrollar la IA de forma responsable. De este grupo interfuncional surgió la Evaluación del Impacto Ético de la IA, diseñada para ayudar a aplicar estos principios de forma coherente en todas nuestras innovaciones de IA. Esta evaluación examina las consideraciones clave para las nuevas funciones de IA que introducimos para nuestros clientes, incluyendo quién las utilizará y cómo; qué salvaguardas garantizan que el modelo de IA sea seguro, fiable y alineado con las necesidades sociales; y cómo se evaluarán y mitigarán los daños intencionados y no intencionados. Para garantizar su eficacia, primero lo pusimos a prueba con los equipos de producto, perfeccionando las preguntas a partir de sus comentarios para asegurarnos de que eran prácticas, pertinentes y aplicables antes de ampliarlo a toda la empresa. Al incorporar la evaluación del impacto ético de la IA en los flujos de trabajo existentes, la integramos perfectamente en el proceso de desarrollo de productos.

Un equipo de ética de la IA también es esencial para garantizar que la innovación vaya acompañada de una innovación responsable. Los líderes deben facultar a este equipo para que se comprometa a fondo con los equipos de producto, realizando ejercicios proactivos de descubrimiento de riesgos para identificar y mitigar los daños potenciales. A través de este enfoque, nuestro equipo de ética de la IA es capaz de obtener una comprensión fundamental de cómo funcionan las nuevas características de la IA, así como su caso de uso previsto y el público objetivo, lo que nos permite identificar los riesgos del mundo real a través de rigurosas pruebas prácticas.

Más allá del lanzamiento, el apoyo de la dirección permite al equipo de ética de la IA desempeñar un papel fundamental en las pruebas en curso, mitigando los sesgos y mejorando la usabilidad. Sin embargo, el desarrollo ético de la IA no puede depender únicamente de este equipo, sino que debe ser una responsabilidad compartida por toda la empresa. Los líderes deben defender este enfoque para garantizar que la IA siga siendo vanguardista y responsable.
...
La ética de la IA no puede basarse en un enfoque rígido, de talla única. El desarrollo y la implantación responsables de la IA requieren comprender el contexto, evaluar el impacto y perfeccionar continuamente los enfoques. Un marco ético matizado e impulsado por el contexto ayuda a garantizar que la IA se despliegue de forma responsable a la vez que se fomenta la innovación.

Además, la incorporación de una amplia gama de perspectivas ayuda a mantener la IA alineada con las necesidades sociales, minimizando el daño potencial en todas las industrias y aplicaciones. La industria, los gobiernos y los usuarios se benefician más de la IA cuando todas las partes reconocen que evaluar los sistemas de IA en su contexto es la forma más eficaz de abordar los retos, al tiempo que se impulsan el progreso y el aumento de la eficiencia.

Sin este enfoque, la IA corre el riesgo de desvincularse de las necesidades del mundo real, amplificando el daño en lugar de reducirlo. Dar prioridad a la ética basada en el contexto garantiza que la IA siga siendo no sólo innovadora, sino también fiable, responsable y, en última instancia, digna de confianza.

Lea más sobre IA y aprendizaje automático o temas relacionados: IA generativa, tecnología y análisis, algoritmos, análisis y ciencia de datos, y automatización.

Grace Yee es directora sénior de Innovación Ética en Adobe.


Doxa 2200s

Doxa 2.200 ... 


Próxima Meta 2.300 y 300 K


Un nuevo marco para volverse viral
#Doxa #marco #viral #ventas #marketing #cliente #polarización #marca #viral #investigación

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada
Estudios de mas de 3500 personas revelan las desventajas ocultas con herramientas de IA.
#Doxa #investigación #IA #generativa #productiva #motivada #estudio #desventaja #herramienta #comportamiento #ciencia #innovación #empleado #rendimiento #aburrido #tarea #hallazgo #intrínseca #flujo #trabajo #empresa #potencial

Investigación: ¿Está penalizando a sus mejores empleados por desconectarse?
Un nuevo estudio descubrió que los empleados que se desconectan del trabajo son vistos como más efectivos por sus gerentes, pero también tienen menos posibilidades de ser promovidos.
#Doxa #investigación #empleado #trabajo #gerente #tiempo #libre #personal #estudio #líder #bienestar #puesto #laboral #comportamiento #sugerencia #empresa #políticas #límite #agotamiento #recompensa

Cómo pueden las empresas mitigar los daños de la desigualdad impulsada por la IA
#Doxa #empresa #mitigar #daños #desigualdad #IA #negocios #sociedad #oportunidad #resultado #segmento #solucionar #fenómeno #dato #ingreso #industria #energía #palanca #división #tecnología #instituciones #sugerencia

El enfoque de Adobe para evaluar el riesgo de la IA 
#Doxa #enfoque #Adobe #evaluar #riesgo #IA #aprendizaje #automático #agéntica #tarea #innovación #calidad #comportamiento #fiabilidad #contexto #datos #entrenamiento #modelo #evaluación #riesgo #legal #desarrollo #viable #ética

Cuando elija a un nuevo CEO, pídale un plan de crecimiento
#Doxa #CEO #plan #crecimiento #sucesión #retrospectiva #consejo #administración #decisión #errónea #selección #candidato #futuro #estructurada #comparativa #pensamiento #estratégico #enfoque #evaluar #alineación #objetivo #responsabilidad #transparencia #proceso

Cuando te piden que alcances objetivos imposibles
#Doxa #objetivo #gestión #disrupción #empleado #predecible #agotamiento #arriesgado #liderazgo #rechazo #estratégico #método #demanda #realista #productividad #moral #bienestar #responsabilidad #equipo #rendimiento #resultado #reputación

Cómo conseguir que inversores famosos respalden su empresa
#Doxa #inversor #famoso #empresa #ventas #marketing #accionista #ventaja #confianza #mercado #institucional #minorista #perfil #stakeholders #demanda #activo #estrategia #campaña #hostil #asociaciones #oportunidad #métrica #financiera #ingreso #gobierno

¿Es necesario actualizar el rol del Director de Marketing?
Las tecnologías digitales, los datos y la inteligencia artificial hacen que el trabajo sea más exigente y complejo.
#Doxa #rol #director #marketing #tecnología #digital #dato #IA #trabajo #CMO #empresa #liderazgo #cliente #reset #jefe #talento

Investigación: ¿Tienen valores los LLM?
#Doxa #investigación #valor #LLM #IA #aprendizaje #automático #ética #política #modelo #metodología #resultado #perfil #objetivo #líderes #decisión #estrategia #misión #organización #tarea #identidad

Para que su lugar de trabajo sea más justo, tome el control de sus normas
Cualquier puede cambiar la cultura en su organización
#Doxa #empatía #habilidad #liderazgo #practicar #estrategia #comunicación #interpesonal #negociación #erróneo #juego #moral #escasa #retención #agotamiento #empleado #fracaso #movilizar #habilidad #información #conectar #apoyo #asumir #modelar #limites #lenguaje

En tiempos de incertidumbre, haga estas preguntas antes de tomar una decisión
Pueden revelar suposiciones erróneas, oportunidades ocultas y lo que realmente está bajo su control.
#Doxa #tiempo #incertidumbre #preguntas #decisión #suposiciones #errónea #oportunidad #control #crisis #estabilidad #tren #herramienta #estrategia #trabajar #ambigüedad #riesgo #fortalecer #músculo #liderazgo #clima #coste #respuesta

La empatía es una habilidad de liderazgo innegociable. Aquí te explicamos cómo practicarla
Seis estrategias para movilizar, involucrar y conectar con otros
#Doxa #empatía #habilidad #liderazgo #practicar #estrategia #comunicación #interpersonal #negociación #erróneo #juego #moral #escasa #retención #agotamiento #empleado #fracaso #movilizar #habilidad #información #conectar #apoyo #asumir #modelar #limites #lenguaje

Cuál es el futuro de la gerencia media?
Tres perspectivas sobre cómo podría evolucionar el rol.
#Doxa #futuro #gerencia #historia #empresarial #perspectiva #evolución #rol #mandos #medios #auge #IA #tendencia #organización #realidad #grupo #experto #estrategia #entorno

Las políticas formales que protegen a las empresas familiares del caos interpersonal
#Doxa #políticas #empresa #familiar #interpersonal #confianza #roles #heredado #riesgo #expectativa #ambigüedad #legal #sector #hostelería #propiedad #empleo #matrimonial #Rossi #éxito

Los equipos ejecutivos están perdiendo la confianza de las partes interesadas. Aquí te explicamos cómo recuperarla.
Seis formas en que los líderes pueden demostrar una mano firma en tiempos turbulentos
#Doxa #equipo #ejecutivo #interés #gestión #incertidumbre #stakeholder #directivo #mercado #sabiduría #líder #dirección #confianza #público #sentido #control #transparencia #organización #época #humildad #unidad

Por qué los directores ejecutivos deberían pensarlo dos veces antes de usar IA para redactar mensajes
#Doxa #director #ejecutivo #IA #redactar #mensaje #comunicación #empleado #generación #eficaz #escribe

Lo que los vendedores necesitan de los líderes en cada etapa de sus carreras
#Doxa #vendedor #líder #etapa #carrera #gestión #equipo #ventas #rendimiento #talento #evolución #gerente #competencia #motivación #resultado #desarrollo #dimensión #crítica #estrategia #retener #éxito #valor

No se deje distraer por la guerra comercial. Esto es lo que debería orientar su estrategia hacia China.
#Doxa #comercio #guerra #comercial #estrategia #China #orientar #líder #empresa #aranceles #riesgo #economía #competitividad #agenda #sector #objetivo #barreras #ejecutivo #cambio #política #estrés #regulación #erupción

Cómo los VC pueden crear una tesis de inversión ganadora
#Doxa #VC #crear #tesis #inversión #capital #riesgo #probabilidad #startups #lideres #mercado #inversión #empresa #cartera #creencias #KPI #prácticas #asociadas #experiencia #sector #eléctrica #red

Enseñe a la IA a trabajar como un miembro más de su equipo
Al realizar ingeniería inversa del flujo de trabajo de su equipo, puede personalizar herramientas de IA genéricas para que se adapten a sus procesos
#Doxa #IA #trabajo #equipo #aprendizaje #automático #impacto #herramienta #contratación #dificultad #genérica #flujo #trabajo #modelo #mecánica #resultado #proceso #empresa #mapa #gráfico

Cómo decirle a tu jefe que está equivocado (con tacto)
Hay formas de hablar sin poner en riesgo tu relación ni tu reputación
#Doxa #jefe #tacto #gestión #conflicto #teoría #práctica #reunión #equipo #idea #rebatir #plantear #preocupaciones #resiste #cambio #sutil #preguntar #caso #defensiva #estrategias #probar #relación #reputación

Cómo el sector de la construcción utiliza la IA para reducir el desperdicio y el fraude
#Doxa #sector #construcción #IA #aprendizaje #desperdicio #fraude #eficiencia #corrupción #contrataciones #industria #retrasos #planificación #detectar #licitaciones #contratista #tecnología #riesgos #competencia #empresa #herramienta #adopción #supervisión #equidad #transparencia #exclusión #innovación #integridad #sistema

Liderando equipos globales de manera eficaz
Evite las suposiciones occidentales que a menudo descarrilan el trabajo intercultural.
#Doxa #equipo #liderar #eficaz #gestión #cultura #trabajo #experiencia #valores #autonomía #empoderamiento #igualdad #autenticidad #colectivo #jerárquico #error #líder #inteligencia #directivo #seguridad #confían #desafió

¿Quiere utilizar la IA como orientador profesional? Utilice estos prompt
#Doxa #IA #profesional #prompt #planificar #carrera #tiempo #plataforma #generativa #accesible #eficiente #personalizada #herramienta #maximizar #estrategia #práctico #experiencia #éxito

Elaboración de estrategias Lean
Estandarizar el enfoque de su empresa puede ser beneficioso. Aquí le mostramos cómo.
#Doxa #estrategia #Lean #estandarizar #empresa #beneficio #gestión #predecesor #productividad #calidad #costos #proceso #resultado #trabajo #ejecutivo #rendimiento #brecha #cartera #pedido #alternativa

*Obtenga comentarios más claros y prácticos*
#Doxa #retroalimentación #decisión #ambigüedad #equipo #responsabilidad #prioridad #expectativa #rendimiento #estrategia #guiones #dirección #táctica #jefe #comentarios #eficaz #resultado

*6 maneras de afrontar la decepción estratégicamente*
#Doxa #afrontar #decepción #estrategia #gestión #líder #propuesta #golpe #experimento #decisión #impacto #emocional #molesto #manejo #crecer #percibir #control #expectativas #enseñanza #confianza #recuperación

Cómo mejorar la delegación
#Doxa #delegar #problema #perfección #fracaso #habilidad #desarrollar #hábito #tarea #autonomía #control #guía #escuche #progreso #comentario

¿Para qué sirve la oficina hoy?
#Doxa #oficina #entorno #trabajo #experimento #teletrabajo #ventaja #líder #evolución #espacio #cambio #organización #RTO #conexión #humana #innovación

Comprender los impactos macroeconómicos globales de los aranceles de Trump
Cómo analizar sus efectos inmediatos en la oferta y la demanda, y las repercusiones que podrían llegar a ser aún más importantes.
#Doxa #impacto #macroeconomía #arancel #Trump #tarifa #mercado #líder #incertidumbre #económica #repercusiones #negocio #perturbaciones #oferta #demanda #USA #plan #flexible #analítico #paisaje #turbulento

Cómo se utilizará realmente la inteligencia artificial en 2025
#Doxa #IA #generativa #OpenAI #razonamiento #cadena #velocidad #profundidad #respuesta #interacciones #costes #datos #google #podcast

Su empresa quiere reducir la brecha salarial. Aquí le mostramos por dónde empezar.
#Doxa #empresa #salarial #brecha #ética #organización #hallazgo #valor #entorno #regulatorio

Por qué los empleados guardan silencio cuando ven señales de advertencia de un problema
#Doxa #empleado #problema #colaboración #equipo #amenaza #ambigua #silencio #tarea #cognitiva #estructura #laboral #decisión #líder #debilidad #producto #proceso #información #acción #organizacional #empresa #gestionar #incertidumbre #gerente #habilidad #desafiar

Cuando estás sobrecargado y delegar no es una opción
#Doxa #delegar #opción #liderazgo #gestión #personal #equipo #ocupado #tiempo #trabajar #estrategia #evaluar #configurar #trabajo #tiempo #energía #tarea #valor

Doxa 2200
Lo que DeepSeek puede enseñarnos sobre el ingenio
Cuatro formas en que las empresas pueden aprovechar creativamente el conocimiento, la experiencia y las capacidades, incluso sin poseerlos.
#Doxa #DeepSeek #enseña #ingenio #estrategia #empresa #creativa #conocimiento #experiencia #capacidad #clave #organización #competencia #fondos #recurso #logro #recurso #capital #pericia #coste #tiempo #inversión #modelo #
IA