Doxa 2380

Entendiendo la investigación sobre cómo las personas usan la IA

Una guía para convertirse en un lector más crítico de los estudios más recientes

Por Marc Zao-Sanders
IA generativa
Harvard Business Review

#Doxa #AdopciónIA #ConfianzaAlgorítmica #SesgoAlgorítmico #HCI #Intencionalidad #ExplicabilidadIA #AlfabetizaciónIA #Automatización #AgenciaHumana #IntervenciónHumana #PromptEngineering #IAÉtica
Resumen. Este año, tres estudios importantes han examinado el aspecto conductual humano de la IA. El informe de uso de OpenAI, el Índice Económico de Anthropic y la propia investigación de escucha social del autor arrojan una luz diferente sobre lo que estamos haciendo con la IA generativa. El camino hacia una visión sensata, defendible y útil de lo que está sucediendo reside en la síntesis de muchas fuentes diferentes. Tomar estos tres informes juntos, y con un ojo puesto en las fortalezas y debilidades de cada método, puede proporcionar algunas señales claras para que los líderes empresariales desarrollen una postura ilustrada y tomen buenas decisiones en torno a la IA generativa.
A medida que la IA generativa desempeña un papel cada vez más importante en nuestras vidas, tanto en el trabajo como en el hogar, todos haríamos bien en desarrollar nuestros propios puntos de vista matizados sobre la tecnología. En los últimos tres años, en particular, se ha vuelto demasiado importante como para ignorarla. Una forma útil de pensar en este nuevo fenómeno es separar los rápidos cambios en la tecnología en sí de los cambios subsiguientes en el comportamiento humano a medida que usamos la IA generativa en nuestra vida diaria. En el lado tecnológico, hay mucho que seguir: los últimos lanzamientos de modelos, los récords de rendimiento de referencia, los impresionantes anuncios de financiación, las fuentes de datos de entrenamiento, las nuevas funciones y mucho más. En el lado humano, se trata de comprender cómo las personas están usando realmente la nueva tecnología y por qué. Mi trabajo se centra en esto último: nuestras respuestas y adaptaciones a la IA, el lado antropológico de la historia

Para los líderes empresariales, esto no debería ser solo curiosidad académica. Las empresas están invirtiendo miles de millones en herramientas de IA, pero hasta ahora han tenido dificultades para obtener retornos significativos. Comprender cómo las personas realmente usan la IA, en contraste con cómo afirman los proveedores que la usan, puede ayudar a los líderes empresariales a evitar errores costosos, identificar oportunidades concretas y tomar decisiones más inteligentes sobre qué herramientas adoptar y qué casos de uso promover. La transformación empresarial, y la transformación de la IA en particular, se trata sustancialmente de cambiar los comportamientos de las personas, por lo que comprender lo que saben, cómo se sienten y qué están haciendo es un conjunto vital de datos

Este año, tres importantes estudios han examinado el aspecto conductual humano de la IA. El informe de uso de OpenAI, el Índice Económico de Anthropic y mi propia investigación sobre escucha social arrojan luz sobre lo que estamos haciendo con la IA generativa.

El camino hacia una visión sensata, defendible y útil de lo que está sucediendo reside en la síntesis de muchas fuentes diferentes. Tomar estos tres informes juntos, y con la mirada puesta en las fortalezas y debilidades de cada método, puede proporcionar algunas señales claras para que los líderes empresariales desarrollen una postura ilustrada y tomen buenas decisiones en torno a la IA generativa.

Lectura crítica de la investigación sobre IA
Antes de analizar los diferentes estudios, es importante comprender los contextos en los que se publican, tanto ellos como todos los estudios. Los intereses creados están a la vista y también ocultos. Por lo tanto, es importante estar atento a algunas cosas al leer nuevos estudios:

Intereses creados
Si bien la investigación de cualquier fuente puede ser metodológicamente sólida, los informes no existen en el vacío. Las empresas a menudo publican investigaciones porque sirven a sus intereses. Los datos de uso de las empresas de IA pueden demostrar el valor de sus plataformas y fomentar su adopción, además del valor que ofrece la investigación en sí misma. Esto no invalida sus hallazgos, pero los lectores perspicaces deben verlos teniendo en cuenta ese contexto.

Sesgo inherente
Ciertos tipos de estudios tienden a contar un tipo de historia determinado. Por ejemplo, los informes de uso (los tres mencionados aquí) tienden a enfatizar el crecimiento, el impulso y los resultados positivos. Pueden destacar los casos de uso más impresionantes y minimizar la larga cola de fallos o limitaciones. La elección de las métricas (usuarios activos frente a usuarios satisfechos, finalización de tareas frente a calidad de las tareas) puede pintar imágenes muy diferentes.

Triangulación
Un solo estudio puede tener valor; aún más valioso es cuando sus hallazgos se replican. Lo más valioso de todo es cuando los estudios que utilizan diferentes métodos convergen consistentemente en las mismas conclusiones. Eso podría ser verificar diferentes estudios, como hacemos aquí en este artículo. O podría ser simplemente validar los hallazgos de un artículo con su propia experiencia.

Millones de líderes empresariales están evaluando ahora las inversiones en IA, grandes y pequeñas. Y deberían tomar esas decisiones con los ojos abiertos y una mirada crítica.

Métodos de un vistazo
Volvamos ahora a la cuestión del comportamiento humano

¿Cómo podríamos entender lo que la gente hace con la IA? Se envían miles de millones de consultas de IA generativa cada día. Pero esas consultas se realizan de forma privada, entre el individuo y el LLM que está utilizando; incluso las propias empresas de LLM tienen restricciones sobre el contenido de los mensajes individuales que pueden ver. Y, por supuesto, no pueden incluir los mensajes de los usuarios en sus informes de investigación. (OpenAI señala explícitamente en su informe que «ningún miembro del equipo de investigación vio jamás el contenido de los mensajes de los usuarios»).

Hasta ahora, se han utilizado tres métodos principales:

Telemetría
Lo que hacen realmente los usuarios: los registros de uso a los que solo los propios LLM pueden acceder.
  • Fortalezas: captura el comportamiento real, gran volumen de datos.
  • Debilidades: limitado a plataformas individuales, excluye a los usuarios que han cerrado sesión y a quienes optan por no participar, carece de detalles contextuales (debido a la privacidad), inaccesible para la mayoría de nosotros.
Encuestas
Lo que dicen los usuarios cuando se les pregunta.
  • Fortalezas: se puede pedir cualquier detalle (por ejemplo, datos demográficos), fácil de configurar.
  • Debilidades: sesgo de autoselección, puede que no refleje el comportamiento real, bajo volumen de datos.
Escucha social
Lo que dicen los usuarios sin que se les pregunte.
  • Fortalezas: veracidad (el anonimato permite la seguridad psicológica), detalle, lo que más preocupa a la gente, reflexiones posteriores e impacto.
  • Debilidades: bajo volumen de datos, sesgo hacia las fuentes, falta de datos demográficos.
  • Ningún método por sí solo lo capturará todo. Pero juntos, estos enfoques complementarios ayudan a formar una imagen práctica y útil de cómo mil millones de seres humanos ya están integrando la IA en su vida diaria.
Sobre la escucha social, específicamente
Antes de examinar lo que encontraron estos estudios, me gustaría explicar el enfoque de la escucha social: el método que he estado utilizando.

Una gran ventaja es que es accesible para todos. No necesitas una enorme lista de destinatarios de encuestas ni trabajar en una de las empresas de LLM. Los foros públicos contienen datos valiosos sobre el uso de la IA que cualquiera puede recopilar y analizar

La escucha social captura la intensidad de los sentimientos. Está lo que la gente hace y está lo que les importa lo suficiente como para escribir (y despotricar) públicamente. Para contextos donde la inversión emocional importa (lanzar un producto de IA, proteger a los usuarios vulnerables o comprender casos extremos), esta perspectiva revela casos de uso que tienen un impacto humano desmesurado. Por ejemplo, los titulares sobre la psicosis de la IA (como este del Wall Street Journal ) surgieron solo unos meses después de mi artículo de HBR de 2025, no porque millones de personas experimentaran tales episodios, sino porque el efecto en los pocos individuos que los experimentaron fue profundo, y algunos de ellos recurrieron a Reddit y lugares similares para compartir sus intensas experiencias.

El anonimato afecta lo que la gente comparte. En los foros en línea, los alias crean la seguridad psicológica para discutir el uso terapéutico, detalles íntimos y aplicaciones controvertidas que simplemente no aparecerán en los datos corporativos protegidos por la privacidad y meticulosamente desinfectados. Esto no significa que cada publicación sea perfectamente precisa, pero sí demuestra que el método revela verdades sobre el uso de la IA en situaciones de alto riesgo que otros métodos pasan por alto sistemáticamente

Los foros públicos también pueden proporcionar contexto posterior. El autor original y los comentaristas posteriores se basan en las experiencias de los demás, revelando ocasionalmente lo que sucedió después: si un caso de uso logró su objetivo, qué soluciones alternativas surgieron o qué indicaciones funcionaron mejor. Estas perspectivas retrospectivas impulsadas por la comunidad están en gran medida ausentes de los registros de uso o las encuestas.

Dónde la investigación está mayormente alineada
Cuando distintos informes coinciden, probablemente haya alguna señal a la que prestar atención. Y coinciden en muchas.

Como era de esperar, el uso de LLM está creciendo rápidamente
ChatGPT acaba de alcanzar aproximadamente 800 millones de usuarios activos semanales que, en conjunto, envían unos 20 mil millones de mensajes por semana. Anthropic afirma que el 40 % de los empleados informan que utilizan IA en el trabajo, el doble del porcentaje de hace solo dos años.

Las tareas siguen una distribución de ley de potencia 
En una distribución de ley de potencia, unos pocos eventos son desproporcionadamente grandes, mientras que la mayoría son muy pequeños. OpenAI ve que el 78 % de todos los mensajes se ajustan a sus tres categorías principales (orientación práctica, redacción y búsqueda de información). Anthropic observa que el 20 % de las categorías de tareas representan el 87 % del uso. En mi investigación, las 20 categorías principales de casos de uso representan más de la mitad del total de casos de uso. Esta concentración sugiere que los líderes deberían centrar las inversiones en IA en un pequeño grupo de casos de uso de alto impacto, en lugar de intentar hacerlo todo a la vez.

Utilizamos la IA sustancialmente para escribir
El informe de OpenAI afirma que “La escritura es el caso de uso más común en el trabajo, representando alrededor del 40% de los mensajes relacionados con el trabajo”. Anthropic no dice mucho al respecto en su informe más reciente, pero en su informe de febrero de 2025, uno de los hallazgos principales fue que “el uso se concentra en el desarrollo de software y las tareas de redacción técnica”. Al menos 20 de los 100 principales casos de uso que cubro se relacionan directamente con la escritura. Esto tiene sentido, dado que el texto es el formato de salida que genera predominantemente la IA generativa. Dado el dominio de la escritura en el uso, las organizaciones podrían obtener un retorno de la inversión más rápido con herramientas que se mantengan más cerca de las palabras en presentaciones, informes y comunicaciones que en aplicaciones más exóticas y ambiciosas.

El aprendizaje y la educación son una categoría importante
Para Anthropic, el uso educativo creció del 9.3% al 12.4%. Para OpenAI, alrededor del 10% de todos los mensajes de ChatGPT son solicitudes de tutoría o enseñanza. En mi investigación, el 20% de mis casos de uso se incluyen en la categoría de aprendizaje y educación; no es sorprendente, dado que se trata de una tecnología "inteligente" diseñada para una especie neoténica, curiosa y cognitivamente avanzada.

La aumentación está aquí y la automatización está llegando
Para Anthropic, las conversaciones directivas (automatización) aumentaron del 27% al 39% en ocho meses, y entre las transcripciones de API empresariales, el 77% ahora están dominadas por la automatización. Para OpenAI, en el trabajo, la mayoría (56%) de las tareas son de acción (en lugar de expresión o pregunta). En las plataformas sociales que sigo a diario, veo más publicaciones que nunca sobre el uso agentivo.

Dónde diverge la investigación
Por supuesto, también hay discrepancias, y estas pueden ser esclarecedoras. Analicemos un par:

Una discrepancia radica en la frecuencia con que las personas utilizan LLM para programar. Anthropic informa que el 36 % de su muestra total utiliza IA general para programar, mientras que mi investigación muestra un 8 %, y OpenAI registra solo un 4,2 % de casos de uso de programación. Estas diferencias son significativas. Podrían explicarse, en parte, porque la categoría de Anthropic es ligeramente más amplia (incluye matemáticas) y, en parte, por la reputación que adquirió inicialmente como asistente de programación. Aun así, parece que es necesario profundizar en este tema, tanto por parte de las dos empresas de LLM como de otras entidades.

Otra diferencia es la aparente discrepancia entre mi investigación y la de OpenAI sobre la cantidad de personas que usan los LLM para terapia. De hecho, esto se señala explícitamente en la versión original del artículo de OpenAI. Para OpenAI, las "relaciones y la reflexión personal" representan el 1.9% de los mensajes, mientras que mi análisis tiene a la "terapia y el acompañamiento" como el caso de uso número 1. De hecho, esta discrepancia no es tan grande. En mi conjunto de datos, a pesar de ser el principal caso de uso individual, la terapia y el acompañamiento en realidad solo representan alrededor del 4% de los datos (tenga en cuenta que hay más de 100 casos de uso ). Esta diferencia de dos puntos porcentuales se puede explicar por diferencias metodológicas.

A medida que los altos directivos empresariales confían en los datos y la investigación para tomar decisiones cruciales para la implementación de la IA dentro de sus propias organizaciones, es importante abordar todos los datos de manera crítica para ayudar a separar la señal del ruido y los patrones de la confusión. Considere estos consejos a medida que profundiza en toda la investigación:

Consejos para desarrollar su propio punto de vista sobre la IA
  1. Sigue a optimistas de la IA (p. ej., Allie Miller ), escépticos (p. ej., Gary Marcus ) y neutrales (p. ej., Nicholas Thompson ). No te quedes atrapado en una burbuja de filtros exacerbada por las redes sociales y la IA.
  2. Compara los estudios con tu propio uso de la IA: ¿coinciden los hallazgos con lo que observas en tu organización o en tu vida personal?
  3. Usa la IA para resumir la investigación sobre IA. (¡Muy meta! Esto fue el n.° 34 de mi lista de los 100 mejores ). Puedes hacerlo tú mismo o contratar una IA para que seleccione y resuma artículos sobre temas de tu interés.
  4. Lee un artículo científico completo detenidamente de vez en cuando, en lugar de solo registrar los titulares de muchos. Los titulares a los que todos estamos tan desproporcionadamente expuestos están diseñados para sorprender e impactar, no necesariamente para revelar la verdad esencial
  5. Analiza las métricas de tu propia organización; no te bases en estudios externos. Estos estudios pueden darte una idea de la eficacia de una aplicación de IA y ofrecerte algunas pistas sobre qué medir y cómo hacerlo. Pero lo que realmente importa es tu contexto. Extrae la información relevante de un estudio académico y adáptala a la realidad de tu negocio.
  6. Esté atento a la discrepancia. Cuando los estudios discrepan drásticamente (como las discrepancias en el uso de la codificación entre Anthropic y OpenAI), probablemente esté ocurriendo algo interesante. O bien hay más que investigar y nadie lo ha hecho todavía, o quizás haya una oportunidad de negocio sin explotar.
  7. Finalmente, experimente por sí mismo; al menos, la escucha social es un método disponible para usted, como lo ha sido para mí.
...
El impulso de la IA es vertiginoso e implacable. Tenemos que adaptarnos a él rápidamente. Los estudios individuales pueden darnos una idea de lo que está sucediendo. Múltiples estudios, sintetizados de manera adecuada y crítica, nos brindan una visión aún imperfecta pero más tridimensional, como hemos visto con los tres estudios analizados aquí. En conjunto, revelan algunas señales claras: el uso está creciendo rápidamente, ese uso se concentra en un conjunto relativamente pequeño de tareas prácticas, la automatización está en aumento y los casos de uso que tienen que ver con la conexión humana son noticia debido a lo profundamente que se sienten y se necesitan

Mientras observamos la continua evolución de la IA, asegurémonos de vigilar la nuestra.

Lee más sobre IA generativa o temas relacionados: IA y aprendizaje automático, Tecnología y análisis, Algoritmos, Análisis y ciencia de datos e Informática empresarial.

Marc Zao-Sanders es cofundador de filtered.com, autor de Timeboxing: El poder de hacer una cosa a la vez y dirige AI in the Wild, una iniciativa de investigación que explora cómo las personas usan la IA. Encuentra a Marc en LinkedIn o en www.marczaosanders.com    


No hay comentarios:

Publicar un comentario