La trampa de Facebook
¿Por qué es tan difícil para Facebook arreglarse solo? Porque sus mayores problemas surgen de su misión principal de conectar a todos en el mundo.
Por Andy Wu
Tecnología y analítica
Harvard Business Review
#Doxa #Facebook #misión #empresa #tecnología #analitica #red #estrategia #política #regulación #gubernamental #negocios #sociedad
Resumen. Facebook tiene una misión clara: conectar a todos en el mundo. La claridad es buena, pero en el caso de Facebook, también ha puesto a la empresa en un aprieto porque la misión, y la visión de la empresa de crear valor a través de efectos de red, también se ha convertido en la fuente de sus mayores problemas. A medida que la empresa pasó de conectar amigos existentes en línea a establecer nuevas conexiones globales (ambos ejemplos de efectos de red directos) y ahora a conectar a los usuarios con creadores profesionales (efectos de red indirectos), ha sido objeto de críticas por todo, desde violar la privacidad individual hasta intimidar a pequeños. empresas como monopolio para radicalizar a sus usuarios. Ahora, está luchando por encontrar soluciones que no socaven su misión. El autor llama a esto "la trampa de Facebook". Para abordar los problemas creados por la plataforma, y también por otras redes sociales, ayuda a establecer claramente dónde se debe responsabilizar a la empresa. Si bien es razonable impulsar cambios en la forma en que funcionan las recomendaciones de Facebook, es más difícil decidir cómo la plataforma debe lidiar con las conexiones orgánicas, lo que probablemente implicaría censurar a los usuarios y bloquearlos para que no establezcan las conexiones que desean establecer. Facebook no es la única empresa que se enfrenta al enigma de tener que socavar su propia misión para minimizar el daño, y las empresas y los gobiernos deberán desarrollar estrategias sobre cómo abordar este problema.
Fundada en 2004, la misión de Facebook es brindar a las personas el poder de construir una comunidad y acercar al mundo. Las personas usan Facebook para mantenerse en contacto con amigos y familiares, para descubrir lo que sucede en el mundo y para compartir y expresar lo que les importa.
- Declaración de la misión de Facebook
Nuestra misión es conectar a todas las personas del mundo.
- Mark Zuckerberg, director ejecutivo y cofundador de Facebook
Dependiendo de a quién le preguntes, el mayor problema de Facebook podría ser casi cualquier cosa. Los críticos han argumentado que está violando la privacidad individual o intimidando a las pequeñas empresas como monopolio, dañando la salud mental de los adolescentes o incitando a insurrecciones violentas; la lista de posibilidades sigue (y sigue). Pero por variados que puedan parecer estos problemas, en realidad son todas las facetas de un gran problema fundamental que nos está enfrentando a todos: los formuladores de políticas, el público en general y los propios empleados de Facebook, de frente.
Facebook existe para “conectar a todas las personas del mundo”, como el mismo CEO Mark Zuckerberg pronunciará clara y frecuentemente. A simple vista, no hay nada de malo en ese objetivo. De hecho, es exactamente el tipo de claridad estratégica que a los profesores de estrategia les gustaría ver en más empresas. Como visión rectora del liderazgo de Facebook, este ideal aspiracional se ha arraigado profundamente en la cultura empresarial de Facebook. Es importante destacar que conectar a las personas es la base fundamental sobre la que Facebook ha tenido tanto éxito durante los últimos 15 años.
En mi curso sobre estrategia tecnológica, enseñamos a los estudiantes que el impulsor más importante de la creación de valor hoy en día son los efectos de red: mi propio valor al usar Facebook, e Instagram, Messenger y WhatsApp, crece a medida que otros usuarios adoptan y usan Facebook. Al cumplir con su misión de conectar a las personas, Facebook facilita una gran cantidad de efectos de red que han impulsado su crecimiento orgánico y refuerzan su posición dominante en las redes sociales.
Pero como todos estamos experimentando hoy, ese propósito central conduce a innumerables impactos negativos en todas las partes de nuestra sociedad. Esa misión de conectar a las personas también está destruyendo la vida de las personas y amenazando nuestras instituciones establecidas. Facebook enfrenta un desafío monumental, porque solucionar estos problemas no es tan simple como agregar más moderadores para vigilar el discurso del odio o cambiar las noticias; requerirá un cambio fundamental en el objetivo estratégico central de la compañía. En ese sentido, Facebook está atrapado: los efectos de red hicieron que la empresa fuera un éxito y ahora amenazan con deshacerla, pero la empresa no puede simplemente apagar el motor que la hace funcionar. ¿Entonces, qué puede hacer?
La inevitable evolución de Facebook
Seguir su propósito principal significa que Facebook debe continuar conectando a las personas y conectándolas de formas más intensas. Puede hacer crecer la base de usuarios y conectar a más personas que de otro modo no estarían conectadas, y puede conseguir que la base de usuarios existente se conecte más intensamente utilizando más Facebook, es decir, aumentando el compromiso. Ambas cosas impulsan directamente los ingresos por publicidad, el modo predominante por el cual Facebook captura valor, es decir, monetiza la base de usuarios que de otra manera usa Facebook de forma gratuita, algo sobre lo que he escrito con un coautor.
El problema es que incluso si Facebook solo estuviera motivado para crear valor para los usuarios, mediante la conexión de personas, sin ningún incentivo para capturar valor a través de la publicidad, todavía estaría en camino al desastre. Las dificultades a las que se enfrenta son una consecuencia fundamental de conectar a las personas.
Para entender por qué, consideremos cómo ha cambiado Facebook desde sus idílicos inicios.
Viejos amigos
Inicialmente, Facebook conectaba a los usuarios con su círculo social ampliado de la vida real: sus conexiones locales. Como millennial, me uní a Facebook en la escuela secundaria como una extensión de las amistades que ya tenía. En este mundo, Facebook facilitó los efectos de red directos o la generación de contenido recíproco entre las partes: yo creo contenido para mis amigos y mis amigos crean contenido para mí. Publicaría algunas fotos de graduación, mis amigos publicarían fotos de graduación ligeramente diferentes y todos comentaríamos lo bien que se veían todos. Incluso si alguien se viera mal en una foto, nadie escribiría eso: todavía teníamos que vernos en la vida real.
Esta versión de Facebook tenía algunas limitaciones importantes. Primero, realmente no me dio acceso a nada que no tuviera en mi vida. Cuando me interesé en ser DJ, un interés de nicho, no pude conectarme con otros DJ en Facebook, porque no tenía ninguno en mi red inmediata de amigos de la vida real. En segundo lugar, había una cantidad finita de contenido: solo hay un número limitado de fotos de graduación. En tercer lugar, los usuarios habituales no tienen los recursos para generar contenido de “alta calidad”: nadie estaba retocando profesionalmente todas estas fotos de graduación. En este mundo, las conexiones eran relativamente débiles, en el sentido de que no se optimizan para un compromiso intenso y continuo que me mantiene usando Facebook.
Nuevos amigos
Facebook resolvió este problema atrayendo millones, y eventualmente miles de millones, de usuarios y luego facilitando conexiones globales. De repente, a través de los efectos de red más fuertes de una base de usuarios más grande, los usuarios con intereses específicos pudieron conectarse y alcanzar una masa crítica. Hay muchos otros DJ en Facebook e Instagram con los que puedo conectarme.
Sin embargo, estas conexiones globales no siempre son buenas. Los usuarios con intereses peligrosos, para sí mismos y para los demás, pueden conectarse fácilmente entre sí y reforzar esos intereses. Un usuario con pensamientos suicidas ahora puede buscar el consejo de otras personas con los mismos pensamientos. Un usuario con opiniones racistas puede elegir estar rodeado de otros racistas. Y una vez conectados, estos usuarios se reúnen en una masa crítica y pueden coordinar actividades. Esto puede ir desde lo relativamente benigno pero aún dañino, como los esquemas de marketing multinivel, hasta la coordinación de eventos como el ataque del 6 de enero de 2021 en el Capitolio de los EE. UU., Que se organizó en muchas redes sociales, pero fue avivado por las redes sociales. comunidades de usuarios atraídos por las teorías de la conspiración sobre el fraude electoral.
Sin amigos
También ha ocurrido otro cambio importante. A medida que ha evolucionado Facebook, ha comenzado a depender en gran medida de los efectos indirectos de la red. En lugar de que los pares generen contenido recíprocamente entre sí, una gran base de usuarios de los consumidores de contenido incentiva a los productores de contenido "profesionales" a seguir promoviendo el contenido, y el contenido profesional mantiene a la gran base de usuarios en Facebook y participa.
Depender de productores de contenido profesionales para impulsar los efectos indirectos de la red tiene una serie de consecuencias perjudiciales. En primer lugar, alienta a las personas de élite (celebridades o "influencers" cuasi profesionales) a presentar una imagen corporal y un estilo de vida inalcanzables como normales, lo que según la propia investigación de Facebook puede exacerbar la depresión, la ansiedad y los pensamientos suicidas en los jóvenes. En segundo lugar, profesionaliza la generación de "clickbait". Tanto las empresas de medios tradicionales como los malos actores tienen el incentivo de lanzar contenido y titulares que exploten la curiosidad y la reacción emocional de los usuarios.. En tercer lugar, permite a los extremistas profesionales difundir mensajes explícitamente peligrosos a gran escala. ISIS ha utilizado Facebook de manera efectiva para sus esfuerzos de reclutamiento al compartir videos de violencia grotesca que resuenan en los jóvenes descontentos.
El desafío para Facebook, y para nosotros como sociedad, es que todo lo que Facebook puede hacer para resolver su "problema" va directamente en contra de cómo crea valor y su misión principal. En esencia, los críticos de Facebook le piden que conecte a menos personas y las conecte con menos intensidad. Pero eso viola el espíritu central de lo que Facebook siempre se ha propuesto hacer. Esta es la trampa de Facebook.
El desafío de la rendición de cuentas
Entonces, ¿qué va a hacer Facebook con este problema? ¿Y de qué parte de este problema podemos, como sociedad, responsabilizar a Facebook, a través de la presión pública, la política reguladora u otros medios? Para responder a estas preguntas, consideremos el papel de Facebook a la hora de facilitar las conexiones originadas por el usuario frente a las conexiones originadas por algoritmos.
Las conexiones originadas por el usuario son las interacciones directas entre las partes que la plataforma facilitó al principio. Cuando Facebook comenzó como un registro de estudiantes universitarios de Harvard, un usuario podía desplazarse por todos los demás estudiantes y elegir conectarse con los pocos de los que el usuario desea ver contenido. Un Facebook con solo conexiones originadas por el usuario se limitaría a conexiones bastante locales y más de los efectos de red directos.
Sin embargo, a medida que una plataforma escala, se vuelve cada vez más difícil para un usuario examinar y encontrar las conexiones valiosas para ellos. Para garantizar que Facebook pudiera continuar conectando a las personas de manera efectiva, implementó conexiones originadas por algoritmos. Este motor de recomendación utiliza los datos que los usuarios proporcionan a la plataforma para sugerir nuevos amigos y grupos y completar el suministro de noticias y los resultados de búsqueda. Esta mano dura es necesaria para permitir que se formen conexiones globales y que se produzcan efectos de red indirectos, y para brindar a los usuarios las conexiones que desean y con las que se involucrarían más intensamente.
Por qué importa la distinción
Separar qué problemas son el resultado de conexiones orgánicas originadas por el usuario frente a las conexiones originadas por algoritmos impulsadas por Facebook nos da una idea de lo que Facebook puede ser razonablemente responsable. Desafortunadamente, no presenta soluciones fáciles.
Los escenarios en los que Facebook usa mano dura para facilitar las conexiones son donde podemos buscar legítimamente cierta responsabilidad, incluso si hacerlo va en contra de la misión de Facebook. Por ejemplo, el hecho de que los datos digan que a otros realmente les gusta estar conectados con partes incendiarias o contenido no significa que Facebook tenga que llamar mi atención sobre ese contenido. La decisión de no exponer a los usuarios a contenido nuevo que no hubieran buscado es relativamente sencilla.
La cuestión de la responsabilidad se vuelve menos clara cuando consideramos si el motor debería recomendar las conexiones que un usuario específico realmente desea, como lo revelan los datos sobre la propia actividad del usuario. La misión de Facebook implica que debería facilitar intencionalmente estas conexiones, pero estas conexiones pueden intensificar el comportamiento y la visión del mundo de un usuario. Si un usuario con inclinaciones políticas leves muestra interés en leer sobre política nacional, ¿cuánto contenido político puede recomendar Facebook antes de que se vuelva extremo o incluso peligroso? Sí, Facebook puede limitar la forma en que hace estas recomendaciones, aunque solo sea porque los usuarios individuales no pueden hacerse responsables, pero no hay una línea obvia en la arena que Facebook pueda trazar aquí.
Pero la responsabilidad clara se pierde por completo cuando los usuarios establecen conexiones por su cuenta. Para lidiar con las conexiones problemáticas originadas por el usuario, Facebook tendría que censurar el contenido y prohibir a los usuarios que crean el contenido que consideramos problemático. Hay algunas líneas claras, por supuesto, se debe prohibir la planificación explícita de actividades violentas, pero la mayor parte del contenido potencialmente dañino cae en un área gris masiva. Considere el área gris oscuro del contenido anti-vacuna: si, digamos, queremos que Facebook censure la información errónea explícita, ¿qué se debe hacer con el contenido matizado y basado en evidencia que describe los efectos secundarios de una vacuna? Facebook puede ajustar su algoritmo para suprimir las recomendaciones de este contenido, pero si los usuarios se desviven por encontrarlo, ¿puede o debería censurarlo Facebook? Lo queremos?
Es el área con la que Facebook más lucha. La compañía ha sido repetidamente inconsistente y poco transparente sobre cómo censura el contenido. Zuckerberg ha intentado delegar la responsabilidad a un panel de supervisión cuasi independiente, pero los críticos acusan a Facebook de no darle intencionalmente al panel los recursos o el control para hacer su trabajo de manera integral y efectiva.
Pero esta evasión se deriva del desafío de rendición de cuentas intrínseco a las redes sociales. Sí, podemos responsabilizar a Facebook de aquello con lo que Facebook hace todo lo posible por conectarnos. Pero, ¿podemos responsabilizar a Facebook por aquello con lo que nos esforzamos por conectarnos? Y como empresa dedicada a conectar a las personas como su misión, Facebook claramente no quiere ser responsable de las conexiones que los usuarios realmente quieren, independientemente de si Facebook se las da a los usuarios o si los usuarios las encuentran ellos mismos.
¿Qué puede hacer Facebook?
Como profesor de estrategia, probablemente soy más empático con Facebook que la mayoría. Facebook tiene una estrategia de conectar personas que ha creado una enorme cantidad de valor, pero esa misma estrategia está metiendo a Facebook en muchos problemas hoy. Hay compromisos difíciles en todos los lados. Mi opinión es que no existe una solución clara, pero hay tres rutas amplias que Facebook puede seguir, potencialmente en conjunto.
Comunique las compensaciones de forma transparente. En esfuerzos anteriores para proyectar responsabilidad, Facebook ha dado a entender que tiene soluciones a los problemas que crea, que en la actualidad no parece tener. Como una ruta, Facebook puede ser más transparente sobre las compensaciones fundamentales que vienen con las redes sociales al publicar investigaciones que documenten problemas específicos, como la imagen corporal e Instagram, junto con su defensa constante del valor que conlleva conectar a las personas. Estos conocimientos pueden guiar a los reguladores y colocar a Facebook en una buena posición para llevar la regulación en una dirección favorable para la industria, y la regulación que impone costosos requisitos de cumplimiento puede ser una barrera de entrada que protege a los titulares como Facebook, por ejemplo, GDPR en Europa.
Aumente la moderación, masivamente. Para moderar de manera integral todo su contenido, Facebook necesitaría continuar avanzando en la frontera en la detección de algoritmos de contenido no deseado y aumentar el número de moderadores humanos en un orden de magnitud (o múltiples). A partir de 2020, Facebook emplea a 15.000 moderadores humanos, cada uno de los cuales ve cientos de elementos de contenido a diario, y necesitará muchos más. Este esfuerzo costará miles de millones de dólares, y quizás más doloroso para Facebook, lo obligará a decidir qué contenido restringir: curar para una persona es censurar a otra. Sin embargo, ningún esfuerzo de moderación puede hacer mucho por el contenido que se ejecuta a través de comunicaciones cifradas de WhatsApp o Messenger.
Sea responsable, de manera apropiada. Facebook necesita límites claros sobre qué aspectos de su plataforma quiere - y puede ser - responsable y delegar claramente la responsabilidad a gobiernos, agencias independientes y usuarios donde no lo hace. En las conexiones originadas por algoritmos, no será práctico delegar la responsabilidad en lo que a menudo es un proceso de caja negra, y esta tecnología es una pieza central de la propiedad intelectual de Facebook, por lo que Facebook debe estar listo para asumir la responsabilidad de las conexiones que promueve el algoritmo.
Pero en las conexiones originadas por el usuario a contenido no deseado, Facebook no ha tenido claro quién es responsable aquí. La Junta de Supervisión casi independiente mueve a Facebook hacia esta dirección de delegar la responsabilidad, pero sigue siendo evasiva e incompleta: la junta solo revisa las decisiones de contenido de Facebook después del hecho en la apelación, y la junta sigue dependiendo financieramente de Facebook y es demasiado pequeña para operar. a escala.
En el futuro, Facebook puede asumir una responsabilidad genuina aumentando masivamente sus propios esfuerzos de moderación; dar esa responsabilidad de manera pública y creíble a una autoridad externa; o dejar esa responsabilidad en manos de usuarios individuales al tomar una posición y luchar por su misión original de conectar a las personas libremente como quieran. En este momento, Facebook está haciendo los tres de manera ambigua, sin dejar a nadie responsable al final del día.
Más grande que Facebook
Facebook sirve como un pararrayos conveniente para la ira, pero Facebook podría desaparecer de la faz de la tierra mañana y todavía enfrentaremos estos problemas una y otra vez. La trampa de Facebook es intrínseca a las redes sociales en su conjunto y refleja las consecuencias de la tecnología digital para facilitar un mundo más conectado.
Twitter ha evolucionado en el mismo camino que Facebook hacia el uso de algoritmos para conectar a las personas a nivel mundial, lo que imparte muchas de las mismas consecuencias adversas que Facebook. Snap (chat), que originalmente dependía de conectar amigos, rediseñó drásticamente su plataforma para generar efectos de red indirectos que aumentan la cantidad de tiempo que los usuarios pasan viendo contenido profesional. TikTok se ha convertido rápidamente en una potencia mediante el uso de sus mejores algoritmos para conectar a los usuarios con el contenido más atractivo a nivel mundial sin tener que construir a partir de una red de amigos de la vida real.
Todos debemos tener en cuenta las consecuencias de lo que significa conectar a más personas de manera más intensa. Para hacer eso, y navegar por esta trampa en la que estamos, Facebook y todas las plataformas de redes sociales de hoy (y aún por venir) necesitan un sentido claro de lo que serán responsables. Es hora de que estas empresas, junto con los gobiernos y los usuarios, aborden la trampa de Facebook de frente.
Andy Wu es profesor asistente en la Unidad de Estrategia de la Harvard Business School y miembro principal del Instituto Mack para la Gestión de la Innovación en la Wharton School de la Universidad de Pensilvania. Investiga, enseña y asesora a gerentes sobre estrategia empresarial para proyectos tecnológicos.
No hay comentarios:
Publicar un comentario