Doxa 1079

Cómo responsabilizar a las redes sociales por socavar la democracia

Por Yaël Eisenstat 
Regulación
Harvard Business Review
Resumen. El problema con las redes sociales no es solo lo que publican los usuarios, es lo que las plataformas deciden hacer con ese contenido. Lejos de ser neutrales, las empresas de redes sociales toman decisiones constantemente sobre qué contenido amplificar, elevar y sugerir a otros usuarios. Dado su modelo de negocio, que promueve la escala por encima de todo, a menudo amplificaron activamente el contenido extremo y divisivo, incluidas las teorías de conspiración peligrosas y la desinformación. Es hora de que los reguladores intervengan. Un buen lugar para comenzar sería aclarar quién debería beneficiarse de la Sección 230 de la Ley de Decencia en las Comunicaciones, que ha sido muy sobreinterpretada para brindar inmunidad general a todas las empresas de Internet, o "intermediarios de Internet". para cualquier contenido de terceros que alojen. Específicamente, es hora de redefinir lo que significa un "intermediario de Internet" y crear una categoría más precisa para reflejar lo que realmente son estas empresas, como "curadores digitales" cuyos algoritmos deciden qué contenido impulsar, qué amplificar, cómo seleccionar nuestro contenido.
El asalto al edificio del Capitolio de Estados Unidos el miércoles por una turba de insurrectos pro-Trump fue impactante, pero no sorprendió a nadie que haya seguido la creciente prominencia de los teóricos de la conspiración, los grupos de odio y los proveedores de desinformación en línea.

Si bien la culpa de la incitación a la insurrección del presidente Trump recae directamente en él, las mayores empresas de redes sociales, sobre todo mi ex empleador, Facebook, son absolutamente cómplices. No solo han permitido a Trump mentir y sembrar división durante años, sus modelos de negocios han explotado nuestros prejuicios y debilidades y han fomentado el crecimiento de grupos de odio y máquinas de indignación que promocionan la conspiración. Lo han hecho sin asumir ninguna responsabilidad por cómo sus productos y decisiones comerciales afectan nuestra democracia; en este caso, incluso permitir que se planifique y promueva una insurrección en sus plataformas.

Ésta no es información nueva. Yo, por mi parte, he escrito y hablado sobre cómo Facebook se beneficia amplificando mentiras , proporcionando peligrosas herramientas de focalización a agentes políticos que buscan sembrar división y desconfianza, y  polarizando e incluso radicalizando a los usuarios. A medida que nos acercábamos a las elecciones de 2020, un coro de líderes de derechos civiles, activistas, periodistas y académicos escribieron recomendaciones , condenaron públicamente a Facebook y respaldaron propuestas de políticas de contenido canalizadas de forma privada; los empleados renunciaron en protesta; anunciantes boicoteados ; los legisladores celebraron audiencias .

Sin embargo, los acontecimientos de la semana pasada arrojan una nueva luz sobre estos hechos y exigen una respuesta inmediata. En ausencia de leyes estadounidenses que aborden la responsabilidad de las redes sociales de proteger nuestra democracia, hemos cedido la toma de decisiones sobre qué reglas escribir, qué hacer cumplir y cómo dirigir nuestra plaza pública hacia los directores ejecutivos de empresas de Internet con fines de lucro. Facebook se amplió de forma intencionada e implacable para dominar la plaza pública mundial, pero no tiene ninguna de las responsabilidades de los administradores tradicionales de los bienes públicos, incluidos los medios tradicionales.

Es hora de definir la responsabilidad y responsabilizar a estas empresas de cómo ayudan e incitan a la actividad delictiva. Y es hora de escuchar a quienes han gritado desde los tejados sobre estos temas durante años, en lugar de permitir que los líderes de Silicon Valley dicten los términos.

Necesitamos cambiar nuestro enfoque no solo por el papel que estas plataformas han desempeñado en crisis como la de la semana pasada, sino también por la forma en que los directores ejecutivos han respondido, o no han respondido. Las decisiones reaccionarias sobre qué contenido eliminar, qué voces degradar y qué anuncios políticos permitir han equivalido a manipular los márgenes del problema más importante: un modelo de negocio que recompensa a las voces más fuertes y extremas.

Sin embargo, no parece haber voluntad para afrontar ese problema. Mark Zuckerberg no decidió bloquear la cuenta de Trump hasta después de que el Congreso de Estados Unidos certificara a Joe Biden como el próximo presidente de Estados Unidos. Dado ese momento, esta decisión parece más un intento de acomodarse al poder que un giro hacia una administración más responsable de nuestra democracia. Y si bien la decisión de muchas plataformas de silenciar a Trump es una respuesta obvia a este momento, es una que no aborda cómo millones de estadounidenses se han visto arrastrados a teorías de conspiración en línea y se les ha hecho creer que esta elección fue robada, un tema que nunca se ha hecho. verdaderamente abordado por los líderes de las redes sociales.

Una mirada a la cuenta de Twitter de Ashli ​​Babbit, la mujer que fue asesinada mientras asaltaba el Capitolio, es reveladora. Veterana de 14 años en la Fuerza Aérea, pasó los últimos meses de su vida retuiteando a teóricos de la conspiración como Lin Wood , quien finalmente fue suspendido de Twitter el día después del ataque (y por lo tanto ha desaparecido de su feed), seguidores de QAnon y otros. pidiendo el derrocamiento del gobierno. Un perfil del New York Timesla describe como una veterinaria que luchó por mantener a flote su negocio y que estaba cada vez más desilusionada con el sistema político. La probabilidad de que las redes sociales desempeñen un papel importante para llevarla a la madriguera de las teorías de la conspiración es alta, pero nunca sabremos realmente cómo se seleccionó su contenido, qué grupos le recomendaron, a quién la dirigieron los algoritmos.

Si el público, o incluso un organismo de supervisión restringido, tuviera acceso a los datos de Twitter y Facebook para responder esas preguntas, sería más difícil para las empresas afirmar que son plataformas neutrales que simplemente muestran a las personas lo que quieren ver. La periodista de The Guardian Julia Carrie Wong escribió en junio de este año sobre cómo los algoritmos de Facebook seguían recomendándole grupos QAnon.. Wong fue uno de un coro de periodistas, académicos y activistas que advirtieron implacablemente a Facebook sobre cómo estos teóricos de la conspiración y los grupos de odio no solo estaban prosperando en las plataformas, sino que sus propios algoritmos estaban ampliando su contenido y recomendando sus grupos a sus usuarios. . El punto clave es este: no se trata de la libertad de expresión ni de lo que las personas publican en estas plataformas. Se trata de lo que las plataformas eligen hacer con ese contenido, qué voces deciden amplificar, qué grupos pueden prosperar e incluso crecer de la mano de la propia ayuda algorítmica de las plataformas.

Entonces, ¿dónde vamos desde aquí?

He defendido durante mucho tiempoque los gobiernos deben definir la responsabilidad por los daños del mundo real causados ​​por estos modelos de negocios e imponer costos reales por los efectos dañinos que están teniendo en nuestra salud pública, nuestra plaza pública y nuestra democracia. Tal como está, no existen leyes que regulen cómo las empresas de redes sociales tratan los anuncios políticos, el discurso de odio, las teorías de conspiración o la incitación a la violencia. Este problema se complica indebidamente por la Sección 230 de la Ley de Decencia en las Comunicaciones, que ha sido muy sobreinterpretada para brindar inmunidad general a todas las empresas de Internet, o "intermediarios de Internet", para cualquier contenido de terceros que alojen. Muchos argumentan que para resolver algunos de estos problemas, la Sección 230, que data de 1996, debe al menos actualizarse. Pero se debate acaloradamente cómo y si solo resolverá los innumerables problemas que enfrentamos ahora con las redes sociales.

Una solución que sigo impulsando es aclarar quién debería beneficiarse de la Sección 230 para empezar, que a menudo se divide en el debate entre el editor y la plataforma. Seguir categorizando a las empresas de redes sociales, que curan el contenido, cuyos algoritmos deciden qué discurso amplificar, que empujan a los usuarios hacia el contenido que los mantendrá comprometidos, que conectan a los usuarios con grupos de odio, que recomiendan a los teóricos de la conspiración, como "intermediarios de Internet" que deberían gozar de inmunidad ante las consecuencias de todo esto es más que absurdo. La idea de que las pocas empresas de tecnología que controlan la forma en que más de 2000 millones de personas se comunican, encuentran información y consumen medios disfrutan de la misma inmunidad general que una empresa de Internet verdaderamente neutral deja en claro que es hora de actualizar las reglas. No son solo un intermediario neutral.

Sin embargo, eso no significa que debamos reescribir o eliminar completamente la Sección 230. En su lugar, ¿por qué no comenzar con un paso más estrecho redefiniendo lo que significa un "intermediario de Internet"? Entonces podríamos crear una categoría más precisa para reflejar lo que realmente son estas empresas, como "curadores digitales" cuyos algoritmos deciden qué contenido impulsar, qué amplificar, cómo curar nuestro contenido. Y podemos discutir cómo regular de manera apropiada, enfocándonos en exigir transparencia y supervisión regulatoria de las herramientas tales como motores de recomendación, herramientas de focalización y amplificación algorítmica en lugar de la no iniciación de regular el habla real.

Al insistir en la transparencia real en torno a lo que están haciendo estos motores de recomendación, cómo están sucediendo la selección, la amplificación y la orientación, podríamos separar la idea de que Facebook no debería ser responsable de lo que publica un usuario de su responsabilidad de cómo tratan sus propias herramientas. ese contenido. Quiero que responsabilicemos a las empresas no por el hecho de que alguien publique información errónea o retórica extrema, sino por cómo sus motores de recomendación la difunden, cómo sus algoritmos dirigen a las personas hacia ella y cómo se utilizan sus herramientas para dirigirse a las personas con ella.

Para ser claros: crear las reglas sobre cómo gobernar el discurso en línea y definir la responsabilidad de las plataformas no es una varita mágica para corregir la miríada de daños que emanan de Internet. Esta es una pieza de un rompecabezas mayor de cosas que deberán cambiar si queremos fomentar un ecosistema de información más saludable. Pero si Facebook estuviera obligado a ser más transparente sobre cómo amplifican el contenido, sobre cómo funcionan sus herramientas de orientación, sobre cómo utilizan los datos que recopilan sobre nosotros, creo que eso cambiaría el juego para mejor.

Mientras sigamos dejando que las plataformas se auto-regulen, seguirán simplemente jugando con los márgenes de las políticas de contenido y la moderación. Hemos visto que ya pasó el tiempo; lo que necesitamos ahora es reconsiderar cómo está diseñada y monetizada toda la máquina. Hasta que eso suceda, nunca abordaremos realmente cómo las plataformas están ayudando e incitando a quienes intentan dañar nuestra democracia.

Yaël Eisenstat  es miembro visitante en la Iniciativa de vida digital de Cornell Tech, donde trabaja sobre los efectos de la tecnología en el discurso civil y la democracia. En 2018, fue jefa global de operaciones de integridad electoral de Facebook para anuncios políticos. Anteriormente, pasó 18 años trabajando en todo el mundo como oficial de la CIA, asesora de la Casa Blanca, diplomática y directora de una empresa de riesgo global. 


No hay comentarios:

Publicar un comentario