Doxa 1244

Está en plataformas digitales para hacer de Internet un lugar mejor

Tres estrategias para apoyar el bienestar digital de los usuarios.

Por RIchard Culatta 
Redes sociales
Medios de comunicación social
Harvard Business Review

#Doxa #redes #sociales #digital #Internet #estrategías #bienestar #bots #Web
Resumen. Durante años, los usuarios de la tecnología digital han tenido la responsabilidad exclusiva de navegar por la desinformación, la negatividad, el riesgo de privacidad y el abuso digital, por nombrar algunos. Pero mantener el bienestar digital es un gran peso que se debe poner sobre los hombros de una persona. ¿Qué pasaría si no tuviéramos que soportar tanta carga de mantener nuestro bienestar digital? ¿Qué pasaría si esperáramos un poco más de los proveedores de plataformas digitales que hospedaron nuestras interacciones virtuales?
Hay tres responsabilidades clave que debemos esperar de todos nuestros proveedores de plataformas digitales para ayudar a crear espacios digitales más positivos. Primero, establezca normas y estándares significativos para la participación en espacios virtuales y comuníquelos claramente a los usuarios. En segundo lugar, verifique a los usuarios humanos y elimine los bots. En tercer lugar, mejore la conservación del contenido abordando las publicaciones que incitan al racismo, la violencia o la actividad ilegal; identificar información errónea; y alentar a los usuarios a ser moderadores de contenido.

Vivimos en un mundo de acceso a la tecnología sin precedentes. Incluso antes de la pandemia del coronavirus, la tecnología nos permitió estar conectados con familiares y amigos, transmitir videos a nuestros hogares y aprender nuevas habilidades con solo tocar un dedo. Cuando la pandemia nos obligó a estar socialmente distantes, la tecnología proporcionó una forma para que muchas de nuestras actividades más importantes de la vida continuaran como la escuela, el trabajo, la iglesia, las reuniones familiares, las citas con el médico y más, trasladadas a espacios virtuales.

Sin embargo, como cualquier herramienta poderosa, la tecnología también conlleva peligros. Además de conectar a las familias y acelerar el aprendizaje, nuestro mundo digital también puede ser una fuente de desinformación, negatividad, riesgo de privacidad y abuso digital, por nombrar algunos. Incluso las buenas aplicaciones y sitios web, si se usan en exceso, pueden eliminar otras actividades físicas y digitales saludables de nuestras vidas. Todos hemos sentido la creciente presión de intentar mantener nuestro bienestar como resultado de estos desafíos digitales. Por supuesto, nosotros, los ciudadanos de nuestro mundo digital, tenemos la responsabilidad de garantizar nuestra propia salud digital. Depende de nosotros encontrar fuentes de información precisas, tomar decisiones sobre qué datos personales estamos dispuestos a intercambiar por el acceso a la experiencia en línea o cómo garantizar el equilibrio entre las diferentes actividades en línea.Estas responsabilidades se transfieren a nuestras familias, donde nos sentimos presionados para crear la cultura digital adecuada para que nuestros hijos y otros miembros de la familia también prosperen. Mantener el bienestar digital es un gran peso que se debe poner sobre los hombros de una persona.

Pero, ¿y si no tuviéramos que cargar con la misma carga de mantener nuestro bienestar digital? ¿Qué pasaría si esperáramos un poco más de los proveedores de plataformas digitales que hospedaron nuestras interacciones virtuales?

El autor y emprendedor Eli Pariser dice que deberíamos esperar más de nuestros proveedores de plataformas digitales a cambio del poder que les damos sobre nuestro discurso. Él cree que deberíamos preguntarnos no solo cómo hacemos que las herramientas digitales sean fáciles de usar, sino también cómo hacemos que las herramientas digitales sean accesibles para el público. En otras palabras, es nuestra responsabilidad asegurarnos de que nuestras plataformas digitales nunca sirvan a las personas a expensas del tejido social del que todos dependemos.

Con eso en mente, veamos tres responsabilidades clave que debemos esperar de todos nuestros proveedores de plataformas digitales.

Establecer normas significativas

Las plataformas virtuales deben establecer y comunicar claramente estándares de participación en sus espacios virtuales. Algunos ya hacen un buen trabajo en esto, incluidos Flickr, Lonely Planet y The Verge. Las normas comunitarias de Flickr son pautas simples y legibles que están claramente diseñadas para que las comprendan los miembros de la comunidad (no solo los abogados). Incluyen algunos "dos" claros como:
Juega bien. Somos una comunidad global de muchos tipos de personas, que tienen derecho a sentirse cómodos y que pueden no pensar lo que piensas, creer lo que crees o ver lo que ves. Por lo tanto, sea cortés y respetuoso en sus interacciones con otros miembros.
Y también incluyen algunos "no" claros:
No seas espeluznante. Conoces al chico. No seas ese tipo. Si eres ese tipo, tu cuenta será eliminada.
Todos de las plataformas digitales debe establecer un código de conducta claro y debe integrarse activamente en todo el espacio virtual. Incluso los ejemplos que mencioné tienen sus normas bastante profundamente enterradas en la esquina posterior de sus sitios. Una forma de hacerlo es mediante la publicación de carteles, creando mensajes y recordatorios de las normas de comportamiento en toda la plataforma. Imagínese si, en lugar de un anuncio más de calcetines nuevos en Pinterest, apareciera un recordatorio para "publicar algo amable sobre otra persona hoy". O imagínese si, en lugar de ver otro anuncio de seguro de automóvil antes de que se reproduzca un video de YouTube, se nos presenten consejos sobre cómo no estar de acuerdo respetuosamente con el contenido del video de otra persona. Claro, esto haría que los proveedores de la plataforma renunciaran a una fracción de un porcentaje de los ingresos publicitarios,pero esa es una expectativa muy razonable para ellos si quieren tener una plataforma responsable y confiable.

Verificar usuarios humanos

Una segunda expectativa de los proveedores de plataformas es tomar más en serio la responsabilidad de identificar a los usuarios de sus plataformas que no son humanos. Algunas de las publicaciones más divisivas que inundan el mundo virtual cada día son generadas por bots, que son capaces de discutir sus posiciones digitales con humanos desprevenidos durante horas y horas. Un estudio encontró que durante el apogeo de la pandemia Covid-19, casi la mitad de las cuentas que tuiteaban sobre el virus eran bots. Tanto YouTube como Facebook tienen tantos usuarios de robots como humanos. En un período de tres meses en 2018, Facebook eliminó más de 2 mil millones de cuentas falsas, pero hasta que se agregue una verificación adicional, se crearán nuevas cuentas, también por bots, casi tan rápido como se eliminan las antiguas.

Además de etiquetar claramente a los bots como bots, los proveedores de plataformas también deberían hacer más para verificar la identidad de los usuarios humanos, particularmente aquellos que son ampliamente seguidos. Muchas de las partes oscuras y espeluznantes de nuestro mundo virtual existen porque las plataformas en línea han sido irresponsablemente laxas a la hora de verificar que los usuarios son quienes dicen ser. Esto no significa que las plataformas aún no puedan permitir usuarios anónimos, pero dichas cuentas deben estar claramente etiquetadas como no verificadas para que cuando su "vecino" le pida a su hija información sobre su escuela en línea, pueda reconocer rápidamente si debe sospechar. La tecnología para hacer este tipo de verificación existe y es bastante sencilla (los bancos y las aerolíneas la usan todo el tiempo). Twitter puso a prueba este enfoque a través de cuentas verificadas, pero luego se detuvo, alegando que no tenía el ancho de banda para continuar.La falta de expectativa por identidades verificadas permite el fraude, el ciberacoso y la desinformación. Si las plataformas digitales quieren que confiemos en ellos para ser el anfitrión de nuestras comunidades virtuales, debemos esperar que identifiquen y llamen a los usuarios que no son quienes dicen ser.

Mejorar la curación del contenido

La tercera responsabilidad de las plataformas digitales es ser más proactivos en la curaduría del contenido en sus plataformas. Esto comienza con abordar rápidamente las publicaciones que incitan al racismo, la violencia, la actividad terrorista o características que facilitan la compra de drogas ilegales, la participación en el robo de identidad o la trata de personas. En 2019, Twitter comenzó a agregar etiquetas de advertencia a los tuits de acoso o engañosos de líderes políticos. Un ejemplo notable es cuando se marcó un tweet del expresidente Donald Trump.por afirmar que las boletas electorales por correo conducen a un fraude electoral generalizado. Apple también se ha tomado esta responsabilidad en serio con un riguroso proceso de revisión de las aplicaciones que se agregan a sus dispositivos móviles. A diferencia de la web, Apple no permite aplicaciones que distribuyan pornografía, fomenten el consumo de drogas ilegales o animen a los menores a consumir alcohol o fumar en sus dispositivos. Apple y Google han comenzado a exigir que las aplicaciones en sus respectivas tiendas tengan planes de moderación de contenido para permanecer.

La moderación de contenido eficaz también significa hacer más para empoderar a los moderadores humanos. Reddit y Wikipedia son los ejemplos más grandes de plataformas que dependen de moderadores humanos para asegurarse de que sus experiencias en la comunidad estén en línea con sus normas establecidas. En ambos casos, los humanos no solo están desempeñando un papel policial, sino que participan activamente en el desarrollo del contenido de la plataforma. Ambos dependen de curadores voluntarios, pero podríamos esperar razonablemente que los moderadores humanos sean compensados ​​por su tiempo y energía para hacer que los espacios comunitarios virtuales sean más efectivos. Esto se puede hacer de distintas maneras. Por ejemplo, YouTube actualmente incentiva a los creadores de contenido a subir videos a su plataforma ofreciéndoles un porcentaje de los ingresos publicitarios; Se podría dar un incentivo similar para alentar a los usuarios que ayuden a seleccionar el contenido en estas plataformas.Sin embargo, el enfoque actual de YouTube es usar bots para moderar y curar. Como autor y tecnólogoJames Bridle señala que el contenido en YouTube creado por bots también está controlado por bots, los usuarios humanos de la plataforma deben pagar el precio.

Otra forma sencilla de empoderar a los usuarios como moderadores es proporcionar opciones más matizadas para reaccionar al contenido de los demás. En este momento, "gustar" o "disgustar" son todas las opciones que tenemos para responder al contenido en plataformas compartidas. Algunas plataformas han agregado una cara feliz, un corazón y, más recientemente, un abrazo, pero ese sigue siendo un conjunto increíblemente limitado de opciones de respuesta para la variedad de contenido que fluye en nuestro mundo digital.

En el mundo físico, la retroalimentación negativa suave es una herramienta fundamental para ayudar a las personas a aprender las normas del espacio comunitario. La mayor parte de la retroalimentación que damos en el mundo físico es mucho más sutil que lo que podemos hacer en línea. Si estuvo en una conversación con alguien que dijo que no iba a recibir una vacuna porque contiene un microchip de seguimiento secreto, podríamos responder con un "No sé sobre eso" o un "mmm, es posible que desee verificar tus hechos ". Pero en el mundo virtual, nuestra única opción podría ser hacer clic en el botón de "pulgar hacia abajo", si es que ese botón existe en esa plataforma. En un mundo donde las reacciones muy sutiles tienen un gran significado, dar un gran "pulgar hacia abajo" a un amigo es como el equivalente social de un asalto frontal total. Por otro lado, si eliges eludir el momento incómodo dejando de seguir a tu amigo,usted acaba de asegurarse de que nunca más escuchen sus comentarios, probablemente reduciendo su grupo de caja de resonancia a personas con puntos de vista similares, lo que es aún menos útil para establecer normas sociales compartidas. ¿Qué pasaría si en lugar de simplemente "gustar" o "disgustar", pudiéramos etiquetar las cosas como "Cuestiono la fuente de esta publicación"?

Los proveedores de plataformas digitales se preocupan por lo que piensan sus usuarios; su existencia continua depende de nuestra continua confianza. Debemos esperar que las plataformas digitales establezcan e infundan claramente sus entornos con medios que enseñen normas de comportamiento adecuadas en sus espacios digitales. Deberíamos pedirles que hagan un mejor trabajo al etiquetar claramente a los usuarios no humanos de sus plataformas y empoderar a sus usuarios para que se involucren más en la curación de contenido.

Adaptado del libro Digital for Good: Raising Kids to Thrive in an Online World (Harvard Business Review Press, 2021).

RIchard Culatta es el director ejecutivo de la Sociedad Internacional de Tecnología en la Educación (ISTE). Antes de unirse a ISTE, se desempeñó como Director de Innovación del estado de Rhode Island y fue designado por el presidente Barack Obama para dirigir la Oficina de Tecnología Educativa del Departamento de Educación de EE. UU. Es el autor de Digital for Good: Raising Kids to Thrive in an Online World.

 

No hay comentarios:

Publicar un comentario