mayo 19, 2022

Por qué las empresas de redes sociales tendrán dificultades para mantenerse al día con las nuevas normas de la UE sobre contenido ilegal

Índice del Contenido

Crédito: Unsplash/CC0 dominio público

Las redes sociales nos han permitido conectarnos entre nosotros como nunca antes. Pero tuvo un precio: les dio a todos un megáfono, incluidos los terroristas, los pedófilos y los grupos de odio. Las instituciones de la UE llegaron recientemente a un acuerdo sobre la Ley de Servicios Digitales (DSA), que Destinado a “Asegúrese de que lo que es ilegal fuera de línea se trate como ilegal en línea”.

El gobierno del Reino Unido también tiene un proyecto de ley de seguridad en línea en proceso, destinado a fortalecer los requisitos para que las plataformas digitales eliminen material ilegal.

La escala a la que operan las principales plataformas de redes sociales (pueden tener miles de millones de usuarios en todo el mundo) presenta un gran desafío para monitorear el contenido ilegal. Lo que es ilegal en un país puede ser expresión legal y protegida en otro. Por ejemplo, normas relativas a las críticas al gobierno oa los miembros de una familia real.

Esto se complica cuando un usuario publica desde un país y la publicación se comparte y se ve en otros países. En el Reino Unido incluso hubo situaciones en las que era legal imprimir algo en la portada de un periódico en Escocia, pero no en Inglaterra.

La DSA deja que los estados miembros de la UE definan el contenido ilegal en sus propias leyes.

El enfoque de la base de datos

Incluso cuando la ley es clara, como alguien que vende drogas controladas o recluta para grupos terroristas prohibidos, la moderación de contenido en las plataformas de redes sociales enfrenta desafíos de escala.

Los usuarios hacen cientos de millones de publicaciones al día. La automatización puede detectar contenido ilegal conocido basándose en una huella digital borrosa del contenido del archivo. Pero no funciona sin una base de datos y es necesario revisar el contenido antes de agregarlo.

En 2021, Internet Watch Foundation investigó más informes que en sus primeros 15 años de existencia, incluidos 252 000 que contenían casos de abuso infantil: un aumento interanual del 64 % desde 2020.

Sin embargo, los nuevos videos e imágenes no serán capturados por una base de datos. Si bien la inteligencia artificial puede intentar encontrar contenido nuevo, no siempre lo hará bien.

¿Cómo comparar las plataformas sociales?

A principios de 2020, Facebook tenía alrededor de 15 000 moderadores de contenido en los Estados Unidos, frente a los 4500 de 2017. TikTok afirmó tener 10 000 personas trabajando en “confianza y seguridad” (que es un poco más amplio que la moderación de contenido), a fines de 2020 Un informe de la Escuela de Negocios Stern de la NYU de 2020 sugirió que Twitter tenía alrededor de 1500 moderadores.

Facebook afirma que en 2021, la IA eliminó el 97% del contenido que marcaron como discurso de odio, pero no sabemos qué se perdió, no se informó o no se eliminó.

La DSA obligará a las redes sociales más grandes a abrir sus datos e información a investigadores independientes, lo que debería aumentar la transparencia.

Moderadores humanos versus tecnológicos

Revisar contenido violento, perturbador, racista y lleno de odio puede ser traumático para los moderadores y ha dado lugar a un acuerdo legal de 52 millones de dólares. Algunos moderadores de redes sociales informan que tienen que revisar hasta 8,000 piezas de contenido reportadas por día.

Si bien existen técnicas emergentes basadas en IA que intentan detectar tipos específicos de contenido, las herramientas basadas en IA luchan por distinguir entre contenido ilegal y desagradable o potencialmente dañino (pero legal). AI puede marcar incorrectamente contenido inofensivo, perder contenido dañino y aumentará la necesidad de revisión humana.

Según los informes, los propios estudios internos de Facebook encontraron casos en los que se tomaron medidas incorrectas contra las publicaciones hasta “el 90% del tiempo”. Los usuarios esperan consistencia, pero es difícil lograrlo a gran escala y las decisiones de los moderadores son subjetivas. Los casos de áreas grises frustrarán incluso las pautas más específicas y prescriptivas.

Equilibrio

El desafío también se extiende a la desinformación. Hay una delgada línea entre proteger la libertad de expresión y la libertad de prensa y evitar la difusión deliberada de contenido falso. Los mismos hechos a menudo se pueden expresar de manera diferente, lo cual es bien conocido por cualquiera que esté familiarizado con la larga historia de “giro” en la política.

Las redes sociales a menudo dependen de que los usuarios reporten contenido dañino o ilegal, y la DSA busca reforzar esto. Pero un enfoque de moderación excesivamente automatizado puede marcar o incluso ocultar contenido que llega a un número determinado de informes. Esto significa que los grupos de usuarios que deseen eliminar contenido o visualizaciones pueden armar la denuncia masiva de contenido.

Las empresas de redes sociales se centran en el crecimiento de los usuarios y el tiempo que pasan en la plataforma. Mientras el abuso no los detenga, es probable que ganen más dinero. Por eso es importante que las plataformas tomen medidas estratégicas (pero potencialmente polarizadoras), como la destitución del expresidente estadounidense Donald Trump. de Twitter.

La mayoría de las demandas hechas por DSA son razonables por sí mismas, pero serán difíciles de implementar a gran escala. Una mayor supervisión del contenido conducirá a un mayor uso de la automatización, que no puede realizar evaluaciones subjetivas del contexto. Las llamadas pueden ser demasiado lentas para proporcionar un recurso significativo si un usuario recibe por error una prohibición automática.

Si las sanciones legales por errores de moderación de contenido son lo suficientemente altas para las redes sociales, es posible que no tengan otra opción a corto plazo que limitar más cuidadosamente lo que obtienen los usuarios. El enfoque de TikTok para el contenido seleccionado a mano ha sido ampliamente criticado. El sesgo de la plataforma y las “burbujas de filtro” son una preocupación real. Se crean burbujas de filtro donde el contenido que se le presenta es seleccionado automáticamente por un algoritmo, que intenta adivinar lo que desea ver a continuación, en función de datos como lo que ha visto anteriormente. Los usuarios a veces acusan a las empresas de redes sociales de sesgo de plataforma o moderación injusta.

¿Hay alguna manera de moderar un megáfono global? Diría que la evidencia dice que no, al menos no a gran escala. Es probable que veamos la respuesta a través de la aplicación de la DSA en los tribunales.


Los moderadores de Facebook presionan por protecciones de seguridad contra la pandemia


Proporcionado por La Conversación

Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.La conversación

Cita: Por qué las empresas de redes sociales tendrán dificultades para mantenerse al día con las nuevas normas de la UE sobre contenido ilegal (10 de mayo de 2022) Obtenido el 10 de mayo de 2022 de https://techxplore.com/news/2022-05-social-media-firms-struggle -UE. html

Este documento está sujeto a derechos de autor. Excepto para el uso justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin permiso por escrito. El contenido se proporciona únicamente a título informativo.

LEER  ¿El ideal de no intervención de Musk para Twitter tendrá un amplio atractivo?