Publicidad
Comparte esto en:

La «personalización» divisiva de las grandes tecnologías genera nuevos pedidos para que los feeds de contenido basados ​​en perfiles se desactiven de forma predeterminada en la UE

El seguimiento y la elaboración de perfiles de los usuarios por parte de las principales plataformas para alimentar contenidos «personalizados» ha generado durante mucho tiempo preocupaciones sobre posibles daños a los individuos y las sociedades democráticas, y los críticos sugieren que la tecnología impulsa la adicción a las redes sociales y plantea riesgos para la salud mental de las personas vulnerables. También existe la preocupación de que la tecnología esté socavando la cohesión social a través de una tendencia a amplificar contenidos divisivos y polarizadores que pueden empujar a las personas hacia extremos políticos, canalizando su indignación y enojo.

oh Carta, firmado por 17 eurodiputados de grupos políticos, incluidos el Grupo S&D, Izquierda, Los Verdes, PPE y Renew Europe, pide que los sistemas de recomendación de las plataformas tecnológicas se desactiven de forma predeterminada, una idea que se planteó durante las negociaciones sobre la Ley de Servicios Digitales de la UE. DSA), pero que no fue incluido en el reglamento final porque no contaba con una mayoría democrática. En cambio, los legisladores de la UE acordaron medidas de transparencia para los sistemas de recomendación, junto con el requisito de que las plataformas más grandes (las llamadas VLOP) proporcionen al menos un contenido que no esté basado en perfiles.

Publicidad

Pero en su carta los eurodiputados abogan por un incumplimiento generalizado de la tecnología. «Los sistemas de recomendación basados ​​en la interacción, en particular los sistemas hiperpersonalizados, representan una grave amenaza para nuestros ciudadanos y nuestra sociedad en general, ya que priorizan el contenido emocional y extremo, dirigiéndose específicamente a personas que probablemente sean provocadas», escriben.

“Este ciclo insidioso expone a los usuarios a contenido sensacionalista y peligroso, prolongando la participación en la plataforma para maximizar los ingresos publicitarios. El experimento de Amnistía en TikTok reveló que el algoritmo expuso a un niño simulado de 13 años a vídeos que glorificaban el suicidio en tan solo una hora. Además, la investigación interna de Meta reveló que el 64% de las membresías en grupos extremistas son el resultado de sus herramientas de recomendación, lo que exacerba la propagación de ideologías extremistas”.

Publicidad

La llamada continúa desarrollar pautas de seguridad en línea para plataformas para compartir videos, publicado a principios de este mes por la Comisión de Medios de Irlanda (Coimisiún na Meán), que será responsable de la supervisión local de la DSA una vez que la regulación sea aplicable a los servicios que entren dentro de su alcance el próximo febrero. Coimisiún na Meán está actualmente consultando sobre una guía que propone que las plataformas para compartir videos tomen “medidas para garantizar que los algoritmos de recomendación basados ​​en perfiles estén desactivados de forma predeterminada”.

La publicación de la guía se produjo después de un episodio de violentos disturbios cívicos en Dublín que, según sugirió la autoridad policial del país, fue impulsado por la desinformación difundida en las redes sociales y aplicaciones de mensajería por “hooligans” de extrema derecha. Y a principios de esta semana, el Consejo Irlandés de Libertades Civiles (ICCL), que lleva mucho tiempo haciendo campaña sobre cuestiones de derechos digitales, también pidió a la Comisión que apoye la propuesta de Coimisiún na Meán, así como que publique su propio informe aboga por que los feeds personalizados se desactiven de forma predeterminada, ya que sostiene que los algoritmos de las redes sociales están destruyendo las sociedades.

En su carta, los eurodiputados también se basan en la propuesta del regulador de medios irlandés, sugiriendo que abordaría «eficazmente» cuestiones relacionadas con los sistemas de recomendación que tienden a promover «contenidos emocionales y extremos» que, de manera similar, argumentan que podrían dañar la cohesión cívica. .

La carta también hace referencia a una propuesta recientemente adoptada Informe del Parlamento Europeo sobre el diseño adictivo de los servicios en línea y la protección del consumidor, que dijeron «destacó el impacto dañino de los sistemas de recomendación en los servicios en línea que se dedican a elaborar perfiles de personas, especialmente menores, con la intención de mantener a los usuarios en la plataforma el mayor tiempo posible, y así manipulándolos mediante la amplificación artificial del odio, el suicidio, la autolesión y la desinformación”.

“Pedimos a la Comisión Europea que siga el ejemplo de Irlanda y adopte medidas decisivas, no sólo aprobando esta medida en el marco del TRIS [Technical Regulations Information System] procedimiento, pero también recomienda esta medida como medida de mitigación que deben adoptar las plataformas en línea de gran tamaño [VLOPs] de conformidad con el artículo 35(1)(c) de la Ley de Servicios Digitales para garantizar que los ciudadanos tengan un control significativo sobre sus datos y su entorno en línea”, escriben los eurodiputados, y añaden: “La protección de nuestros ciudadanos, especialmente de las generaciones más jóvenes, es de suma importancia y creemos que la Comisión Europea tiene un papel crucial que desempeñar para garantizar un entorno digital seguro para todos. Esperamos su acción rápida y decisiva en este asunto”.

Según el TRIS, los Estados miembros de la UE deben notificar a la Comisión los proyectos de reglamentos técnicos antes de que sean adoptados como legislación nacional, de modo que la UE pueda llevar a cabo una revisión jurídica para garantizar que las propuestas sean coherentes con las normas del bloque. este caso, la DSA.

El sistema significa que es poco probable que las leyes nacionales que buscan “dorar” las regulaciones de la UE sean aprobadas. Por lo tanto, la propuesta de la Comisión de Medios de Irlanda de que los sistemas de recomendación de las plataformas de vídeo se desactiven de forma predeterminada puede no sobrevivir al proceso TRIS, ya que parece ir más allá de la letra de la ley pertinente.

Dicho esto, incluso si la propuesta de Coimisiún na Meán no pasa la revisión de coherencia jurídica de la UE, la DSA impone a las plataformas más grandes (también conocidas como VLOPS) el requisito de evaluar y mitigar los riesgos que surgen de los sistemas de recomendación. Entonces es al menos posible Las plataformas podrían decidir apagar estos sistemas de forma predeterminada como medida de cumplimiento para cumplir con sus obligaciones de mitigación de riesgos sistémicos de DSA.

Aunque ninguno ha llegado tan lejos, y claramente no es un paso que cualquiera de estas plataformas financiadas con publicidad e impulsadas por la participación elegiría como estándar comercial.

La Comisión se negó a comentar públicamente sobre la carta de los eurodiputados (o el informe de ICCL) cuando se lo preguntamos. En cambio, un portavoz señaló lo que describió como obligaciones “claras” sobre los sistemas de recomendación VLOP establecidos en el artículo 38 de la DSA, que requieren que las plataformas proporcionen al menos una opción para cada uno de estos sistemas que no se base en perfiles. Pero pudimos discutir el debate sobre el perfil de alimentación con un funcionario de la UE hablando de fondo, por lo que pudimos hablar con más libertad.

Estuvieron de acuerdo en que las plataformas podrían optar por desactivar los sistemas de recomendación basados ​​en perfiles de forma predeterminada como parte de su cumplimiento de la mitigación de riesgos sistémicos de DSA, pero confirmaron que ninguna ha llegado tan lejos por sí sola hasta la fecha.

Hasta ahora, solo hemos visto casos en los que los feeds sin perfil se han puesto a disposición de los usuarios como una opción, como en TikTok e Instagram, para cumplir con el requisito antes mencionado (artículo 38) de la DSA de brindar a los usuarios la opción de evitar este tipo de personalización de contenidos. No entanto, isto exige uma recusa ativa por parte dos utilizadores – ao passo que a predefinição dos feeds para a não criação de perfis seria, claramente, um tipo mais forte de regulamentação de conteúdos, uma vez que não exigiria que a ação do utilizador entrasse en vigor.

El funcionario de la UE con el que hablamos confirmó que la Comisión está analizando los sistemas de recomendación en su calidad de ejecutor de la DSA en los VLOP, incluso a través del proceso formal que se abrió en X a principios de esta semana. Los sistemas de recomendación también han sido el foco de algunas de las solicitudes formales de información que la Comisión ha enviado a los VLOP, incluida una a Instagram centrada en los riesgos para la seguridad infantil, nos dijeron. Y acordaron que la UE podría obligar a las plataformas más grandes a desactivar los feeds personalizados de forma predeterminada en su papel de ejecutor, es decir, utilizando los poderes que tiene para hacer cumplir la ley.

Pero sugirieron que la Comisión sólo tomaría esa medida si determinaba que sería eficaz para mitigar riesgos específicos. El funcionario señaló que existen múltiples tipos de fuentes de contenido basadas en perfiles, incluso por plataforma, y ​​enfatizó la necesidad de que cada uno sea considerado en contexto. En términos más generales, pidieron “matices” en el debate sobre los riesgos de los sistemas de recomendación.

El enfoque de la Comisión en este caso será realizar evaluaciones de las preocupaciones caso por caso, sugirieron, abogando por intervenciones políticas basadas en datos sobre los VLOP en lugar de medidas generales. Después de todo, se trata de un conjunto de plataformas lo suficientemente diversas como para abarcar gigantes del intercambio de vídeos y de las redes sociales, pero también servicios minoristas y de información (y (más recientemente) sitios pornográficos. El riesgo de que las decisiones de ejecución no estén sujetas a impugnaciones legales si no hay pruebas sólidas que las respalden es claramente una preocupación para la Comisión.

El funcionario también argumentó que es necesario recopilar más datos para comprender incluso las facetas básicas relevantes para el debate sobre los sistemas de recomendación, como por ejemplo si la personalización desactivada de forma predeterminada sería eficaz como medida de mitigación de riesgos. Los aspectos conductuales también necesitan más estudios, sugirieron.

Los niños, especialmente, pueden estar muy motivados para sortear tal limitación simplemente invirtiendo el escenario, argumentaron, como se ha demostrado que hacen los niños cuando se trata de escapar del control de los padres, alegando que no está claro si la desactivación predeterminada de los sistemas de recomendación basado en perfiles sería realmente eficaz como medida de protección infantil.

En general, el mensaje de nuestra fuente de la UE fue una petición para que se diera tiempo al reglamento (y a la Comisión) para trabajar. La DSA sólo entró en vigor para el primer conjunto de VLOP a finales de agosto. Sin embargo, apenas esta semana vimos la primera investigación formal abierta (sobre X), que incluye un componente del sistema de recomendación (relacionado con preocupaciones sobre el sistema de moderación de contenido colaborativo de X conocido como Notas de la comunidad).

También hemos visto una avalancha de solicitudes formales de información por parte de plataformas en las últimas semanas, después de que presentaron su primer conjunto de informes de evaluación de riesgos, lo que indica que la Comisión no está satisfecha con el nivel de detalle proporcionado hasta ahora. Esto implica que pronto podrían tomarse medidas más firmes a medida que la UE asuma su nuevo papel de sheriff regional de Internet. Así que la conclusión es que 2024 parece ser un año importante para que la respuesta política del bloque afecte a las grandes empresas tecnológicas. Y para evaluar si la aplicación de la ley por parte de la UE produce o no los resultados que desean los defensores de los derechos digitales.

«Estas son cuestiones sobre las que estamos preguntando a las plataformas bajo nuestros poderes legales, pero el algoritmo de Instagram es diferente a X, es diferente a TikTok; tendremos que tener matices en esto», nos dijo el funcionario, sugiriendo que el enfoque de la Comisión dará un giro. crear un mosaico de intervenciones, que pueden incluir exigir diferentes estándares para los VLOP dependiendo de los contextos y riesgos en diferentes fuentes. «Preferimos adoptar un enfoque que siempre tenga en cuenta las especificidades de las plataformas».

“Ahora estamos iniciando esta acción de inspección. Y esta es, de hecho, una razón más para no diluir nuestra energía en estructuras jurídicas rivales o algo así”, añadieron, haciendo un llamamiento a los defensores de los derechos digitales para que se unan al programa de la Comisión. “Prefiero que trabajemos dentro del marco de la DSA, que puede abordar las cuestiones que [the MEPs’ letter and ICCL report] está aumentando los sistemas de recomendación y amplificando el contenido ilegal”.

Publicidad


Comparte esto en:
Publicidad

Publicaciones Similares

Deja un comentario