En la víspera de las elecciones europeas, una nueva ley emblemática obliga a las empresas tecnológicas a utilizar tácticas agresivas para limitar la propagación de desinformación, una ofensiva sin precedentes que contrasta drásticamente con la falta de leyes sobre redes sociales en Estados Unidos.
En toda la Unión Europea, Microsoft está desplegando equipos con habilidades en una gran cantidad de idiomas. Meta ha lanzado paneles que permiten a los estados europeos monitorear en tiempo real el contenido relacionado con las elecciones. Los equipos especializados en elecciones de TikTok están coordinando en un “Centro de Control de Misión” dedicado en su oficina de Dublín.
Esta oleada de actividad – una demostración histórica de fuerza para una industria acostumbrada a establecer sus propios estándares volubles para proteger las elecciones – responde a la nueva Ley de Servicios Digitales de la Unión Europea, que entró en vigor en agosto. La ley requiere que las grandes empresas tecnológicas implementen salvaguardias contra los “efectos negativos en el discurso cívico y los procesos electorales” o se enfrenten a elevadas multas de hasta el 6% de los ingresos globales.
Pero las empresas tienen una gran libertad para implementar sus planes de protección electoral, lo que genera preguntas sobre qué medidas cumplen con la nueva ley y si alguna será suficiente para proteger uno de los mayores ejercicios democráticos del mundo, ya que casi 400 millones de ciudadanos de la UE se dirigen a las urnas.
Las elecciones suponen una prueba para los reguladores de la UE, quienes han superado a otros gobiernos occidentales al promulgar controles expansivos sobre las redes sociales. Pero la aplicación comenzó hace menos de un año, lo que deja poco tiempo a los reguladores para imponer sanciones a las empresas que no cumplan antes de las elecciones.
En los últimos meses, la Unión Europea ha abierto múltiples investigaciones sobre las principales plataformas tecnológicas, abordando su impacto en niños y adolescentes, el manejo de contenido ilegal y la desinformación relacionada con las elecciones. Pero la comisión no ha impuesto ninguna penalización bajo la ley.
“Es una curva de aprendizaje en lo que respecta a la aplicación de regulaciones tecnológicas en Europa. Ese es ciertamente el caso de la Ley de Servicios Digitales”, dijo Drew Mitnick, el director de programa para políticas digitales en la Fundación Heinrich Böll en Washington.
En las últimas semanas, los funcionarios de la UE han recordado repetidamente a las empresas sus nuevas responsabilidades bajo la ley. La Unión Europea ha estado realizando pruebas de estrés de las principales plataformas para asegurarse de que estén listas para la votación. Los reguladores realizaron simulaciones en las que las empresas tuvieron que responder a escenarios ficticios de interferencia electoral, practicando cómo manejarían un “deepfake” viral en su plataforma o información manipulada que resultara en incitación a la violencia.
La semana pasada, Vera Jourova, una alta funcionaria de la UE, llevó el mensaje directamente a los líderes tecnológicos, viajando a California para advertir a los directores ejecutivos de grandes empresas, incluidas TikTok, X y Meta, que deben cumplir con la ley, en medio de preocupaciones de que Rusia está explotando las redes sociales para interferir en las elecciones europeas.
“Las plataformas saben que ahora están bajo reglas legalmente vinculantes, lo que podría resultar en sanciones elevadas”, dijo Jourova durante una rueda de prensa con periodistas en San Francisco.
La ley fue desarrollada hace años, antes del surgimiento de la inteligencia artificial generativa, que las personas pueden usar para crear rápida y fácilmente un video, imagen o grabación de audio de un político que aparentemente dice algo que en realidad nunca sucedió. La UE ha desarrollado un paquete de regulaciones que rigen la inteligencia artificial, pero esas regulaciones no entrarán en pleno vigor hasta dentro de varios años. Eso deja a los reguladores con un conjunto limitado de herramientas para responder a la tecnología que los reguladores advierten que podría potenciar la desinformación en un año de amenazas electorales en todo el mundo.
La actividad en Europa contrasta drásticamente con Estados Unidos, donde las empresas de redes sociales operan en gran medida en un vacío regulatorio. El Tribunal Supremo esta legislatura escuchó argumentos en una demanda, que alega que los esfuerzos de las agencias federales para coordinarse con las empresas de redes sociales para combatir la desinformación infringen la Primera Enmienda.
Mientras estaba en San Francisco, Jourova posó frente a un cartel negro con el logotipo en blanco de X, una empresa que se ha convertido en símbolo del paisaje en constante cambio de las batallas contra la desinformación. Jourova dijo que la directora ejecutiva de X, Linda Yaccarino, había prometido que la empresa haría su parte para proteger las elecciones, promocionando la función Community Notes de la plataforma, que permite a los usuarios agregar colaborativamente contexto a publicaciones potencialmente engañosas. Pero Jourova se mostró escéptica, diciendo a los periodistas que se necesita experiencia para sacar a la luz información precisa en línea.
“Ahora es el momento de que X haga lo que dice y aplique su compromiso de proteger la libertad de expresión, las elecciones y contrarrestar la desinformación”, tuiteó, compartiendo un video de ella hablando con Yaccarino en una elegante sala de conferencias.
El intercambio subraya los desafíos que enfrenta la Unión Europea, mientras busca aplicar la DSA en un entorno de información fragmentado. En un documento de 25 páginas publicado esta primavera, los reguladores europeos recomendaron que las plataformas realizaran campañas de alfabetización mediática, aplicaran etiquetas de verificación de hechos y etiquetaran claramente el contenido generado por IA. Si las empresas eligen no seguir esas directrices, “deben demostrar a la Comisión que las medidas tomadas son igualmente efectivas para mitigar los riesgos”, según un comunicado de prensa de marzo.
Desde que Elon Musk tomó el control de X con la promesa de instaurar una agenda de “libertad de expresión”, los funcionarios de la UE han advertido que en Europa, Musk debe seguir sus reglas. El año pasado, la Comisión Europea comenzó a investigar el manejo de X del contenido ilegal relacionado con la guerra Israel-Gaza, en su primera acción contra una empresa tecnológica estadounidense bajo la DSA. Pero casi ocho meses después de que la comisión enviara su primera solicitud a X, aún no ha impuesto ninguna penalización a la empresa.
En reuniones durante su gira por California, Jourova enfatizó la necesidad de más apoyo en idiomas locales europeos y una verificación de hechos más robusta. Pero dijo a los periodistas que la Unión Europea tiene preocupaciones únicas sobre cada plataforma, incluida la almacenamiento de datos de usuarios de la UE por parte de TikTok, que es propiedad de la empresa china ByteDance.
La UE abrió una investigación sobre el enfoque de Meta para moderar la desinformación en Facebook e Instagram a finales de abril. Advirtió que Meta no estaba haciendo lo suficiente para abordar la difusión de anuncios engañosos en su servicio, y que la plataforma estaba infringiendo la DSA al descontinuar CrowdTangle, una herramienta que permitía a reguladores, investigadores y periodistas monitorear la discusión de temas relacionados con las elecciones.
La investigación pareció afectar las prácticas de Meta. En mayo, la empresa lanzó paneles específicos en los estados de la UE que permiten a los reguladores europeos rastrear las publicaciones de los candidatos y las palabras clave específicas de sus países. Durante la reunión de Jourova con el director ejecutivo de Meta, Mark Zuckerberg, la semana pasada, la pareja acordó trabajar juntos para mejorar el acceso a los investigadores a las plataformas de Meta.
Mientras tanto, los grupos de defensa continúan encontrando lagunas en el cumplimiento. Esta semana, la organización internacional sin fines de lucro Global Witness presentó una queja ante el regulador de la UE después de encontrar que TikTok aprobó anuncios que incluían información falsa que animaba a las personas a votar en línea y por texto, infringiendo las reglas de las empresas contra la publicidad política pagada.
“No votes en persona en estas elecciones de la UE. Nuevos informes encuentran que las papeletas están siendo alteradas por trabajadores electorales. Vota en su lugar enviando un mensaje al 05505″, decía un anuncio.
El portavoz de TikTok, Morgan Evans, dijo en un comunicado que los anuncios fueron aprobados incorrectamente debido a un error humano. La empresa “inmediatamente instituyó nuevos procesos para ayudar a prevenir que esto ocurra en el futuro”, dijo Evans.
“En Europa, las grandes tecnológicas ahora están en el punto de mira para asegurarse de que aborden los riesgos que sus plataformas presentan para la democracia”, dijo Global Witness en un comunicado. “Con muchas elecciones importantes aún por venir en este año de megaciclo electoral, las empresas de redes sociales deben hacerlo bien en todo el mundo”.
(c) 2024 , The Washington Post
Texto original de Infobae
¿Ya conoces nuestro canal de YouTube? ¡Suscríbete!
Iche: El renacimiento gastronómico de Manabí
IX Congreso de la Red de Ciencias Políticas y RRII Estado vs Crimen transnacional: sociedad, poder y economía
Conexión vital: Productores y consumidores contra la desnutrición
Las Decisiones Eléctricas deben ser TÉCNICAS y no POLÍTICAS
¡La naturaleza bajo amenaza!: Especies silvestres disminuyen a pasos acelerados