fbpx
Sáb. Oct 1st, 2022

    La Comisión Europea propuso el miércoles una nueva regulación que exigiría a las empresas de tecnología escanear en busca de material de abuso sexual infantil (CSAM) y comportamiento de preparación, lo que genera preocupaciones de que podría socavar el cifrado de extremo a extremo (E2EE).

    Con ese fin, se espera que los proveedores de servicios en línea, incluidos los servicios de alojamiento y las aplicaciones de comunicación, escaneen de manera proactiva sus plataformas en busca de MASI, así como que informen, eliminen y deshabiliten el acceso a dicho contenido ilícito.

    Si bien los servicios de mensajería instantánea como WhatsApp ya se basan en versiones codificadas de MASI conocido para bloquear automáticamente nuevas cargas de imágenes o videos que coincidan con ellos, el nuevo plan requiere que dichas plataformas identifiquen y marquen nuevas instancias de MANI.

    «Las tecnologías de detección solo deben usarse con el fin de detectar el abuso sexual infantil», dijo el regulador . «Los proveedores tendrán que implementar tecnologías que sean lo menos intrusivas para la privacidad de acuerdo con el estado del arte en la industria, y que limiten la tasa de error de falsos positivos en la mayor medida posible».

    Un nuevo Centro de la UE sobre Abuso Sexual Infantil, que se establecerá de forma independiente para hacer cumplir las medidas, se ha encargado de mantener una base de datos de «indicadores» digitales de abuso sexual infantil, además de procesar y enviar informes legítimos para la aplicación de la ley.

    Además, las reglas requieren que las tiendas de aplicaciones se aseguren de que los niños se abstengan de descargar aplicaciones que «puedan exponerlos a un alto riesgo de solicitación de niños».

    La controvertida propuesta de tomar medidas drásticas contra el material de abuso sexual se produce días después de que se filtrara una versión preliminar de la regulación a principios de esta semana , lo que llevó al investigador de seguridad de la Universidad Johns Hopkins, Matthew Green, a afirmar que «Esto es Apple de nuevo».

    El gigante tecnológico, que el año pasado anunció planes para escanear y detectar MASI conocido en sus dispositivos, desde entonces retrasó el lanzamiento para «tomarse más tiempo en los próximos meses para recopilar información y realizar mejoras».

    Meta, del mismo modo, pospuso sus planes para admitir E2EE en todos sus servicios de mensajería, WhatsApp, Messenger e Instagram, hasta algún momento en 2023, afirmando que se está tomando el tiempo para «hacer esto bien».

    Una preocupación principal de privacidad y seguridad que surge de los dispositivos de escaneo en busca de imágenes ilegales de abuso sexual es que la tecnología podría debilitar la privacidad al crear puertas traseras para vencer las protecciones de E2EE y facilitar la vigilancia a gran escala.

    Esto también requeriría un acceso persistente de texto sin formato a los mensajes privados de los usuarios, lo que haría que E2EE fuera incompatible y erosionara la seguridad y la confidencialidad de las comunicaciones.

    «La idea de que todos los cientos de millones de personas en la UE tendrían sus comunicaciones privadas íntimas, donde tienen una expectativa razonable de que eso es privado, para ser escaneadas indiscriminadamente y generalmente las 24 horas del día, los 7 días de la semana, no tiene precedentes», dijo Ella Jakubowska. , asesor de políticas de European Digital Rights (EDRi), dijo a Politico.

    Pero la privacidad que ofrece el cifrado también está demostrando ser un arma de doble filo, ya que los gobiernos se defienden cada vez más de las preocupaciones de que las plataformas cifradas están siendo utilizadas indebidamente por actores maliciosos para el terrorismo, el delito cibernético y el abuso infantil.

    «El cifrado es una herramienta importante para la protección de la ciberseguridad y la confidencialidad de las comunicaciones», dijo la comisión . «Al mismo tiempo, los delincuentes podrían abusar de su uso como canal seguro para ocultar sus acciones, lo que impediría los esfuerzos para llevar a los perpetradores de abuso sexual infantil ante la justicia».

    El desarrollo destaca las luchas constantes de Big Tech para equilibrar la privacidad y la seguridad y, al mismo tiempo, aborda la necesidad de ayudar a las agencias de aplicación de la ley en su búsqueda para acceder a datos criminales.

    «La nueva propuesta es demasiado amplia, no proporcionada y daña la privacidad y seguridad de todos», dijo Electronic Frontier Foundation (EFF ) . «Los requisitos de escaneo están sujetos a salvaguardas, pero no son lo suficientemente fuertes como para evitar las acciones de intrusión en la privacidad que las plataformas deberán realizar».

    FUENTE: THN

    Por IFORENSEColombia

    IForense

    error: Content is protected !!
    A %d blogueros les gusta esto: