Our website use cookies to improve and personalize your experience and to display advertisements(if any). Our website may also include cookies from third parties like Google Adsense, Google Analytics, Youtube. By using the website, you consent to the use of cookies. We have updated our Privacy Policy. Please click on the button to check our Privacy Policy.

Los niños necesitan protección contra el abuso sexual, la cuestión es cómo | Tecnología

¿Aceptaríamos que un cartero leyese todas nuestras cartas (o mensajes de WhatsApp) para prevenir crímenes? Este es el debate que se decidirá en las próximas semanas. La Unión Europea, bajo la presidencia de España, debate un nuevo reglamento para prevenir la diseminación de imágenes de abusos sexuales infantiles.

La propuesta ha sido la norma tecnológica más criticada de la última década: desde Edward Snowden hasta el Supervisor Europeo de Protección de Datos, pasando por la Comisaria de Derechos Humanos del Consejo de Europa, Dunja Mijatovic, y cientos de académicos, la inmensa mayoría de los expertos en tecnología y en derechos humanos consideran la propuesta una amenaza para la confidencialidad de las comunicaciones y, por tanto, la libertad de expresión, de asociación, de movimiento y, en general, una amenaza para nuestra independencia.

Los proponentes de esta ley, particularmente la Comisaria de Asuntos Internos Ylva Johansson y el resto del Directorado que dirige dentro de la Comisión Europea, centran el debate en una pretendida dicotomía entre la protección de los niños y la protección de otros derechos humanos. Este ángulo esconde de la opinión pública una cuestión fundamental: ¿es esta propuesta adecuada para proteger a los niños? Solo si la respuesta es sí, el debate planteado tiene sentido.

La primera pregunta es: ¿se puede conseguir el objetivo de la propuesta tal y como se ha planteado? ¿Existe la tecnología necesaria para implementar esta directiva de forma adecuada? La respuesta desde el punto de vista técnico es simple: no. Las técnicas de detección actuales no son lo precisas que se necesitaría para detectar material de explotación y abuso infantil (MESI): o bien dejarían pasar una gran cantidad de MESI, o bien señalarían una gran cantidad de falsos positivos (material erróneamente marcado como MESI). Dado el volumen de material que se va a escanear, procesar estos falsos positivos requeriría muchísima mano de obra actualmente no disponible –o resultaría en una gran cantidad de acusaciones falsas–.

Pero el problema no acaba ahí. No solo estas técnicas son ineficaces, sino que son tremendamente fáciles de eludir. Múltiples artículos demuestran que manipulaciones muy sencillas, que no modifican la apariencia al ojo humano, pueden hacer que los detectores no marquen MESI verdadero; o que marquen material inofensivo como MESI. Por lo tanto, aquellos que quieran distribuir MESI lo seguirán haciendo impunemente, mientras que el resto de ciudadanos tendrán todos sus contenidos escaneados sin ninguna ganancia. Se correrá, pues, el riesgo de que adolescentes que compartan contenidos sexuales consentidos, por ejemplo, vean cómo sus fotos más íntimas pasan por las manos de la policía, de Europol y de cualquier funcionario de la futura agencia europea dedicada a este asunto que tenga acceso a ellas. O que padres consultando acerca de enfermedades de sus hijos sean acusados de horribles crímenes con las consecuencias que esto pueda tener.

Desde un punto de vista técnico, no hay garantías de que la norma vaya a tener ningún efecto positivo. A pesar de la cantidad de veces que científicos y miembros de la sociedad civil han demandado a los proponentes que muestren alguna evidencia de los supuestos beneficios, no hemos visto ninguno; por el contrario, existe amplia evidencia de que estos beneficios no se pueden conseguir.

La segunda pregunta es: ¿la medida es proporcional l? ¿Puede implementarse esta ley sin riesgos de causar grandes daños a los derechos fundamentales de todos, incluyendo a los propios niños que trata de proteger? La respuesta, desafortunadamente, vuelve a ser no.

La propuesta, si se implementa, romperá toda garantía de confidencialidad que ahora mismo da el cifrado. La Comisaria Johansson y las empresas de inteligencia artificial que promueven la propuesta (como Thorn o Microsoft) dicen que no hay riesgo alguno, ignorando la definición de confidencialidad. Decir que esta propuesta legislativa para escanear todas las comunicaciones electrónicas no afecta a la confidencialidad y a la privacidad es como decir que leer una carta antes de meterla en el sobre no impacta a la confidencialidad de las comunicaciones analógicas (por ejemplo, un sobre que protege nuestra correspondencia).

En este contexto, cabe destacar el papel principal de los lobbies de las empresas de inteligencia artificial que ha quedado destapado tras la investigación que se ha publicado recientemente por medios independientes y que revela la conjunción de intereses privados, de Europol y de ciertos actores políticos para prohibir de facto la confidencialidad de las comunicaciones.

El otro punto al que todavía no se ha respondido es cómo se va a garantizar que las capacidades de escaneo solo se puedan utilizar para MESI. La realidad es que, de nuevo, técnicamente no se puede. Los algoritmos solo comprueban si unos bits se parecen a otros bits, no pueden decidir si es MESI o no. De momento solo hay una promesa de que no será expandido, y ejemplos del pasado que dicen que probablemente esto ocurrirá, incluyendo revelaciones de que, por ejemplo, Europol ya ha solicitado acceso a todos los datos (ilegales o no) que puedan ser recogidos como resultado de la aplicación de esta ley.

¿Quién apoya una norma tan invasiva cómo esta? Una gran parte de los niños, adolescentes, e incluso de varios supervivientes de abusos sexuales no lo hacen. De acuerdo con un estudio europeo, alrededor de 80% de niños en la UE dicen que no se sentirían cómodos siendo políticamente activos o explorando su sexualidad si supiesen que sus comunicaciones están siendo espiadas continuamente. El mismo estudio muestra cómo dos tercios de los jóvenes europeos usan aplicaciones como WhatsApp, Telegram o Signal que utilizan el cifrado, y como ese mismo número está en desacuerdo que sus conversaciones deben ser leídas con antelación.

Los supervivientes de abusos tampoco apoyan el borrador de reglamento: Alexander Hanff, un activista que fue víctima de abusos sexuales, alerta de que la propuesta legislativa de la Comisaria Johansson llevará a que los supervivientes se sientan desprotegidos cuando busquen apoyo de las autoridades. Otra víctima de abusos sexuales, Marcel Schneider, ha denunciado a Facebook por leer sus mensajes privados y eliminar así la confidencialidad para víctimas de abusos. Ni siquiera las fuerzas policiales están convencidas: Tanto el FBI en Estados Unidos como oficiales de policía en los Países Bajos y en Alemania han advertido de que el sistema producirá más informes, muchos de ellos con falsas alarmas, y cómo eso hará más difícil encontrar a los criminales y proteger a las víctimas. Lamentablemente, el Gobierno español mantiene una propuesta favorable a prohibir la confidencialidad de las comunicaciones prohibiendo el cifrado, y se alinea de forma inesperada con el eurodiputado del Partido Popular español que lidera la discusión en el Parlamento Europeo, Javier Zarzalejos.

En definitiva, la propuesta en su forma actual no garantiza ninguna mejora y es una amenaza a nuestra democracia. Hay que proteger a los niños, sin duda. El futuro de nuestra sociedad depende de ellos. Pero hay que hacerlo de manera efectiva y segura. La propuesta de la Comisión no es ninguna de las dos.

Carmela Troncoso es investigadora de la Escuela Politécnica Federal de Lausana y líder del equipo de científicos que desarrolló el protocolo de privacidad de las aplicaciones de rastreo de la Covid.

Diego Naranjo es responsable de políticas públicas de la ONG a favor de los derechos digitales EDRi.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_