imagen destacada

Lanzará un sistema en busca de imágenes de abuso y explotación sexual contra las infancias y adolescencias

La verificación de fotografías de Apple en el propio IPhone ha despertado preocupación en usuarias y usuarios por el temor a que el material pueda ser explotado por las autoridades

Google ya escaneaba las imágenes y los videos que se suben a la nube (Google Drive).

Por Daniel Héctor Saban*
@danielhectorsa3

Apple buscará contenidos pederastas en las fotos
Apple buscará contenidos pederastas en las fotos

Al sumarse a este emprendimiento la compañía de Cupertino alertó al usuario del comienzo de un periodo de supervisión de la  actividad digital, en materia de imágenes.

La compañía Apple iniciará la vigilancia de los contenidos a partir del año próximo en Estados Unidos. Desde ese momento serán observados los espacios  subidos desde iPhone e IPad en busca de material pederasta.

Apple se ha esmerado en encontrar un método, el cual, al ser  utilizado no vulnere la privacidad de clientas y clientes, en la búsqueda de potenciales criminales.

El Parlamento de la Unión Europea, ha decidido aprobar hace pocas semanas una normativa intentando suspender temporalmente la Directiva de la Privacidad online, con la finalidad de combatir la muestra y difusión de abuso sexual o explotación sexual contra niñas, niños y adolescentes

Mientras tanto en Estados Unidos el Centro Nacional para Menores Desaparecidos y Explotados, hace tiempo que solicita la cooperación de los sistemas informáticos en la  búsqueda de perseguir a los pedófilos.

La pandemia: una oportunidad

Millones de niñas y niños se disponen a pasar más tiempo que nunca online. Para los depredadores es la situación más que ideal. Acosar, engañar, seducir, abusar, violar, grabar y por supuesto compartir.

Esa fue la situación detectada por la organización Child Rescue Coalition que ha creado una aplicación para llevar a cabo el rastreo de aquellos ordenadores que comparten abuso o explotación sexual contra niñas, niños y adolescentes (mal llamada “pornografía infantil”). Al aumentar la cantidad de infancias y adolescencias frente a las pantallas el material pedófilo ha crecido en un 500 por ciento.

En marzo de 2020, el confinamiento para poder frenar la COVID-19 se extiende por todos los continentes y en los foros pedófilos de la Internet hacen brindis por la situación, dado que millones de niñas, niños y adolescentes se dispusieron a pasar más tiempo que nunca frente a sus ordenadores.

Está comprobado que ante los casos de pedofilia, un 99% de los casos no se denuncia, ya que la mayoría de niñas y niños, no sabe que ha sido víctima de un abuso. Sus padres se enteran cuando se produce la detención del pedófilo.

Las alarmas no tardan en aparecer en la base esencial del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Abril de 2020, se convierte producto de la Semana Santa, en el mes más trágico en la historia de la muestra de abuso y explotación sexual en la infancia: cuatro millones de reportes NCMEC. Tres millones más que en abril de 2019.

Celia Carreira, inspectora jefa de la Sección de Protección al Menor de la Policía Nacional de España, señala que: “nunca habíamos visto nada igual. Con el confinamiento la ventana de oportunidad de los pedófilos se abrió de par en par”.

“Antes nadie tomaba precauciones. Ahora casi todo está encriptado, usan máquinas virtuales, navegan de forma anónima, pagan en criptomonedas: se han sofisticado.  Por eso las investigaciones son cada vez más complejas”, señala la inspectora

Mientras tanto en Florida, la organización Child Rescue Coalition, ha desarrollado una tecnología de rastreo para identificar ordenadores que comparten y descargan imágenes y videos de niños y niñas, sexualmente explícitos. Según este organismo se mantienen online 750.000 pedófilos en forma casi constante en el mundo e intercambian material. La policía de casi 100 países utiliza esta plataforma la cual ha contribuido al arresto de más de 12.000 pedófilos y al rescate de 2.500 niñas, niños y adolescentes.

Apple buscará en la nube los contenidos pederastas

La compañía de la manzanita se abocará a controlar los temas abarcados, en defensa de las infancias y adolescencias tratando de explicar que el método diseñado para vigilar los contenidos no interferirá en la privacidad de sus clientas y clientes.

El sistema que se utilizará consistirá en que cada vez que se suba una foto o video desde un dispositivo, se cruzará su hash antes de guardarse en el ICloud, automáticamente con un listado de contenidos ya identificados cómo pedófilos. Si se activa una alarma será un empleado de Apple quien verifique si los materiales observados son a su vez censurables. De ser afirmativo, se suspende la cuenta del usuario y se lo comunica a las autoridades. El proceso de supervisión se efectúa dentro del dispositivo y solo realiza una alerta en caso de alarma.

Apple buscará contenidos pederastas en las fotos
Apple buscará contenidos pederastas en las fotos

Si se detecta que se están enviando o recibiendo imágenes con material explícito se deberá efectuar la alerta a madres y padres como parte involucrada. La empresa Apple, monitorea con un sistema de machine learning, las comunicaciones efectuadas por niñas, niños y adolescentes por intermedio de su aplicación Messages, muy popular en los Estados Unidos.

Apple ha alterado su política de privacidad para tratar de combatir la explotación sexual de las infancias y adolescencia. Pero esta decisión conlleva un alto precio para la privacidad de usuarias y usuarios.

Diego Naranjo, asesor de la ONG europea EDRI, quien trabaja por los derechos humanos en la era digital sostiene que: “Apple ha decidido socavar la encriptación de extremo a extremo y hacer que sus usuarios sean vulnerables a la censura y la vigilancia”. Al permitirse el escaneo de fotos en las comunicaciones privadas, los productos Apple se convertirán en una amenaza para sus duelas y dueños.

Los grupos que luchan contra la muestra de abuso y explotación sexual en la infancia elogiaron a Apple, cuando se unió a Facebook, Microsoft y Google para tomar estas medidas. Sin embargo el jefe de WhatsApp, Will Cathcart, tuiteó sentirse preocupado y declaró que: “es la forma de dar un paso atrás en la privacidad de la gente. No es así cómo funciona la tecnología construida en países libres”.

Con Neural Hash, un nuevo sistema de Apple que permite identificar si el usuario carga imágenes de muestra de abuso o explotación sexual de niñas, niños y adolescentes en iCloud. Lo hace sin descifrar figuras con un sistema homomórfico que verifica hashes contra una base de datos de representaciones reportadas con anterioridad.

Apple dice que ni siquiera ellos pueden saber que hay en esas fotografías, asegurando que no vulneran la privacidad de usuarias y usuarios con este nuevo sistema.

La app Mensajes de IPhone detectará automáticamente imágenes sexualmente explícitas y las difuminara. Un alerta les indicará a niños, niñas y adolescentes lo que puede encontrar si desea abrirla, y le advertirá que sus padres serán advertidos y verán las fotografías al mismo tiempo.

(*) Columnista de Diario Digital Femenino
danielhsaban@hotmail.com

Dejar un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *