Inteligencia artificial vs pornografía infantil

Empresas como Google apuestan por esta tecnología y las redes neuronales para combatir la comisión de delitos

De acuerdo con la empresa Comstor los bancos usarán con mayor frecuencia la Inteligencia Artificial.
 De acuerdo con la empresa Comstor los bancos usarán con mayor frecuencia la Inteligencia Artificial.  (Foto: iStock)

El ciberespacio puede ser definido en muchos aspectos como un “Amazonas salvaje”, un metaespacio en donde confluyen cientos de usuarios al mismo momento y que ante la falta de regulación se asemeja a mundo sin ley.

  LEE: ¿INTELIGENCIA ARTIFICIAL FIN DE LAS APLICACIONES?

Es innegable que también es un espacio con beneficios porque es posible leer noticias y estar informado de los sucesos más vitales o simplemente entretenerse; sin embargo, también entraña peligros porque existen muchos que lo utilizan para distribuir contenido abusivo que es protagonizado por menores, el cual no siempre es fácil de detectar.

Identificar estos casos a tiempo es fundamental para frenar la distribución masiva, y empresas como Google quieren hacerlo mediante inteligencia artificial. La compañía lleva desde principios de siglo invirtiendo en tecnología y equipos y trabajando con organizaciones como Internet Watch Foundation (IWF) para luchar contra la pornografía infantil. Justamente, en septiembre pasado anunció una nueva inteligencia artificial (IA) que permitirá a todos los usuarios combatir este ilícito a gran escala.

Según la compañía mediante el uso de redes neuronales profundas de procesado de imágenes, será posible apoyar a los revisores a filtrar por medio de muchas imágenes, priorizando el contenido más parecido a estas e incluso detectando las que no han sido catalogadas como tal.

Básicamente, utilizando el contenido marcado como abusivo se analizará el resto de los archivos buscando coincidencias y al encontrar una, esta será notificada al encargado de moderación para que lo priorice sobre el resto de las imágenes o vídeos.

La empresa sostiene que después de varias pruebas el sistema puede detectar un 700 % más de contenido que los sistemas tradicionales. Con ello se logrará que los jóvenes que estén padeciendo esta situación puedan ser identificados rápidamente y se prevengan futuros abusos.

  Si bien la herramienta estará disponible en el Content Safety, en primera instancia será usado por la IWF. Igualmente, advierten que esta tecnología no solucionará este problema social definitivamente, pero si conseguirá que su impacto sea menor.

Según la BBC y a la IWF, solo en Reino Unido se encontraron cerca de 80 mil sitios web que alojaban contenido de abusos infantiles en 2017. De acuerdo con la OCDE, México está dentro de los primeros lugares en cuanto a países donde se distribuye este tipo de contenido.