Noticias

Google lanza una nueva API de aprendizaje automático para encontrar imágenes de abuso sexual infantil en la red

El gigante tecnológico Google ha confirmado una vez más su compromiso para luchar contra los abusos en internet y, en especial, contra la difusión de imágenes de abuso sexual infantil en la red, lanzando una nueva herramienta de aprendizaje automático. Esta nueva API basada en la Inteligencia Artificial avanzada, facilitará la durísima tarea de los revisores manuales y está disponible de manera gratuita para proveedores de servicios, ONGs, compañías tecnológicas y otras instituciones involucradas en la lucha.

El aprendizaje automático contra el abuso sexual infantil

En un post publicado hace sólo unos días y firmado por Nikola Todorovic, Director de Ingeniería de Google, y Abhi Chaudhuri, Gerente de Producto de Google, la compañía ha confirmado su compromiso, desde hace casi dos décadas, para luchar contra la difusión de imágenes de de abuso sexual infantil, «uno de los peores abusos imaginables».

Google lanza una nueva API de aprendizaje automático para encontrar imágenes de abuso sexual infantil en la red

Con este firme propósito, Google ha lanzado una nueva API de aprendizaje automático, disponible de manera totalmente gratuita previa solicitud explícita para organizaciones involucradas en esta lucha. Apoyada en los nuevos avances de la inteligencia artificial avanzada, esta herramienta mejorará notablemente la detección de imágenes de abusos sexuales a menores en la red ya que no sólo agiliza la detección de contenidos ya conocidos, sino que permite detectar «también el contenido que no se ha confirmado previamente como CSAM [material de abuso sexual infantil]».

Otro de los mayores logros de esta nueva API es que permite «ayudar a los revisores a ordenar a través de muchas imágenes priorizando el contenido de CSAM más probable para su revisión». ¿Imagináis cómo debe afectar a las personas trabajar día tras día visualizando y comprobando este tipo de imágenes? Sin embargo, a pesar de este gran esfuerzo, la propia compañía reconoce al final de su publicación que «la tecnología por sí sola no es una panacea para este desafío social» por lo que, tristemente, aún seguirá siendo necesaria la intervención humana para reducir este tipo de abusos.

A continuación, os he traducido íntegramente la nota publicada al respecto por Google:

«Usar Internet como medio para difundir contenido que explota sexualmente a niños es uno de los peores abusos imaginables. Es por eso que desde principios de la década de 2000 hemos estado invirtiendo en tecnología, equipos y trabajando estrechamente con organizaciones expertas, como la Internet Watch Foundation, para luchar contra la propagación del material de abuso sexual infantil (CSAM) en línea. También hay muchas otras organizaciones de todos los tamaños que están profundamente comprometidas con esta lucha, desde grupos de la sociedad civil y ONG especializadas hasta otras compañías de tecnología, y todos trabajamos para asegurarnos de compartir los últimos avances tecnológicos.

Hoy presentamos el siguiente paso en esta lucha: inteligencia artificial avanzada (IA) que avanza significativamente en nuestras tecnologías existentes para mejorar de manera espectacular la forma en que los proveedores de servicios, las ONG y otras compañías tecnológicas revisan este contenido a gran escala. Mediante el uso de redes neuronales profundas para el procesamiento de imágenes, ahora podemos ayudar a los revisores a ordenar a través de muchas imágenes priorizando el contenido de CSAM más probable para su revisión. Si bien los enfoques históricos para encontrar este contenido se han basado exclusivamente en la comparación con contenidos de CSAM conocido, el clasificador se mantiene al día con los delincuentes al orientarse también al contenido que no se ha confirmado previamente como CSAM. La identificación rápida de imágenes nuevas significa que los niños que sufren abusos sexuales hoy tienen muchas más probabilidades de ser identificados y protegidos de nuevos abusos.

Estamos poniendo esto a disposición de las ONG y los socios de la industria de forma gratuita a través de nuestra API de seguridad del contenido, un conjunto de herramientas para aumentar la capacidad de revisar el contenido de una manera que requiere que menos personas estén expuestas a él.

Susie Hargreaves OBE, CEO, Internet Watch Foundation, dijo: «Nosotros, y en particular nuestros analistas expertos, estamos entusiasmados con el desarrollo de una herramienta de inteligencia artificial que podría ayudar a nuestros expertos humanos a revisar el material a una escala aún mayor y mantenerse al día con los delincuentes, al orientar las imágenes que no se hayan marcado previamente como material ilegal. Al compartir esta nueva tecnología, la identificación de las imágenes podría acelerarse, lo que a su vez podría hacer que Internet sea un lugar más seguro tanto para los sobrevivientes como para los usuarios».

Estamos de acuerdo. Esta iniciativa permitirá una velocidad muy mejorada en los procesos de revisión del CSAM potencial. Hemos visto de primera mano que este sistema puede ayudar a un revisor a encontrar y tomar medidas en un 700% más de contenido de CSAM durante el mismo período de tiempo.

Hemos invertido durante años para enfrentar este desafío, desarrollando tecnología para detectar CSAM de forma precisa y efectiva. También hemos trabajado en la industria y con ONG para combatir el CSAM a través de nuestro trabajo en la Coalición Tecnológica desde 2006, con la Alianza Global WePROTECT y mediante iniciativas de toda la industria destinadas a compartir las mejores prácticas y los hashes conocidos de CSAM.

Identificar y luchar contra la propagación de CSAM es un desafío continuo, y los gobiernos, las fuerzas del orden, las ONG y la industria tienen un papel de suma importancia para proteger a los niños de este horrendo crimen. Si bien la tecnología por sí sola no es una panacea para este desafío social, este trabajo representa un gran paso adelante para ayudar a más organizaciones a realizar este trabajo desafiante a gran escala. Continuaremos invirtiendo en tecnología y organizaciones para ayudar a luchar contra los perpetradores de CSAM y para mantener nuestras plataformas y nuestros usuarios a salvo de este tipo de contenido aborrecible. Esperamos trabajar junto con incluso más socios en la industria para ayudarlos a hacer lo mismo.»

[irp]

Aquellas organizaciones interesadas en utilizar el servicio Content Safety API de Google y ayudar así en la lugacha contra la propagación de imágenes de abusos sexuales a menores en la red, puedes solicitar su participación gratuita a la compañía completando este formulario.

José Alfocea

Profesor de Historia y licenciado en Periodismo, siempre con ganas de aprender; me encanta todo lo relacionado con el pasado de la Humanidad, sus manifestaciones artísticas o el Periodismo, y muy especialmente, las nuevas tecnologías y su vinculación con el sector educativo. Soy un apasionado de Apple y de la comunicación, y por eso estoy aquí.
Los datos de carácter personal que nos facilite mediante este formulario quedarán registrados en un fichero de Miguel Ángel Navas Carrera, con la finalidad de gestionar los comentarios que realizas en este blog. La legitimación se realiza a través del consentimiento del interesado. Si no se acepta no podrás comentar en este blog. Puedes consultar Política de privacidad. Puede ejercitar los derechos de acceso, rectificación, cancelación y oposición en [email protected]
Botón volver arriba