Google tiene nueva herramienta gratuita basada en IA para identificar material de abuso y pornografía infantil

Ha logrado identificar hasta un 700% más de contenido CSAM  

Sept. 4.– Una de las tareas más complicadas, agotadoras y dañinas psicológicamente es la de moderar sitios con el fin de identificar y retirar material relacionado con abuso sexual infantil (child sexual abuse material “CSAM”). Debido a su complejidad, este trabajo es realizado por humanos, pero ahora Google busca contribuir con esa labor usando inteligencia artificial.

Google está lanzando una nueva herramienta de software gratuito, la cual se basa en su plataforma de inteligencia artificial y está dirigida a aquellas compañías que se dedican a la tarea de moderación de contenido CSAM, ya sea en uno o varios sitios de internet.

Al día de hoy, la gran mayoría de las soluciones tecnológicas en esta área consisten en la identificación de imágenes y vídeo utilizando un catálogo de contenido previamente marcado. ‘PhotoDNA’ es, por ejemplo, una herramienta, conocida como ‘crawler’, desarrollada por Microsoft e implementada por compañías como Facebook y Twitter.

La ventaja de este ‘crawler’ es que identifica el material de forma efectiva y evita que sea compartido, lo que frena su difusión. Sin embargo, este software sólo funciona de forma efectiva con material marcado como ilegal, ya que no tiene la capacidad de identificar nuevo contenido. Aquí es donde entran los moderadores humanos, quienes se tienen que hacer cargo de nutrir la base se datos viendo y revisando imágenes y vídeos para otorgarles una clasificación.

Según Google, su nueva herramienta hace uso de su sistema de identificación visual ‘machine vision’ usando el material previamente clasificado ...

[ Texto completo ]
RAÚL ÁLVAREZ @Lohar

  • Hits: 10472