Comercio Ilegal De Imágenes De IA De Abuso Sexual Infantil Expuesto | Tecnologia Noticias

Comercio ilegal de imágenes de IA de abuso sexual infantil expuesto

Comercio ilegal de imágenes de IA de abuso sexual infantil expuesto

Imagen artística que muestra la sombra de un niño pequeño en el fondo y la mano de un adulto en el teclado de una computadora en primer plano.

Los pedófilos están utilizando tecnología de inteligencia artificial (IA) para crear y vender material realista de abuso sexual infantil, descubrió la BBC.

Contador de 60 segundos
Redirigiendo en 60 segundos...

Algunos acceden a las imágenes mediante el pago de suscripciones a cuentas en los principales sitios de intercambio de contenido como Patreon.

Patreon dijo que tenía una política de “tolerancia cero” sobre este tipo de imágenes en su sitio.

El Consejo de Jefes de Policía Nacional dijo que era “indignante” que algunas plataformas obtuvieran “grandes ganancias” pero no asumieran “responsabilidad moral”.

Los creadores de las imágenes de abuso utilizan un software de inteligencia artificial llamado Stable Diffusion, que tenía la intención de generar imágenes para su uso en arte o diseño gráfico.

AI permite que las computadoras realicen tareas que normalmente requieren inteligencia humana.

El software Stable Diffusion permite a los usuarios describir, mediante indicaciones de palabras, qué imagen desean, y luego el programa crea la imagen.

Pero la BBC descubrió que se está utilizando para crear imágenes realistas de abuso sexual infantil, incluida la violación de bebés y niños pequeños.

El equipo de investigación de abuso infantil en línea de la policía británica dice que ya se está encontrando con ese tipo de contenido.

La periodista Octavia Sheepshanks dice que ha habido una “gran avalancha” de imágenes generadas por IA

La investigadora y periodista independiente Octavia Sheepshanks ha estado investigando esta cuestión durante meses. Se puso en contacto con la BBC a través de la organización benéfica infantil NSPCC para destacar sus hallazgos.

“Desde que las imágenes generadas por IA se hicieron posibles, ha habido una gran inundación… no son solo niñas muy jóvenes, son [paedophiles] hablando de niños pequeños”, dijo.

Una “pseudoimagen” generada por computadora que representa abuso sexual infantil se trata de la misma manera que una imagen real y es ilegal poseerla, publicarla o transmitirla en el Reino Unido.

El jefe de protección infantil del Consejo Nacional de Jefes de Policía (NPCC), Ian Critchley, dijo que sería un error afirmar que debido a que no se representaron niños reales en imágenes tan “sintéticas”, nadie resultó dañado.

Advirtió que un pedófilo puede “moverse a lo largo de esa escala de abuso del pensamiento, al sintético, al abuso real de un niño vivo”.

Las imágenes de abuso se comparten a través de un proceso de tres pasos:

Algunos de los creadores de imágenes publican en una popular plataforma de redes sociales japonesa llamada Pixiv, que es utilizada principalmente por artistas que comparten manga y anime.

Pero debido a que el sitio está alojado en Japón, donde no es ilegal compartir caricaturas y dibujos sexualizados de niños, los creadores lo usan para promocionar su trabajo en grupos y mediante hashtags, que indexan temas con palabras clave.

Un portavoz de Pixiv dijo que están poniendo un enorme énfasis en abordar este problema. Dijo el 31 de mayo que había prohibido todas las representaciones fotorrealistas de contenido sexual que involucren a menores.

La compañía dijo que había fortalecido de manera proactiva sus sistemas de monitoreo y asignado recursos significativos para contrarrestar los problemas relacionados con los desarrollos en IA.

Sheepshanks le dijo a la BBC que su investigación sugirió que los usuarios parecían estar creando imágenes de abuso infantil a escala industrial.

“El volumen es enorme, por lo que la gente [creators] dirá ‘nuestro objetivo es hacer al menos 1,000 fotos al mes’”, dijo.

Los comentarios de los usuarios sobre imágenes individuales en Pixiv dejan en claro que tienen un interés sexual en los niños, y algunos usuarios incluso ofrecen imágenes y videos de abuso que no fueron generados por AI.

La Sra. Sheepshanks ha estado monitoreando algunos de los grupos en la plataforma.

“Dentro de estos grupos, que tendrán 100 miembros, la gente compartirá, ‘Oh, aquí hay un enlace a cosas reales'”, dice ella.

“Lo más horrible, ni siquiera sabía palabras [the descriptions] como existió”.

Diferentes niveles de precios

Muchas de las cuentas en Pixiv incluyen enlaces en sus biografías que dirigen a las personas a lo que llaman su “contenido sin censura” en el sitio de intercambio de contenido con sede en EE. UU. Patreon para lo que llaman “contenido sin censura”.

Patreon está valorado en alrededor de $ 4 mil millones (£ 3,1 mil millones) y afirma tener más de 250,000 creadores, la mayoría de ellos cuentas legítimas que pertenecen a celebridades, periodistas y autores conocidos.

Los fanáticos pueden apoyar a los creadores registrándose en suscripciones mensuales para acceder a blogs, podcasts, videos e imágenes, por tan solo $ 3.85 (£ 3) por mes.

Sin embargo, nuestra investigación encontró cuentas de Patreon que ofrecían a la venta imágenes obscenas fotorrealistas generadas por IA de niños, con diferentes niveles de precios según el tipo de material solicitado.

Uno escribió en su cuenta: “Yo entreno a mis chicas en mi PC”, y agregó que están mostrando “sumisión”. Por $ 8,30 (£ 6,50) al mes, otro usuario ofreció “arte exclusivo sin censura”.

La BBC envió un ejemplo a Patreon, que la plataforma confirmó que era “semi-realista y violaba nuestra política”. Dijo que la cuenta fue eliminada inmediatamente.

Patreon dijo que tenía una política de “tolerancia cero” e insistió: “Los creadores no pueden financiar contenido dedicado a temas sexuales que involucren a menores”.

La compañía dijo que el aumento de contenido malicioso generado por IA en Internet era “real y angustiante”, y agregó que había “identificado y eliminado cantidades cada vez mayores” de este material.

“Ya prohibimos el material de explotación infantil sintético generado por IA”, dijo, describiéndose a sí mismo como “muy proactivo”, con equipos dedicados, tecnología y asociaciones para “mantener a los adolescentes seguros”.

Ian Critchley de NPCC dijo que era un “momento importante” para la comunidad

El generador de imágenes de IA Stable Diffusion se creó como una colaboración global entre académicos y varias empresas, dirigida por la empresa británica Stability AI.

Se han lanzado varias versiones, con restricciones escritas en el código que rigen el tipo de contenido que se puede crear.

Pero el año pasado se lanzó al público una versión anterior de “código abierto” que permitía a los usuarios eliminar todos los filtros y entrenarla para producir cualquier imagen, incluidas las ilegales.

Stability AI le dijo a la BBC que “prohíbe cualquier abuso con fines ilegales o inmorales en nuestras plataformas, y nuestra política es clara de que esto incluye CSAM (material de abuso sexual infantil).

“Apoyamos firmemente los esfuerzos de aplicación de la ley contra aquellos que hacen un uso indebido de nuestros productos con fines ilegales o nefastos”.

A medida que la IA continúa desarrollándose rápidamente, se han planteado preguntas sobre los riesgos futuros que puede representar para la privacidad de las personas, sus derechos humanos o su seguridad.

Ian Critchley, del NPCC, dijo que también le preocupaba que la avalancha de imágenes realistas de IA o “sintéticas” pudiera ralentizar el proceso de identificación de víctimas reales de abuso.

Él explica: “Crea una demanda adicional para que la policía y las fuerzas del orden identifiquen dónde se abusa de un niño real, en cualquier parte del mundo, en lugar de un niño artificial o sintético”.

Critchley dijo que creía que era un momento decisivo para la comunidad.

“Podemos asegurarnos de que Internet y la tecnología permitan las increíbles oportunidades que crea para los jóvenes, o puede convertirse en un lugar mucho más dañino”, dijo.

Temas relacionados

  • Medios de comunicación social
  • Abuso infantil
  • Inteligencia artificial
  • NSPCC
INICIANDO REDIRECCION

Leave a Comment