La Oficina del Fiscal de Distrito del Condado de Ventura copatrocina legislación para prohibir imágenes de abuso sexual infantil generadas por IA

Por Redaccion
[email protected]

«Esta legislación es una respuesta a la peligrosa convergencia de la inteligencia artificial y la explotación infantil», dijo el fiscal de distrito Erik Nasarenko. «A medida que la tecnología evoluciona, también deben hacerlo nuestras leyes. Este proyecto de ley envía un mensaje claro de que nuestra sociedad no tolerará el uso malicioso de inteligencia artificial para producir contenido sexual dañino que involucre a menores”.

El fiscal de distrito Nasarenko es copatrocinador del proyecto de ley, junto con la Asociación de Fiscales de Distrito de California, Common Sense Media, SAG-AFTRA y el Instituto de Defensa de los Niños de la Facultad de Derecho de la Universidad de San Diego. Esta coalición única demuestra un amplio rango de apoyo a los esfuerzos para reducir la explotación sexual de niños.

“La explotación sexual de niños debe ser ilegal, punto. No debería importar que las imágenes hayan sido generadas por IA, que se utiliza para crear material de abuso sexual infantil que es prácticamente indistinguible de un niño real”, dijo el asambleísta Marc Berman. “Debemos detener la explotación de los niños. Es fundamental que nuestras leyes se mantengan al día con la tecnología de inteligencia artificial en rápida evolución para garantizar que se persiga a los depredadores y se proteja a los niños”.

El asambleísta Berman representa el Distrito 23 de la Asamblea de California, que incluye el sur del condado de San Mateo y el norte del condado de Santa Clara en el corazón de Silicon Valley. Berman ha presentado proyectos de ley similares, incluido uno relacionado con la creación de deepfakes, que son videos y fotografías hechos con personas reales manipuladas para verse y sonar como otra persona.

En la era digital, los avances de la inteligencia artificial y la tecnología informática permiten la creación de contenido generado por computadora altamente realista, incluido CSAM. Esto plantea un riesgo significativo para las personas, en particular para los niños reales y aquellos previamente victimizados que forman la base de las imágenes generadas por la máquina.

Cada mes, investigadores expertos de la Oficina de Investigaciones de la Oficina del Fiscal de Distrito revisan cientos de CyberTips del Centro Nacional para Niños Desaparecidos y Explotados. Un ejemplo reciente de CSAM descubierto por los investigadores de la Oficina involucró un video generado por IA subido a YouTube, que mostraba a un niño manteniendo relaciones sexuales con un hombre adulto. Este CyberTip no pudo ser procesado porque los investigadores del condado de Ventura determinaron que el contenido no representaba a personas reales.

En otro ejemplo, los investigadores de la Oficina del Sheriff del Condado de Ventura investigaron la posesión y transferencia de CSAM entre tres personas. Se determinó que uno de los sospechosos estaba usando su computadora para crear imágenes CSAM. Admitió haber creado y distribuido imágenes sexualmente explícitas de niños hechas por encargo para obtener beneficios económicos. A pesar de la naturaleza obscena de las imágenes y del hecho de que parecían representar a niños pequeños, no pudo ser procesado.

La ley existente prohíbe la creación, distribución y posesión de CSAM que represente a un niño real. No aborda las imágenes generadas por IA que representan la imagen de un niño, ni siquiera aquellas que son prácticamente indistinguibles de un niño real, o aquellas que son generadas por IA para parecerse a un niño conocido o a una celebridad infantil. AB 1831 prohibiría la creación, distribución y posesión de imágenes CSAM obscenas generadas por inteligencia artificial, agregando nuevas restricciones a la ley de California.

AB 1831 se presentó el 12 de enero de 2024 y se espera que se escuche pronto en el Comité de Seguridad Pública de la Asamblea.