Proponen hasta 8 años de cárcel a quien utilice IA para crear imágenes con contenido íntimo

noviembre 10, 2024
Proponen hasta 8 años de cárcel a quien utilice IA para crear imágenes con contenido íntimo

El grupo parlamentario del PRI propuso reformar el artículo 182 del Código Penal, a quien haga uso de la Inteligencia Artificial para crear, exponer, distribuir, difundir, exhibir, reproducir, transmitir, comercializar, ofertar, intercambiar y/o compartir imágenes, audios o videos de contenido sexual íntimo de una persona, sin su consentimiento.

Al realizar la ampliación de motivos, la diputada Dany Soto Hernández puntualizó que la sanciones prevén castigar a quien incurra en este ilícito a través de materiales impresos, correo electrónico, mensajes telefónicos, redes sociales o cualquier otro medio tecnológico, con penas que irían desde los dos a los ocho años de prisión y multa de 250 a 576 Unidades de Medida y Actualización (UMA).

La legisladora del grupo parlamentario del PRI, explicó que un ‘deepfake’ es un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona.

Informó que, en los últimos cuatro años, el ciberacoso contra las mujeres ha aumentado un 5.1 por ciento. En 2017, el 17.7 por ciento de las usuarias de internet aseguró haber sido víctima, mientras que el porcentaje aumentó a 22.8 por ciento en 2021, de acuerdo a las estadísticas registradas del Módulo sobre Ciberacoso (MOCIBA) del Instituto Nacional de Estadística y Geografía (Inegi).

De la misma forma, datos del propio Inegi revelan que, a julio de 2022, del 36.7 por ciento de las mujeres que aseguraron ser víctimas de ciberacoso, casi la mitad, el 16.7 por ciento, corresponde a casos de suplantación de identidad.

Soto Hernández puntualizó que uno de los principales retos a enfrentar, con el desarrollo de la Inteligencia Artificial, es la protección de los datos personales y la privacidad de sus usuarios; especialmente cuando se hace de forma masiva, sin transparencia y sin su consentimiento.

Recordó un estudio realizado en 2019 por la compañía de ciberseguridad Deeptrace, encontró que 96 por ciento de esta clase de videos en línea eran de naturaleza íntima o sexual. Las víctimas eran fundamentalmente mujeres, con frecuencia actrices, músicas, y en menor medida profesionales de los medios de comunicación.

Finalmente, la diputada Dany Soto indicó que las mujeres que son víctimas de esta tecnología, pueden enfrentar la estigmatización y la discriminación por parte de sus comunidades, e incluso de empleadores.

 

 

Deja una respuesta