Un alumno creó imágenes pornográficas de sus compañeras con IA
Preocupa el mal uso de la inteligencia artificial. La denuncia fue radicada por un padre de la alumna y ahora la Unidad Judicial Contravencional de Género investiga el caso en profundidad.
La llegada de la Inteligencia Artificial (IA) soluciona muchas cuestiones, pero también genera problemas de gran magnitud. En Córdoba un adolescente fue denunciado por utilizar la disciplina para crear imágenes pornográficas de sus compañeras.
Fue el padre de una de las víctimas quien radico la denuncia y de esta manera la Unidad Judicial Contravencional de Género comenzó a investigar el caso.
El hecho tuvo lugar en la escuela Manuel Belgrano, de la provincia de Córdoba cuando un joven fue acusado de haber utilizado el rostro de varias compañeras, colocarlas en un video pornográfico y luego publicarlo en páginas web para adultos.
Asimismo, se logró establecer que el estudiante realizó diversas descripciones que cosificaban a las víctimas, todo generado con IA.
Preocupa el mal uso de la Inteligencia Artificial
"Hicimos todo los trámites administrativos que corresponden como institución. Ahora está en el área de Jurídicas de la Universidad", explicó la directora de la institución sobre el hecho que ocurrió la semana pasada.
No es la primera vez que pasa un hecho similar. A principios de mayo trascendió que en La Plata un adolescente de 13 años trucó fotos de sus compañeras y las viralizó desnudas.
El episodio se registró en el Colegio San Cayetano, una institución educativa católica que se encuentra entre las más tradicionales de la capital provincial bonaerense, las menores tienen entre 13 y 15 años, cursan segundo y tercer año y, a raíz de lo sucedido, los padres de las alumnas afectadas realizaron la denuncia en la DDI de La Plata.
Un antecedente a nivel mundial
Taylor Swift no necesita ayuda para ser trending topic, pero meses atrás lo fue por algo en lo que que ella no tuvo absolutamente nada que ver: un aluvión de imágenes explícitas con la nueva reina del pop como protagonista se difundieron en redes sociales. Eran todas deepfakes generados con inteligencia artificial.
Aunque ya se sabía que las imágenes se originaron en 4chan y luego se propagaron en canales privados de Telegram antes de difundirse en Twitter, no se conocían detalles sobre esa explosión de imágenes explícitas generadas por IA y centradas en Taylor Swift.
Ahora, una investigación de la consultora de medios sociales Graphika, citada por la revista Rolling Stones, revela precisamente cómo empezó todo. Y la sorpresa es que todo empezó como un juego.
En uno de los foros de la comunidad 4chan alguien propuso un reto: intentar crear prompts para superar las barreras que los modelos de IA tienen y que normalmente impiden crear imágenes pornográficas de gente famosa. Las imágenes de Taylor Swift se originaron allí, pero hubo más celebridades afectadas.
Cristina López G., analista de Graphika, explicaba que "aunque las imágenes pornográficas virales de Taylor Swift han llamado la atención sobre el problema de las imágenes íntimas no consentidas generadas por la IA, no es ni mucho menos la única víctima".
Otras actrices, cantantes y políticas fueron objeto de este tipo de deepfakes incluso con más frecuencia de Taylor Swift. Entre los ejemplos están Ariana Grande, Billie Eilish o Emma Watson.
Estos episodios también han ocurrido en el país en varias oportunidades a lo largo del año, e incluso con anclaje regional, puesto que se repitió el escenario en más de un colegio.
Fuente: Medios