La preocupación se apoderó de la comunidad santafesina de Soldini durante los últimos días a partir de la viralización de alrededor de 300 fotos de personas del pueblo desnudas creadas con Inteligencia Artificial (IA), entre ellas niñas y adolescentes, según contó este jueves la madre de una víctima y además una de las personas que hizo la denuncia en la Justicia. El autor, según señalaron, sería un adolescente de 16 años de la misma localidad.
Viralizaron cientos de fotos de personas desnudas creadas con Inteligencia Artificial, entre ellas niñas, en un pueblo santafesino
Un grupo de madres y padres descubrió el caso a partir de los grupos de WhastApp de sus hijos. Señalan que el autor sería un adolescente de 16 años, también del pueblo
Cecilia, mamá de una nena afectada, explicó en diálogo con De boca en boca (Radio 2) que se empezaron a enterar junto a otras madres y padres el pasado domingo a través de los grupos de WhatsApp de sus hijos, en los que “andaban circulando fotos de nenas del pueblo desde los ocho o nueve años de edad, desnudas”.
“Las fotos fueron extraídas de Instagram, se hicieron capturas. Me entero por los papás de un niño que hay una aplicación que permite sacar y modificar las fotos”, dijo la mujer acerca de lo que ocurrió en el pequeño pueblo de 3.700 habitantes, ubicado a 15 kilómetros al sudoeste de Rosario.
De acuerdo a la información que pudieron recabar, se compartieron aproximadamente 300 fotos e identificaron al menos a 25 familias de Soldini damnificadas. “Hay muchas menores de edad, un mayor y grupos de hockey femenino, un surtido de personas del pueblo”, señaló.
Identificaron al presunto autor, que es un chico del pueblo menor de edad: “Asiste a la escuela, todos se conocen y comparten con él muchos ámbitos, ya sea deportivos y en el camping municipal. Las imágenes se viralizaron, ahí fue cuando nos enteramos todos”.
Cuando se enteraron, Cecilia relató que se quedaron atónitos y sin saber cómo proceder. “Es una situación que suele pasar, uno no sabe cómo resolverla. Quedamos inmóviles porque no tenemos las herramientas ni se conoce mucho sobre el tema. Primero hablamos con los padres, pero no tuvimos una buena respuesta y minimizaron el caso”, dijo.
“Después se comunicó gente de la comuna para ver qué recursos judiciales teníamos. Elevamos una denuncia y estamos viendo cómo se procede. Lo que más nos interesa es que el rostro de nuestras hijas no se esté difundiendo por todos lados de esa manera”, reclamó la mamá de una de las víctimas.
Vacío legal
La abogada Claudia Guardia, especialista en IA, explicó que existe “un vacío legal porque los delitos que se producen con IA no están regulados” en Argentina.
“Son casos que te dejan shockeados porque son menores, muy pequeños, compañeros de escuela. Pero no son aislados, sucedieron en varios lugares como Córdoba, Buenos Aires, Entre Ríos, Chaco”, manifestó en Radio 2 acerca de situaciones similares que ocurrieron durante los últimos años en diferentes lugares del país.
En cuanto a cómo funcionan las aplicaciones que permiten crear imágenes con IA, Guardia explicó que “en cuestión de minutos” son capaces de generar fotos que combinan la cara de una persona real y un falso cuerpo desnudo.
Sin embargo, como en el Código Penal (CP) no está tipificada la creación o difusión de pornografía infantil creada con IA, allí se produce el vacío legal al que alude la presidenta de la Comisión de Inteligencia Artificial del Colegio de Abogados de Rosario.
El artículo 128 del CP refiere a la producción, distribución y/o comercialización de material de abuso sexual infantil o material sexual infantil. En tanto que el Código Civil contiene en su articulado afectaciones al derecho a la imagen, la intimidad e integridad. Son elementos que podrían, según Guardia, ayudar a “desarmar la madeja”, pero que dejan al descubierto la necesidad de que esté tipificado el delito por el uso de IA.
Además, para la abogada “todo esto se agrava al tratarse de un menor de 16 años, que es inimputable”. Y agregó: “Lo primero que tienen que hacer las personas es la denuncia, luego se allanará el domicilio del menor y se verá a través de la dirección IP del celular y la computadora, para comprobar dónde se produjo y distribuyó el material”.
También hizo mención a los daños que pueden provocar estos casos debido a la dificultad que existe para frenar la circulación del material una vez publicado en Internet. “Se puede desindexar, pero una vez que entró en la red produce mucho daño, es prácticamente irreversible porque esto pasa de ordenador a ordenador. Aunque se desindexe de una plataforma, si ya circuló en teléfonos o computadoras es muy difícil frenar la circulación, por lo cual el daño es muy complejo”, precisó.
Qué pasa en el mundo y la responsabilidad de las plataformas
Guardia expresó que se está tratando de tipificar este tipo de delito, a los que se denomina deepfakes, en países de la Unión Europea y también en Corea. “Se abarca a través de diferentes aspectos, como lesiones o violencia de género”, dijo y mencionó un caso en Córdoba que se resolvió de ese modo, bajo esa figura.
“Sin embargo, el proceso puede ser inverso, de una mujer hacia un hombre, por lo cual esa figura no alcanzaría, por eso debe ser tipificada”, aclaró la especialista en la materia. Además, precisó que en Argentina aumentaron “un 300 por ciento los casos” de denuncias por difusión de material sexual o de desnudos creado con IA, de acuerdo a un informe de 2024.
“Hay falta de educación e información, creo que la clave es la capacitación y educación en el uso responsable de la IA, que puede ser usada para cosas correctas o incorrectas. La IA va evolucionando, lo que ayer era totalmente novedoso, hoy es de la prehistoria”, abundó al respecto.
“Las imágenes se difunden en plataformas como Discord o WhatsApp. Tendríamos que ver qué tipo de responsabilidad tienen esas plataformas en la difusión. Algunas, como ChatGPT o Gémini, la IA de Google, ya empezaron a poner restricciones”, concluyó.