La Inteligencia Artificial se está usando cada vez más, ayudando a jóvenes con tareas, generando canciones nuevas de cantantes reconocidos y editando fotos con solo la cara de la persona.
Algo así sucedió el día de ayer, con la influencer Yeri Mua, primero compartió en TikTok que había sido cambiada su reciente canción con esta IA, tomándolo con humor.
Pero solo un par de horas después, comentó en X (antes twitter) que con Inteligencia Artificial habían creado fotos íntimas de ella, a lo que afirmó que se siente expuesta físicamente.
Recientemente, la cantante ha recibido fuertes críticas y mensajes de odio de cierta comunidad, las fans de K-pop, identificadas por tener a sus idols en sus fotos de perfil, por lo que Yeri menciona en sus redes que ellas están difundiendo estas fotos.
“Ya ni los hombres me hacen eso q les pasa” comenta a través de X.
“Me acaba de hablar un amigo preocupado por que las están difundiendo como si fueran reales” cuenta Yeri en sus redes
Estas fotos están siendo difundidas en X, por la poca censura de esta red social y fue donde un amigo de la “Bratz Jarocha” las vió por primera vez, compartida por un perfil de una joven, con una imagen de un Idol coreano.
Aunque las fotografías de Yeri Mua desnuda son falsas, la influencer aseguró que se siente expuesta en redes sociales y arremetió en contra de un grupo de mujeres porque, supuestamente, fueron ellas las responsables de todo lo sucedido.
Lamentablemente este tipo de fotos generadas con Inteligencia Artificial son cada vez más comunes y Yeri no es la primer víctima de este tipo de violencia digital.
Si, de acuerdo con la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia, la difusión de imágenes íntimas sin consentimiento es violencia digital y está penado con una multa monetaria e incluso, cárcel.
Nosotros | Publicidad | Suscripciones | Contacto | Aviso de Privacidad
Reservados todos los derechos 2024 |