Arrestan a más de 50 personas en Corea del Sur por crear y distribuir deepfakes sexuales

Las autoridades de Corea del Sur arrestaron a más de 50 hombres acusados de crear y distribuir videos falsos de contenido sexual explícito —conocidos como deepfakes— que imitaban la apariencia y voz de artistas de K-pop, actores, streamers y personas anónimas.

El contenido era difundido principalmente a través de Telegram, donde los responsables se hacían llamar “artistas” y operaban en grupos cerrados. No solo imitaban la imagen de celebridades, sino también su voz y gestos, en un intento por hacer más realista el material.

Entre los arrestados se encuentran tanto creadores como consumidores del contenido. Muchos de ellos asumían que, al tratarse de figuras públicas, las consecuencias legales serían mínimas o inexistentes. Sin embargo, las autoridades actuaron con firmeza.

La investigación fue resultado de un esfuerzo conjunto entre la división de ciberseguridad surcoreana, la policía local y organismos internacionales, tras detectar la extensión de estos delitos, que incluso involucraron a personas fuera del ojo público. Se reportó, por ejemplo, que uno de los arrestados había creado deepfakes de sus antiguos compañeros de primaria.

La empresa HYBE, representante de grupos como BTS, colaboró activamente con la policía en el caso. Como resultado, se logró la detención de ocho sospechosos vinculados a la creación de material falso sobre sus artistas. Jason Jaesang Lee, CEO de HYBE, aseguró que seguirán tomando acciones legales bajo una política de “tolerancia cero y sin acuerdos”.

Por su parte, Ho-seung Kim, jefe de la Agencia de Policía Provincial de Gyeonggi del Norte, advirtió sobre la gravedad del delito: “Las deepfakes explotan la vulnerabilidad de las celebridades, porque muchas veces les resulta difícil denunciar. Es un crimen que puede destruir la vida cotidiana de las víctimas, y las figuras públicas no son la excepción”.

Corea del Sur ha sido uno de los países que más activamente ha legislado contra los delitos digitales, especialmente aquellos relacionados con violencia sexual en línea. Este caso refuerza el llamado a establecer límites claros en el uso de la inteligencia artificial y a proteger la integridad digital de todas las personas, sean o no figuras públicas.

Te recomendamos leer https://www.crmnoticias.com.mx/retiran-videojuego-no-mercy-de-steam-por-contenido-violento-y-sexual-contra-mujeres/