Advierten graves riesgos de violencia sexual por Inteligencia Artificial
*Melchor García*
El doctor Jordi Nieva, catedrático de Derecho Procesal de la Universidad de Barcelona, ha alertado sobre los riesgos significativos que plantea la proliferación de DeepFakes, imágenes de personas creadas por Inteligencia Artificial (IA), particularmente en el ámbito de la violencia sexual.
Se estima que hasta el 20 por ciento de estos DeepFakes son indetectables, lo que los convierte en una amenaza seria para la sociedad.
Advierte que estas reproducciones, muchas de las cuales están relacionadas con contenido de violencia sexual, son tan similares a la realidad que pueden engañar incluso a los más escépticos.
El mayor peligro reside en la capacidad de estos DeepFakes para difamar y violentar a personas, ya que su uso se está dirigiendo cada vez más hacia la pornografía.
Diario Evolución te recomienda:
Destacó que estos DeepFakes representan un desafío único para los sistemas legales actuales, ya que pueden generar confusión sobre lo que es real y lo que es falso. Además, subrayó la necesidad urgente de legislar en este ámbito para proteger a las personas de este tipo de manipulaciones, y planteó la pregunta crucial: ¿cómo podemos detectar la realidad generada por la Inteligencia Artificial?
Este fenómeno no solo tiene implicaciones legales, sino también sociales y éticas, ya que pueden ser utilizados para dañar la reputación y la integridad de individuos, incluso para perturbar a comunidades enteras, así lo señaló el experto durante una conferencia magistral titulada “La prueba y la inteligencia artificial”, celebrada en la Escuela Judicial de Toluca.