Las jóvenes canadienses de secundaria están siendo atacadas mediante inteligencia artificial, que crea fotografías descaradamente falsas que circulan en línea. Las búsquedas en Google mostrarán toneladas de sitios gratuitos que pueden «pintar» mujeres en minutos.
La tecnología necesaria para crear pornografía falsa convincente existe desde hace años, pero los expertos advierten que es más rápida y accesible que nunca, lo que crea un desafío urgente para los responsables políticos canadienses.
Los avances en inteligencia artificial han permitido que un teléfono móvil haga lo que antes requería una supercomputadora, dijo Philippe Pasquier, profesor de IA creativa en la Universidad Simon Fraser en Columbia Británica.
Pasquier dijo que la sociedad ha «perdido la fe» en lo que es real y en lo que se puede cambiar.
«La tecnología ha mejorado un poco en el laboratorio, pero sobre todo la calidad de la tecnología que está involucrada con todos ha mejorado», dijo.
«Si se aumenta el acceso a la tecnología, significa que los actores buenos y malos serán mucho más comunes».
En todo Canadá, los legisladores están tratando de mantenerse al día. Ocho provincias han aprobado leyes sobre fotografías sinceras, pero sólo la mitad de ellas abordan las fotografías editadas.
BC fue la última, uniéndose a la Isla del Príncipe Eduardo, Saskatchewan y Nuevo Brunswick.
La ley de Columbia Británica, que entró en vigor el 29 de diciembre, permite a las personas acudir a los tribunales para obtener reparación civil por la eliminación de fotografías íntimas, independientemente de si son reales o falsas, y perseguir a delincuentes y empresas de Internet por daños y perjuicios.
Las personas serán multadas con hasta 500 dólares por día y los sitios web con hasta 5.000 dólares por día si no cumplen con las órdenes de dejar de publicar imágenes publicadas sin consentimiento.
El primer ministro David Eby dijo que la reciente publicación de fotografías falsas de la estrella del pop Taylor Swift demuestra que nadie es inmune a tales «ataques».
La fiscal general Niki Sharma dijo en una entrevista que le preocupa no presentarse cuando son víctimas de intercambio desmedido de fotografías íntimas, reales o no.
«Nuestros sistemas legales deben mejorar en lo que respecta a los efectos de la tecnología en la sociedad y los individuos, y esto es parte de eso», dijo sobre las nuevas leyes.
El ministerio dijo que no podía proporcionar datos específicos sobre la prevalencia de imágenes alteradas por IA y mentiras profundas.
Pero a veces los casos se revelan en otros lugares.
En diciembre, una escuela de Winnipeg notificó a los padres que las fotos de jóvenes estudiantes generadas por IA se habían vuelto virales en línea.
Al menos 17 fotografías tomadas de las redes sociales de estudiantes han sido claramente alteradas por inteligencia artificial. Los funcionarios escolares dijeron que se comunicaron con la policía y brindaron apoyo a los estudiantes que se vieron directa o indirectamente afectados.
Manitoba tiene leyes sobre fotografías sinceras, pero no abordan las fotografías editadas.
La empresa de seguridad de Internet White Hatter, con sede en Victoria, realizó recientemente una prueba y descubrió que en solo unos minutos usando sitios web gratuitos se podía subir una foto de una mujer completamente vestida, algo que el director ejecutivo Brandon Laur calificó de «impactante».
La mujer utilizada en el experimento no era real: también fue creada con IA.
«Es increíble», dijo Laur en una entrevista. “Hemos estado lidiando con casos (de fotografías falsas) desde principios de la década de 2010, pero en aquel entonces todo era Photoshop.
«Hoy en día es muy fácil prescindir de habilidades».
Formas legales, nuevas y antiguas.
Angela Marie MacDougall, directora ejecutiva de Servicios de Apoyo a Mujeres Maltratadas, dijo que se consultó a su organización sobre la ley de Columbia Británica.
Dijo que el caso de Swift destacó la necesidad urgente de una legislación integral para combatir falsedades profundamente arraigadas en las redes sociales y aplaudió a la provincia por convertirlo en una prioridad.
Pero la ley apunta a la distribución no conforme de imágenes reveladoras, y el próximo «paso importante» es crear una ley dirigida a los creadores de imágenes no conformes, dijo.
«Es muy necesario», dijo. «Hay una brecha allí. Hay otras oportunidades que necesitan acceso a recursos, y las mujeres con las que estamos trabajando no podrán contratar a un abogado y seguir un proceso civil legal sobre la toma de fotografías… porque, por supuesto, porque vale la pena hacerlo.»
Pero puede haber otras vías legales para las víctimas.
Suzie Dunn, profesora asistente de derecho en la Universidad de Dalhousie en Halifax, dijo que existen muchas leyes que pueden aplicarse a inmersiones profundas e imágenes alteradas, incluidas aquellas relacionadas con la difamación y la privacidad.
«Existe este nuevo problema social que viene con los creadores de contenido e imágenes y la profundidad generada por la IA, existe este nuevo tipo de daño social que está completamente dentro de estas categorías legales existentes en las que no encaja», dijo.
Dijo que algunas formas de fraude pueden merecer exenciones, como la sátira.
«A medida que la tecnología evoluciona, la ley se ve constantemente obligada a ponerse al día y estoy un poco preocupado por eso, que puede tener algo que ver con esta IA creativa».
Los deepfakes son falsificaciones ‘aceleradas’
Pablo Tseng, un abogado de propiedad intelectual en Vancouver, dijo que las falsificaciones profundas «aceleran» un problema que ha existido durante décadas: la tergiversación.
«Siempre ha habido una ley dirigida a la tergiversación que ha existido durante mucho tiempo, y que todavía se aplica en gran medida hoy a la tergiversación grave, (incluidos) cargos de difamación, descripción o representación falsa y delitos de destrucción de la personalidad».
Pero dijo que leyes específicas, como la de BC, son pasos en la dirección correcta.
Tseng dijo que conocía un caso de Quebec que mostraba cómo el uso indebido de tecnología ultrafalsa podría estar incluido en las leyes de pornografía infantil. Ese caso llevó a más de tres años de prisión a un hombre de 61 años que utilizó inteligencia artificial para crear videos profundos de pornografía infantil.
Pero Tseng dijo que no estaba al tanto de un fallo en el que se hiciera referencia a la tecnología en el contexto de tergiversación.
«Obviamente, sólo porque no ha habido una demanda no significa que esté sucediendo a nuestro alrededor. Taylor Swift es sólo el último de una larga lista de ejemplos en los que los rostros, personajes y retratos de celebridades simplemente han sido mal utilizados», dijo. dicho
Dunn dijo que cree que la moderación del contenido de los sitios web puede ser la mejor manera de avanzar.
Hizo un llamado a los motores de búsqueda como Google para que desindexen los sitios que se centran principalmente en crear insinuaciones sexuales.
«En cierto punto, creo que algunas personas simplemente se dan por vencidas, incluso personas como Scarlett Johansson o Taylor Swift, porque se está produciendo mucho contenido y hay muy pocas oportunidades de recurso legal porque hay que abrir a todos los que lo comparten». una demanda», dijo Dunn.
Dijo que si bien la mayoría de los videos destacados presentan a celebridades, hay eventos de «mujeres comunes» a los que se dirige.
«Todo lo que tienes que tener es una imagen de una persona, y puedes ponerla en estos generadores de imágenes de desnudos y simplemente crea una imagen fija que parece que está desnuda, y la mayor parte de esa tecnología sólo funciona con mujeres».