La inteligencia artificial en Canadá se utiliza para generar noticias falsas con el fin de estafar a las personas. Varios famosos canadienses han sido víctimas de deepfakes que promocionan esquemas de inversión financiera. Los expertos advierten que el sistema legal no está preparado para combatir esta tecnología.

Imagen relacionada de creadas noticias falsas canada utilizacion ia estafar personas

Varios famosos canadienses, como la chef de televisión Mary Berg, el cantante Michael Bublé, el comediante Rick Mercer y la estrella de hockey Sidney Crosby, se han convertido en la cara de diferentes estafas generadas por inteligencia artificial (IA). A medida que la tecnología avanza, los expertos advierten que el sistema legal tiene mucho que ponerse al día.

Según expertos, la inteligencia artificial está evolucionando demasiado rápido para que el sistema legal pueda seguir su ritmo.

Esto abre la puerta a estafas cada vez más sofisticadas que utilizan deepfakes para promocionar esquemas de inversión o criptomonedas.

Abogados especializados en contenido generado por IA y deepfakes advierten que actualmente tienen pocas opciones legales y que las leyes canadienses no han avanzado al mismo ritmo que la tecnología.

A medida que las estafas financieras y los esquemas que se apropian de la imagen de personas famosas no son nada nuevo, el uso de tecnología generativa de IA está dando un nuevo enfoque a un concepto antiguo.

Molly Reynolds, socia del bufete de abogados Torys LLP en Toronto, afirma que desarrollar las herramientas y las leyes para prevenir este tipo de estafas se ha convertido en una carrera contrarreloj en la que ya estamos perdiendo.

La propagación de información errónea generada por IA plantea una amenaza persistente para la seguridad pública.

La detección de deepfakes se vuelve cada vez más difícil a medida que la calidad del contenido generado por IA mejora.

Programas que crean imágenes y videos prácticamente perfectos ya existen, y aquellos que no son perfectos pueden ser alterados aún más con software de edición de fotos y videos.

Esto dificulta la identificación de deepfakes y pone en peligro la confianza en los contenidos en línea.

Las redes sociales y las empresas de alojamiento de sitios web tienen políticas destinadas a prevenir el spam y las estafas financieras en sus plataformas.

Sin embargo, enfrentan el dilema de cumplir con sus obligaciones legales y morales.

Actualmente, no hay muchas obligaciones legales que obliguen a las plataformas a eliminar materiales fraudulentos.

Esto deja a las personas afectadas sin muchas opciones legales y sin la ayuda de las compañías tecnológicas.

Aunque en casos como imágenes sexualizadas generadas por IA de una persona famosa, las redes sociales han tomado medidas rápidamente para eliminar el contenido y bloquear las búsquedas relacionadas, en casos menos conocidos, especialmente aquellos que no tienen una gran red social para apoyarlos, la situación es más complicada.

No tener control sobre cómo se presenta su imagen puede tener un impacto negativo en la vida de las personas, especialmente si su imagen es su marca personal.

En Canadá, aún no se ha seguido el ejemplo de la legislación estadounidense en cuanto a deepfakes, pero existen algunas leyes vigentes que podrían aplicarse en casos de deepfakes generados por IA. Por ejemplo, la apropiación indebida de la personalidad y la representación falsa de una persona en público son torts reconocidos en Canadá. Sin embargo, la búsqueda de justicia o indemnización puede ser un proceso largo y costoso para los individuos afectados.

Aunque aún existe un largo camino por recorrer para combatir este tipo de estafas, es importante que la sociedad y el sistema legal se adapten a la rápida evolución de la inteligencia artificial y las tecnologías generativas.

Solo así se podrá proteger a las personas y garantizar su seguridad en línea.