in

No confíes en nada de lo que ves en la web, dicen los expertos

GettyImages 885075194 081de161395e4f07b2cf2e592de30ee4

Conclusiones clave

  • Una nueva investigación revela que las personas no pueden separar las imágenes generadas por IA de las reales.
  • Los participantes calificaron las imágenes generadas por IA como más confiables.
  • Los expertos creen que las personas deberían dejar de confiar en todo lo que ven en Internet.

Kentoh / Getty Images



El dicho «ver para creer» ya no es relevante cuando se trata de Internet, y los expertos dicen que no va a mejorar en el corto plazo.


Un estudio reciente encontró que las imágenes de rostros generadas por inteligencia artificial (IA) no solo eran altamente fotorrealistas, sino que también parecían más virtuosas que los rostros reales.


«Nuestra evaluación del fotorrealismo de rostros sintetizados por IA indica que los motores de síntesis han atravesado el valle inquietante y son capaces de crear rostros que son indistinguibles y más confiables que los rostros reales», observaron los investigadores.



Esa persona no existe

Los investigadores, la Dra. Sophie Nightingale de la Universidad de Lancaster y el profesor Hany Farid de la Universidad de California, Berkeley, realizaron los experimentos después de reconocer las amenazas bien publicitadas de las falsificaciones profundas, que van desde todo tipo de fraude en línea hasta campañas de desinformación estimulantes.


«Quizás lo más pernicioso es la consecuencia de que, en un mundo digital en el que se puede falsificar cualquier imagen o video, se puede cuestionar la autenticidad de cualquier grabación inconveniente o no deseada», sostuvieron los investigadores.


Argumentaron que si bien ha habido progreso en el desarrollo de técnicas automáticas para detectar contenido ultrafalso, las técnicas actuales no son lo suficientemente eficientes y precisas para mantenerse al día con el flujo constante de contenido nuevo que se carga en línea. Esto significa que depende de los consumidores de contenido en línea distinguir lo real de lo falso, sugiere el dúo.



Jelle Wieringa, defensora de la conciencia de seguridad en KnowBe4, estuvo de acuerdo. Le dijo a Lifewire por correo electrónico que combatir las falsificaciones profundas reales es extremadamente difícil de hacer sin tecnología especializada. «[Mitigating technologies] puede ser costoso y difícil de implementar en procesos en tiempo real, a menudo detectando un deepfake solo después del hecho».


Con esta suposición, los investigadores realizaron una serie de experimentos para determinar si los participantes humanos pueden distinguir los rostros sintetizados de última generación de los rostros reales. En sus pruebas, encontraron que, a pesar de la capacitación para ayudar a reconocer las falsificaciones, la tasa de precisión solo mejoró al 59 %, frente al 48 % sin capacitación.


Esto llevó a los investigadores a probar si las percepciones de confiabilidad podrían ayudar a las personas a identificar imágenes artificiales. En un tercer estudio, pidieron a los participantes que calificaran la confiabilidad de las caras, solo para descubrir que la calificación promedio de las caras sintéticas era un 7,7 % más confiable que la calificación promedio de las caras reales. El número puede no parecer mucho, pero los investigadores afirman que es estadísticamente significativo.



Falsificaciones más profundas

Las falsificaciones profundas ya eran una gran preocupación, y ahora las aguas se han enturbiado aún más por este estudio, que sugiere que las imágenes falsas de alta calidad podrían agregar una dimensión completamente nueva a las estafas en línea, por ejemplo, al ayudar a crear perfiles falsos en línea más convincentes.


«Lo único que impulsa la ciberseguridad es la confianza que las personas tienen en las tecnologías, los procesos y las personas que intentan mantenerlos a salvo», compartió Wieringa. «Las falsificaciones profundas, especialmente cuando se vuelven fotorrealistas, socavan esta confianza y, por lo tanto, la adopción y aceptación de la ciberseguridad. Puede hacer que las personas desconfíen de todo lo que perciben».


Imágenes de AndSim/Getty



Chris Hauk, campeón de privacidad del consumidor en Pixel Privacy, estuvo de acuerdo. En un breve intercambio de correos electrónicos, le dijo a Lifewire que la falsificación profunda fotorrealista podría causar «estragos» en línea, especialmente en estos días en que se puede acceder a todo tipo de cuentas mediante la tecnología de identificación con foto.



Acción correctiva

Afortunadamente, Greg Kuhn, director de IoT de Prosegur Security, dice que existen procesos que pueden evitar este tipo de autenticación fraudulenta. Le dijo a Lifewire por correo electrónico que los sistemas de acreditación basados ​​​​en IA comparan a un individuo verificado con una lista, pero muchos tienen protecciones integradas para verificar la «actividad».


«Este tipo de sistemas pueden requerir y guiar a un usuario para realizar ciertas tareas, como sonreír o girar la cabeza hacia la izquierda y luego hacia la derecha. Estas son cosas que las caras generadas estáticamente no podrían realizar», compartió Kuhn.


Los investigadores han propuesto pautas para regular su creación y distribución para proteger al público de las imágenes sintéticas. Para empezar, sugieren incorporar marcas de agua profundamente arraigadas en las propias redes de síntesis de imágenes y videos para garantizar que todos los medios sintéticos puedan identificarse de manera confiable.


Hasta entonces, Paul Bischoff, defensor de la privacidad y editor de investigación de seguridad de la información en Comparitech, dice que las personas están solas. «La gente tendrá que aprender a no confiar en las caras en línea, al igual que todos (con suerte) hemos aprendido a no confiar en los nombres que aparecen en nuestros correos electrónicos», dijo Bischoff a Lifewire por correo electrónico.

What do you think?

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

20210403 60689a61e9bae

Cómo usar DocuSign para enviar o agregar su firma digital a documentos importantes

GettyImages 1288994365 7e4d1cb0174d42f8b91f0f1f6f3ba117

Por qué tus hallazgos de Etsy son escasos esta semana