Una investigación del proveedor de soluciones biométricas iProov determinó que solo el 0.1 por ciento de los usuarios distingue con precisión un ‘deepfake’ generado por inteligencia artificial de un contenido real. Los videos resultan los más difíciles de detectar, en comparación con las imágenes.

Los ‘deepfakes’ son videos manipulados con IA que buscan engañar a los usuarios, haciéndoles creer que una persona realiza declaraciones o acciones irreales mediante el intercambio de rostros y la modificación de la voz.

Hace unos años, esta tecnología solo estaba disponible para desarrolladores, pero ahora cualquier persona puede acceder a ella gracias a los avances en clonación de voz y sincronización de labios con código abierto. Con una muestra de audio de unos segundos, es posible recrear la voz de alguien.

Cada vez más popular y sofisticada, esta tecnología representa «una amenaza abrumadora en el panorama digital actual» y evolucionó notablemente en los últimos 12 meses, según iProov. Su Informe de Inteligencia de Amenazas de 2024 registró un aumento del 704 por ciento en el intercambio de rostros con ‘deepfake’.

El ‘deepfake’ engaña a la mayoría de los usuarios, hasta el punto de que solo el 0.1 por ciento distingue con precisión el contenido real del generado con IA, según un informe reciente de la compañía.

El proveedor de soluciones de verificación de identidad biométrica encuestó a 2,000 usuarios de Reino Unido y Estados Unidos y concluyó que solo ese porcentaje identificó correctamente los detalles que delatan un contenido generado con IA.

«En situaciones del mundo real, donde las personas prestan menos atención, la vulnerabilidad a los ‘deepfakes’ probablemente sea aún mayor», indicaron expertos en su página web, donde explicaron los principales hallazgos del estudio.

El análisis reveló que las generaciones mayores son más vulnerables a los ‘deepfakes’. El 30 por ciento de los encuestados de entre 55 y 64 años y el 39 por ciento de los mayores de 65 años nunca habían oído hablar de esta tecnología. Esto evidencia «una importante brecha de conocimiento y una mayor susceptibilidad a esta amenaza emergente en este grupo de edad», señaló iProov.

Respecto al formato del ‘deepfake’, la compañía explicó que los videos resultaron más difíciles de detectar que las imágenes. Los participantes mostraron un 36 por ciento menos de probabilidades de identificar correctamente un video falso en comparación con una foto estática.

Esta vulnerabilidad genera «serias preocupaciones» sobre fraudes en video, como la suplantación de identidad en videollamadas o en procesos de verificación de identidad basados en video.

iProov también advirtió sobre el exceso de confianza, ya que más del 60 por ciento de los encuestados afirmaron saber reconocer un contenido generado con IA. Esta percepción se da especialmente entre los adultos jóvenes de 18 a 34 años.

Las redes sociales juegan un papel clave en esta percepción. Los servicios de Meta (49%) y TikTok (47%), de ByteDance, concentran la mayor presencia de ‘deepfakes’. Esto redujo la confianza en la información y los medios en línea, pues el 49 por ciento de los usuarios desconfía más de las redes sociales tras conocer esta técnica fraudulenta.

Motor de la desinformación

Otra conclusión del sondeo indica que los ‘deepfakes’ generan preocupación y desconfianza generalizadas. Tres de cada cuatro personas (74%) expresaron inquietud por su impacto social, mientras que el 68 por ciento considera que la desinformación y las noticias falsas representan el principal problema.

A pesar de ello, el 29 por ciento no toma medidas al detectar un posible ‘deepfake’. El 48 por ciento no sabe cómo denunciar estas estafas y una cuarta parte de los usuarios no se preocupa si ve uno, por lo que no reporta el engaño.

El análisis también señala que la mayoría de los consumidores no verifica activamente la autenticidad de la información en línea, lo que aumenta su vulnerabilidad a los ‘deepfakes’. Solo el 11 por ciento analiza críticamente la fuente y el contexto de la información para determinar si un video o imagen fue generado con IA.

Para combatir esta creciente amenaza, iProov recomendó que las organizaciones adopten soluciones basadas en tecnología biométrica, capaces de verificar que una persona real intenta ejecutar una acción y no alguien que suplanta su identidad.

Por expreso

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *