10 sep 2024 , 09:44

Así puedes reconocer un video falso creado con Inteligencia Artificial

En redes sociales circulan videos de personas reales que emiten un mensaje falso creado por inteligencia artificial, muchas veces para cometer actos ílicitos, estos son los llamados deepfakes.

   

En la era digital, donde las imágenes y videos pueden manipularse con facilidad, resulta cada vez más difícil distinguir entre lo real y lo falso. Los llamados deepfakes, creaciones hiperrealistas generadas por inteligencia artificial, han inundado internet, sembrando dudas y desconfianza.

Lea: Apple Intelligence: la inteligencia artificial de Apple llega en octubre

Un deepfake es un contenido sintético, como un video o una imagen, creado a partir de técnicas de aprendizaje profundo. Estos algoritmos permiten intercambiar rostros, crear personas inexistentes o modificar escenas de manera tan convincente que resulta casi imposible detectar la manipulación a simple vista.

La popularización de los deepfakes y la solución

La facilidad con la que se pueden crear deepfakes y su creciente sofisticación han generado una preocupación global. Ante este desafío, el profesor Siwei Lyu de la Universidad de Buffalo ha desarrollado una herramienta gratuita y de acceso público llamada DeepFake-o-meter. Esta plataforma permite a cualquier usuario analizar audios, imágenes y videos para determinar si son auténticos o si han sido generados por IA.

¿Cómo funciona DeepFake-o-meter?

Página de inicio para cargar el archivo a analizar en DeepFake-o-meter.
Página de inicio para cargar el archivo a analizar en DeepFake-o-meter. ( )
  • Crea una cuenta gratuita en la plataforma.
  • Carga el video, imagen o audio que deseas analizar.
  • DeepFake-o-meter evaluará el contenido y proporcionará un resultado en una escala del 1 al 100, donde un puntaje cercano a 100 indica una alta probabilidad de que el contenido sea un deepfake.
  • Probando DeepFake-o-meter con ChatGPT

    Para poner a prueba la eficacia de esta herramienta, se solicitó a ChatGPT que generara una imagen realista de un parque en un día soleado. Posteriormente, se subió esta imagen a DeepFake-o-meter:

    Imagen generada por IA.
    Imagen generada por IA. ( )

    Sin embargo, al analizarla con DeepFake-o-meter, el resultado fue sorprendente: la plataforma indicó que solo había un 13% de probabilidad de que la imagen fuera generada por IA. Si esta imagen 100% hecha por la IA no fue reconocida como tal, en el caso de imágenes modificadas con un alto nivel de detalle, la plataforma puede tener dificultades para detectar la manipulación.

    Solo el último detector indicó que la imagen tenía un 13,7% de probabilidad de haber sido generada con IA.
    Solo el último detector indicó que la imagen tenía un 13,7% de probabilidad de haber sido generada con IA. ( )

    ​​​​​​​Así pues, aunque DeepFake-o-meter puede ser una herramienta útil para detectar algunos tipos de deepfakes, en esta prueba demostró que no es infalible. A medida que la tecnología avanza, es probable que surjan nuevas y mejores herramientas para identificar este tipo de contenido falso.

    Noticias
    Recomendadas