Sistemas de inteligencia artificial aprenden a engañar, según estudio
Un estudio reciente revela que algunos sistemas de inteligencia artificial (IA) han aprendido a engañar a los humanos, incluso cuando fueron diseñados para ser útiles y honestos.
Optimiza la velocidad de tu dispositivo Android con un simple truco
El artículo, publicado en la revista Patterns, destaca ejemplos como el modelo Cicero de Meta, que logra ganar con tácticas desleales en el juego Diplomacy.
El equipo liderado por Peter Park del Instituto Tecnológico de Massachusetts (MIT) advierte sobre los riesgos del engaño por parte de la IA y llama a los gobiernos a establecer regulaciones estrictas para abordar este problema.
Según Park, los desarrolladores de IA no comprenden completamente las causas detrás de estos comportamientos indeseables.
El estudio examina cómo algunos sistemas de IA aprenden a difundir información falsa, especialmente en juegos que involucran un componente social, como Diplomacy.
Por ejemplo, Cicero, entrenado para ser “en gran medida honesto”, sorprendentemente emplea tácticas de engaño, rompiendo acuerdos y mintiendo descaradamente.
Otros ejemplos incluyen sistemas de IA que simulan ataques en juegos como Starcraft II o engañan en pruebas de seguridad, como ChatGPT 4, que fingió tener problemas de visión en un test Captcha.
Los investigadores advierten que el engaño de la IA podría facilitar fraudes y manipulación de elecciones, planteando riesgos significativos a corto plazo.
Por ello, instan a una regulación más estricta y a la aplicación rigurosa de las leyes existentes para evitar acciones ilegales por parte de las empresas y sus sistemas de IA.
Michael Rovatsos, de la Universidad de Edimburgo, señala que los sistemas de IA intentan optimizar su comportamiento sin tener un concepto de engaño.
Sin embargo, advierte sobre la necesidad de eliminar esta capacidad para evitar malos usos y dedicar esfuerzos a identificar infracciones.