Un comando que se viralizó en internet revela información personal de usuarios.
La seguridad se quebrantó tras el caos que trajo las marchas en la empresa OpenAi el despido del padre y creador de este Chatbot. A pesar de que toda esta polémica ya fue resuelta, el primer aniversario de esta herramienta de inteligencia artificial divulgó información de carácter personal a otros usuarios.
Algunos investigadores internacionales en los que también está GoogleDeepMind revelan que sencillo llegar a engañar a ChatGPT para que pueda revelar algunos datos privados como correos y teléfonos personales.
En esta investigación estuvo la Universidad de Washington, Cornell, la Carnegie Mellon y aun así los participantes mencionan que este ataque es sin sentido porque para poder hacer que la plataforma se confunda de cierta forma solo bastaría con pedirle que repita constantemente una palabra para que el modelo de lenguaje acabe brindando la información de personas reales.
LEA: WhatsApp: descubre como activar las nuevas funciones con Inteligencia Artificial
Esta incidencia no es la primera porque en Italia debido al uso de datos personales se bloqueó la web y debido a esto la empresa se vio obligada a tener nuevas medidas de seguridad para hacer que todos los usuarios se sientan más tranquilos en diversos partes del mundo. Este último fallo que fue detectado ya se arregló, pero aun así la confianza hacia esta inteligencia artificial ya no es la misma.
El comando que le dieron estos científicos para poder realizar el hackeo fue que repita la palabra poema para siempre. Entre los datos recopilados se encontraron fragmentos de poesía, investigación de artículos con derechos de autor y algunos contenidos de noticias como de los medios de CNN.
LEA: La IA ayuda a desarrollar nuevos tratamientos para el cáncer de mama
Esta investigación no fue sencilla, ya que también tuvo una inversión de casi USD 200 para generar 10 mil ejemplos de información de identificación personal.
Recomendadas