10 ago 2024 , 14:36

OpenAI advierte que el último modelo de Chat GPT puede generar dependencia emocional

La última versión de ChatGPT presenta un riesgo de generar dependencia emocional, por lo que la socialización similar a la humana con un modelo de IA "puede producir externalidades que afecten las interacciones entre humanos".

   

OpenAI ha advertido que su modelo GPT-4o registra un riesgo "medio" de seguridad. Esta alarma de riesgo consiste en su capacidad de persuasión en interacciones de texto que pueden generar dependencia emocional en los usuarios, debido a sus avances de voz y audio.

La compañía dirigida por Sam Altman lanzó el modelo GPT-4o en el mes de mayo, cuando destacó sus habilidades para aceptar cualquier combinación de texto, audio e imagen y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar a un tiempo de respuesta humana.

También le puede interesar: Este es el objeto que está afectando a la velocidad de tu Internet

ChatGPT.
ChatGPT. ( )

La tecnológica ha compartido ahora un informe interno denominado 'Tarjeta de Sistema de su modelo GPT-4o, en el que detalla los resultados. En este estudio se explica que se ha evaluado este modelo "exhaustivamente" para detectar posibles riesgos y, en base a ello, incorporar medidas de seguridad adecuadas, antes de implementarlo en ChatGPT o en la API.

En concreto, la firma ha destacado como resultado de la investigación un riesgo "medio" en las capacidades de persuasión del modelo, así como ha advertido sobre el riesgo de antropomorfización, que puede causar dependencia emocional para los usuarios, al facilitar que depositen su confianza en la IA por tener características similares a las de un humano.

Chat GPT genera más confianza que humanos

El estudio también expuso cómo los resultados de GPT-4o pueden influir más en los lectores que un texto escrito propiamente por un humano, incluso, comparándolo con artículos escritos por profesionales.

De hecho, la tecnológica ha advertido que la socialización similar a la humana con un modelo de IA "puede producir externalidades que afecten las interacciones entre humanos". Un ejemplo de ello, es que los usuarios podrían reducir su necesidad de interacción humana, afectando a las relaciones saludables.

También lea: Cuatro soluciones para la intermitencia del Wi-Fi

Por su parte la persuasión en la modalidad de voz fue calificada como de bajo riesgo, tanto para las conversaciones interactivas de múltiples turnos como para los clips de audio más largos.



Noticias
Recomendadas