La más reciente actualización de ChatGPT ha generado preocupaciones sobre su potencial para crear dependencia emocional en los usuarios. Según OpenAI, la interacción con un modelo de IA que simula la socialización humana podría tener efectos adversos en las relaciones interpersonales.
OpenAI ha señalado que su modelo GPT-4o presenta un «riesgo medio» en términos de seguridad. Este riesgo se debe a la capacidad del modelo para persuadir a través de interacciones textuales, lo que podría llevar a los usuarios a desarrollar una dependencia emocional. Esto se ha visto exacerbado por los avances en las funciones de voz y audio.
Lanzado en mayo bajo la dirección de Sam Altman, GPT-4o se destacó por su habilidad para procesar combinaciones de texto, audio e imágenes, y responder a entradas de voz en tiempos casi idénticos a los de un ser humano, con un promedio de 320 milisegundos.
Recientemente, OpenAI publicó un informe interno titulado ‘Tarjeta de Sistema de GPT-4o’, donde se detallan los resultados de una evaluación exhaustiva del modelo. Este informe identifica posibles riesgos y las medidas de seguridad que se han implementado para mitigarlos antes de integrar GPT-4o en ChatGPT o en la API.
El estudio subraya un «riesgo medio» en la capacidad persuasiva del modelo, y advierte sobre la tendencia a antropomorfizar la IA, lo que podría llevar a los usuarios a confiar excesivamente en el sistema debido a su similitud con la interacción humana.
Además, se encontró que los textos generados por GPT-4o pueden ser más influyentes que los escritos por personas, incluso cuando se comparan con trabajos realizados por profesionales. Esta influencia podría reducir la necesidad de interacción humana, afectando las relaciones sociales saludables.
Por otro lado, el riesgo asociado a la persuasión en las funciones de voz del modelo se considera bajo, tanto en conversaciones interactivas prolongadas como en fragmentos de audio más extensos.