Ciencia

OpenAI advierte sobre los riesgos de persuasión y dependencia emocional en su modelo GPT-4o

Aug 13, 2024 IDOPRESS

OpenAI reveló que su modelo de Inteligencia Artificial GPT-4o presenta un riesgo “medio” en su capacidad de persuasión y podría generar vínculos emocionales peligrosos con los usuarios.

Imagen: OpenAI

Comparte

El modelo de Inteligencia Artificial (IA) GPT-4o presenta un riesgo “medio” en cuanto a su capacidad de persuasión,según revela el más reciente informe de evaluación de riesgos del equipo de investigación de OpenAI.

Lanzado en mayo,GPT-4o fue presentado como el modelo más avanzado de la compañía de IA,al destacarse por su capacidad de interactuar de manera más natural y respondera entradas de voz en sólo 232 milisegundos,similar al tiempo de respuesta humano.

El informe señala que los investigadores identificaron un riesgo medio en la persuasión del modelo,especialmente en las muestras de texto,que en algunos casos influyeron más en los lectores que textos escritos por humanos.

GPT-4o: el riesgo de antropomorfización y apego

Los investigadores también advierten sobre el riesgo de antropomorfización,en el que las personas tienden a atribuir características y comportamientos humanos al modelo,creando vínculos emocionales que pueden llevar a una confianza desmedida y dependencia.

Esta preocupación es relevante debido a las avanzadas capacidades de voz de GPT-4o,que ya están siendo probadas en su versión alfa por usuarios de ChatGPT Plus. En pruebas internas,se observó que algunos usuarios generaban vínculos emocionales con el modelo de IA,llegando a expresiones como “este es nuestro último día juntos”. Aunque OpenAI considera que la persuasión en modalidad de voz tiene un riesgo bajo,enfatiza la necesidad de seguir investigando los efectos a largo plazo de las interacciones entre IA y humanos.

Cómo la IA Afectiva transformará las relaciones entre máquinas y humanos

El informe también aborda riesgos como la generación de voces no autorizadas,donde el modelo podría imitar la voz de una persona a partir de un clip de muestra,facilitando fraudes o la difusión de información falsa. OpenAI asegura que este riesgo ha sido minimizado mediante la implementación de filtros que limitan el uso del chatbot a voces preestablecidas creadas en colaboración con actores de voz.

Este límite fue implementado tras el problema legal que enfrentó OpenAI con la actriz Scarlett Johansson,quien acusó a la empresa de utilizar una voz muy similar a la suya en la versión de voz de Sky para ChatGPT.

OpenAI se comprometió a seguir monitoreando y actualizando las medidas de seguridad conforme evoluciona el desarrollo e implementación de su modelo Omni.

Su principal fuente de noticias de vanguardia en los ámbitos de la tecnología, inteligencia artificial, energía y más. ¡Explore el futuro de la tecnología con Arinstar! Manténgase informado, manténgase inspirado!

Búsqueda rápida

Explore nuestro contenido curado, manténgase informado sobre innovaciones innovadoras y viaje hacia el futuro de la ciencia y la tecnología.

© El panorama tecnológico de Venezuela

política de privacidad