Recientemente, Miles Brundage, ex jefe de investigación de políticas en OpenAI, criticó el cambio narrativo de la compañía en la seguridad de la IA, diciendo que OpenAi está reescribiendo su historia de seguridad en los sistemas de IA. Dijo que OpenAi puede ignorar las medidas de seguridad a largo plazo en su búsqueda de inteligencia artificial general (AGI).

Operai se ha comprometido a promover su ambiciosa visión, especialmente en el contexto del creciente aumento de competidores como Deepseek. En el proceso de perseguir el desarrollo de AGI, la compañía con frecuencia enfatiza el potencial de los agentes de inteligencia súper artificiales, pero esta actitud no ha sido ampliamente reconocida. Brendage cree que OpenAI tiene narraciones inconsistentes con el despliegue y la seguridad de sus modelos de IA existentes.
Recientemente, Openai lanzó un documento sobre el despliegue gradual de su modelo AI para demostrar su enfoque prudente. Tomar GPT-2 como ejemplo en el documento enfatiza que se debe mantener un alto grado de precaución al tratar con el sistema actual. Openai mencionada en la documentación: "En un mundo discontinuo, las lecciones de seguridad provienen de un alto grado de precaución con los sistemas de hoy, que es exactamente el enfoque que adoptamos sobre el modelo GPT-2".
Sin embargo, Brendage cuestionó esto. Él cree que el lanzamiento de GPT-2 también sigue un enfoque gradual, y los expertos en seguridad han elogiado el manejo cauteloso de OpenAi. Él cree que la prudencia pasada no era excesiva, sino una práctica necesaria y responsable.
Además, Brendage expresó su preocupación por la afirmación de OpenAi de que AGI pasará por pasos graduales en lugar de avances repentinos. Él cree que el malentendido de OpenAI de la historia de la liberación de GPT-2 y su red-narrativa de la historia de la seguridad son inquietantes. También señaló que los documentos publicados por OpenAI pueden de alguna manera causar que las preocupaciones de seguridad se consideren una reacción exagerada, lo que puede plantear riesgos significativos en el contexto de los sistemas de IA en constante evolución.
Esta no es la primera vez que Operai ha sido criticado, y los expertos cuestionan si las empresas han realizado una compensación razonable entre la seguridad a largo plazo y los beneficios a corto plazo. Las preocupaciones de Brendage han llamado una vez más la atención sobre la seguridad de la IA.
Puntos clave:
El ex líder de la política de OpenAI cuestionó los cambios de la compañía en la narrativa de seguridad de la IA, creyendo que era un malentendido de la historia.
Los documentos publicados por OpenAI enfatizan la importancia de la liberación cautelosa de los modelos de IA, pero han sido criticados por ex empleados.
Los expertos expresaron su preocupación sobre el desarrollo futuro de los sistemas de IA.