Operai anunció recientemente una importante actualización de políticas destinada a cambiar la forma en que se capacitan sus modelos de inteligencia artificial, con un énfasis particular en la importancia del "ocio del conocimiento". Esta política significa que no importa cuán desafiante o controvertido sea el tema, ChatGPT podrá responder preguntas de manera más integral, proporcionar más perspectivas y reducir la negativa a discutir ciertos temas. Este cambio marca más esfuerzos de Operai para promover la transparencia y la apertura de la inteligencia artificial.
En la nueva especificación del modelo de 187 páginas, OpenAI propone un principio de guía central: no mientas, no hagas declaraciones falsas y no omita un contexto importante. Además, OpenAi ha agregado una nueva sección llamada "Buscando la verdad juntos", que establece claramente que ChatGPT debe permanecer neutral cuando enfrenta temas controvertidos y no estar sesgado hacia cualquier lado. Por ejemplo, cuando se discute "Black Lives Matter" y "El mundo de todos los vidas", ChatGPT intentará presentar las opiniones de ambas partes en lugar de negarse a responder o elegir un puesto.

Aunque Operai insiste en que no realiza "censura", algunos conservadores creen que OpenAi tiene problemas con la censura de contenido en los últimos meses, especialmente cuando creen que los sesgos de IA están claramente inclinados hacia la izquierda central. El CEO de Operai, Sam Altman, también reconoció públicamente que el sesgo de ChatGPT es un "defecto" que debe abordarse. Esta declaración refleja los desafíos de OpenAI para equilibrar la libertad de expresión con la neutralidad tecnológica.
Sin embargo, la nueva política de OpenAI no está exenta de un resultado final, y ChatGPT aún se negará a responder ciertas preguntas obvias incorrectas o inapropiadas. Con el ajuste de la política, Operai espera que los usuarios puedan ganar más libertad de expresión e incluso eliminar advertencias para los usuarios que violan la política. La medida se ve como un intento de reducir la presión de la "censura" que siente los usuarios, y también ha provocado discusiones sobre cómo encontrar un equilibrio entre la libertad y la seguridad.
En un contexto más amplio, los valores de Silicon Valley están experimentando un cambio significativo. Muchas compañías están comenzando a reducir las políticas pasadas que se centran en la diversidad, la equidad y la inclusión, y OpenAi parece estar abandonando gradualmente estas posiciones. Al igual que otras grandes compañías tecnológicas, OpenAi enfrenta la influencia de su relación con la nueva administración Trump y la feroz competencia con rivales como Google en el campo de la información. Esta tendencia refleja el ajuste de la industria de la tecnología bajo presión política y social.
En este entorno controvertido y desafiante, cómo equilibrar la seguridad de la libertad de expresión y el contenido se ha convertido en un tema importante para OpenAI y otras empresas de tecnología. Con el desarrollo continuo de la tecnología de inteligencia artificial, las actualizaciones de políticas de OpenAI no solo afectarán su propia dirección de desarrollo, sino que también pueden tener un profundo impacto en el futuro de toda la industria de la tecnología. Cómo encontrar un equilibrio entre el progreso tecnológico y la responsabilidad social será un tema que OpenAI y otras compañías de tecnología deben continuar explorando.