OpenAI는 최근“지식 여가”의 중요성에 중점을두고 인공 지능 모델이 훈련되는 방식을 바꾸는 것을 목표로하는 주요 정책 업데이트를 발표했습니다. 이 정책은 주제가 아무리 도전하거나 논란의 여지가 있더라도 Chatgpt는 질문에보다 포괄적으로 질문에 답변하고 더 많은 관점을 제공하며 특정 주제에 대한 논의를 거부 할 수 있음을 의미합니다. 이 변화는 OpenAI의 인공 지능의 투명성과 개방성을 촉진하기 위해 추가 노력을 기울입니다.
새로운 187 페이지 모델 사양에서 OpenAI는 핵심 안내 원리를 제안합니다. 거짓말하지 말고 진실하지 않은 진술을하지 말고 중요한 맥락을 생략하지 마십시오. 또한 OpenAi는 "진실을 찾는 진실을 찾는 것"이라는 새로운 섹션을 추가했습니다.이 섹션은 논란의 여지가있는 주제에 직면 할 때 Chatgpt가 중립적으로 유지되어야하며 양쪽으로 편향되지 않아야한다고 명시하고 있습니다. 예를 들어,“Black Lives Matter”와“Everyone 's Life Matter”를 논의 할 때 Chatgpt는 답변을 거부하거나 직책을 선택하지 않고 양 당사자의 견해를 제시하려고합니다.

OpenAi는 그것이 "검열"을 수행하지 않는다고 주장하지만, 일부 보수 주의자들은 OpenAI가 지난 몇 개월 동안 콘텐츠 검열에 문제가 있다고 생각합니다. Openai CEO Sam Altman은 또한 Chatgpt의 편견이 해결해야 할 "결함"이라는 것을 공개적으로 인정했습니다. 이 진술은 언론의 자유와 기술 중립의 균형을 맞추는 OpenAI의 도전을 반영합니다.
그러나 OpenAi의 새로운 정책은 결론이 없으며 ChatGpt는 여전히 명백한 잘못 또는 부적절한 질문에 답하지 않을 것입니다. 정책 조정으로 OpenAI는 사용자가 더 많은 언론의 자유를 얻을 수 있으며 정책을 위반 한 사용자에 대한 경고를 제거하기를 희망합니다. 이 조치는 사용자가 느끼는“검열”의 압력을 줄이려는 시도로 여겨지며 자유와 안보 사이의 균형을 찾는 방법에 대한 토론을 촉발시켰다.
더 큰 맥락에서 실리콘 밸리의 가치는 상당한 변화를 겪고 있습니다. 많은 회사들이 다양성, 형평성 및 포용에 중점을 둔 과거 정책을 축소하기 시작했으며 OpenAi는 점차 이러한 입장을 포기하는 것으로 보입니다. 다른 대기업 회사와 마찬가지로 Openai는 정보 분야에서 새로운 트럼프 행정부와의 관계 및 Google과 같은 라이벌과의 치열한 경쟁의 영향에 직면하고 있습니다. 이러한 추세는 정치적, 사회적 압력 하에서 기술 산업의 조정을 반영합니다.
이 논란의 여지가 있고 도전적인 환경에서 자유 언론과 콘텐츠의 보안의 균형을 맞추는 방법은 OpenAI 및 기타 기술 회사에게 중요한 문제가되었습니다. 인공 지능 기술의 지속적인 개발로 인해 OpenAI의 정책 업데이트는 자체 개발 방향에 영향을 줄뿐만 아니라 전체 기술 산업의 미래에 큰 영향을 미칠 수 있습니다. 기술 진보와 사회적 책임 사이의 균형을 찾는 방법은 OpenAI 및 기타 기술 회사가 계속 탐구 해야하는 주제가 될 것입니다.