기계지능연구소(MIRI)는 성명을 통해 인간보다 똑똑한 AI 시스템 개발을 중단할 것을 전 세계에 촉구했다. AI 시스템의 잠재적인 위험은 인류의 멸망으로 이어질 수 있다고 믿기 때문이다. 이 요구는 기술 업계의 일부 리더들의 지지를 받았지만 논란도 불러일으켰습니다. MIRI는 현재 AI 개발 속도가 너무 빨라 입법 감독이 따라잡기 어렵다고 강조했다. 따라서 AI의 잠재적인 악의적 행위에 대처하기 위해서는 '오프 스위치' 의무 설치 등 보다 적극적인 조치가 필요하다고 강조했다. 예측할 수 없는 위험. 연구소는 AI가 안전하고 제어 가능하다는 것이 보장되어야만 더욱 발전된 AI 시스템의 개발이 계속될 수 있다고 믿습니다.
비영리 연구 그룹인 기계 지능 연구소(MIRI)는 안전 문제가 인간의 생존을 위협할 수 있다는 우려로 기본 또는 "최첨단" 모델 연구를 중단할 것을 전 세계에 촉구했습니다. 기본 모델은 다양한 모드에 적용할 수 있는 인공지능 시스템이다. MIRI는 기본 모델이 인간보다 더 똑똑할 것이며 "인류를 파괴"할 가능성이 있다고 믿습니다.

기술 분야에서는 엘론 머스크(Elon Musk), 스티브 워즈니악(Steve Wozniak) 등 일부 주요 인사들이 OpenAI의 GPT-4보다 더 강력한 기본 모델 개발에 대한 유예를 촉구해왔습니다. 그러나 MIRI는 인간보다 더 똑똑한 시스템을 구축하려는 시도를 완전히 중단할 것을 요구하는 최근 공개된 통신 전략을 통해 한 단계 더 나아가기를 원합니다.
이 단체는 "정책 입안자들은 주로 타협을 통해 문제를 다룬다. 그들은 다른 곳에서 무언가를 얻기 위해 어딘가에 굴복한다"고 말했다. 우리는 인간의 생존을 보존하는 데 필요한 많은 법안이 일반적인 정치적 과정을 통과하여 약화될 것을 우려한다. . 한편, AI 연구소는 더욱 강력한 시스템을 개발하고 교육하는 데 지속적으로 투자하고 있습니다.”
MIRI는 정부가 기본 모델을 개발하는 기업이 악의적이거나 "x-risk" 경향을 보일 경우 AI 시스템을 종료할 수 있는 "킬 스위치"를 설치하도록 강제하기를 원합니다.
비영리 단체는 지능형 시스템이 인간보다 더 똑똑하다는 생각에 여전히 전념하고 있지만 "이러한 유형의 AI를 안전하게 구축하는 방법을 알 때까지" 구축하고 싶다고 말했습니다.
MIRI는 2000년 Eliezer Yudkowsky가 Peter Thiel과 Ethereum 암호화폐의 공동 창시자인 Vitalik Buterin을 포함한 지지자들과 함께 설립했습니다. 미래생명연구소(Future of Life Institute)도 MIRI의 주요 기여자 중 하나입니다.
AI 및 데이터 분석 연구 회사인 Omdia의 수석 분석가인 Bradley Shimmin은 MIRI가 지원 연구 부족으로 인해 국회의원들을 설득하는 데 어려움을 겪을 것이라고 말했습니다. MIRI는 "시장은 이러한 문제를 고려하여 현재와 가까운 미래의 변환기 기반 GenAI 모델이 복잡한 주제에 대한 유용한 표현을 생성하는 것 외에는 거의 할 수 없다는 결론을 내렸습니다."라고 MIRI는 말했습니다. 인공 지능을 구축하고 규제합니다.
하이라이트:
- 비영리 연구 그룹인 Machine Intelligence Research Institute(MIRI)는 안전 문제가 인간의 생존을 위협할 수 있다는 우려로 기본 또는 "최첨단" 모델 연구를 중단할 것을 전 세계에 촉구했습니다.
- MIRI는 정부가 기본 모델을 개발하는 기업이 악의적이거나 "x-risk" 경향을 보일 경우 AI 시스템을 종료할 수 있는 "킬 스위치"를 설치하도록 강제하기를 원합니다.
- AI 및 데이터 분석 연구업체 옴디아(Omdia) 수석 분석가 브래들리 심민(Bradley Shimmin)은 MIRI가 지원 연구 부족으로 인해 국회의원들을 설득하는 데 어려움을 겪을 것이라고 말했다.
MIRI의 이번 통화는 AI의 안전성과 개발 속도에 대한 광범위한 논의를 촉발시켰지만, 그 견해는 극단적이지만 인공지능의 잠재적 위험에 대한 우려도 강조하고 있어 업계와 정부의 진지한 반성과 고려가 필요합니다. 앞으로는 인공지능의 발전과 보안 위험 사이의 균형을 어떻게 맞추느냐가 중요한 이슈가 될 것이다.