중국-싱가포르 인공지능 프론티어 및 거버넌스 세미나에서 중국과 싱가포르 학자들이 AI에 찬물을 끼얹은 이유는 무엇일까?
저자:Eve Cole
업데이트 시간:2024-11-15 12:24:01

1956년 인공지능이라는 개념이 처음 제안된 이후, AI는 계산지능(Computational Intelligence)과 지각지능(Perceptual Intelligence)을 기반으로 인지지능(Cognitive Intelligence)으로 더욱 발전해왔습니다. 최근에는 ChatGPT와 sora의 등장으로 AI 개발이 급속도로 발전하고 있습니다. 그러나 오늘(10월 28일) 중국공정원과 싱가포르공정원이 주최하고 통지대가 주최한 중국-싱가포르 인공지능 프론티어 및 거버넌스 세미나에서 많은 학자들이 'AI 열풍'에 찬물을 끼얹었다. "네트워크 내생적 보안 문제는 오늘날 디지털 생태계의 근본적인 추진 패러다임에 포괄적으로 도전하고 있습니다." 중국 공학원 학자이자 푸단대학교 교수인 Wu Jiangxing은 보안 시스템 자체도, 요양원과 요양원을 지키는 네트워크 보안요원은 현재 다음과 같은 세 가지 주요 영혼 고문 질문에 답할 수 있습니다. "허점이 있습니까?" "백도어/트랩도어가 있습니까?" "여러 보안 오버레이 문제가 있습니까?" 그는 현재의 AI 응용 시스템이 보안 책임과 위험 사이에 심각한 불균형을 이루고 있음을 진지하게 지적했습니다. 어떤 판매자도 자신의 제품에 보안 취약점과 백도어가 없다고 보장할 수 없으며, 어떤 테스트 기관도 검사를 위해 제출된 제품에 취약점과 백도어가 없다고 보장할 수 없습니다. 이는 AI시대 모든 나라에게 피할 수 없는 악몽이 됐다. 이날 회의에서 많은 전문가들은 겉으로는 강력해 보이는 인공지능과 대형 모델도 소비, 안전, 윤리 측면에서 단점을 갖고 있다고 분석했다. 인공지능의 발전은 아직 진행 중이고 발전의 여지가 많습니다. 중국과 싱가포르의 학자들은 협력을 강화하고 함께 협력하여 AI가 더욱 에너지를 절약하고 안전하며 도덕적이 되도록 유도해야 합니다. 강력해 보이는 인공지능에도 사실은 숨겨진 위험이 가득합니다. 네트워크 보안 위험에 있어서는 특히 올해 7월에 발생한 마이크로소프트 블루스크린 사건으로 많은 사람들이 감동을 받았습니다. 지난 7월 19일, 전 세계 여러 국가의 사용자들이 회사 컴퓨터에 블루 스크린이 나타나는 것을 발견하고 "기기에 문제가 발생하여 다시 시작해야 합니다. 이후 블루 스크린 문제는 소프트웨어 업데이트와 관련된 것으로 확인되었습니다." 네트워크 보안업체 크라우드스트라이크(Crowd Strike)의 관점에서 우장싱(Wu Jiangxing)은 이것이 네트워크라고 본다. “인공지능과 보안 문제는 밀접하게 연관되어 있으며 보안은 보안이 초래하는 유전적 결함이다. 현대 컴퓨터 아키텍처의 어머니. AI 운영 환경의 보안 문제에 주목해야 합니다. "
이에 대해 통지대학교 총장이자 중국공정원 학자인 정칭화(Zheng Qinghua)도 같은 견해를 갖고 있다. 대형 모델." Zheng Qinghua가 예를 들었습니다. 첫 번째 성능은 데이터 및 컴퓨팅 성능의 과도한 소비입니다. "인간이 인터넷의 오픈소스 데이터에서 채굴하는 귀중한 정보는 언젠가는 한계에 부딪힐 것입니다. 인간이 광물자원에서 희귀금속을 채굴하는 것처럼, 두 번째 본질적인 결함이 드러나는 때가 있기 때문입니다." 장면의 치명적인 건망증과 약한 견인 능력. Zheng Qinghua는 대형 모델은 새 것을 좋아하고 오래된 것을 싫어하며 한 가지 예에서 추론하기 어려운 경우가 많지만 A에는 적응하기 어렵지만 찾기가 쉽지 않습니다. 둘 사이의 균형. 셋째, 추론능력이 약하다. 대형 모델은 자동 회귀 훈련 알고리즘을 사용하므로 인간이 구축한 인과 추론을 기반으로 논리적 추론 능력을 형성할 수 없습니다. 자동회귀 생성 방식은 역추적과 시행착오가 필요한 복잡한 추론 작업에도 대처하기 어려워 대형 모델이 작업을 해결하기 위해 잘못된 정보를 학습하는 현상이 자주 발생한다. 이러한 현상을 '영리한 한스 효과'라고 한다. 네 번째 고유한 결함은 대형 모델이 어디서 잘못되었는지, 왜 잘못되었는지 알 수 있을 때 수정하는 것은커녕 알 수 없다는 것입니다. Zheng Qinghua는 이러한 본질적인 결함으로 인해 대형 모델에서 환각 및 제어 불량과 같은 문제가 발생했다고 솔직하게 말했습니다. "특히 무슨 일이 일어나고 왜 일어나는지 알아야 하는 엔지니어링 응용 프로그램 및 기타 시나리오에서 대형 모델은 무력하다고 말할 수 있습니다." 싱가포르 공학 아카데미 학자이자 난양 기술 대학교 교수인 Wen Yonggang은 인간 사회가 다음과 같이 믿습니다. 디지털화와 지속가능성 시대의 이중전환 시대를 맞이하고 있습니다. 특히 디지털 트랜스포메이션에서는 많은 활동이 오프라인에서 온라인으로 전환되어 많은 컴퓨팅 리소스와 서버를 소모합니다. 예측에 따르면 2030년까지 싱가포르 데이터 센터의 전력 소비량은 사회 전체 전력 소비량의 12%에 도달할 것으로 예상됩니다. 더욱 놀라운 점은 AI의 광범위한 사용으로 인해 탄소 배출량도 증가하고 환경에 파괴적인 영향을 미칠 것이라는 점입니다.
AI가 눈을 감고 달릴 때, 기술의 개발자인 인간은 어떻게 운전대를 잡을 수 있을까? 이날 회의에서 전문가들은 장기적인 연구를 바탕으로 실현 가능한 제안도 제시했다. Wu Jiangguang은 2013년부터 내생적 보안 및 모방 방어 이론을 창안했습니다. 이론적 기반을 바탕으로 팀은 난징 연구소의 지능형 주행 시스템을 강화하기 위해 내생적 안전 아키텍처를 구축했습니다. 이 시스템은 20개 이상의 애플리케이션 시나리오와 100명 이상의 차별화된 애플리케이션 개인을 보유하고 있으며, 반격 및 백도어 취약점과 같은 일반적인 AI 문제에 대해 90% 이상의 포괄적인 식별 성공률을 가지고 있습니다. Zheng Qinghua는 역사와 경험을 통해 뇌 과학 분야의 모든 인류 발전에는 인공 신경망과 기계 지능 연구에 대한 참고 자료, 영감, 지침이 있음을 입증했다고 말했습니다. "오늘날의 대형 모델은 인간의 뇌에 대한 가장 예비적이고 단순한 참고 자료일 뿐입니다. 뇌과학, 특히 인간에게 고유한 기억 표현, 활성화, 인출 및 부호화 회상 메커니즘을 심층적으로 참고할 수 있다면, 그는 “다양한 본질적인 결함이 있다”며 “중국은 자체적인 기계 지능 모델을 갖고 있어야 한다”고 제안했다. 통지대학교는 현재 학문적 경계를 개방하고, 컴퓨터 과학과 뇌 과학의 통합을 촉진하고, 인간 뇌 기억과 기계 기억의 상관 관계를 연구하고, 정보 과학을 활용하여 뇌 과학을 연구하는 새로운 방법을 모색하고 있습니다.
오늘날의 인공지능은 전통적인 학문의 경계를 허물고 거의 모든 학문으로 확장되고 있습니다. 싱가포르 공학 아카데미 원사이자 싱가포르 기술 디자인 대학교 교수인 Guo Guisheng도 AI-RAN 협회 회원입니다. AI-RAN은 '인공지능(AI)-RAN(Radio Access Network)'을 지칭하며, 인공지능과 무선통신의 융합을 활성화하고 기술 혁신을 선도하는 것을 목표로 하는 산업 협회인 것으로 이해된다. Guo Guisheng은 AI 관련 프로젝트와 양자 컴퓨팅 프로젝트가 학제 간 상호 연결을 통해 대규모로 추진되고 있다고 소개했습니다. 그의 견해로는 AI가 선한 일을 하도록 지도하려면 학계에서 벗어나는 것뿐만 아니라 글로벌 지혜와 적극적으로 연결하는 것도 필요합니다. 그는 앞으로 더 많은 중국 대학의 연구실과 기업이 AI 친구 서클에 합류하고 파트너십을 구축하기를 희망합니다. 기자는 싱가포르가 세계적으로 유명한 '인공지능 수도'로서 세계 최초로 국가 인공지능 전략을 출범한 국가 중 하나이며 인공지능 거버넌스 분야에서 많은 선구적인 작업을 수행했다는 사실을 알게 됐다. 현장에서 Zheng Qinghua는 또한 미래에 "모든 사람은 지능이 있고, 기계에는 지능이 있으며, 각자 자신의 지혜가 있으며, 지혜와 지혜는 공유됩니다"라는 아름다운 그림을 실현하려면 다음과 같이 제안했습니다. 중국과 싱가포르의 인공지능은 이 세상에 더 많은 기여를 하기 위해 협력해야 합니다.