현재 인공 지능 기술이 빠르게 발전하고 있지만 신뢰성과 보안 문제도 관심을 끌고 있습니다. De Montford 대학의 사이버 보안 교수 인 Eerke Boiten 교수는 기존 AI 시스템의 신뢰성에 의문을 제기하여 중요한 응용 프로그램에서 위험에 처해 있다고 믿었습니다. 그는 Chatgpt와 같은 대규모 신경망을 기반으로 한 생성 AI 및 대형 언어 모델은 복잡성을 가지고있어 행동을 예측하고 검증하기가 어렵 기 때문에 책임감이 필요한 응용 분야에서 잠재적으로 위험합니다.
현재의 기술 환경에서 인공 지능 (AI)은 광범위한 토론을 일으켰습니다. De Montford University의 사이버 보안 교수 인 Eerke Boiten은 기존 AI 시스템은 경영 및 신뢰성에 근본적인 단점이 있으며 중요한 응용 분야에서 사용해서는 안된다고 말했다.
Boiten 교수는 대부분의 현재 AI 시스템이 대형 신경망, 특히 생성 AI 및 대형 언어 모델 (예 : ChatGPT)에 의존한다고 지적했습니다. 이러한 시스템의 작동 원리는 비교적 복잡하지만, 각 뉴런의 동작은 정확한 수학 공식에 의해 결정되지만이 "출현"기능은 시스템이 효과적으로 관리하고 확인하기가 어렵습니다.

Boiten 교수는 소프트웨어 엔지니어링의 관점에서 AI 시스템에 합성 가능성이 부족하고 기존 소프트웨어와 마찬가지로 모듈 식으로 개발 될 수 없다고 강조했습니다. 명확한 내부 구조가 없으면 개발자는 효과적으로 세분화하고 복잡성을 관리 할 수 없으며 단계별 개발 또는 효과적인 테스트를 수행하기가 어렵습니다. 이로 인해 AI 시스템의 검증은 전체 테스트로 제한되며, 이는 과도한 입력 및 상태 공간으로 인해 매우 어렵습니다.
또한 AI 시스템의 잘못된 동작은 종종 예측하고 수정하기가 어렵습니다. 즉, 훈련 중에 오류가 발견 되더라도 재교육이 이러한 오류가 효과적으로 수정 될 것이라는 것을 보장하지 않고 새로운 문제를 일으킬 수도 있음을 의미합니다. 따라서 Boiten 교수는 책임감이 필요한 모든 응용 프로그램에서 현재 AI 시스템을 피해야한다고 생각합니다.
그러나 보이 텐 교수는 희망을 완전히 잃지 않았습니다. 그는 현재 생성 AI 시스템이 상징적 인텔리전스와 직관적 인 AI를 결합하여 병목 현상에 도달했을 수 있지만 향후에 더 신뢰할 수있는 AI 시스템을 개발할 수 있다고 생각합니다. 이러한 새로운 시스템은 실제 응용 분야에서 AI의 신뢰성을 향상시키는 명확한 지식 모델 또는 신뢰 수준을 생성 할 수 있습니다.
Boiten 교수의 견해는 인공 지능의 신뢰성과 응용 범위에 대한 사람들의 깊은 생각을 촉발 시켰으며, 인공 지능 기술의 미래 개발 방향을위한 새로운 길을 지적했습니다. 인공 지능 기술의 발전을 추구하는 동안, 우리는 응용 프로그램에서 효과적으로 제어되고 관리 될 수 있도록 보안 및 신뢰성에 큰 중요성을 부여해야합니다.