Isaca가 실시한 글로벌 조사에 따르면, 아시아 회사의 30%는 아직 생성 인공 지능 (AI)에 대한 관련 정책을 공식화하지 못했습니다. 이 데이터는 AI 거버넌스에서 아시아 기업의 지연, 특히 생성 AI 기술의 빠른 개발과 관련하여 기업은 AI 사용을 규제하기 위해 해당 정책 프레임 워크를 시급히 설정해야합니다.
설문 조사에 따르면 응답자의 65%가 적대적인 세력이 AI 기술을 성공적으로 사용했다고 생각합니다. 이 결과는 AI 기술의 잠재적 위협을 무시할 수없는 사이버 보안 및 정보 전쟁 분야에서 AI 기술 남용에 대한 세계적인 우려를 반영합니다. 아시아 기업은 그러한 위험을 예방하고 대응하는 능력을 강화해야합니다.
명확한 정책 지원이 없음에도 불구하고, 아시아 기업의 많은 직원들은 컨텐츠 생성에서 데이터 분석에 이르기까지 다양한 응용 프로그램이 다양한 생성 AI 기술을 널리 사용하기 시작했습니다. 이 자발적인 응용 프로그램 추세는 생성 AI 기술이 실제 비즈니스에서 광범위한 잠재력과 가치를 지니고 있지만, 기업이 관련 정책을 공식화하는 시급성을 강조합니다.
아시아 기업은 개인 정보 보호, 데이터 보안 및 알고리즘 편견을 포함하여 AI의 윤리적 문제 및 잠재적 위험에 대해 특정한 우려를 가지고 있습니다. 그러나 대부분의 비즈니스는 AI 기술에 대해 낙관적이며 비즈니스에 긍정적이거나 중립적 인 영향을 미칠 것이라고 믿습니다. 이러한 낙관론은 효율성을 향상시키고 비즈니스 모델을 혁신하는 AI 기술의 중요한 장점에서 비롯 될 수 있습니다.
전반적으로 아시아 기업은 생성 AI 기술의 적용 및 관리에서 기회와 도전에 직면합니다. 앞으로 기업은 AI 정책을 공식화하고, 위험 관리 강화 및 기술 혁신을 촉진하여 AI 기술의 건전한 개발을 보장하고 기업과 사회에보다 긍정적 인 영향을 미치는 것 사이의 균형을 찾아야합니다.