ISACAが実施したグローバル調査によると、アジアの企業の30%は、生成人工知能(AI)の関連ポリシーをまだ策定していません。このデータは、AIガバナンスにおけるアジア企業の遅れ、特に生成AIテクノロジーの急速な発展の文脈において、企業はAIの使用を規制するために対応する政策枠組みを緊急に確立する必要があることを明らかにしています。
この調査では、回答者の65%が敵対的な力がAIテクノロジーの使用に成功したと考えていることを示しています。この結果は、AIテクノロジーと情報戦の分野で、AIテクノロジーの乱用に関する世界的な懸念を反映しています。AIテクノロジーの潜在的な脅威は無視できません。アジア企業は、そのようなリスクを防止し対応する能力を強化する必要があります。
明確な政策支援が不足しているにもかかわらず、アジア企業の多くの従業員は、コンテンツの作成からデータ分析に至るまでのアプリケーションが多様な生成的AIテクノロジーを広く使用し始めています。この自発的なアプリケーションの傾向は、生成的AIテクノロジーが実際のビジネスにおいて幅広い可能性と価値を持っていることを示していますが、関連するポリシーを策定するための企業の緊急性も強調しています。
アジア企業は、プライバシー保護、データセキュリティ、アルゴリズムバイアスなど、AIの倫理的問題と潜在的なリスクについて特定の懸念を抱いています。ただし、ほとんどの企業はAIテクノロジーについて楽観的であり、ビジネスにプラスまたは中立的な影響を与えると信じています。この楽観主義は、効率の向上とビジネスモデルの革新におけるAIテクノロジーの重要な利点に起因する可能性があります。
全体として、アジア企業は、生成AIテクノロジーのアプリケーションと管理における機会と課題に直面しています。将来的には、企業はAIポリシーの策定、リスク管理の強化、技術革新の促進とAIテクノロジーの健全な開発を確保し、企業と社会により大きな影響を与えることとのバランスをとる必要があります。