今年の全国人民議会と中国人民政治協議会議の前夜、中国国民政治協議会議の全国委員会のメンバーであり、360グループの創設者である周hongyiは、Deepseek BigモデルとAIのセキュリティ問題に関する重要な見解を表明しました。彼は、AIのセキュリティを正しく理解することが重要であり、そのリスクを誇張したり、潜在的な問題を無視するべきではないと強調しました。周hongyiの見解は、AI分野での現在のセキュリティディスカッションの新しい視点を提供します。
周hongyiは、AIセキュリティの問題で現時点で誇張される傾向があると指摘しました。彼は、AIの不安を誇張し、それによって政府に監督を強化することにより、独占と閉鎖戦略を擁護し、それによって監督をブロックすることにより、オープンアイが代表する5つの最大のAI企業を具体的に批判しました。彼は、この文脈でAIのセキュリティについて議論することは「不正」であると疑われると考えており、「発展しないことは最大の不安である」と強調しています。彼の意見では、AI産業革命の機会をつかみ、生産性を向上させ、技術的包括性を達成することが現在最も緊急の仕事です。

hongyiは、AI「幻想」の問題に関するユニークな洞察を提出しました。彼は、「幻想」は純粋な安全上の危険ではなく、大きなモデルの知性と創造性の反映であると考えています。 「幻想」のない大規模なモデルは想像力を欠いており、「幻想」はAIが同様の人間の知性を示す重要な特徴です。このビューは、AIテクノロジーの開発を考えるための新しい方向性を提供します。
Deepseekを例にとると、その「幻想」は重要であり、ユーザーは人間を使用するときに人間に似た創造的な能力を感じることができます。 hongyiは、AIのセキュリティとビジネス開発を同時に促進できると主張し、「幻想」などの特定の問題は、一般的にセキュリティリスクとして分類されるのではなく、溶媒可能な技術的課題に分類されるべきです。彼はAI特性の合理的な見解を求め、技術の進歩を促進するための標的化されたソリューションを見つけました。このビューは、AIの分野での研究と実践のための重要なガイダンスを提供します。