在今年全国两会前夕,全国政协委员、360集团创始人周鸿祎就DeepSeek大模型及AI安全问题发表了重要看法。他强调,正确认识AI安全至关重要,既不能夸大其风险,也不应忽视其潜在问题。周鸿祎的观点为当前AI领域的安全讨论提供了新的视角。
周鸿祎指出,当前AI安全议题存在被夸大的趋势。他特别批评了以OpenAI为代表的美国五大AI公司,认为它们通过渲染AI不安全来为其垄断和闭源策略辩护,并借此推动政府加强监管,从而阻挠后来者的追赶。他认为,这种背景下讨论AI安全有“耍流氓”之嫌,并强调“不发展是最大的不安全”。在他看来,抓住AI工业革命的机遇,提升生产力并实现科技普惠,才是当前最紧迫的任务。

针对AI“幻觉”问题,周鸿祎提出了独特的见解。他认为,“幻觉”并非纯粹的安全隐患,而是大模型智能与创造力的体现。没有“幻觉”的大模型缺乏想象力,而“幻觉”正是AI展现类似人类智力的重要特征。这一观点为AI技术的发展提供了新的思考方向。
以DeepSeek为例,其“幻觉”表现显著,用户在使用时能感受到类似人类的创作能力。周鸿祎主张,AI安全与业务发展可以同步推进,具体问题如“幻觉”应分解为可解的技术挑战,而非笼统归为安全隐患。他呼吁理性看待AI特性,找到针对性的解决方案,从而推动技术进步。这一观点为AI领域的研究和实践提供了重要的指导。