No Seminário de Fronteira e Governança de Inteligência Artificial China-Cingapura, por que acadêmicos da China e de Cingapura jogaram água fria na IA?
Autor:Eve Cole
Data da Última Atualização:2024-11-15 12:24:01

Desde que o conceito de inteligência artificial foi proposto pela primeira vez em 1956, a IA desenvolveu-se ainda mais em direção à inteligência cognitiva baseada na inteligência computacional e na inteligência perceptual. Nos últimos anos, com o surgimento do ChatGPT e do sora, o desenvolvimento da IA tem avançado rapidamente. No entanto, no Seminário Sino-Cingapura de Fronteira e Governança de Inteligência Artificial, organizado pela Academia Chinesa de Engenharia e pela Academia de Engenharia de Cingapura e organizado pela Universidade Tongji hoje (28 de outubro), muitos acadêmicos jogaram água fria na "febre da IA". “As questões de segurança endógena de rede estão desafiando de forma abrangente o paradigma subjacente do ecossistema digital atual.” Wu Jiangxing, acadêmico da Academia Chinesa de Engenharia e professor da Universidade Fudan, disse sem rodeios que é lamentável que nem o sistema de segurança em si nem o sistema os guardas de segurança de rede que protegem lares e lares de idosos são atualmente capazes de responder às três principais perguntas sobre tortura da alma: "Existem brechas?" "Existem backdoors/trapdoors?" Ele destacou seriamente que o atual sistema de aplicação de IA apresenta um sério desequilíbrio entre responsabilidades e riscos de segurança. Nenhum comerciante pode garantir que seus produtos não possuem vulnerabilidades de segurança e backdoors, e nenhuma agência de testes pode garantir que os produtos submetidos para inspeção estarão livres de vulnerabilidades e backdoors. Isto se tornou um pesadelo inevitável para todos os países da era da IA. Na reunião, muitos especialistas analisaram que a inteligência artificial aparentemente poderosa e os grandes modelos também apresentam deficiências em termos de consumo, segurança e ética. O desenvolvimento da inteligência artificial ainda está em andamento e ainda há muito espaço para desenvolvimento. Académicos da China e de Singapura devem reforçar a cooperação e trabalhar em conjunto para orientar a IA para que seja mais economizadora de energia, segura e virtuosa. A inteligência artificial aparentemente poderosa está, na verdade, cheia de perigos ocultos. Quando se trata de riscos de segurança de rede, muitas pessoas ficaram particularmente impressionadas com o incidente da tela azul da Microsoft que ocorreu em julho deste ano. Em 19 de julho, usuários de vários países ao redor do mundo descobriram que os computadores de suas empresas tinham uma tela azul, perguntando “O dispositivo encontrou um problema e precisa ser reiniciado. Posteriormente, foi confirmado que o problema da tela azul está relacionado a uma atualização de software. pela empresa de segurança de rede Crowd Strike Na opinião de Wu Jiangxing, esta é a rede Um caso típico de “guarda-costas” de segurança apunhalando humanos pelas costas “A inteligência artificial e as questões de segurança estão intimamente relacionadas, e a segurança é uma falha genética provocada por. a mãe na arquitetura moderna do computador Deve-se prestar atenção às questões de segurança do ambiente operacional da IA. "
A este respeito, Zheng Qinghua, presidente da Universidade de Tongji e académico da Academia Chinesa de Engenharia, defende a mesma opinião: “Embora afirmemos fortemente as principais conquistas dos grandes modelos, devemos também estar profundamente conscientes de que existem algumas falhas inerentes. modelos grandes." Zheng Qinghua deu um exemplo. O primeiro desempenho é Consumo excessivo de dados e poder de computação. “Um dia, as informações valiosas que os humanos extraem de dados de código aberto na Internet atingirão um limite, assim como os humanos extraem metais raros de recursos minerais, chegará um momento em que eles estarão exaustos.” de esquecimento catastrófico e fraca capacidade de tração da cena. Zheng Qinghua explicou que os modelos grandes gostam do novo e odeiam o antigo, e é difícil tirar conclusões de um exemplo. Muitas vezes, é difícil adaptar-se a A, mas é difícil adaptar-se a B. Não é fácil de encontrar. um equilíbrio entre os dois. O terceiro é a fraca capacidade de raciocínio. O modelo grande utiliza um algoritmo de treinamento autorregressivo, o que o torna incapaz de formar a capacidade de raciocínio lógico baseado no raciocínio causal construído por humanos. O método de geração autoregressiva também é difícil de lidar com tarefas de raciocínio complexas que exigem retrocesso e tentativa e erro, o que muitas vezes leva ao fenômeno de que grandes modelos aprendem informações erradas para resolver tarefas. Esse fenômeno é chamado de "efeito Hans inteligente" ". A quarta falha inerente é que o grande modelo não sabe onde errou e por que errou, muito menos corrigi-lo quando é sabido. Zheng Qinghua disse sem rodeios que essas falhas inerentes levaram a problemas como alucinações e baixa controlabilidade em modelos grandes. "Especialmente em aplicações de engenharia e outros cenários onde precisamos saber o que está acontecendo e por que, pode-se dizer que grandes modelos são impotentes." Wen Yonggang, acadêmico da Academia de Engenharia de Cingapura e professor da Universidade Tecnológica de Nanyang, acredita que a sociedade humana. está entrando em um período de transformações duplas da era da digitalização e da sustentabilidade. Principalmente na transformação digital, um grande número de atividades passou do offline para o online, o que consome muitos recursos computacionais e servidores. As previsões mostram que, até 2030, o consumo de eletricidade dos centros de dados de Singapura atingirá 12% do consumo total de eletricidade da sociedade. O que é ainda mais alarmante é que a utilização extensiva da IA também aumentará o volume de emissões de carbono e terá um impacto devastador no ambiente.
Guie a IA para correr na direção certa. Quando a IA corre com os olhos fechados, como os humanos, os desenvolvedores da tecnologia, podem segurar o volante? Na reunião, os especialistas também deram sugestões viáveis baseadas em pesquisas de longo prazo. Wu Jiangguang criou a segurança endógena e imita as teorias de defesa desde 2013. Com base na fundamentação teórica, a equipe construiu uma arquitetura de segurança endógena para capacitar sistemas de direção inteligentes no laboratório de Nanjing. O sistema tem mais de 20 cenários de aplicação e mais de 100 indivíduos de aplicação diferenciados. Possui uma taxa de sucesso de identificação abrangente de mais de 90% em problemas comuns de IA, como contra-ataques e vulnerabilidades de backdoor. Zheng Qinghua disse que a história e a experiência provaram que todo progresso humano na ciência do cérebro tem uma referência, inspiração e orientação para a pesquisa de redes neurais artificiais e inteligência de máquina. "Os grandes modelos de hoje são apenas a referência mais preliminar e simples ao cérebro humano. Se pudermos extrair referências profundas da ciência do cérebro, especialmente os mecanismos de representação da memória, ativação, recuperação e recuperação de codificação que são exclusivos dos humanos, nós espera-se que resolvam os problemas enfrentados pelos grandes modelos de hoje. "Existem várias falhas inerentes. Portanto, ele propôs: a China deve ter seu próprio modelo de inteligência de máquina." A Universidade de Tongji está atualmente abrindo fronteiras disciplinares, promovendo a integração da ciência da computação e da ciência do cérebro, estudando a correlação entre a memória do cérebro humano e a memória da máquina e explorando novas maneiras de usar a ciência da informação para estudar a ciência do cérebro.
A inteligência artificial de hoje quebrou as fronteiras das disciplinas tradicionais e está se estendendo a quase todas as disciplinas. Guo Guisheng, acadêmico da Academia de Engenharia de Cingapura e professor da Universidade de Tecnologia e Design de Cingapura, também é membro da Associação AI-RAN. Entende-se que AI-RAN se refere a "Inteligência Artificial (AI) -Rede de Acesso Rádio (RAN)" e é uma associação industrial que visa revitalizar a integração de inteligência artificial e comunicações sem fio e liderar a inovação tecnológica. Guo Guisheng apresentou que um grande número de projetos relacionados à IA e projetos de computação quântica estão sendo promovidos por meio de interconexão interdisciplinar. Na sua opinião, orientar a IA para fazer o bem requer não apenas sair dos círculos académicos, mas também ligar-se ativamente à sabedoria global. Ele espera que no futuro mais laboratórios e empresas de universidades chinesas se juntem ao círculo de amigos da IA e estabeleçam parcerias. O repórter soube que Cingapura, como a mundialmente famosa "Capital da Inteligência Artificial", foi um dos primeiros países do mundo a lançar uma estratégia nacional de inteligência artificial e realizou um trabalho pioneiro na governança da inteligência artificial. No local, Zheng Qinghua também propôs que no futuro, se quisermos concretizar a bela imagem de “todos têm inteligência, as máquinas têm inteligência, cada um tem a sua própria sabedoria e a sabedoria e a sabedoria são partilhadas”, especialistas na área de a inteligência artificial da China e de Singapura precisa trabalhar em conjunto para criar algo para este mundo. Contribuir mais.