O Machine Intelligence Research Institute (MIRI) emitiu um comunicado apelando ao mundo para parar de desenvolver sistemas de IA que sejam mais inteligentes que os humanos, acreditando que os seus riscos potenciais podem levar ao desaparecimento da humanidade. Este apelo foi apoiado por alguns líderes da indústria tecnológica, mas também causou controvérsia. O MIRI enfatizou que a velocidade atual de desenvolvimento da IA é demasiado rápida e é difícil para a supervisão legislativa acompanhar. Portanto, são necessárias medidas mais proativas, como a instalação obrigatória de "interruptores de desligamento", para lidar com os potenciais comportamentos maliciosos da IA. riscos imprevisíveis. O instituto acredita que o desenvolvimento de sistemas de IA mais avançados só pode ser continuado se for garantido que a IA é segura e controlável.
O grupo de investigação sem fins lucrativos Machine Intelligence Research Institute (MIRI) apelou ao mundo para parar a investigação de modelos básicos ou "de ponta", temendo que as suas questões de segurança possam ameaçar a sobrevivência humana. O modelo básico é um sistema de inteligência artificial que pode ser aplicado a vários modos. O MIRI acredita que o modelo subjacente será mais inteligente que os humanos e terá o potencial de “destruir a humanidade”.

No campo da tecnologia, algumas figuras importantes, incluindo Elon Musk e Steve Wozniak, pediram uma moratória no desenvolvimento de modelos básicos mais poderosos que o GPT-4 da OpenAI. Mas o MIRI quer dar um passo em frente, com uma estratégia de comunicações recentemente revelada que apela à suspensão total das tentativas de construção de quaisquer sistemas que sejam mais inteligentes que os humanos.
O grupo afirmou: “Os decisores políticos lidam com os problemas principalmente através de compromissos: cedem num lado para ganhar algo noutro. Tememos que grande parte da legislação necessária para preservar a sobrevivência humana passe pelo processo político habitual e seja desgastada num compromisso ineficaz. Enquanto isso, o tempo está passando para que os laboratórios de IA continuem investindo no desenvolvimento e no treinamento de sistemas mais robustos.”
O MIRI quer que o governo force as empresas que desenvolvem modelos subjacentes a instalar “interruptores de interrupção” que podem desligar sistemas de IA se desenvolverem tendências maliciosas ou de “risco x”.
A organização sem fins lucrativos disse que continua comprometida com a ideia de sistemas inteligentes serem mais inteligentes que os humanos, mas quer construí-los “até sabermos como construir este tipo de IA com segurança”.
O MIRI foi fundado em 2000 por Eliezer Yudkowsky, com apoiadores como Peter Thiel e Vitalik Buterin, cocriador da criptomoeda Ethereum. O Future of Life Institute também é um dos principais contribuintes do MIRI.
Bradley Shimmin, analista principal da empresa de pesquisa de IA e análise de dados Omdia, disse que o MIRI terá dificuldade em convencer os legisladores devido à falta de pesquisas de apoio. “O mercado considerou essas questões e concluiu que o estado da arte atual e do futuro próximo dos modelos GenAI baseados em conversores não pode fazer muito pouco, exceto criar representações úteis de tópicos complexos”, disse Shimmin identifica corretamente a lacuna de conhecimento entre eles. construir e regular a inteligência artificial.
Destaques:
- O grupo de investigação sem fins lucrativos Machine Intelligence Research Institute (MIRI) apelou ao mundo para parar a investigação de modelos básicos ou "de ponta", temendo que as suas questões de segurança possam ameaçar a sobrevivência humana.
- O MIRI quer que o governo force as empresas que desenvolvem modelos subjacentes a instalar “interruptores de interrupção” que possam desligar sistemas de IA se desenvolverem tendências maliciosas ou de “risco X”.
- Bradley Shimmin, analista principal da empresa de pesquisa de IA e análise de dados Omdia, disse que o MIRI terá dificuldade em convencer os legisladores devido à falta de pesquisas de apoio.
O apelo do MIRI desencadeou extensas discussões sobre a segurança e a velocidade de desenvolvimento da IA. Embora as suas opiniões sejam extremas, também destaca preocupações sobre os riscos potenciais da inteligência artificial e merece séria reflexão e consideração por parte da indústria e do governo. No futuro, como equilibrar o desenvolvimento da inteligência artificial e os riscos de segurança será uma questão importante.