O mais recente relatório de pesquisa divulgado pela Virginia Tech University, nos Estados Unidos, revela as limitações significativas do modelo de inteligência artificial Chatgpt na questão da justiça ambiental. Este estudo, que analisa profundamente os recursos de entrega de informações da ChatGPT em diferentes municípios e cidades, encontrou um fenômeno digno de atenção: o modelo está mais inclinado a fornecer informações relevantes aos estados densamente povoados, enquanto áreas rurais com áreas menos povoadas são frequentemente negligenciadas.
Ao avaliar sistematicamente o desempenho do ChatGPT em diferentes regiões geográficas, a equipe de pesquisa descobriu que o modelo tinha um viés geográfico óbvio ao lidar com questões relacionadas à justiça ambiental. Isso não afeta apenas o acesso equitativo à informação, mas também pode levar os formuladores de políticas a ignorar as necessidades especiais das áreas rurais no processo de tomada de decisão.
Vale a pena notar que este estudo não é a primeira vez que o ChatGPT tem um problema de viés. Pesquisas anteriores apontaram que o modelo pode ter inclinações políticas, destacando ainda mais os desafios que os sistemas de IA enfrentam em termos de justiça e objetividade. Os pesquisadores enfatizaram que essas descobertas são de grande significado para entender as limitações dos sistemas de inteligência artificial.
Em resposta a essa descoberta, a equipe de pesquisa pediu uma pesquisa mais aprofundada para revelar totalmente os vieses geográficos e os possíveis impactos do modelo ChatGPT. Eles sugerem que pesquisas futuras devem se concentrar em como melhorar os sistemas de inteligência artificial para que possam fornecer suporte de informações mais equitativas a diferentes regiões, especialmente em questões sociais importantes, como a justiça ambiental.
Esta pesquisa não apenas fornece novas direções de pesquisa para pesquisadores no campo da inteligência artificial, mas também soa um alerta para os formuladores de políticas e desenvolvedores de tecnologia. Isso nos lembra que, ao desenvolver e implantar sistemas de inteligência artificial, é necessário considerar completamente o impacto social que eles podem ter e tomar medidas eficazes para garantir a justiça e a inclusão da tecnologia.