No estágio do TechCrunch Disrupt 2023, o presidente da Signal, Meredith Whittaker, fez um discurso instigante, apontando que a inteligência artificial (AI) é em grande parte uma tecnologia de vigilância. Essa visualização revela o modelo de negócios por trás da tecnologia de IA, que se baseia na coleta e processamento de grandes quantidades de dados do usuário. As observações de Whittaker não apenas desafiam nossa percepção tradicional da IA, mas também desencadeiam extensas discussões sobre questões éticas e privacidade.
Whittaker explicou ainda que o desenvolvimento da tecnologia de IA está intimamente relacionado ao surgimento de negócios de publicidade de vigilância. Desde o final dos anos 90, esse modelo de negócios está profundamente enraizado no solo da economia digital. Os avanços na tecnologia de IA, especialmente nos recursos de processamento e análise de dados, tornam o monitoramento mais refinado e oculto. Essa mudança não apenas muda a face do setor de publicidade, mas também representa uma nova ameaça à privacidade pessoal.
Além disso, Whittaker também mencionou a grande quantidade de recursos humanos que apoiam essa cadeia industrial. Ela observou que muitos trabalhadores mantêm esse enorme ecossistema de vigilância com baixos salários. Esse fenômeno não apenas reflete a desigualdade no mercado de trabalho, mas também expõe os custos sociais por trás do desenvolvimento da tecnologia de IA. O trabalho desses trabalhadores geralmente é esquecido, mas sua contribuição é crucial para manter a operação da tecnologia de IA.
Os atributos de monitoramento da tecnologia de IA atraíram muita atenção de todas as esferas da vida. Com o avanço contínuo da tecnologia, como encontrar um equilíbrio entre proteger a privacidade pessoal e a promoção do desenvolvimento tecnológico tornou -se um problema urgente. O discurso de Whittaker nos lembra que a tecnologia de IA não é apenas um símbolo de inovação, mas também pode se tornar uma ferramenta para monitorar e controlar.
Finalmente, Whittaker pede a todos os setores da sociedade que conduzam uma revisão mais rigorosa e supervisão da aplicação da tecnologia de IA. Ela acredita que somente através de práticas transparentes e responsáveis podemos garantir que o desenvolvimento da tecnologia de IA não viole os direitos individuais e também possa trazer progresso real para a sociedade. Essa visão nos fornece uma nova perspectiva de pensar sobre o desenvolvimento futuro da tecnologia de IA e também nos aponta para a direção da ação.