En el escenario de TechCrunch, disrupt 2023, el presidente de Signal, Meredith Whittaker, pronunció un discurso estimulante, señalando que la inteligencia artificial (IA) es en gran medida una tecnología de vigilancia. Esta visión revela el modelo de negocio detrás de la tecnología AI, que se basa en la recopilación y el procesamiento de grandes cantidades de datos del usuario. Los comentarios de Whittaker no solo desafían nuestra percepción tradicional de IA, sino que también desencadenan amplias discusiones sobre la privacidad y los problemas éticos.
Whittaker explicó además que el desarrollo de la tecnología de IA está estrechamente relacionado con el aumento del negocio de publicidad de vigilancia. Desde finales de la década de 1990, este modelo de negocio ha estado profundamente arraigado en el suelo de la economía digital. Los avances en la tecnología de IA, especialmente en las capacidades de procesamiento y análisis de datos, hacen que el monitoreo sea más refinado y oculto. Este cambio no solo cambia la cara de la industria publicitaria, sino que también representa una nueva amenaza para la privacidad personal.
Además, Whittaker también mencionó la gran cantidad de recursos humanos que respaldan esta cadena industrial. Señaló que muchos trabajadores mantienen este enorme ecosistema de vigilancia con bajos salarios. Este fenómeno no solo refleja la desigualdad en el mercado laboral, sino que también expone los costos sociales detrás del desarrollo de la tecnología de IA. El trabajo de estos trabajadores a menudo se pasa por alto, pero su contribución es crucial para mantener el funcionamiento de la tecnología de IA.
Los atributos de monitoreo de la tecnología de IA han atraído una gran atención de todos los ámbitos de la vida. Con el avance continuo de la tecnología, cómo encontrar un equilibrio entre proteger la privacidad personal y la promoción del desarrollo tecnológico se ha convertido en un problema urgente. El discurso de Whittaker nos recuerda que la tecnología de IA no es solo un símbolo de innovación, sino que también puede convertirse en una herramienta para monitorear y controlar.
Finalmente, Whittaker pide a todos los sectores de la sociedad que realicen una revisión y supervisión más estrictas de la aplicación de la tecnología de IA. Ella cree que solo a través de prácticas transparentes y responsables podemos garantizar que el desarrollo de la tecnología de IA no viole los derechos individuales y también pueda llevar un progreso real a la sociedad. Esta opinión nos proporciona una nueva perspectiva sobre el pensamiento sobre el desarrollo futuro de la tecnología de IA y también nos señala la dirección de la acción.