Recientemente, Google ha realizado ajustes importantes a sus principios de IA y canceló su compromiso anterior de no desarrollar IA para armas o vigilancia, lo que ha causado una controversia generalizada. Este movimiento se deriva de la página de Principios Público AI Public AI de Google, que elimina la parte "Aplicación no buscaremos", lo que hace que los medios y el público cuestionen su dirección de aplicación de IA. Después de que la medida firmó un contrato de servicio en la nube con los militares estadounidenses e israelíes, este movimiento exacerbó las preocupaciones de las personas sobre el papel de las compañías de tecnología en el campo de los militares y el monitoreo.
Recientemente, Google eliminó en silencio una promesa de su sitio web oficial de no desarrollar inteligencia artificial (IA) para armas o vigilancia. Bloomberg informó por primera vez el cambio, y este movimiento ha despertado la atención y discusión generalizada del mundo exterior. Google actualizó recientemente su página de Principios de IA pública y piezas eliminadas llamadas "No perseguiremos", y esta parte todavía es visible la semana pasada.
Ante las consultas de los medios, Google proporcionó una publicación de blog recientemente publicada sobre "AI responsable" a "Tech Crunch". En este artículo, Google dijo: "Creemos que las empresas, los gobiernos y las organizaciones deberían trabajar juntas para crear una IA que pueda proteger a los seres humanos, promover el desarrollo global y apoyar la seguridad nacional".

El principio de IA actualizado de Google enfatizó que la compañía estará comprometida a "reducir accidentes o resultados dañinos, evitar prejuicios injustos" y garantizar que el desarrollo de la compañía sea consistente con los "principios de aceptación general del derecho internacional y los derechos humanos". Esto sugiere que la posición de Google en las aplicaciones de IA puede estar cambiando.
En los últimos años, los contratos de servicio en la nube de Google firmados con los militares estadounidenses e israelí han provocado protestas de empleados internos. Aunque Google ha enfatizado repetidamente que su tecnología de IA no usa para dañar a los humanos, el jefe de AI del Departamento de Defensa de los Estados Unidos dijo recientemente en una entrevista con "Technology Crunch" que los modelos de IA de algunas compañías aceleraron en realidad la toma de decisiones de combate proceso del ejército de los Estados Unidos. Este comentario está lleno de dudas sobre la aplicación futura de Google AI.
Este cambio en Google ha desencadenado los pensamientos sobre el papel de las empresas de tecnología en el campo de los militares y el monitoreo. En el contexto del creciente atención de los problemas éticos de la tecnología de inteligencia artificial, esta nueva medida de Google parece particularmente notable. El público y los empleados están prestando mucha atención a cómo la empresa mantiene su imagen responsable en este campo sensible y cómo equilibrar la relación entre los intereses comerciales y la responsabilidad moral.
Con el progreso continuo y la aplicación de la tecnología de IA, los cambios de posición de Google pueden tener un profundo impacto en toda la industria, y también reexaminará la ética científica y tecnológica futura y el sentido de responsabilidad.
El movimiento de Google ha despertado una discusión generalizada sobre la responsabilidad social de las empresas tecnológicas y la ética de la inteligencia artificial. La formulación y supervisión de las normas éticas del desarrollo y aplicación de la tecnología de IA también es más urgente.