Le ministère australien de la Défense a récemment attiré l'attention pour son utilisation à grande échelle non autorisée de Chatgpt. Selon les documents obtenus par Crikey par le biais d'une demande d'information gratuite, le personnel du ministère de la Défense a utilisé le chatbot de l'intelligence artificielle des milliers de fois sans autorisation formelle. Ce phénomène met en évidence des lacunes réglementaires dans les services gouvernementaux dans l'application de nouvelles technologies, et soulève également des inquiétudes concernant la sécurité des données.
Face à des risques potentiels de confidentialité, le ministère australien de la Défense a pris des mesures urgentes pour limiter l'accès au domaine du réseau OpenAI, le propriétaire de Chatgpt. Cette décision reflète l'accent mis par le gouvernement sur les défis de sécurité que la technologie de l'intelligence artificielle peut apporter, et expose également les lacunes actuelles de l'Australie dans l'utilisation de l'intelligence artificielle.
Il convient de noter que le gouvernement fédéral australien n'a pas encore publié de conseils unifiés sur l'utilisation de produits génératifs de l'intelligence artificielle. Cet écart de politique peut entraîner un manque de normes et de spécifications claires pour les départements lors de l'application de nouvelles technologies, augmentant le risque de violations de données et d'abus. Cette situation reflète également la réalité selon laquelle les ministères sont relativement à la traîne de la formulation des politiques lorsqu'ils sont confrontés à la technologie d'IA en développement rapide.
Cet incident a non seulement exposé les lacunes dans les services gouvernementaux dans la gestion des applications de l'IA, mais a également déclenché des discussions approfondies sur l'utilisation de la technologie de l'IA dans des domaines sensibles. Avec le développement rapide de la technologie de l'intelligence artificielle, comment trouver un équilibre entre les applications innovantes et les garanties de sécurité est devenue un problème important auxquels sont confrontés les gouvernements dans divers pays.
Cet incident par le ministère australien de la Défense peut devenir une occasion importante de promouvoir le gouvernement de formuler des normes d'utilisation de l'IA. À l'avenir, le gouvernement doit accélérer la formulation de politiques et de directives pertinentes pour garantir que tout en jouant la commodité apportée par la technologie de l'IA, elle empêche effectivement les risques potentiels et protège la sécurité nationale de l'information.