Récemment, Anthropic, une entreprise bien connue dans le domaine de l'intelligence artificielle, a discrètement supprimé les engagements de sécurité de l'IA liés à l'administration Biden sur son site officiel. Cette décision a attiré une attention généralisée, en particulier dans les domaines de la réglementation et de la sécurité de l'IA. Les promesses ont été initialement découvertes par un chien de garde de l'IA appelé le projet Midas, mais la semaine dernière, ils ont été retirés du centre de transparence d'Anthropic. Le centre de transparence a initialement énuméré «l'engagement volontaire» de la société dans le développement responsable de l'IA. Bien que ces engagements ne soient pas juridiquement contraignants, ils indiquent clairement qu'ils partageront des informations et des recherches sur les risques d'IA, y compris les biais, avec le gouvernement.

En juillet 2023, Anthropic a rejoint l'accord d'autorégulation volontaire de l'administration Biden avec d'autres géants de la technologie tels qu'Openai, Google et Meta pour soutenir les initiatives de sécurité de l'IA. Ces mesures ont été confirmées dans le décret exécutif de l'IA de Biden. Les entreprises participantes promettent de procéder à des tests de sécurité des modèles d'IA avant la libération, de filigraner le contenu généré par l'IA et d'élaborer une infrastructure de confidentialité des données. Ces mesures sont conçues pour assurer la sécurité et la transparence de la technologie de l'IA et réduire les risques potentiels.
Cependant, avec l'administration Trump arrivant au pouvoir, Anthropic semble avoir changé son attitude envers ces engagements. Lors de son premier jour de fonction, Trump a révoqué le décret exécutif de l'IA de Biden, a licencié plusieurs experts de l'IA dans l'administration et a coupé certains fonds de recherche. Ces changements peuvent amener de nombreuses grandes entreprises à réexaminer leur relation avec le gouvernement, et certains en profitent même pour étendre leurs contrats avec le gouvernement pour participer à l'élaboration des politiques d'IA encore peu claires. L'impact de ce changement de politique sur l'industrie de l'IA n'est pas clair, mais il a évidemment déclenché une discussion généralisée dans l'industrie.
À l'heure actuelle, Anthropic n'a fait aucune déclaration publique sur la suppression de la promesse et a déclaré que sa position sur l'IA responsable n'avait rien à voir avec ou est antérieure aux accords de l'ère Biden. De même, l'administration Trump peut dissoudre le Institut de sécurité de l'IA établi à l'époque de Biden, confrontée ainsi à l'incertitude dans les mesures pertinentes. Cette série de changements suggère que le cadre réglementaire de l'IA pourrait subir des ajustements majeurs sous l'administration Trump.
Dans l'ensemble, l'administration Trump affaiblit le cadre réglementaire de l'IA établi à l'ère Biden, et les sociétés d'IA semblent avoir plus de liberté pour gérer leurs systèmes sans pression réglementaire externe. À l'heure actuelle, les contrôles de sécurité des préjugés et de la discrimination à l'égard de l'IA n'apparaissent pas dans les politiques pertinentes de l'administration Trump. Ce changement de politique pourrait avoir un impact profond sur le développement de l'industrie de l'IA, en particulier en termes de sécurité et de transparence.
Points clés:
1. Anthropic supprimé les engagements de sécurité de l'IA liés à l'administration Biden, reflétant les changements de politique.
2. L'administration Trump a révoqué le décret exécutif de l'IA de Biden et réduit la réglementation de l'IA.
3. Les grandes entreprises d'IA réexaminent leur relation avec le gouvernement sous l'administration Trump et peuvent assouplir leur autorégulation.