Site Web officiel www.binance.com/ZH-CN :Entrez le site officiel ☜☜
Application: ☞☞Official App Download☜☜
OpenAI a récemment fait face à une plainte de confidentialité de la Norvège en raison de la question des fausses informations générées par Chatgpt. L'affaire a été soutenue par le groupe de défense des services de vie privée Noyb, un plaignant nommé Alf Harmar Hallmen. Il a été choqué et en colère quand il a découvert que Chatgpt avait affirmé par erreur qu'il avait été reconnu coupable d'avoir assassiné deux enfants et d'avoir tenté de tuer un troisième enfant.
Les plaintes de confidentialité antérieures concernant Chatgpt ont principalement impliqué certaines erreurs de données personnelles de base, telles que la date de naissance inexacte ou les informations biographiques. Un problème clé est qu'OpenAI ne fournit pas un moyen efficace pour les individus de corriger les messages d'erreur générés par l'IA. En règle générale, OpenAI empêche les réponses qui génèrent de tels messages d'erreur. Cependant, en vertu du règlement général de la protection des données (RGPD) de l'UE, les Européens ont une gamme de droits d'accès aux données, y compris le droit de corriger les données personnelles.
NOYB a souligné que le RGPD stipule que les données personnelles doivent être exactes et que si les informations sont inexactes, les utilisateurs ont le droit de demander une correction. L'avocat de Noyb, Jokeem Soderbery, a déclaré qu'Openai a simplement ajouté une clause de non-responsabilité en bas, affirmant que "Chatgpt peut faire des erreurs" n'est pas un avertissement. Selon le RGPD, il est de la responsabilité des développeurs d'IA de s'assurer que les informations qu'ils génèrent ne diffusent pas de faux contenu sérieux.
Les violations du RGPD peuvent entraîner des amendes pouvant aller jusqu'à 4% du revenu annuel mondial. Au printemps 2023, le régulateur de protection des données d'Italie a temporairement bloqué l'accès à Chatgpt, une mesure a incité OpenAI à ajuster sa divulgation d'informations utilisateur. Néanmoins, ces dernières années, les régulateurs de confidentialité en Europe ont adopté une approche plus prudente de l'IA générative à la recherche de solutions réglementaires appropriées.
La nouvelle plainte de Noyb est destinée à susciter les préoccupations des régulateurs concernant les dangers potentiels de la génération de fausses informations. Ils ont partagé une capture d'écran de leur interaction avec Chatgpt, montrant que l'IA a produit une histoire complètement fausse et dérangeante en réponse à une question sur les Hallmen. Cet incident n'est pas isolé et NOYB pointe également vers des cas où d'autres utilisateurs subissent des dommages de désinformation similaires.
Bien qu'Openai ait arrêté de fausses allégations contre Hallmen après sa mise à jour du modèle, Noyb et Hallmen eux-mêmes craignaient que les mauvaises informations puissent être conservées dans le modèle d'IA. NOYB a déposé une plainte auprès de l'Agence norvégienne de protection des données et attend avec impatience les régulateurs de pouvoir enquêter sur cela.
Points clés:
NOYB soutient un individu norvégien déposant une plainte de confidentialité contre Chatgpt, l'accusant de générer de fausses informations.
Selon le RGPD, les données personnelles doivent être exactes et OpenAI n'a pas répondu à cette exigence.
Noyb espère que cette plainte attirera l'attention des régulateurs vers les fausses problèmes d'information sur l'IA.