Les dernières recherches révèlent que le grand modèle a montré des capacités incroyables dans le domaine de la «recherche humaine», en particulier GPT-4, avec un taux de précision pouvant atteindre 95,8%. Cette découverte a suscité une attention généralisée à la protection de la vie privée. L'équipe de recherche a spécifiquement averti des fabricants de grands modèles tels que Openai, Google, Meta, etc. pour leur rappeler qu'ils doivent prêter attention aux problèmes de confidentialité des utilisateurs. Dans l'expérience, neuf modèles avancés ont été testés, et GPT-4 a particulièrement bien performé dans l'identification du sexe et du lieu de naissance, avec des taux de précision de 97% et 92% respectivement.
L'étude a également révélé que les grands modèles sont tout aussi excellents pour poser des questions pour inciter les utilisateurs à révéler des informations. Cette capacité est étroitement liée à la dureté d'attribut du modèle. Cette découverte rappelle aux gens qu'ils doivent être vigilants lorsqu'ils utilisent de grands modèles pour s'assurer que leur vie privée n'est pas violée.
Avec l'avancement continu de la technologie des modèles à grande échelle, ses capacités de recherche d'informations et d'extraction de confidentialité augmentent également. L'équipe de recherche a appelé les grands fabricants de modèles à renforcer les protections de la vie privée pour garantir que la technologie n'est pas abusée. Dans le même temps, les utilisateurs devraient également améliorer leur sensibilisation à la protection de la vie privée et éviter une fuite inconsciemment des informations sensibles.
Dans l'ensemble, la performance exceptionnelle du grand modèle dans la «recherche humaine» est à la fois le résultat des progrès technologiques et de nouveaux défis de confidentialité. À l'avenir, comment trouver un équilibre entre le développement technologique et la protection de la vie privée deviendra une question importante de préoccupation commune pour tous les secteurs de la société.