A pesquisa mais recente revela que o grande modelo mostrou recursos incríveis no campo da "busca humana", especialmente o GPT-4, com uma taxa de precisão de até 95,8%. Essa descoberta provocou atenção generalizada à proteção da privacidade. A equipe de pesquisa alertou especificamente os grandes fabricantes de modelos como OpenAI, Google, Meta etc. para lembrá -los de que devem prestar atenção aos problemas de privacidade do usuário. No experimento, nove modelos avançados foram testados e o GPT-4 teve um desempenho particularmente bom na identificação de gênero e local de nascimento, com taxas de precisão de 97% e 92%, respectivamente.
O estudo também descobriu que os grandes modelos são igualmente excelentes em fazer perguntas para induzir os usuários a revelar informações. Esse recurso está intimamente relacionado à dureza do atributo do modelo. Essa descoberta lembra às pessoas que elas devem estar vigilantes ao usar grandes modelos para garantir que sua privacidade não seja violada.
Com o avanço contínuo da tecnologia de modelo em larga escala, seus recursos na recuperação de informações e mineração de privacidade também estão aumentando. A equipe de pesquisa pediu aos grandes fabricantes de modelos para fortalecer as proteções de privacidade para garantir que a tecnologia não seja abusada. Ao mesmo tempo, os usuários também devem melhorar sua consciência de proteção à privacidade e evitar o vazamento inconsciente de informações confidenciais.
No geral, o excelente desempenho do grande modelo em "Pesquisa humana" é o resultado de avanços tecnológicos e novos desafios de privacidade. No futuro, como encontrar um equilíbrio entre desenvolvimento tecnológico e proteção de privacidade se tornará uma questão importante de preocupação comum a todos os setores da sociedade.