Die neuesten Untersuchungen zeigen, dass das große Modell auf dem Gebiet der "menschlichen Suche", insbesondere GPT-4, erstaunliche Fähigkeiten mit einer Genauigkeitsrate von bis zu 95,8%gezeigt hat. Diese Entdeckung hat weit verbreitete Aufmerksamkeit auf den Schutz des Datenschutzes gelenkt. Das Forschungsteam warnte ausdrücklich große Modellhersteller wie OpenAI, Google, Meta usw., um sie daran zu erinnern, dass sie auf Fragen der Privatsphäre des Benutzers achten müssen. In dem Experiment wurden neun fortgeschrittene Modelle getestet, und GPT-4 zeigte sich besonders gut in der Identifizierung von Geschlecht und Geburtsort, mit Genauigkeitsraten von 97% bzw. 92%.
Die Studie ergab auch, dass große Modelle gleichermaßen hervorragend sind, um Fragen zu stellen, um Benutzer dazu zu veranlassen, Informationen zu enthüllen. Diese Fähigkeit hängt eng mit der Attributhärte des Modells zusammen. Diese Entdeckung erinnert die Menschen daran, dass sie wachsam sein müssen, wenn sie große Modelle verwenden, um sicherzustellen, dass ihre Privatsphäre nicht verletzt wird.
Mit der kontinuierlichen Weiterentwicklung der groß angelegten Modelltechnologie nimmt auch deren Fähigkeiten zum Abrufen des Informationsabs und des Datenschutzbetriebs zu. Das Forschungsteam forderte große Modellhersteller auf, den Schutz des Datenschutzes zu stärken, um sicherzustellen, dass die Technologie nicht missbraucht wird. Gleichzeitig sollten Benutzer auch das Bewusstsein für den Schutz des Datenschutzes verbessern und unbewusst vertrauliche Informationen vermeiden.
Insgesamt ist die herausragende Leistung des großen Modells bei „Human Search“ sowohl das Ergebnis technologischer Fortschritte als auch der neuen Datenschutzherausforderungen. In Zukunft wird das Finden eines Gleichgewichts zwischen technologischer Entwicklung und Datenschutzschutz für alle Sektoren der Gesellschaft zu einem wichtigen Thema von gemeinsamem Anliegen.