يكشف أحدث الأبحاث أن النموذج الكبير أظهر قدرات مذهلة في مجال "البحث البشري" ، وخاصة GPT-4 ، بمعدل دقة يصل إلى 95.8 ٪. أثار هذا الاكتشاف اهتمامًا واسع النطاق لحماية الخصوصية. حذر فريق البحث على وجه التحديد الشركات المصنعة للنماذج الكبيرة مثل Openai و Google و Meta وما إلى ذلك لتذكيرهم بأنه يجب عليهم الانتباه إلى مشكلات خصوصية المستخدم. في التجربة ، تم اختبار تسعة نماذج متقدمة ، وأداء GPT-4 بشكل جيد بشكل خاص في تحديد النوع الاجتماعي والمسطح ، مع معدلات الدقة 97 ٪ و 92 ٪ على التوالي.
ووجدت الدراسة أيضًا أن النماذج الكبيرة ممتازة بنفس القدر في طرح الأسئلة لحث المستخدمين على الكشف عن المعلومات. ترتبط هذه القدرة ارتباطًا وثيقًا بصلابة السمة في النموذج. يذكر هذا الاكتشاف الناس بأنهم يجب أن يكونوا متيقظين عند استخدام نماذج كبيرة لضمان عدم انتهاك خصوصيتهم.
مع التقدم المستمر لتكنولوجيا النموذج على نطاق واسع ، تتزايد قدراتها في استرجاع المعلومات والتعدين الخصوصية. دعا فريق البحث مصنعي النماذج الكبيرة إلى تعزيز حماية الخصوصية لضمان عدم إساءة استخدام التكنولوجيا. في الوقت نفسه ، يجب على المستخدمين أيضًا تحسين الوعي بحماية الخصوصية وتجنب المعلومات الحساسة دون وعي.
بشكل عام ، فإن الأداء المتميز للنموذج الكبير في "البحث البشري" هو نتيجة للتقدم التكنولوجي وتحديات الخصوصية الجديدة. في المستقبل ، ستصبح كيفية إيجاد توازن بين التنمية التكنولوجية وحماية الخصوصية قضية مهمة تتولى الاهتمام المشترك بجميع قطاعات المجتمع.