Последнее исследование показывает, что большая модель показала удивительные возможности в области «поиска человека», особенно GPT-4, с точностью до 95,8%. Это открытие привлекло широкое внимание к защите конфиденциальности. Исследовательская группа специально предупредила крупных производителей моделей, таких как OpenAI, Google, Meta и т. Д., Чтобы напомнить им, что они должны обратить внимание на проблемы конфиденциальности пользователей. В эксперименте были протестированы девять передовых моделей, а GPT-4 особенно хорошо выполнял по полу и идентификации места рождения, с показателями точности 97% и 92% соответственно.
Исследование также показало, что крупные модели одинаково превосходны в том, чтобы задавать вопросы, чтобы побудить пользователей раскрывать информацию. Эта возможность тесно связана с твердостью атрибутов модели. Это открытие напоминает людям, что они должны быть бдительными при использовании больших моделей, чтобы гарантировать, что их конфиденциальность не будет нарушена.
Благодаря постоянному развитию крупномасштабных технологий моделей, ее возможности в поисках информации и добыче конфиденциальности также увеличиваются. Исследовательская группа призвала производителей крупных моделей усилить защиту конфиденциальности, чтобы гарантировать, что технология не подвергается злоупотреблениям. В то же время пользователи также должны улучшить свою осознание конфиденциальности и избежать бессознательной утечки конфиденциальной информации.
В целом, выдающаяся эффективность большой модели в «поиске человека» является как результатом технологических достижений, так и новых проблем с конфиденциальностью. В будущем, как найти баланс между технологическим развитием и защитой конфиденциальности, станет важной проблемой, вызывающей общую заботу для всех секторов общества.