Недавно расследование The Guardian выявило потенциальные угрозы безопасности в поисковом инструменте ChatGPT OpenAI. Расследования показали, что ChatGPT подвержен вредоносному коду или инструкциям по манипуляциям, скрытым на веб-страницах, дающим неточные или даже вредные ответы, например, манипулированием с целью получения чрезмерно положительных отзывов о продукте, даже если о продукте имеются отрицательные отзывы. Расследование вызвало обеспокоенность по поводу безопасности больших языковых моделей и подчеркнуло решающую важность безопасности при разработке технологий искусственного интеллекта.
Недавно расследование британской Guardian выявило возможные угрозы безопасности в поисковом инструменте ChatGPT OpenAI. Расследование показало, что ChatGPT может подвергаться манипуляциям или даже возвращать вредоносный код при обработке фрагментов веб-страниц, содержащих скрытый контент. Этот скрытый контент может включать сторонние инструкции, предназначенные для вмешательства в ответ ChatGPT, или большой объем скрытого текста, рекламирующего определенный продукт или услугу.

Во время теста ChatGPT предоставили ссылку на поддельную страницу продукта камеры и попросили оценить, стоит ли покупать камеру. На обычной странице ChatGPT может сбалансированно указать плюсы и минусы продукта. Однако когда скрытый текст на странице содержал инструкции с просьбой оставить положительный отзыв, ответы ChatGPT стали полностью положительными, хотя на странице были отрицательные отзывы. Более того, даже без явных инструкций простой скрытый текст может повлиять на сводные результаты ChatGPT, что приведет к тому, что он будет давать положительные отзывы.
Джейкоб Ларсен, эксперт по кибербезопасности в CyberCX, предупредил, что если поисковая система ChatGPT будет полностью выпущена в ее нынешнем состоянии, она может столкнуться с «высоким риском» того, что кто-то может разработать веб-сайт специально для обмана пользователей. Однако он также отметил, что у OpenAI сильная команда по безопасности ИИ, и ожидается, что они тщательно протестируют и исправят эти проблемы к тому времени, когда эта функция станет доступна всем пользователям.
Поисковые системы, такие как Google, наказывают веб-сайты за использование скрытого текста, в результате чего они понижаются в рейтинге или даже полностью удаляются. Карстен Нол, главный научный сотрудник SR Labs, отметил, что SEO-отравление — это проблема для любой поисковой системы, и ChatGPT — не исключение. Тем не менее, это не проблема самой большой языковой модели, а проблема, с которой сталкиваются новые игроки в области поиска.
Выделять:
ChatGPT может манипулировать скрытым контентом и возвращать ложные отзывы.
Скрытый текст может повлиять на оценку ChatGPT, даже если на странице есть отрицательные отзывы.
OpenAI активно исправляет потенциальные проблемы, чтобы повысить безопасность инструмента поиска.
Хотя ChatGPT сталкивается с новыми проблемами, такими как отравление SEO, это не означает, что сама технология крупномасштабной языковой модели неисправна. OpenAI знает об этих проблемах и активно предпринимает шаги для их решения. В будущем, поскольку технологии продолжают развиваться и совершенствоваться, ожидается, что безопасность больших языковых моделей будет еще больше улучшаться, предоставляя пользователям более надежные услуги.