В эпоху быстрого развития технологий искусственного интеллекта мы становимся все более и более зависимыми от искусственного интеллекта. В то же время нам также необходимо быть внимательными к потенциальным рискам, связанным с искусственным интеллектом. Редактор Downcodes хотел бы обсудить с вами сегодня тревожное открытие: исследование Массачусетского технологического института показывает, что чат-боты с искусственным интеллектом могут неосознанно имплантировать нам «фальшивые воспоминания». Это не просто техническая проблема, это важный вопрос, связанный с точностью нашей памяти и когнитивной безопасностью. Давайте углубимся в это исследование, чтобы увидеть, как ИИ может стать волшебником памяти и как мы можем бороться с этой потенциальной угрозой.
В эпоху информационного взрыва мы ежедневно сталкиваемся с огромными объемами информации, но задумывались ли вы когда-нибудь, что наша память может быть не такой надежной, как мы думаем? Недавно исследование Массачусетского технологического института показало нам удивительный факт: искусственный интеллект, особенно те, кто умеет общаться, могут имплантировать в наш мозг «фальшивые воспоминания».
ИИ превращается в «хакера» памяти, который тайно вмешивается в память вашего мозга
Во-первых, нам нужно понять, что такое «ложная память». Проще говоря, это события, которые, как мы помним, происходили, но на самом деле не происходили. Это не сюжет фантастических романов, но он на самом деле существует в мозгу каждого из нас. Точно так же, как вы помните, как в детстве заблудились в торговом центре, но на самом деле это может быть просто сюжет фильма, который вы видели.

Итак, как же ИИ стал «волшебником» памяти? Исследователи разработали эксперимент, в котором 200 добровольцев смотрели криминальное видео, а затем задавали вопросы четырьмя разными способами: один — традиционная анкета, есть чат-боты с заранее заданными сценариями; Это также чат-бот, управляемый большой языковой моделью (LLM), который можно свободно использовать. Выяснилось, что у добровольцев, которые взаимодействовали с чат-ботом LLM, возникло более чем в три раза больше ложных воспоминаний!
Что здесь происходит? Исследователи обнаружили, что эти чат-боты могут неосознанно направлять наши воспоминания в неправильном направлении, задавая вопросы. Например, если чат-бот спрашивает: «Вы видели, как грабитель подъехал к входу в торговый центр?» Даже если грабитель на видео пришел пешком, кто-то может «вспомнить», что видел машину из-за этого вопроса.

Что еще более удивительно, так это то, что эти ложные воспоминания, имплантированные ИИ, не только многочисленны, но и имеют особенно долгий «продолжительность жизни». Даже через неделю эти ложные воспоминания сохранялись в сознании добровольцев, и их уверенность в этих ложных воспоминаниях была особенно высока.
Кто с большей вероятностью будет «просачиваться»?
Итак, кому с большей вероятностью будут имплантированы ложные воспоминания с помощью ИИ? Исследования показали, что те, кто не знаком с чат-ботами, но больше интересуется технологией ИИ, с большей вероятностью «поддадутся»? Это может быть связано с тем, что у них есть предвзятое чувство доверия к ИИ, что снижает их бдительность в отношении подлинности информации.
Это исследование забило для нас тревогу: в таких областях, как право, медицина и образование, требующих чрезвычайно высокой точности памяти, применение ИИ должно быть более осторожным. В то же время это также ставит новые задачи для будущего развития ИИ: как мы можем гарантировать, что ИИ не станет «хакером», внедряющим ложные воспоминания, а станет «хранителем», помогающим нам защищать и улучшать воспоминания?
В эпоху быстрого развития технологий искусственного интеллекта наши воспоминания могут оказаться более хрупкими, чем мы думаем. Понимание того, как ИИ влияет на нашу память, — это не только задача для ученых, но и вопрос, на который необходимо обратить внимание каждому из нас. Ведь память — краеугольный камень нашего понимания мира и самих себя. Защитить нашу память – значит защитить наше собственное будущее.
Ссылки:
https://www.media.mit.edu/projects/ai-false-memories/overview/
https://arxiv.org/pdf/2408.04681
В целом, это исследование Массачусетского технологического института раскрывает потенциальные риски ИИ и напоминает нам, что нам нужно относиться к технологии ИИ с осторожностью, особенно в тех областях, где подлинность информации имеет решающее значение. В будущем нам необходимо уделять больше внимания этике и безопасности ИИ, чтобы гарантировать, что технология ИИ сможет лучше служить людям, а не становиться инструментом манипулирования памятью. Давайте работать вместе, чтобы сделать ИИ стимулом человеческого прогресса, а не потенциальной угрозой.