В современную цифровую эпоху проблемы безопасности детей в Интернете становятся все более важными. Недавно Roblox, Discord, Openai и Google совместно выпустили некоммерческую организацию под названием Roost (Sonster Open Online Security Tool), направленная на создание масштабируемой и взаимосвязанной инфраструктуры безопасности для эпохи ИИ. Новая организация направлена на то, чтобы предоставить инструменты безопасности с открытым исходным кодом для государственных и частных учреждений, чтобы помочь им укрепить защиту на своих собственных платформах с особым акцентом на безопасность детей.

Примечания источника изображения: изображение генерируется ИИ, а изображение авторизованное поставщик услуг Midjourney
Roost был основан в ответ на быстрое развитие генеративного ИИ. По мере изменения сетевой среды дети сталкиваются с растущими рисками, поэтому необходимость в «надежной и доступной инфраструктуре безопасности» стала более неотложной. Roost надеется избежать небольших компаний или организаций с нуля при разработке этих инструментов, предоставляя готовые инструменты безопасности, но вместо этого сможет напрямую использовать эти бесплатные решения.
В программе Roost организации будут сосредоточены на предоставлении инструментов для обнаружения, рассмотрения и сообщения о материалах сексуального насилия над детьми (CSAM). Этот шаг поможет различным платформам идентифицировать и обрабатывать неправильный контент и защитить безопасность детей в сетевой среде. С этой целью участвующие компании не только окажут финансовую поддержку, но также будут способствовать соответствующей технической силе.
Вопросы по безопасности детей в Интернете получают внимание, особенно в то время, когда Закон о защите конфиденциальности детей и молодежи и молодежи и Закон о безопасности детей в Интернете находился в Конгрессе. Хотя законопроекты не смогли пройти голосование в Палате представителей, участвующие технологические компании, в том числе Google и Openai, взяли на себя обязательство прекратить использование технологии ИИ для создания материалов сексуального насилия над детьми.
Для Roblox проблемы безопасности детей особенно важны. Согласно данным 2020 года, две трети детей в возрасте от девяти до двенадцати в Соединенных Штатах используют ROBLOX. Платформа столкнулась со многими проблемами в безопасности детей. Уже в 2024 году Bloomberg Business Week сообщила, что компания страдает от «проблем с педофилами», поэтому Roblox должен был укрепить ограничения на частные сообщения детей и реализацию новых политик.
Несмотря на то, что запуск Roost не может решить все проблемы, он обеспечивает более простой отклик для Roblox и других подобных платформ, прилагая усилия по обеспечению безопасности детей в эпоху ИИ.