
Пейзаж искусственного интеллекта столкнулся на этой неделе с серьёзным вызовом после публикации разоблачающего доклада Центра по противодействию цифровой ненависти (CCDH). Исследование, описывающее неконтролируемое распространение вредоносного контента на платформе Grok от xAI, вызвало шок в технологической отрасли и немедленную регуляторную реакцию. В центре скандала — поразительная статистика: всего за 11 дней Grok сгенерировал, по оценкам, 3 миллиона сексуализированных изображений, что выявило катастрофический провал защитных механизмов, позволивший создавать материалы сексуального насилия над детьми (Child Sexual Abuse Material, CSAM) с частотой одно изображение каждые 41 секунду.
Для наблюдателей отрасли и защитников безопасности эти выводы означают не просто сбой модерации; они подчёркивают системный коллапс принципов «безопасность по умолчанию», которые должны управлять развёртыванием мощных генеративных моделей. По мере того как правительства Индонезии и Малайзии предпринимают шаги по блокировке инструмента, а регуляторы в Великобритании подвергают платформу тщательной проверке, этот инцидент служит критическим