Исследователи на факультете вычислительной техники математики и кибернетики (VMK) Московского государственного университета разработали новый подход к оценке качества изображений, который помогает определить их уязвимость противоположных атак на качественные показатели – функции, которые помогают численно оценить, насколько реалистично или видео конфликт с данными. В рамках работы была создана стабильность и модель изображения, способные прогнозировать восприимчивость визуального контента к искусственным манипуляциям. Результаты помогут повысить надежность алгоритмов для обработки современных изображений. Об этом сообщалось в службе прессы университета.
Исследование опубликовано в коллекции Eusipco 2024.
Качественные показатели широко используются в разработке изображений и методов обработки видео, а также просмотра компьютера. Современные показатели машинного обучения уязвимы к атакам, которые позволяют искусственно подавлять их показатели. Это может привести к ситуациям, когда изображение кажется высоким для алгоритмов, но на самом деле это выглядит плохо для человека. Такие атаки могут использоваться в подделке данных, мошеннической рекламе и других манипулятивных целях.
Ученые из факультета ИДМ из Московского государственного университета предложили метод, который позволяет вам автоматически определять, насколько изображение устойчиво к таким атакам. Их подход основан на стабильном индексе (GO), который помогает понять, насколько легко обмануть метрику качества, изменяя изображение.
«Проблема атак на качество изображений важна, поскольку системы просмотра компьютеров все больше и больше зависит от автоматических оценок.
Исследователи проверили много показателей качества изображений и обнаружили, что некоторые из них устойчивы к атакам, в то время как другие легко манипулируют. Чтобы идентифицировать закономерности, они провели эксперименты с популярными методами атаки, такими как FGSM, IFGSM, UAP и FACPA.
Основываясь на этих данных, был разработан индекс стабильности (IRI), который позволяет вам оценивать как подвергнутую атаке. Ученые также создали IRAA (долговечность изображения для противоположных атак) – это нейронная сеть, которая предсказывает, насколько легко изменить оценку качества изображения, не изменяя их фактическое восприятие человека.
«Наш подход помогает заранее определить, какие изображения могут быть уязвимыми, и защищать системы на основе анализа изображений из манипуляций», – добавил Дмитрий Ватолин.
Ученые протестировали свою модель на популярных наборах данных, таких как MS Coco, Live in the Wild, Tid2013 и Pipal. Они обнаружили, что изображения с сильными искажениями, такими как шум или размытие, более восприимчивы к противоположным атакам, и высококачественные изображения, напротив, доказывают стабильность. Исследователи также показали, что некоторые показатели качества, например, MDTVSFA, более подвержены атакам, чем другие.
Разработанная модель IRA показала точность прогнозов стабильности изображений на уровне 90,6%, что делает ее мощным инструментом для анализа и оценки стабильности изображений с противоположными атаками.
Результаты этого исследования могут использоваться в различных областях. В компьютерном зрении этот метод поможет повысить надежность нейронных сетей, которые анализируют изображения, особенно важные для систем автоматической идентификации, распознавания объектов и других задач машинного обучения. В области защиты данных разработка будет избежать фальсификации визуальной информации, предотвращая манипуляции с изображениями, которые можно использовать в медиа, рекламе или даже кибербезопасности. При обработке фото и видео новый метод обеспечит создание лучших алгоритмов улучшения изображений, сводя к минимуму вероятность мошенничества качественных показателей и сделает автоматические системы редактирования более объективными. В мультимедийных системах это поможет обеспечить справедливую и точную оценку качества изображений и видео, что имеет решающее значение для потоковых услуг, видео платформ и цифрового контента. Использование предлагаемого метода повысит уверенность в автоматических системах анализа изображений и защитит их от внешних манипуляций, что делает технологии обработки визуальной информации более стабильными и надежными.
-сообщает icmos.ru
#Ученые #из #Московского #государственного #университета #предложили #метод #оценки #стабильности #изображений #чтобы #атаковать #качественную #метрику
Читать, как было на самом деле:
0 Comments