Информационные вопросы об ИИ и бизнесе

E-Commerce под ударом Deepfake: как бороться с сомнительными возвратами

В начале 2025 года розничные игроки зафиксировали невиданный рост возвратов, когда мошенники научились предоставлять «доказательства» о поврежденных товарах, не отправляя их обратно. Причина кроется в бурном развитии генеративных моделей, позволяющих за считанные минуты создать правдоподобное фото разбитого смартфона или сломанной кофемашины.
Проще, быстрее, доступнее
Уже не нужно быть профессионалом фотомонтажа, чтобы обмануть службы поддержки и добиться возврата средств. Открытые инструменты вроде Midjourney и Stable Diffusion снижают порог вхождения в мир фейковых изображений, а соцсети и мессенджеры — от WeChat до Douyin — завалены жалобами, которые всё труднее проверять вручную. По оценке одного из представителей компании Pindrop, 30% мошеннических попыток в ритейле вызваны сгенерированным ИИ контентом. Тренд усиливается и за счет ботов, которые обращаются в контакт-центры с выдуманными историями о якобы поврежденных заказах.
Фейковые возвраты в лидерах по убыткам
Особенно остро проблему ощущают китайские платформы вроде Douyin, где огромные объемы продаж. Но и глобальные гиганты, включая Amazon, отмечают увеличение затрат на обработку сомнительных претензий. В период с мая 2024 по апрель 2025 года число мошенничеств с использованием генеративных моделей выросло на 456%. При этом ручная проверка дает сбои: люди с первого взгляда могут принимать подделку за реальный снимок, верно различая только около 62% фейков.
Чтобы противостоять такой волне атак, ритейлеры анализируют возвраты более детально: сверяют информацию о товаре, исследуют метаданные, а в спорных случаях просят дополнительные материалы. Однако ни один метод не гарантирует стопроцентную защиту, потому что количество заявок на возврат растет, а скорость фрода только увеличивается.
Ответ бизнеса на массовые уловки
Ритейлеры и платежные системы внедряют машинное обучение и уже пробуют использовать генеративные модели для блокировки подозрительных запросов. В частности, они ищут аномальные паттерны в массовых обращениях и обновляют политику возвратов, чтобы учитывать практику deepfake-изображений. По данным аналитиков, 57% торговых компаний зафиксировали рост злоупотреблений, а 98% продавцов, у которых отмечен повышенный уровень риска фрода, уже понесли убытки в 2025 году.
Эксперты из юридического сектора советуют компаниям пересмотреть внутренние регламенты и ввести посты проверки, применяя автоматизированные инструменты выявления Deepfake. Ведь к концу 2025 года 78% продавцов планируют увеличить расходы на борьбу с подделками, чтобы обезопасить себя и клиентов от махинаций.
Последствия для рынка
В ближайшие годы любой подозрительный случай будет проходить двойную проверку, и каждый отказ или возврат станет корпоративной «горячей точкой». Тем временем общий объем потерь от онлайн-мошенничества в мире уже перевалил за триллион долларов, при этом значительная часть уходит на ложные возвраты в соцсетях и через мессенджеры, где инструменты фильтрации еще недостаточно развиты. Если пропустить волну новых видов обмана, только в США убытки могут достичь 40 миллиардов долларов к 2027 году.
Шаг навстречу инновационным решениям — единственный путь оставаться в игре. Многие испытывают AI-деконструкторы, достаточные для распознавания мельчайших цифровых артефактов в изображениях. Чем эффективнее работают эти решения, тем меньше ложных блокировок реальных клиентов и тем выше доверие к онлайн-покупкам.
Комментарий из индустрии
По словам Леонида Митина, руководителя клиентской службы Komanda.ai, сегодня важно, чтобы инструменты отслеживания фейков не усложняли контакт с реальными покупателями:
«При создании любых систем защиты мы руководствуемся принципом естественного и дружелюбного интерфейса — человек должен решать свою задачу быстро, а ИИ брать на себя всю рутину, не превращая процесс в лабиринт проверок»
Такой подход помогает маркетплейсам и интернет-магазинам оперативно выявлять подозрительные запросы, не отпугивая добросовестных клиентов.
В заключении подчеркнем, что Komanda.ai сам по себе не создает deepfake и не детектирует их “по щелчку”. ИИ-ассистент подключается к внешним или кастомным модулям, использует сторонние API и ваш бизнес-процесс. Работает как интеллектуальный фильтр и ускоряет ручную работу операторов.
Источник: dataconomy
Как работает искусственный интеллект в бизнесе