Назад

Централізовані біржі: чи загрожує користувачам розвиток діпфейків

author avatar

Написано
Camila Grigera Naón

editor avatar

Відредаговано
Mohammad Shahid

14 січень 2026 23:46 EET
  • Швидке поширення AI-генерованих дипфейків стимулює глобальне регулювання й підвищує ризики для цифрової довіри.
  • Синтетичне відео в реальному часі створює виклики для перевірки селфі та лівнес у KYC-системах централізованих бірж.
  • Без ефективніших заходів захисту автоматизована реєстрація може підвищити ризик шахрайства та зловживань особистими даними на централізованих біржах.

Поширення інструментів зі штучним інтелектом, здатних створювати deepfake-контент, актуалізує питання загальної безпеки суспільства.

Розвиток та масова доступність таких технологій одночасно ставлять під сумнів ефективність систем верифікації візуальної ідентичності, що застосовуються централізованими біржами.

Уряди вживають заходів для обмеження дипфейків

Маніпулятивні відеозаписи швидко поширюються в соціальних медіа, посилюючи занепокоєння щодо нової хвилі дезінформації та фальсифікацій. Зловживання цими технологіями дедалі більше підриває як суспільну безпеку, так і персональну репутацію.

Ситуація набула масштабного характеру: національні уряди розробляють нормативно-правові акти для криміналізації використання deepfake.

На цьому тижні Малайзія та Індонезія першими обмежили доступ до Grok, чат-бота зі штучним інтелектом, створеного Ілоном Маском (Elon Musk) та xAI. Причиною такого рішення стали офіційно задекларовані застереження щодо його застосування для генерації сексуалізованих та несанкціонованих зображень.

У Каліфорнії генеральний прокурор Роб Бонта озвучив подібну ініціативу. У середу він повідомив про початок розслідування низки інцидентів, пов’язаних із поширенням несанкціонованих сексуалізованих зображень реальних осіб.

«Ці матеріали, на яких жінки й діти зображені оголеними та у сексуальних контекстах, використовуються для переслідування людей в онлайн-середовищі. Я наполягаю, щоб xAI терміново вжила заходів, аби цьому було покладено край», – йдеться у заяві Бонти.

Сучасні deepfake-алгоритми вже не обмежуються статичними зображеннями – системи динамічно реагують на текстові інструкції, точно імітуючи природну міміку й мовлення.

З цієї причини елементарні перевірки — моргання, посмішка чи рухи головою — втрачають свою валідаційну цінність для підтвердження особистості клієнта.

Подібний технологічний прогрес напряму впливає на централізовані біржі, що здійснюють onboarding із використанням методів візуальної автентифікації.

Біржі централізованого типу під тиском

Фінансові втрати від шахрайств, пов’язаних із deepfake, вже мають конкретне економічне підґрунтя.

Аналітики та спеціалісти з інформаційних технологій відзначають збільшення частки AI-генерованих зображень і відео у сферах страхування, судових процесів, а також під час подання заявок на фінансові виплати.

Глобальні криптоплатформи, значною мірою залежні від автоматизації onboarding-заходів, можуть стати привабливою мішенню для таких зловживань, якщо захисні механізми не розвиватимуться синхронно із розвитком технологій.

У міру здешевлення та масового розповсюдження AI-інструментів довіра, що ґрунтується лише на верифікації зовнішності, поступово перестає забезпечувати захист від несанкціонованого доступу.

Актуальним завданням для криптобірж стає своєчасна модифікація процедур аутентифікації, інакше рівень технологічної загрози може перевищити наявні превентивні інструменти.

Дисклеймер

Відповідно до принципів проєкту Trust Project, ця авторська стаття представляє точку зору автора і не обов'язково відображає погляди BeInCrypto. BeInCrypto залишається прихильником прозорої звітності та дотримання найвищих стандартів журналістики. Читачам рекомендується перевіряти інформацію самостійно і консультуватися з професіоналами, перш ніж приймати рішення на основі цього контенту. Зверніть увагу, що наші Загальні положення та умови, Політика конфіденційності та Дисклеймер були оновлені.