Back

Dapat Bang Kabahan ang Mga Gumagamit ng Centralized Exchange Dahil sa Level Up ng Deepfake?

Piliin kami sa Google
14 Enero 2026 21:46 UTC
  • Mabilis Kumakalat ang AI Deepfakes, Pinapaigting ang Global Regulation at Dagdag Pagdududa sa Digital Trust
  • Real-time Synthetic Video, Nanganganib ang Selfie at Liveness Check ng mga Centralized Exchange sa KYC
  • Kung walang mas matinding proteksyon, mas dadali para sa mga scammer ma-abuso ang identity at mag-fraud gamit ang automatic onboarding sa mga centralized exchange.

Habang dumadami ang paggamit ng mga AI-powered na tool para gumawa ng deepfake na content, mas lalo na ring nababahala ang mga tao tungkol sa kaligtasan ng publiko.

Habang patuloy na nagle-level up at mas nagiging accessible ang technology na ‘to, lumalabas din ngayon yung tanong kung mapagkakatiwalaan pa ba talaga ang mga visual identity verification system na ginagamit ng mga centralized exchange.

Gumagalaw na ang Gobyerno para Kontrolin ang Deepfakes

Matindi ang pagkalat ng mga fake na video sa social media, kaya mas tumitindi pa ang pangamba tungkol sa bagong wave ng disinformation at gawa-gawang content. Habang mas dumadami ang maling paggamit ng tech na ito, mas nadadamay ang kaligtasan ng tao at integridad ng bawat isa.

Lumalala talaga ang sitwasyon dahil pati mga gobyerno sa iba’t ibang bansa nagpa-patupad na ng mga batas para gawing illegal ang paggamit ng deepfakes.

Ngayong linggo, sina Malaysia at Indonesia ang unang mga bansa na nag-limit ng access sa Grok, ang AI chatbot na gawa ng xAI ni Elon Musk. Sabi ng awtoridad, ginawa nila ito dahil sa pag-aalala na nagagamit ito sa paggawa ng mga bastos at hindi pinahihintulutang larawan.

May kaparehong hakbang din na in-announce si California Attorney General Rob Bonta. Noong Miyerkules, kinumpirma niya na nag-iimbestiga sila sa madaming report tungkol sa mga hindi pinahihintulutang, sexualized na images ng totoong tao.

“Ginagamit ang ganitong material — na naglalaman ng mga babae at bata sa hubad o sexual na content — para mang-harass ng mga tao online. Hinihikayat ko ang xAI na kumilos agad para mapigilan pa ito,” sabi ni Bonta sa kanyang statement.

Kung dati, madali mo pa mahuli o mapansin yung deepfake, ngayon, may mga bagong tool na kayang sumagot agad sa mga prompt at halos kopyahin ng sobrang tindi ang pag-galaw ng mukha pati marunong pang magsalita na mukhang legit.

Kaya ngayon, kahit mga simpleng checking tulad ng pagkurap, pag-ngiti, o galaw ng ulo posibleng ‘di na sapat para makasigurado sa identity ng user.

Dahil dito, apektado direkta ang mga centralized exchange na umaasa sa visual verification tuwing onboarding ng mga user.

Naiipit ang mga Centralized Exchange

Hindi na kwento-kwento lang yung epekto sa pera ng deepfake-enabled na fraud.

Pinapaalala ng mga industry observer at tech researcher na lalong dumadami yung AI-generated na images at video na ginagamit sa mga sitwasyon tulad ng insurance claims at legal na usapin.

Yung mga crypto platform na global ang operations at madalas umaasa sa automatic na onboarding, mas magiging target ng mga ganitong modus kapag ‘di sabay sumabay yung security feature sa bilis ng technology pagdating sa pag-develop.

Ngayon na mas madali nang gumawa ng AI-generated na content, hindi na talaga sapat ang tiwala lang sa visual verification.

Hamon ngayon sa mga crypto platform na mag-adjust agad, kasi baka mag-iba na naman ang laro ng technology bago pa nila mapalakas o mapatibay ang security ng user at ng system nila.

Disclaimer

Alinsunod sa mga patakaran ng Trust Project, ang opinion article na ito ay nagpapahayag ng opinyon ng may-akda at maaaring hindi kumakatawan sa mga pananaw ng BeInCrypto. Nananatiling committed ang BeInCrypto sa transparent na pag-uulat at pagpapanatili ng pinakamataas na pamantayan ng journalism. Pinapayuhan ang mga mambabasa na i-verify ang impormasyon sa kanilang sariling kakayahan at kumonsulta sa isang propesyonal bago gumawa ng anumang desisyon base sa nilalamang ito. Paalala rin na ang aming Terms and Conditions, Privacy Policy, at Disclaimers ay na-update na.