Dominado ng AI agents ang ETHDenver 2026, mula sa autonomous finance hanggang sa on-chain robotics. Pero habang lumalaki ang hype sa “agentic economies,” may mas malalim na tanong na lumalabas: Kaya bang patunayan ng mga institusyon kung ano talaga ang ginamit na training data ng AI systems nila?
Kabilang sa mga startup na tumututok sa problemang ‘yan ay ang Perle Labs na nagsa-suggest na kailangan talaga ng AI systems ng verifiable na chain of custody para sa training data, lalo na kung regulated at high-risk ang environment. Ang focus ng Perle ay gumawa ng infrastructure na madaling i-audit at may credentials para sa mga institusyon. Umabot na sa $17.5 million ang total na na-raise ng Perle, kasama ang pinakabago nilang funding round na pinamunuan ng Framework Ventures. Kasama rin sa mga investors ang CoinFund, Protagonist, HashKey, at Peer VC. Mahigit isang milyong data annotators na ang nag-contribute ng mahigit isang bilyong scored data points sa platform nila.
Nakausap ng BeInCrypto si Ahmed Rashad, CEO ng Perle Labs, sa sidelines ng ETHDenver 2026. Dati siyang nasa Scale AI kung saan naging bahagi siya ng leadership team noong biglang sumabog ang paglago nito. Sa usapan nila, pinag-usapan ang data provenance, model collapse, adversarial risks, at kung bakit naniniwala si Rashad na magiging malaki ang role ng sovereign intelligence bago ka makapag-deploy ng AI sa mga critical na system.
BeInCrypto: Dinidescribe mo ang Perle Labs bilang “sovereign intelligence layer para sa AI.” Para sa mga crypto fans na hindi sanay sa tech na usapan tungkol sa data infrastructure, ano bang ibig sabihin niyan sa mas madaling paraan?
Ahmed Rashad: “Pinili talaga namin ang salitang ‘sovereign,’ at marami ‘yang layer ng meaning.
Sa pinaka-basic, ibig sabihin nito ay control. Kung isa kang gobyerno, hospital, defense contractor, o malaking kumpanya na magde-deploy ng AI sa high-stakes na setup, kailangan ikaw ang may kontrol sa intelligence ng system mo. Hindi puwedeng iasa lang sa black box na hindi mo makita o ma-audit. Pag sinabing sovereign, alam mo kung ano ang training data ng AI mo, sino ang nag-validate nito, at kaya mong patunayan ‘yon. Karamihan sa AI industry ngayon, hindi pa nila kayang gawin ito.
Pangalawa, independence. Dapat walang nakikialam sa’yo mula sa labas. ‘Yan ang kailangan ng mga institusyon tulad ng DoD o ng mga enterprises kapag magde-deploy ng AI sa sobrang sensitibong environment. Hindi puwedeng naka-depende ang AI infra mo sa data pipelines na wala kang control, hindi puwedeng i-verify, at hindi mo kayang protektahan laban sa pag-manipulate. Hindi lang ‘yan theoretical risk — pareho nang nagbigay ng warning tungkol dito ang NSA at CISA, tinuring nilang national security issue ang data supply chain vulnerabilities.
Pangatlo, accountability. Pag lumipat na ang AI mula sa paggawa ng content tungo sa paggawa ng matinding desisyon—sa health, finance, militar—kailangan may sumagot: San galing ang intelligence? Sino nag-verify? Permanenteng record ba ito? Sa Perle, goal namin na naka-record on-chain ang bawat contribution ng expert annotators. Hindi mo basta mabubura o mapapalitan. ‘Yung pagiging immutable na ‘yon, ‘yun nagiging totoo yung ‘sovereign,’ hindi lang siya pangarap.
Sa totoong buhay, gumawa kami ng verification at credentialing layer. Halimbawa, kung gagamitin ng hospital ang AI system para sa diagnosis, dapat kaya nilang balikan bawat data point sa training set at makita kung sinong professional ang nag-validate nun. Sovereign intelligence ‘yon—‘yan ang ibig naming sabihin.”
BeInCrypto: Naging parte ka ng Scale AI noong sobrang bilis ng paglago nito, kabilang ang big contracts sa defense at investment mula sa Meta. Ano ang natutunan mo doon tungkol sa kung saan pumapalpak ang traditional na AI data pipelines?
Ahmed Rashad: “Sobrang lupet ng Scale. Naabutan ko ‘yung time na $90M pa siya tapos naging $29B na—nasa harap ako kung kailan nagsimulang lumabas ang mga issue.
Ang pinaka-basic na problema: kabaligtaran ang takbo ng data quality at scale. Kapag sobrang bilis ng paglago—tipong 100x—laging gusto ng kumpanya na mas mabilis, mas maraming data, at mas mababang gastos bawat label. Pero ang napuputol d’yan ay ‘yung precision at accountability. Ang ending mo, opaque ang pipelines—alam mo lang roughly kung anong pumasok, may quality metrics ka naman kung anong lumabas, pero ‘yung gitna, black box na. Sino nag-validate nito? Qualified ba talaga siya? Pare-pareho ba talaga ang way ng annotation? Sa laki ng scale, halos imposible ang sagutin lahat ng ‘yan gamit ang traditional model.
Ikatlo, ‘yung tao—lagi siyang tinitingnan na gastos na kailangang tipirin, hindi asset na pwede mong i-develop. Transactional lang: pay-per-task, tapos optimize para sa mas mabilis na output, pero nade-degrade nito ang quality habang tumatagal. Sunog agad ang best contributors mo. Iba ang mga totoong expert annotators, hindi sila magti-tiyaga sa gamified na micro-task system na bariya lang ang kita. Kailangan mo i-build nang iba kung gusto mo ng ganung caliber ng inputs.
Diyan tumama ang idea ng Perle. Hindi masosolusyonan ang data problem sa pagdagdag lang ng labor. Kailangan itrato ang contributors na parang professionals, maglagay ng verifiable credentialing sa system, at gawing possible na puwede mong i-audit ang buong process, simula hanggang dulo.”
BeInCrypto: Umabot na kayo ng isang milyong annotators at isang bilyong data points na nascore. Karamihan sa ibang data labeling platforms ay puro anonymous crowd labor. Ano bang pinakaiba ng model ninyo pagdating sa reputation?
Ahmed Rashad: “Ang pinakakaiba talaga: Sa Perle, sarili mo ang work history mo, at permanenteng record ‘yun. Kapag natapos mo ang task, naka-record on-chain ang quality level ng ginawa mo, kung paano siya nag-compare sa expert consensus, at ‘di mo na mababago, mabubura, o ma-aassign sa iba. Habang tumatagal, parang nabubuo mo yung sarili mong professional record.
I-compare mo sa anonymous crowd labor na parang palit-palit lang, walang pakialam sa quality kasi hindi nila nadadala reputation nila, at disconnected bawat task. Natural lang na maglabas sila ng pinakasimpleng effort na pwede na.
Baliktad sa amin. Sa Perle, nabubuo ng contributors ang sarili nilang verifiable track record. Nakikita ng platform kung sino ang may tunay na domain expertise. Halimbawa, kung radiologist ka at consistently mataas ang quality ng medical image annotation mo, makikilala ‘yun sa profile mo. ‘Yung reputation na ‘yan, magbubukas ng mas bigating tasks, mas mataas na bayad, at mas interesting na work. Parang flywheel—paikot-ikot pero paangat: lumalakas ang quality dahil may reward talaga.
Umabot na kami sa isang bilyong points na na-score sa buong network ng annotators namin. Hindi lang basta volume ‘yan—bilyong traceable, attributed data contributions from verified na tao. ‘Yan ang foundation ng AI training data na talagang mapagkakatiwalaan—at imposible ‘yun sa anonymous crowd labor.”
BeInCrypto: Madalas na nababanggit ang “model collapse” sa research, pero bihira sa mainstream AI conversation. Bakit mo sa tingin nangyayari ‘yun, at dapat bang mag-alala ang mga tao?
Ahmed Rashad: “Hindi masyadong nabibigyan ng pansin ‘yan dahil slowly but surely yung epekto—hindi kasing dramatic ng ibang issue. Yung model collapse, kung saan AI natututo galing mismo sa AI-generated na data, unti-unting bumabagsak ang quality, nagiging ‘average’ ang lahat, at hindi mo agad mapapansin hanggang lumala na talaga.
Simple lang yung cause: napupuno na ang internet ng content na gawa ng AI. Kaya ‘pag AI models tinrain sa ganung content, natututo lang sila mula sa outputs ng ibang AI kaysa sa tunay na human knowledge at experience. Bawat henerasyon ng training, naiipon pa lalo yung distortion. Parang feedback loop na wala nang natural na way para i-correct.
Kailangan bang mag-alala ang mga tao? Oo, lalo na sa matinding fields. Kapag model collapse ang tama ng content recommendation algo, mas pangit lang recommendations mo. Pero kung AI model ‘yan para sa medical diagnostics, legal reasoning, o defense intelligence—ibang level na ang consequences. Wala nang room para magkumulang ang quality.
Kaya hindi pwedeng optional lang ang human-verified data layer lalo na habang lumilipat ang AI sa critical infrastructure. Dapat meron kang tuloy-tuloy na galing sa totoong tao na diverse ang expertise — hindi pwedeng puro AI output lang na pinagdaanan sa ibang model. Sa amin, meron nang higit sa isang milyon na annotators na may tunay na skills sa iba’t ibang industry. ‘Yung diversity na ‘yan ang pangontra sa model collapse. Hindi mo ‘yan maaayos sa synthetic data o mas malakas na computer lang.”
BeInCrypto: Pag lumawak ang AI mula digital environment papunta sa mga physical na system, ano ang pinaka nagbabago pagdating sa risk, responsibilidad, at standards na ginagamit sa development?
Ahmed Rashad: Ang malaking nagbabago dito, hindi mo na basta mababaliktad ang nangyari. ‘Yun mismo ang prinsipyo. Kapag ang language model nagkamali ng sagot, pwede mo pa itong itama, i-flag, at mag-move on. Pero kung robotic surgical system ‘yan na nagkamali ng interpretasyon, self-driving car na mali ang kinilalang object, drone na nagkamali ng target — wala na itong undo, hindi na maibabalik. Ang cost ng pagkakamali, mula sa nakakahiya, biglang naging matinding disaster.
Nababago rin nito kung anong standards ang dapat sundin. Sa digital environment, sanay ang AI na mabilis nag-e-evolve at puwedeng mag self-correct. Sa physical world, hindi uubra ang ganitong approach. Kailangan siguraduhin na verified ang training data bago pa i-deploy — hindi na puwedeng after magka-aberya pa lang mag-audit.
Pati accountability, nababago nito. Sa digital, madali lang na ipasa ang sisi — model ba ang may mali? Data? Deployment ba ang problema? Sa physical system, lalo na kung may nasasaktan na tao, siguradong hihingin ng regulators at korte ang malinaw na sagot. Sino ba ang nag-train nitong AI? Anong data ang ginamit? Sino ang nag-validate at ano ang standards? Mga kompanya at gobyerno na makakasagot niyan ang papayagan mag-operate. Yung hindi, malamang masabit sa liability na ‘di nila inasahan.
Ginawa namin ang Perle para sa ganitong transition. Human-verified, expert-sourced, on-chain at puwedeng i-audit anytime. Kapag ang AI gumagamit na sa warehouse, operating room, pati sa battlefield, dapat ibang level ng standard ang nagba-backup dito. ‘Yun ang tinatrabaho namin ngayon.
BeInCrypto: Gaano ka-totoo at ka-lakas ang threat ng data poisoning o ‘yung pag-manipula ng data sa AI system ngayon, lalo na sa national security level?
Ahmed Rashad: “Totoo ‘yan, documented, at tinuturing nang national security priority ng mga taong may classified info tungkol dito.
Yung program ng DARPA na GARD (Guaranteeing AI Robustness Against Deception), ilang taon talaga nilang pinag-aralan at dinevelop ang defenses laban sa adversarial attacks sa AI, kasama na rito ang data poisoning. Ang NSA at CISA naglabas ng joint guidance nitong 2025 na nagwa-warning na matindi ang risk kapag may mga butas ang data supply chain o may nag-modify ng training data ng masama — malinaw na threat ‘yan sa integridad ng AI system. Hindi ito basta theory lang — operational advice ito galing sa mga ahensya na bihirang mag-warning unless siguradong totoo at critical na issue.
Malaki talaga ang area ng possible na attack. Kung ma-inject mo ang manipulation sa training data ng AI na ginagamit para sa threat detection, medical diagnosis, o logistics optimization, wala ka nang kailangan i-hack sa system mismo. Binago mo na agad ang perception ng AI sa mundo. Mas mahirap ito ma-detect kumpara sa ordinaryong cybersecurity attack.
Kaya nga may $300 million contract ang Scale AI mula sa Department of Defense (CDAO) para mag-deploy ng AI sa classified networks — dahil gets ng gobyerno na hindi pwedeng gamitin ang AI na trained lang gamit ang unchecked na public data para sa mga critical na applications. Hindi lang theory ang usapan dito, kundi actual na operations.
Kulang din sa mainstream na usapan na hindi lang gobyerno ang apektado nito. Kahit anong kompanyang gumagamit ng AI sa competitive market — finance, pharma, critical infrastructure — posibleng exposed din sila sa adversarial data na ‘di pa nila napaghandaan. Totoo ang threat. Yung defense, tuloy pa ang development.”
BeInCrypto: Bakit hindi na lang kayang i-build ng gobyerno o malaking kumpanya itong verification layer na ‘to? Ano talaga ang sagot kapag may nagtanong niyan?
Ahmed Rashad: “May mga sumubok na. At yung mga sumubok, mabilis nilang na-realize kung saan talaga ang challenge.
Yung tech, mabilis gawin. Ang tunay na challenge ay ‘yung network. Hindi porket gumawa ka ng platform, biglang lilitaw ang mga expert — radiologist, linguist, legal, engineer, scientist, at iba pa. Kailangan mong mag-recruit, siguraduhing verified at credentialed sila, gumawa ng incentive system para mag-stay sila at gumawa ng system na nagsisiguro ng quality. Taon ang binibilang dito at kailangan ng expertise na halos wala sa loob ng mga government office o malalaking kumpanya.
Pangalawang challenge — diversity. Kapag gobyerno gumawa ng sarili nilang verification layer, siyempre local lang asahan nila. Ang tunay na value ng global expert network ay ‘yung lawak ng perspectives, language, culture, at expertise — hindi ito mare-replicate ng in-house lang. May mahigit isang milyon kaming annotators — hindi mo basta makukuha ‘yon sa loob lang.
Pangatlo — incentive design. Para active at tumatagal ang high-quality contributors, kailangan ng transparent at fair na bayad. Dito gumagana talaga ang blockchain: automatic ang records ng contribution, klaro kung sino ang nag-contribute, at verified ang payment. Hindi designed ang typical government procurement para gawin ito nang mabilis o effective.
Kaya honest na sagot kapag tinanong ka: hindi ka lang bibili ng tool, bibili ka ng buong network at credentialing system na hinasa ng tagal ng panahon. Ang totoo, hindi ‘build it yourself’ lang ang option mo — kundi gumamit ka na lang ng existing na solution, o tanggapin mo ‘yung data quality risk na kaakibat ng wala nito.”
BeInCrypto: Kapag naging core na infrastructure ng bansa ang AI, saan nakalagay ang sovereign intelligence layer five years from now?
Ahmed Rashad: “After five years, parang magiging equivalent na ito sa financial audit function — hindi puwedeng mawala, automatic na requirement sa pagitan ng data at deployment, may regulatory support at clear professional standards.
Ngayon, di tulad ng auditing, halos self-reporting lang ang AI development: kompanya ang nagre-report ng training data, walang independent verification, walang certified na third party, walang tumitingin kung pumapasa ba sa standard ang intelligent na model. Parang pre-Sarbanes-Oxley days sa finance: tiwala at self-certification lang ang basehan.
Sa paglipat ng AI sa critical infrastructure tulad ng power grid, health systems, financial markets, at defense net, hindi na puwedeng ituloy ‘yung old setup. Mabigat na requirement na ngayon sa gobyerno ang auditability. Procurement, hahanapan ng verified data provenance bago mag-contract. At kapag may nagka-aberya na puwedeng masolusyunan sana kung tama lang ang verification, may liability talaga ang involved na party.
Nakikita ko, yung Perle dito ilalagay — bilang verification at credentialing layer na makakapagbigay ng tamper-proof records kung paano trinain yung model, sino nag-train, at anong standards ang ginamit. Sa limang taon, hindi na ‘yan feature lang ng AI development — requirement na ‘yan.
Ang point talaga dito, hindi lang pang-defense contractors ang sovereign intelligence. Ito na ang pundasyon para maging deployable ang AI kahit saan na matindi ang consequence kapag pumalpak. At habang lumalawak pa ang AI sa iba’t ibang applications, ganun din — foundation talaga ito ng buong system.”