halos walang pumansin.
Sabi ng 0G, nakalampas na sila sa isang importanteng milestone ilang buwan na ang nakalipas. Ngayon, nire-retrain nila yung parehong model nang public, para ipakita kung ano talaga ang kaya ng decentralized AI at kung bakit dapat sana nabigyan ng mas malaking pansin yung naunang resulta nila.
Noong July 2025, nag-train ang 0G ng isang 107 billion parameter model na tinawag nilang DiLoCoX-107B kasama ang China Mobile. Lumabas yung research nila sa arXiv matapos ang peer review. Ayon sa paper, umabot sa 357x ang mas mabilis na communication efficiency ng system kumpara sa tradisyonal na AllReduce methods. Pero sa totoo lang, parang hindi man lang ito napansin ng market.
Sabi ng team, timing daw talaga ang problema. Nu’ng gitna ng 2025, puro mainnet launch at token stories ang nasa radar ng crypto community. Yung mga technical na resulta, halos walang may pakialam. Seryoso yung trabaho nila pero bihira lang ang naka-appreciate maliban sa mga sobrang tutok talaga sa field.
Ngayon na bumabalik uli sa spotlight ang decentralized AI, gusto ng 0G na makita ulit ng lahat itong resulta nila.
Bagong Training Program Para sa Lahat
This time, open na sa lahat ang retraining process ng kumpanya.
Plano ng 0G na i-document bawat stage — mula sa checkpoints, convergence metrics, hanggang data sourcing. Sinasabi rin nila na Trusted Execution Environments gamit ang zerogAuth ang magbabalidate ng buong process. Pag natapos na ang trabaho, open source na agad ang model weights para pwede nang mapakinabangan ng lahat.
Gusto talagang ipakita ng 0G na kayang i-audit, i-reproduce, at ma-verify ang decentralized AI sa paraan na hindi basta magagawa ng karamihan ng closed systems.
Hindi Lang Paramihan ng Parameters
Hanggang ngayon, puro paramihan pa din ng parameter ang usapan sa AI coverage. Laking hype ng mas malalaking number, pero sabi ng 0G, mas mahalaga kung ano ang buong system sa likod ng isang model.
Para sa team, sa mismong training nagsisimula ang tunay na test — kasunod nito ang verification, storage, serving, at integration sa aktwal na produkto.
Isa sa pinaka-importanteng technical points dito yung communication efficiency. Gumagamit ang DiLoCoX ng tinatawag na pipeline parallelism, dual optimizer policy para sa local at global updates, one-step delay overlap mechanism, at adaptive gradient compression. Sa simple terms, nababawasan nito ang dami ng communication na kailangan habang distributed ang training — kadalasan dito bumabagal ang mga ganitong sistema.
Kasama din sa full stack ng 0G yung onchain verification, decentralized storage, data availability, inference, at settlement. Ang resulta, working environment na talaga — hindi basta research demo na one-time lang.
Verification pa ang isa sa mga pinupunto nila. Sa Trusted Execution Environments, pwedeng makita ng users hindi lang kung merong model — kundi paano ito na-train at anong data ang ginamit. Sa decentralized AI, malaking bagay ito dahil totally naiiba ang trust model.
Ang Totoong Usapan: Bandwidth ang Labanan
Sabi ng 0G, yung paraan ng pag-train ng DiLoCoX-107B ang pinakapunto ng pangyayaring ‘to.
Ayon sa team, pinaandar nila yung 107B model gamit lang ang standard na one gigabit per second na internet — hindi yung mga super specialized na data center setup. Target talaga nila dito ang paniniwala ng marami sa AI na ang malalaking training eh kailangan ng sobrang mahal at specialized na network.
Kung mapapatunayan pa ‘to sa paglipas ng panahon, baka magbukas ng mas maraming opportunity lalo na sa mga research group, kumpanya, at maging government institutions. Kapag ganito ang setup, coordination na ang nagiging main challenge — at para dito talaga ginawa ang decentralized systems.
Ibang Cost Model
Sabi rin ng 0G, nababawasan ng system nila ng nasa 95% ang gastos kumpara sa centralized na alternatibo.
Ibinibigay ng kumpanya yung tipid dahil sa pagtanggal ng sobrang mahal na centralized overhead — hindi dahil sa cheaper lang ang hardware. Pag tumama ang figures na ito sa totoong gamit, mas maraming organization — pati universities, enterprises, at government na walang pang-hyperscale na AI budget — puwede nang mag-train ng advanced models.
Puwede nitong baguhin kung sino-sino ang may kakayahang gumawa ng mga malalaking modelo sa simula pa lang.
Kaya ba ng decentralized AI makipagsabayan?
Matagal nang sinasabi ng mga nagdududa na hindi kayang sabayan ng decentralized AI ang performance ng centralized. Pero naniniwala ang 0G na nababago na ‘yung dating tradeoff na ‘yan.
Habang bumubuti ang resulta at bumabagsak ang gastos, nagiging mas importante na kung kaya ba talagang mag-train ng matinding models, i-verify mga ito, at gawin ito sa presyo na kayang habulin ng mas maraming teams.
Totoo, may real risk pa din sa open participation. Pwedeng ma-expose ang systems sa data poisoning, gradient manipulation, at hindi pantay-pantay na halaga ng kontribusyon. Sabi ng 0G, may mga safeguard silang nilagay — tulad ng anomaly detection at cryptographic verification — para ‘di basta pasukin ng guhô.
Hindi para gawin na 100% safe ang point dito. Ang mahalaga, kapag nagkamali o nagka-issue, madaling makita at matunton.
Ano Ba Talaga Ibig Sabihin ng Verifiable AI?
Para sa 0G, tungkol ang verifiable AI sa pagpalit ng blind trust sa reputation papunta sa tiwalang nakabase sa aktwal na pag-inspect.
Imbes na basta magtiwala sa provider, may paraan ang users para i-check mismo paano na-train at paano gumagana ang model. Lalo itong useful sa mga areas na importante talaga ang accountability — tulad ng finance, healthcare, at gobyerno.
Dito lumalayo ang decentralized AI — kasi puwedeng inspeksyunin ng tao, hindi lang basta pagkatiwalaan.
Mula Demo lang Hanggang Actual na Gamit: Research, Ginawang Working System
Malayo na talaga ang narating ng decentralized AI, kahit sa ikli lang ng panahon. Yung dati puro proof-of-concept na test, ngayon mas integrated na yung training, verification, storage, inference, at economic settlement sa iisang environment.
Gusto ng 0G na mag-standout ang DiLoCoX-107B bilang patunay ng progress na yun. Hindi lang performance, pati transparency ng buong process ang gustong ipaabot ng public retraining na ito. Gusto nilang ipakita na kaya ng decentralized AI gumawa ng matinding model na pwede pa ring ma-inspect ng kahit sino.
Ano Ang Pwede Mangyari Next?
Andiyan pa rin ang mas malalaking modelo sa horizon. Naniniwala ang 0G na posibleng maabot ang hundreds of billions, hanggang trilyon na parameter models sa future.
Sa susunod na chapter ng decentralized AI, hindi na solo big leap ang kailangan — mas magiging mahalaga yung coordination at active na partisipasyon ng mas maraming network. Sa field na ‘to, halos kasing bigat ng compute power ang ayos ng organization.
Ang pagrereset ng DiLoCoX-107B ay paraan para muling pag-usapan yung topic na feeling ng 0G hindi napansin masyado ng market dati. Isa rin itong test kung kaya bang makakuha ng attention ng open at transparent na AI dahil sa ganda ng resulta, at hindi lang dahil sa hype.
Sa ngayon, umaasa ang company na dahil ginagawa nilang public yung retraining, transparent ang documentation, at open-access ang approach, mas magiging matibay ang posisyon ng decentralized AI sa susunod na laban sa market.