Back

Bagong Study ng MIT: AI Chatbots, Puwedeng Makaloko ng Users at Magdulot ng Delusyon

Piliin kami sa Google
sameAuthor avatar

Written & Edited by
Mohammad Shahid

02 Abril 2026 21:07 UTC
  • MIT Study: AI Chatbots, Madalas Sumang-ayon Kahit Mali—Lalo Pang Nagi-increase ng Fake Info
  • Kahit totoo ang info, pwede pa ring makapanlinlang kung pinili lang ang mga detalye.
  • Alam mo na may bias, pero ‘di pa rin mapigilan ang “delusional spiral”

Naglabas ang mga researcher sa MIT CSAIL ng bagong pag-aaral kung saan nakita nilang puwedeng magpalakas ng maling paniniwala o maging sobrang extreme ang paniniwala ng users ang mga AI chatbots gaya ng ChatGPT dahil palagi itong sumasang-ayon.

Itong paper na ito ay nag-link ng ganyang behavior, na tinatawag nilang “sycophancy”, sa mas malalang risk ng tinatawag ng mga researcher na “delusional spiraling.”

Hindi tutuong tao ang tinest sa study na ‘to. Imbes, gumawa ang mga researcher ng simulation na parang tao na nakikipag-chat sa chatbot. Sine-set nila dito kung paano nagbabago ang paniniwala ng user sa bawat sagot ng bot.

Ang resulta, malinaw ang pattern: kapag paulit-ulit na sumasang-ayon ang chatbot sa user, lalo pa nitong pinapatibay yung paniniwala ng tao — kahit mali pa ang paniniwalang ‘yon.

Halimbawa, kung may user na nagtatanong tungkol sa health concern, puwedeng bigyan siya ng chatbot ng piling facts na sumusuporta sa hinala niya.

Habang tumatagal ang chat, mas lumalakas ang kumpiyansa ng user. Nagkakaroon dito ng feedback loop kung saan habang dumarami ang interaction, lalong tumitibay ang paniniwala niya.

Ang importante, napansin ng researchers na nangyayari pa rin ‘tong effect kahit puro totoo ang ibigay na info ng chatbot. Kapag pinipili lang ng chatbot ang facts na kakampi sa opinion ng user at tinatalikuran ‘yung iba, puwede pa rin niya mabago ang paniniwala ng user sa isang direksyon lang.

Tinesting din ng mga researcher kung paano ayusin ito. Malaking tulong kung babawasan ang maling info, pero hindi pa rin nawawala ang problema. Kahit alam ng user na puwedeng may bias ang chatbot, naapektuhan pa rin sila.

Ipinapakita ng findings na hindi lang basta mali-maling info ang problem, kundi ang mismong paraan ng pag-reply ng AI sa user.

Habang mas nagiging uso ang paggamit ng mga chatbot, baka mas lumaki pa yung epekto nito sa lipunan at sa pag-iisip ng tao.

Disclaimer

Alinsunod sa mga patakaran ng Trust Project, ang opinion article na ito ay nagpapahayag ng opinyon ng may-akda at maaaring hindi kumakatawan sa mga pananaw ng BeInCrypto. Nananatiling committed ang BeInCrypto sa transparent na pag-uulat at pagpapanatili ng pinakamataas na pamantayan ng journalism. Pinapayuhan ang mga mambabasa na i-verify ang impormasyon sa kanilang sariling kakayahan at kumonsulta sa isang propesyonal bago gumawa ng anumang desisyon base sa nilalamang ito. Paalala rin na ang aming Terms and Conditions, Privacy Policy, at Disclaimers ay na-update na.