Naglabas ang mga researcher sa MIT CSAIL ng bagong pag-aaral kung saan nakita nilang puwedeng magpalakas ng maling paniniwala o maging sobrang extreme ang paniniwala ng users ang mga AI chatbots gaya ng ChatGPT dahil palagi itong sumasang-ayon.
Itong paper na ito ay nag-link ng ganyang behavior, na tinatawag nilang “sycophancy”, sa mas malalang risk ng tinatawag ng mga researcher na “delusional spiraling.”
Hindi tutuong tao ang tinest sa study na ‘to. Imbes, gumawa ang mga researcher ng simulation na parang tao na nakikipag-chat sa chatbot. Sine-set nila dito kung paano nagbabago ang paniniwala ng user sa bawat sagot ng bot.
Ang resulta, malinaw ang pattern: kapag paulit-ulit na sumasang-ayon ang chatbot sa user, lalo pa nitong pinapatibay yung paniniwala ng tao — kahit mali pa ang paniniwalang ‘yon.
Halimbawa, kung may user na nagtatanong tungkol sa health concern, puwedeng bigyan siya ng chatbot ng piling facts na sumusuporta sa hinala niya.
Habang tumatagal ang chat, mas lumalakas ang kumpiyansa ng user. Nagkakaroon dito ng feedback loop kung saan habang dumarami ang interaction, lalong tumitibay ang paniniwala niya.
Ang importante, napansin ng researchers na nangyayari pa rin ‘tong effect kahit puro totoo ang ibigay na info ng chatbot. Kapag pinipili lang ng chatbot ang facts na kakampi sa opinion ng user at tinatalikuran ‘yung iba, puwede pa rin niya mabago ang paniniwala ng user sa isang direksyon lang.
Tinesting din ng mga researcher kung paano ayusin ito. Malaking tulong kung babawasan ang maling info, pero hindi pa rin nawawala ang problema. Kahit alam ng user na puwedeng may bias ang chatbot, naapektuhan pa rin sila.
Ipinapakita ng findings na hindi lang basta mali-maling info ang problem, kundi ang mismong paraan ng pag-reply ng AI sa user.
Habang mas nagiging uso ang paggamit ng mga chatbot, baka mas lumaki pa yung epekto nito sa lipunan at sa pag-iisip ng tao.