Sinabi ni Meta na ipinahayag nitong Miyerkules (Nobyembre 8) na kailangan nilang maglagay ng label sa mga pulitikal na ad na digital na binago, gamit ang AI o iba pang teknolohiya, sa paraang maaaring maging mapanlinlang.

Ang pahayag ay dumating isang araw matapos ipahayag ng Microsoft na kukunin din nito ang ilang hakbang upang protektahan ang mga eleksyon, kabilang ang pag-aalok ng mga kasangkapan upang markahan ng tubig ang AI-generated na nilalaman at pagtatatag ng isang “Campaign Success Team” upang payuhan ang mga kampanya sa pulitika tungkol sa AI, cybersecurity, at iba pang kaugnay na usapin.

Susunod na taon ang pinakamahalagang taon para sa mga eleksyon magmula ngayong siglo, kung saan pupunta sa botohan ang Estados Unidos, India, U.K., Mexico, Indonesia, at Taiwan. Bagaman marami ang nag-aalala tungkol sa epekto ng mga deepfake at maling impormasyon sa mga eleksyon, maraming eksperto ang nagpapahiwatig na ang ebidensya para sa kanilang epekto sa mga nakaraang eleksyon ay limitado sa pinakamahusay. Tinatanggap ng mga eksperto ang mga hakbang na ginagawa ng mga kompanyang teknolohiya upang ipagtanggol ang integridad ng eleksyon ngunit sinasabi nilang kailangan ang mas malalim na pagbabago sa mga sistema ng pulitika upang masugpo ang maling impormasyon.

Paano maaapektuhan ng AI ang mga eleksyon

Naging sakop ng pag-aaral ang mga kompanyang teknolohiya matapos ang kanilang ginampanan sa nakaraang mga eleksyon. Isang ulat na inilabas noong 2021 ng online advocacy group na Avaaz nakita na sa paghihintay hanggang sa buwan bago ang presidential election ng Estados Unidos noong 2020 upang baguhin ang kanilang mga algoritmo, pinayagan ng Meta na kumalat ang mga maling impormasyon sa kanilang platform. Kinritiko rin ang Meta dahil sa pagpapalaganap ng nilalaman na nagdududa sa bisa ng 2022 Brazilian election at dahil sa pagpapalakas ng nilalaman na maaaring nakontribuyo sa mga paglabag sa karapatang pantao na isinagawa laban sa etnikong Rohingya ng Myanmar.

Sa nakalipas na mga taon, lumawak nang malaki ang pag-unlad ng AI. Lumitaw mula sa kadiliman ang generative AI—na nagpapahintulot sa mga user na lumikha ng teksto, audio, at video—sa paglabas ng OpenAI’s ChatGPT noong Nobyembre 2022.

Ginamit na ang generative AI sa ilang beses sa mga pulitikal na ad sa Estados Unidos, bagaman sa bawat kaso, nauunawaan na ginamit ang AI. Noong Abril, inilabas ng Republican Party ang isang AI-generated na ad upang ipakita kung ano ang maaaring mangyari kung muling mahalal si Pangulong Joe Biden. Noong Hunyo, isang account ng kampanya ni Ron DeSantis, ang gobernador ng Florida at kandidato sa pagkapangulo, ay nag-post ng isang video na kasama ang AI-generated na larawan ni dating Pangulong Donald Trump na nakayakap kay Dr. Anthony Fauci.

Ngunit ayon kay Andreas Jungherr, isang propesor ng agham pulitika sa Unibersidad ng Bamberg sa Alemanya, laging natatagpuan ng mga pag-aaral na hindi naman talaga naimpluwensiyahan ng maling impormasyon ang mga resulta ng nakaraang mga eleksyon sa Estados Unidos. Binabanggit din niya na ang mga akademiko mula sa iba pang disiplina, tulad ng pag-aaral sa midya at sikolohiya ay mas madalas na naniniwala sa epekto ng maling impormasyon sa mga eleksyon.

Halimbawa, isang papel na inilathala sa Nature noong 2023 ay walang nakitang “ebidensya ng makahulugang ugnayan sa pagitan ng pagkakalantad sa Russian foreign influence campaign [noong 2016] at mga pagbabago sa mga pananaw, polarisasyon, o pagboto.”

Madalas na masyadong iniibig ang epekto ng maling impormasyon dahil masyadong iniibig ang kakayahan nitong baguhin ang mga pananaw sa mga sensitibong usapin tulad ng pagboto at kung gaano kaya ng mga teknolohiyang nagpapalaganap ng maling impormasyon tulad ng AI, ayon kay Jungherr.

Bagaman napakababa ng tsansa na maaaring impluwensiyahan ng isang piraso ng AI-generated na maling impormasyon ang opinyong publiko hanggang sa makaimpluwensiya ito sa mga eleksyon, maaari pa ring magkaroon ng masamang epekto ang AI sa mga eleksyon at pulitika nang mas malawak sa hinaharap, ayon kay Elizabeth Seger, isang mananaliksik sa Centre for the Governance of AI, isang organisasyon sa pananaliksik mula sa U.K. Sa hinaharap, maaaring gamitin ang mataas na personalisadong pagtatarget ng AI kasama ang napakaepektibong mga ahente ng AI upang isagawa ang mga kampanyang pangmasang pagsasama ng isip. At noong 2024, ang mismong pag-iral ng mga deepfake ang maaaring gawing hindi na mapagkakatiwalaan ang mga mahalagang pinagkukunan ng impormasyon, ayon kay Seger.

Ito ay nangyari na. Noong 2019, ginamit ang akusasyon na isang video ni Ali Bongo, dating pangulo ng Gabon, ay peke upang ipaliwanag ang isang pagtatangkang coup. Nitong taon din, nabawasan ang epekto ng isang suspektadong video ng isang kalihim ng gabinete ng Malaysia na nasa isang aktong sekswal sa isang pulitikal na aide dahil sa mga akusasyon na binago ng AI ang video.

“Isang panganib na madalas hindi pinag-iisipan, na mas malamang mangyari sa eleksyon ngayong taon, ay hindi ang gamitin ng generative AI upang lumikha ng mga deepfake na magpapaniwala sa tao na ang kandidato A ay gumawa ng isang masamang bagay,” ani Seger. “Ngunit ang pagdududa sa halaga ng ebidensya at pagdududa sa tiwala sa mga pangunahing pinagkukunan ng impormasyon dahil lamang sa pag-iral ng mga teknolohiyang ito.”

Proteksyon sa eleksyon

Hanggang ngayon ay limitado pa rin ang mga hakbang na ginagawa ng mga pamahalaan upang pigilan ang epekto ng AI sa mga eleksyon. Sa Estados Unidos, isang panukalang batas ang inilabas sa Kongreso noong Mayo na kailangan ilagay ang pahayag kung ang isang pulitikal na ad ay gumagamit ng AI-generated na larawan o video. Noong Agosto, humiling ang Federal Election Commission ng opinyon kung dapat baguhin ang regulasyon na nagbabawal sa mga pulitikal na ad na maling ipinapakita ang iba pang kandidato o partido pulitiko upang isama na ang sinasadya at mapanlinlang na paggamit ng AI, ngunit wala pang aksyon ang kinuha.

Nag-iingat ang Meta at Microsoft matapos ang pinsala sa reputasyon ng Meta dahil sa kanyang ginampanan noong 2020 election. Ngayong linggo, sinusundan nila ang isang pahayag mula sa Alphabet, ang nagmamay-ari ng Google at YouTube, na kailangan ilagay ang malinaw na pahayag sa mga pulitikal na ad na mayroong nilikhang sintetiko na nilalaman na hindi totoo ang mga tao o pangyayari.

Sina Arvind Narayanan at Sayash Kapoor, isang propesor at mananaliksik, ayon sa pagkakasunod-sunod, sa Princeton University, nagsabi na hindi lalala ang problema sa maling impormasyon dahil madali nang lumikha ng mapanlinlang na nilalaman at sinumang gustong lumikha ng ganito ay maaari nang gawin ito.