WhatsApp and Facebook

(SeaPRwire) –   Ang susunod na halalan ay ang unang makakaranas ng generative artificial intelligence—ang teknolohiya sa likod ng mga popular na app tulad ng ChatGPT na nagbibigay-daan sa mga hindi eksperto na lumikha ng mga pekeng teksto, video, at audio na realistiko ngunit maaaring gamitin para sa pulitikal na manipulasyon. Sa parehong oras, ang ilang mga pangunahing kompanya sa social media ay bumalik sa ilang sa kanilang mga nakaraang pangako upang ipromote ang “election integrity.” Ang Nobyembre na halalan ay rin ang unang na magrerehistro ng epekto ng malaking popularidad ng TikTok, na gumagamit ng algorithm na rekomendasyon na pinaniniwalaan ng ilang mga eksperto na partikular na nakatutulong sa pagkalat ng maling impormasyon.

Magsimula tayo sa pagtaas ng generative AI, na nagbibigay-daan sa halos sinumang makagawa ng mapagana at mapagkumbinsing teksto, imahe, o tunog batay sa komparatibong simpleng natural na wika prompts. Noong Enero, kumalat ang isang pekeng larawan ng Donald Trump na nakaupo sa tabi ni Jeffrey Epstein sa loob ng pribadong eroplano ni Epstein. Noong Pebrero, isang tagapayo ng Democratiko na nagtatrabaho para sa isang malayong kalaban ang nag-akusa na inutusan niya ang isang AI-generated robocall na nag-iimpersonate kay Pangulong Joe Biden na hinikayat ang libu-libong botante na huwag lumahok sa primary ng New Hampshire. Binuksan ng attorney general ng estado ang isang kriminal na imbestigasyon.

Ang US ay hindi nag-iisa sa score na ito. Noong Setyembre nakaraan, isang audio clip na ipinaskil sa Facebook lamang dalawang araw bago ang halalan ng pambansang punong ministro ng Slovakia ay tila nakapagtala ng kandidato ng pro-NATO, pro-Ukraine Progressive Slovakia Party na nagsasalita kung paano rig ang resulta. Ang post sa Facebook ay naging viral sa panahon ng pagbabawal sa midya bago ang halalan, na naglimita sa antas kung saan maaaring itaboy ito, at natalo ang kandidato sa isang kalabang pro-Russia.

Nag-aaral ang mga analyst upang makasabay sa mga posibilidad. Isang papel na inilathala noong Pebrero sa akademikong journal PNAS Nexus ay nakakita na sinumang gumagawa ng pulitikal na ad na may mga tools ng generative AI ay may kakayahang lumikha ng “highly scalable ‘manipulation machine’ na nakatutok sa mga indibidwal batay sa kanilang mga natatanging kahinaan nang walang pangangailangan ng tao.” Ito ay nagmumungkahi ng dahilan para sa alalahanin na ang mga Rusong digital na operator na nakikialam sa 2016 halalan sa suporta kay Donald Trump ay maaaring gamitin ang AI bilang force multiplier upang muli na hilingin na mag-init ng nakapagpapalit-palit na Amerikanong mamamayan.

Ngunit ang AI ay malayo sa buong kuwento. Ang banta ng sintetikong nilikhang maling impormasyon ay lalong nagiging nakakatakot dahil sa isang pamilyar na teknolohiya: social media.

Kahit na ang kalituhan at karahasan na sanhi ng pagtatangka ni Trump na sirain ang resulta ng 2020 halalan at ang banta ng katulad na kaguluhan ngayong taon, ang mga pangunahing platform tulad ng Facebook, YouTube, at sa pinakamalaking pagbabago ang X ay bumalik sa ilang sa kanilang nakaraang mga patakaran sa election integrity, ayon sa isang bagong papel na pinagsulatan namin para sa Stern School of Business ng New York University.

Ang anumang talakayan ng paghina ay kinakailangang magsimula sa X, na binili ni Elon Musk noong Oktubre 2022. Ang kumpetisyon mula sa bagong app ni Meta na Threads, gayundin ang mga kontrobersiya kaugnay kay Musk, ay nagresulta sa pagbagsak ng bilang ng mga user bawat buwan, ngunit ito pa rin ang pagkakatiwala ng maraming impluwensyal na pulitiko, mamamahayag, at artista. Sa tag-spring 2023, pinutol ni Musk ang 6,000, o 80%, ng mga empleyado ng X. Noong Setyembre 2023, sinabi ng isang dating tagapamahala ng yunit sa election integrity ng platform na “Oo, sila ay nawala na.” Ang pagpapaluwag ng bagong may-ari sa pagpapatupad ng content moderation sa pangalan ng pagpopromote ng malayang pagsasalita ay nakontribuyo sa pagdami ng mga racist at antisemitic na pahayag na naghikayat sa mga advertiser na iwanan ang X nang marami.

Sumunod sa mga pag-hire noong panahon ng pandemya ng COVID-19, nagpatupad din ng malalaking pagputol ng mga trabaho ang iba pang mga kompanya sa social media, na may ilang sa kanila ang nagbawas sa kanilang mga “trust and safety” teams—ang mga tao na lumilikha at nagpapatupad ng mga patakaran sa content.

Para sa 2020 halalan, itinayo ng Meta isang yunit na binubuo ng 300 tao na nakatuon sa election integrity. Ngunit kahit na ang kaguluhan na lumitaw nang sambahin ng mga tagasuporta ni Trump ang Kapitolyo noong Enero 6, 2021, pagkatapos ay bumaba ang kompanya sa laking ng yunit na iyon sa humigit-kumulang 60 tao at nagtapos sa regular na pagpupulong sa pagitan ng mga lider ng grupo at CEO na si Mark Zuckerberg. Sinabi ng mga opisyal ng Meta sa amin na ang ilang dating miyembro na may bagong mga tungkulin pa rin ay nakakontribuyo sa mga pagsusumikap sa election integrity, at ang nangungunang pamamahala ay nakikipag-usap tungkol dito. Ngunit ang mga signal ay kapansin-pansin na nakakalito.

Ang Meta, sa kredito nito, pa rin ay nagpopondo ng pinakamahusay na industriya ng higit sa 90 organisasyong fact-checking sa labas na tumutulong sa platform na i-de-emphasize at markahan ang maling content. Ngunit patuloy pa ring tinatanggihan ng kompanya na ang kanilang mga pahayag ay fact-checked. Samantala, ang YouTube ay bumalik sa ilalim ng kanilang dating polisiya kung saan sila ay nag-aalis ng daan-daang libong video na pekeng nagsasabi na ang 2020 halalan ay hindi lehitimo. Parehong kompanya ang nagsasabi na ang kanilang mga bagong approach ay nakatutulong sa malayang pagdaloy ng debate.

Sinabi rin ng Meta na, sa parehong layunin ng pagpopromote ng malayang pag-uusap, ito ay magpapayag muli na mag-advertise ng mga pulitikal na ad sa Facebook at Instagram na itatanong ang lehitimidad ng 2020 presidential na halalan. Sigurado nga, noong Agosto 2023, pinayagan ng Facebook ang kampanya ni Trump na tumakbo ng ispot na nagsasabi: “May isang rigged na halalan noong 2020.”

Ang TikTok, na ngayon ay mayroong higit sa 1 bilyong average na buwanang user sa buong mundo at higit sa 170 milyon sa US lamang, ay nagpapakilala ng bagong at buong iba pang mga hamon. Ang koneksyon nito sa ama na korporasyon ng Tsina na ByteDance ay nagresulta sa—hanggang ngayon, walang kumpirmadong—na ang awtoritaryong pamahalaan ng Beijing ay nag-eeherts ng impluwensiya sa US na platform. Pinag-usapan na ng Kapulungan ng mga Kinatawan ang isang panukalang batas na pipilitin ang ByteDance na ibenta ang TikTok o harapin ang pagbabawal nito sa US.

Ngunit may mga tanong din tungkol sa algorithm na rekomendasyon ng TikTok, na pumipili ng content na ipinapakita sa mga user. Gumagamit ang iba pang mga pangunahing platform ng isang “social graph,” na pumipili ng content batay sa mga ini-share ng mga tao na sinusundan nila at sumusunod sa kanila. Sa kabilang banda, pumipili ang TikTok ng mga maikling video para sa kanilang “For You” page batay sa algoritmong rekomendasyon ng content mula labas ng kanilang social network, din. Ang pagkakaiba na ito ay maaaring magpaliwanag kung bakit napakasikat ng TikTok sa paglilingkod ng mga video na natutuklasan at nakakapagbigay-kasiyahan sa mga user.

Ngunit ang pagkakaiba ay maaaring magdala ng panganib sa panahon ng halalan, ayon sa mga eksperto sa NYU’s Center for Social Media and Politics: “Sa pagiging madaling lumikha ng pekeng video dahil sa generative AI,” ang mga mananaliksik ay nagsulat noong Enero, “maaaring makita natin ang pulitikal na maling impormasyon na mararating ng mga user sa TikTok na hindi mararating sa iba pang platform na nakabatay sa social graph.” Gayundin, ang mga user ng TikTok ay mas bata, at ang mga pag-aaral ay nagpapakita na mas malamang na maniwala ang kabataan sa maling impormasyon. Sinabi ng TikTok sa amin na ang analisis na ito ay “buong espekulatibo” at nagpapakita ng “mababang pag-unawa kung paano gumagana ang aming platform.”

May panahon pa para sa mga platform na kumuha ng mga pag-iingat bago ang halalan. Maaari nilang ilagay ang mga limitasyon sa malawak na pagbabahagi muli ng content, na isa sa paraan kung paano kumakalat ang maling impormasyon. Maaari nilang ilagay ang mga “circuit breakers” sa ilang mga viral na post upang bigyan ang mga tagapamahala ng content ng pagkakataon na suriin kung ang materyal ay masama. Maaari nilang buksan muli ang kanilang nabawasang mga yunit sa pagpapatupad ng content. At maaari nilang alisin ang malinaw na pekeng content mula sa mga feed ng user, habang nananatiling nakatack ang nakopyang bersyon na hindi mabahagi ngunit available bilang sanggunian para sa mga nagbabantay sa maling impormasyon.

Dapat tingnan ng industriya ng social media ang mga hakbang na protektibo na ito bilang gastos ng responsableng pamamahala sa panahon ng isa pang boluntaryong halalan. Ang pagkawala ng aksyon ay maaaring pabuluhin sa tunay na krisis para sa demokrasya ng US.

Ang artikulo ay ibinigay ng third-party content provider. Walang garantiya o representasyon na ibinigay ng SeaPRwire (https://www.seaprwire.com/) kaugnay nito.

Mga Sektor: Pangunahing Isturya, Balita Araw-araw

Nagde-deliver ang SeaPRwire ng sirkulasyon ng pahayag sa presyo sa real-time para sa mga korporasyon at institusyon, na umabot sa higit sa 6,500 media stores, 86,000 editors at mamamahayag, at 3.5 milyong propesyunal na desktop sa 90 bansa. Sinusuportahan ng SeaPRwire ang pagpapamahagi ng pahayag sa presyo sa Ingles, Korean, Hapon, Arabic, Pinasimpleng Intsik, Tradisyunal na Intsik, Vietnamese, Thai, Indones, Malay, Aleman, Ruso, Pranses, Kastila, Portuges at iba pang mga wika.