Si Pangulong Biden ngayong linggo ay naglagda ng isang malawakang Kautusang Tagapagpaganap tungkol sa artipisyal na pag-iisip na naghahangad na harapin ang mga banta na ibinibigay ng teknolohiya, ngunit ayon sa ilang eksperto ay may mga tanong pa rin ang pagpapatupad kung paano ito makakatulong sa kasanayan.

Ang utos ay nag-uutos sa mga ahensya na isipin muli ang kanilang pagtingin sa AI at naglalayong harapin ang mga banta tungkol sa seguridad ng bansa, kompetisyon at privacy ng konsyumer, habang pinapalakas ang pag-unlad, kompetisyon, at paggamit ng AI para sa mga serbisyo publiko.

Isa sa pinakamahalagang bahagi ng utos ay ang pangangailangan para sa mga kompanya na gumagawa ng pinakamalakas na mga modelo ng AI upang ilapat ang mga resulta ng mga pagsusuri sa kaligtasan. Noong Martes, si Secretary of Commerce Gina Raimondo ayon sa CNBC na sa ilalim ng Kautusang Tagapagpaganap ng Pangulo “tinuturo nito sa Kagawaran ng Kalakalan na pangailangan naming malaman: ano ang mga pag-iingat sa kaligtasan na kanilang inilalapat at upang payagan kaming husgahan kung iyon ay sapat. At kami ay planong hahawakan ang mga kompanyang ito sa pananagutan.”

Ang 63-pahinang Kautusang Tagapagpaganap ay hindi gayunman ay naglalatag ng mga kahihinatnan kung ang isang kompanya ay nagulat na ang kanilang modelo ay maaaring mapanganib. Ang mga eksperto ay nahahati – ang ilan ay naniniwalang ang Kautusang Tagapagpaganap ay nagpapabuti lamang ng kalinawan, samantalang ang iba ay naniniwalang maaaring kumilos ang pamahalaan kung matagpuang mapanganib ang isang modelo.

Ito ay nagpaabot sa ilang eksperto na nagwakas ang Malacanang sa mga limitasyon ng kapangyarihan tagapagpaganap sa pagtugon sa ilang alalahanin tungkol sa AI.

Pagpapadaloy ng gabay

Sa isang virtual na pagpapaliwanag bago ang inilabas ng Utos, isang opisyal ay sinabi na tinugon ng Pangulo ang kanyang koponan upang hanapin ang bawat palatandaan at i-tira lahat, ayon kay Helen Toner, direktor ng estratehiya at pagkakaloob na pananaliksik sa Sentro para sa Seguridad at Bagong Teknolohiyang Pang-emerhensiya, isang think tank.

Maraming bahagi ng utos ay binubuo ng mga tagubilin sa iba pang mga ahensya at katawan upang gawin ang mga pag-aaral o lumikha ng mas detalyadong gabay. Halimbawa, ang Opisina ng Pamamahala at Budget ay may 150 araw upang maglabas ng gabay sa mga ahensyang pederal para sa paano sila maaaring pabanguhin ang pag-unlad habang pinamamahalaan ang mga panganib na ibinibigay ng AI.

Ang mga Kautusang Tagapagpaganap ay nakasalalay sa matagumpay na pagpapatupad, ngunit malakas na antas ng suporta sa loob ng pamahalaang pederal ay nangangahulugan na mas mataas ang tsansa nitong makaapekto kaysa sa karamihan, ayon kay Divyansh Kaushik, associate director para sa bagong teknolohiya at seguridad ng bansa sa think tank na Federation of American Scientists.

Si dating Pangulong Donald Trump ay naglabas din ng sariling AI-focused Kautusang Tagapagpaganap noong 2019 na naglalayong panatilihin ang liderato ng Estados Unidos sa AI. Ayon kay Kaushik, ito ay nakaranas ng kakulangan ng suportang konsertado mula sa mga senior na opisyal, na nagresulta lamang sa isang kagawaran – ang Kagawaran ng Kalusugan at Serbisyo sa Tao – nagpatupad ng polisiya sa AI ayon sa Kautusang Tagapagpaganap. Sa kabilang banda, ang Kautusang Tagapagpaganap ni Biden ay may “pagtanggap mula sa taas na antas, na may pagtanggap mula sa opisina ng Pangulo, opisina ng punong katiwala, at opisina ng Pangalawang Pangulo,” ayon kay Kaushik.

Mga limitasyon sa kapangyarihan

Ang ilang bahagi ng Kautusang Tagapagpaganap ni Biden ay malamang na makakaapekto agad, tulad ng mga pagbabago sa mga alituntunin tungkol sa mataas na kasanayang imigrasyon. Ang layunin nito ay pabutihin ang pag-unlad ng Estados Unidos sa pamamagitan ng pagtaas ng halaga ng talento sa AI na magagamit, na ilang dito ay dapat gawin sa loob ng susunod na 90 araw.

Isa pang probisyon na malamang na makakaapekto agad sa industriya ng AI ay isang set ng mga pangangailangan na ipinataw sa mga kompanya na gumagawa o nagnanais gumawa ng mga modelo ng dual-use na pundasyon. Ang mga modelo na ito ay kaya sa maraming gawain at maaaring maging banta sa seguridad ng bansa, tulad ng ipinakita ng pamahalaan ng UK sa isang papel na ipinalabas bago ang AI Safety Summit. Ang mga kompanya ay kailangan ipagbigay-alam sa pamahalaan ng Estados Unidos tungkol sa kanilang mga plano sa pag-unlad ng AI, ang mga hakbang sa seguridad – parehong pisikal at siber – na kanilang ginawa upang panatilihin ang kanilang mga modelo ng AI, at ang mga resulta ng anumang pagsubok sa kaligtasan na ginawa.

Tinugon ng opisyal ng Administrasyon ni Biden na tinukoy ng Kalihim ng Kalakalan ang mga modelo ng AI na sapat na mapanganib upang makalap ng mga pangangailangang ito. Ngunit ayon kay Paul Scharre, executive vice president at direktor ng pag-aaral sa Sentro para sa Bagong Seguridad ng Amerika, isang think tank tungkol sa militar, ang mga eksperto ay hindi pa alam kung paano gawin ito.

Sa kasalukuyan, ang mga pangangailangan ay aaplay sa mga modelo na natuto gamit ang halaga ng kapangyarihang kompyutasyonal na nasa itaas na threshold na 100 bilyong bilyong bilyong operasyon. Walang anumang mga modelo ng AI na natuto gamit itong halaga ng kompyutasyon. Ang GPT-4 ng OpenAI, ang pinakamahusay na magagamit na modelo ng AI, ay iniestimang limang beses mas mababa kaysa sa halagang ito ng organisasyon sa pananaliksik na Epoch. Ngunit ang halaga ng kompyutasyong ginamit upang matuto ang mga modelo ng AI ay nagdodoble bawat anim na buwan sa nakalipas na dekada, ayon sa Epoch.

Sinabi ng opisyal ng Administrasyon ni Biden na ang threshold ay itinakda upang ang kasalukuyang mga modelo ay hindi mahuli ngunit ang susunod na henerasyon ng estado ng teknolohiyang modelo malamang ay, ayon kay Scharre, na nagsipagdalo rin sa briefing.

Ang kapangyarihan sa kompyutasyon ay isang “makaluma at hindi tumpak na tagapaglingkod” para sa bagay na talagang kinakabahala ng mga tagapagpaganap – ang kakayahan ng modelo – ayon kay Scharre. Ngunit ayon kay Kaushik, ang pagtatakda ng threshold sa kompyutasyon ay maaaring lumikha ng incentibo para sa mga kompanya ng AI upang lumikha ng mga modelo na makakamit ng katulad na kakayahan habang nakakapagpanatili ng kompyutasyon sa ilalim ng threshold, lalo na kung ang mga pangangailangan sa pag-uulat ay banta sa ipagkakatiwala ang mga lihim na pangangalakal o ari-arian intelektwal.

Mga limitasyon sa kapangyarihan ng pangulo

Kahit para sa mga modelo na lumagpas sa threshold ng kompyutasyon, ang Kautusang Tagapagpaganap lamang sa talagang nagsusulat ng pangangailangan para sa mga kompanya upang ipagbigay-alam sa pamahalaan ang mga resulta ng red-teaming safety tests, na kasama ang mga tagasuri na adversarial na sinusubok matuklasan ang mga isyu sa mga modelo ng AI.

“Ang pangunahing pilosopiya dito ay may kaunting bilang ng mga kompanya na gumagawa ng napakasopistikadong mga sistema ng AI, at ang mga kompanyang iyon ay nagsasabi sa pamahalaan: ‘Hindi namin alam ang mga sistema namin ay maaaring gawin, at naniniwala kami sila ay maaaring mapanganib.’ At kaya ang pamahalaan ay nagsasabi: ‘Mabuti, kailangan ninyong sabihin sa amin ng higit pa, kailangan nating maging mas maayos na nakakaalam,'” ayon kay Toner.

Naniniwala si Samuel Hammond, isang senior na ekonomista sa Foundation for American Innovation, na ang pamahalaan ay makikialam, o upang pigilan ang pagpapatupad ng modelo o kahit mag-utos na ito ay burahin. “Ang kapangyarihan ng Defense Production Act ay ginamit sa nakaraang taon upang pilitin ang mga kompanya na lumikha ng mga bagay na hindi nila gustong lumikha, at maaaring pilitin ang mga kompanya na itigil ang produksyon ng mga bagay na hindi nila gustong lumikha,” ayon kay Hammond. “Ang kanyang mga kapangyarihan