(SeaPRwire) –   Kinakailangan ng pamahalaan ng U.S. na gumalaw nang “mabilis at desisyon” upang maiwasan ang malaking panganib sa seguridad ng bansa na nagsimula sa artificial intelligence (AI) na maaaring sa pinakamasamang kaso ay sanhi ng “banta sa pagkawasak ng sangkatauhan,” ayon sa isang inilabas na Lunes.

“Ang kasalukuyang pag-unlad ng frontier AI ay nagdadala ng mga nagpapalubha at lumalawak na panganib sa seguridad ng bansa,” ayon sa ulat, na nakuha ng TIME bago ang paglathala nito, “Ang pagtaas ng advanced AI at AGI [artificial general intelligence] ay may potensyal na destabilisahin ang seguridad sa buong mundo sa paraan na nagpapahintulot sa pagpapakilala ng nuclear weapons.” Ang AGI ay isang hipotetikal na teknolohiya na maaaring gampanan ang karamihan sa mga gawain sa antas ng tao o mas mataas pa. Walang kasalukuyang umiiral na ganitong mga sistema, ngunit ang nangungunang AI labs ay nagtatrabaho upang makamit ito at maaaring makamit sa loob ng susunod na limang taon o mas maaga pa.

Ang tatlong may-akda ng ulat ay nagtrabaho dito sa loob ng higit sa isang taon, nakipag-usap sa higit sa 200 empleyado ng pamahalaan, mga eksperto, at mga manggagawa sa mga kompanyang frontier AI bilang bahagi ng kanilang pagsisiyasat. Ayon sa ilang mga kuwento mula sa mga usapan, nagmumungkahi ito na marami sa mga manggagawang pangkaligtasan sa loob ng mga laboratoryong cutting-edge ay nag-aalala tungkol sa mga perbersong insentibo na nagdadala ng pagpapasya ng mga ehekutibo na kontrolado ang kanilang mga kompanya.

Ang natapos na dokumento, na pinamagatang “Isang Planong Aksyon upang Pataasin ang Kaligtasan at Seguridad ng Advanced AI,” ay nagrerekomenda ng isang set ng malawak at walang katulad na mga hakbang sa patakaran na kung ipapatupad ay radikal na makakadiskurso sa industriya ng AI. Dapat gawing ilegal ng Kongreso, ayon sa rekomendasyon, na mag-train ng mga modelo ng AI gamit ang mas mataas sa tiyak na antas ng pagko-kompyuter. Ang threshold, ayon sa rekomendasyon, dapat itakda ng isang bagong ahensiya ng pederal na AI, bagaman sinasabi ng ulat na maaaring itakda ito lamang sa itaas ng mga antas ng pagko-kompyuter na ginamit upang mag-train ng kasalukuyang cutting-edge na mga modelo tulad ng GPT-4 ng OpenAI at Gemini ng Google. Dapat pangangailanganan ng bagong ahensiya ng AI ang mga kompanya ng AI sa “frontier” ng industriya upang makuha ang pahintulot ng pamahalaan upang mag-train at i-deploy ang mga bagong modelo na nasa itaas ng isang mas mababang threshold, dagdag pa ng ulat. Dapat ding “nagmamadali” na isaalang-alang ng mga awtoridad ang pagbabawal sa paglathala ng mga “weights,” o loob na gawa, ng malakas na mga modelo ng AI, halimbawa sa ilalim ng mga open-source na lisensya, na maaaring may parusa ng pagkakakulong, ayon sa ulat. At dapat dagdagan pa ng pamahalaan ang mga kontrol sa pagmamanupaktura at pag-export ng mga chip ng AI, at ipinapadala ang pagpopondo ng pederal tungo sa “pagkakatugma” ng pananaliksik na naghahangad na gawing mas ligtas ang advanced na AI, ayon sa rekomendasyon.

Ang ulat ay inutusan ng State Department noong Nobyembre 2022 bilang bahagi ng isang kontrata ng pederal na may halaga ng $250,000, ayon sa mga rekord na pangpubliko. Ito ay isinulat ng Gladstone AI, isang kompanyang may apat na tauhan na nagpapatakbo ng mga technical na briefing sa AI para sa mga empleyado ng pamahalaan. (Bilang bahagi ng plano ng aksyon, inirerekomenda na dapat mag-invest ang pamahalaan nang malaki sa pag-edukasyon ng mga opisyal sa mga pundasyon na teknikal ng mga sistema ng AI upang mas maunawaan nila ang kanilang mga panganib.) Ang ulat ay isinumite bilang isang 247-pahinang dokumento sa State Department noong Peb. 26. Hindi sumagot ang State Department sa ilang paghiling para sa komento tungkol sa ulat.

Ang mga rekomendasyon ng ulat, marami sa kanila na hindi maaakalang magagawa noon, ay sumunod sa isang nakakalito ng serye ng malaking pag-unlad sa AI na nagdulot sa maraming tagamasid na muling isaalang-alang ang kanilang posisyon sa teknolohiya. Ang chatbot na ChatGPT, inilabas noong Nobyembre 2022, ang unang pagkakataon na naging malinaw sa buong lipunan ang bilis ng pagbabago, na nagdulot sa maraming tao na tanungin kung maaaring maging sanhi ng mga panganib na eksistensiyal sa sangkatauhan ang mga hinaharap na AI. Simula noon ay patuloy na inilabas ang mga bagong kagamitan na may mas maraming kakayahan sa isang mabilis na antas. Habang ang mga pamahalaan sa buong mundo ay nakikipag-usap kung paano pinakamainam na regula ang AI, ang pinakamalaking kompanya ng tech ay mabilis na nagtatayo ng imprastraktura upang mag-train ng susunod na henerasyon ng mas malakas na mga sistema—sa ilang kaso ay planong gamitin ang 10 o 100 beses na mas maraming pagko-kompyuter. Samantala, higit sa 80% ng publikong Amerikano ay naniniwala na maaaring magdulot ng katastrope ang AI sa hindi sinasadyang paraan, at 77% ng mga botante ay naniniwala na dapat gumawa ng higit pang pamahalaan upang regula ang AI, ayon sa kamakailang survey ng AI Policy Institute.

Ang pagbabawal sa pag-train ng advanced na mga sistema ng AI na nasa itaas ng tiyak na threshold, ayon sa ulat, ay maaaring “pagtibayin ang mga dynamics ng karera sa pagitan ng lahat ng mga tagagawa ng AI” at makatulong sa pagbawas sa bilis ng industriya ng chip na gumagawa ng mas mabilis na hardware. Sa panahon, maaaring itaas ng isang ahensiya ng pederal na AI ang threshold at pahintulutan ang pag-train ng mas advanced na mga sistema ng AI kapag sapat na napatunayan ang kaligtasan ng mga cutting-edge na modelo, ayon sa ulat. Kahit pa man, sinasabi nito na maaaring bawasan ng pamahalaan ang threshold ng kaligtasan kung matuklasan ang mga mapanganib na kakayahan sa umiiral nang mga modelo.

Ang panukala ay malamang na haharap sa mga pulitikal na kahirapan. “Sa tingin ko na ito ay isang labis na malamang na hindi tatanggapin ng pamahalaan ng U.S.,” ayon kay Greg Allen, direktor ng Wadhwani Center for AI and Advanced Technologies sa Center for Strategic and International Studies (CSIS), sumagot sa isang buod ng TIME ng rekomendasyon ng ulat upang i-outlaw ang mga pag-train ng AI na nasa itaas ng tiyak na threshold. Ang kasalukuyang patakaran ng U.S. sa AI, ayon sa kanya, ay itakda ang mga threshold ng pagkompyuter na nasa itaas kung saan ang karagdagang pagsasalinaw at pangangailangang pang-regula ay naaangkop, ngunit hindi itakda ang mga limitasyon kung saan ang mga pag-train ay magiging ilegal. “Walang anumang uri ng shock na panlabas, sa tingin ko sila ay labis na malamang na hindi babago ng approach na iyon,” ayon kay Allen.


Jeremie at Edouard Harris, ang CEO at CTO ng Gladstone ayon sa pagkakasunod-sunod, ay nagbigay ng briefing sa pamahalaan ng U.S. tungkol sa mga panganib ng AI mula 2021. Ang magkapatid na lalaki, ayon sa kanilang sinabi, ang mga opisyal ng pamahalaan na dumalo sa maraming sa kanilang pinakamaagang mga briefing ay sumang-ayon na malaking mga panganib ng AI ngunit sinabi sa kanila na ang responsibilidad para hawakan ito ay nasa iba’t ibang mga koponan o departamento. Bandang huli 2021, ayon sa mga Harrises, sila ay natagpuan sa wakas ang isang braso ng pamahalaan na may pananagutan upang hawakan ang mga panganib ng AI: ang State Department’s Bureau of International Security and Nonproliferation. Ang mga koponan sa loob ng Bureau ay may inter-agency na mandato upang hawakan ang mga panganib mula sa mga lumilitaw na teknolohiya kabilang ang mga armas na kemikal at biyolohikal, at mga panganib mula sa radyoaktibidad at nuklear. Matapos ang mga briefing ng Gladstone, noong Oktubre 2022 inilabas ng Bureau ang isang tender para sa isang ulat na maaaring bigyang-linaw sa desisyon kung idadagdag ang AI sa listahan ng iba pang mga panganib na mino-monitor nito. (Hindi sumagot ang State Department sa isang kahilingan para sa komento tungkol sa resulta ng desisyon na iyon.) Ang koponan ng Gladstone ang nanalo sa kontratang iyon, at ang ulat na inilabas Lunes ang resulta nito.

Tinututukan ng ulat ang dalawang hiwalay na kategorya ng panganib. Inilalarawan ng unang kategorya, na tinatawag nitong “panganib sa pag-aarmas,” ang ulat: “ang mga sistema ng ganitong uri ay maaaring potensyal na gamitin upang idisenyo at kahit pa maisagawa ang katastroptikong mga atake sa biyolohiya, kemikal, o siber, o payagan ang walang katulad na mga aplikasyon sa pag-aarmas sa robotiks na pang-swarm.” Ang pangalawang kategorya ay tinatawag nitong “panganib sa pagkawala ng kontrol,” o ang posibilidad na ang advanced na mga sistema ng AI ay makalusot sa kanilang mga lumikha. Ayon sa ulat, may “katwiran upang maniwala na hindi ito maaaring kontrolin kung sila ay nilikha gamit ang kasalukuyang mga teknika, at maaaring mag-asal na adversarial sa mga tao sa default.”

Parehong kategorya ng panganib, ayon sa ulat, ay lumalala dahil sa “mga dynamics ng karera” sa industriya ng AI. Ang posibilidad na ang unang kompanya na makamit ang AGI ay makakakuha ng karamihan sa mga benepisyo ekonomiko, ayon sa ulat, nag-iinsentibo sa mga kompanya na unahin ang bilis kaysa sa kaligtasan. “Ang mga frontier na AI labs ay nakakaranas ng isang intense at kasalukuyang insentibo upang itaas ang kanilang mga sistema ng AI sa pinakamabilis na maaari,” ayon sa ulat. “Hindi sila nakakaranas ng isang kasalukuyang insentibo upang mag-invest sa kaligtasan o seguridad na hakbang na hindi nagbibigay ng direktang benepisyo ekonomiko, bagaman may ilang gumagawa nito dahil sa tunay na pag-aalala.”

Ang artikulo ay ibinigay ng third-party content provider. Walang garantiya o representasyon na ibinigay ng SeaPRwire (https://www.seaprwire.com/) kaugnay nito.

Mga Sektor: Pangunahing Isturya, Balita Araw-araw

Nagde-deliver ang SeaPRwire ng sirkulasyon ng pahayag sa presyo sa real-time para sa mga korporasyon at institusyon, na umabot sa higit sa 6,500 media stores, 86,000 editors at mamamahayag, at 3.5 milyong propesyunal na desktop sa 90 bansa. Sinusuportahan ng SeaPRwire ang pagpapamahagi ng pahayag sa presyo sa Ingles, Korean, Hapon, Arabic, Pinasimpleng Intsik, Tradisyunal na Intsik, Vietnamese, Thai, Indones, Malay, Aleman, Ruso, Pranses, Kastila, Portuges at iba pang mga wika. 

Ang ulat ay tinukoy ang hardware—partikular ang mga computer chip na nasa itaas na antas na kasalukuyan ginagamit upang mag-train ng mga sistema ng AI—bilang isang malaking hadlang sa mga pagtaas sa kakayahan ng AI. Ayon sa ulat, ang pag-regula sa pagkalat ng hardware na ito ay maaaring ang “pinakamahalagang kailangan upang maprotektahan ang matagalang seguridad sa buong mundo.”