Yoshua Bengio, founder and scientific director of Mila at the Quebec AI Institute, during the All In event in Montreal, Quebec, Canada, on Sept. 27, 2023.

Noong Martes, 24 na eksperto sa AI, kasama ang mga Turing Award winners na sina Geoffrey Hinton at Yoshua Bengio, ay naglimbag ng isang bukas na liham na tumatawag sa mga pamahalaan upang kumilos upang pamahalaan ang mga panganib mula sa AI. Ang liham ay partikular na nakatutok sa mga napakalaking panganib na ibinibigay ng pinakamahusay na mga sistema, gaya ng pagpapahintulot sa malawakang kriminal o aktibidad ng terorismo.

Ang bukas na liham ay gumagawa ng ilang konkretong rekomendasyon sa patakaran, tulad ng pagtiyak na ang mga pangunahing kompanya sa teknolohiya at mga tagapagbigay ng pondong pampubliko ay naglaan ng hindi bababa sa isang-katlo ng kanilang badyet sa R&D sa AI para sa mga proyekto na nagpapalaganap ng ligtas at mapagkakatiwalaang paggamit ng AI. Tinatawag din ng mga may-akda ang paglikha ng pambansa at pandaigdigang pamantayan.

Ayon kay Bengio, direktor ng siyentipiko sa Montreal Institute for Learning Algorithms, ang layunin ng bukas na liham ay tulungan ang mga tagapagpaganap ng patakaran, midya, at publiko na “unawain ang mga panganib, at ilang mga bagay na kailangan naming gawin upang gawin ang mga sistema na magagawa ang gusto natin.”

Ang mga rekomendasyon ay hindi bago. Sa halip, ang mga naglagda sa bukas na liham ay naglalagay ng kanilang mga pangalan sa likod ng pangkalahatang pananaw sa pagitan ng mga mananaliksik sa patakaran sa AI na nag-aalala sa mga napakalaking panganib (malapit silang sumang-ayon sa pinakapopular na mga patakaran na nakilala sa isang survey noong Mayo sa mga eksperto).

“Gusto naming ipakita ang malinaw na pag-iisip sa kaligtasan ng AI, makatwiran na malayo sa impluwensya mula sa mga interesadong partido,” sabi ni Stuart Russell, propesor ng agham pangkompyuter sa Unibersidad ng California, Berkeley, at isa sa mga may-akda ng liham, sa isang email sa TIME.

Ang liham ng linggong ito ay iba mula sa nakaraang bukas na liham ng mga eksperto, ayon kay Russell, dahil “Nauunawaan na ng mga pamahalaan na mayroong tunay na panganib. Sila ay nagtatanong sa komunidad ng AI, ‘Ano ang dapat gawin?’ Ang pahayag ay sagot sa tanong na iyon.”

Ang iba pang mga co-authors ay kasama ang historyador at pilosopo na si Yuval Noah Harari, at MacArthur “genius” grantee at propesor ng agham pangkompyuter sa Unibersidad ng California, Berkeley, na si Dawn Song, kasama ang maraming iba pang akademiko mula sa iba’t ibang bansa at larangan.

Ang bukas na liham ay ang ikatlong pahayag na pinirmahan ng mga eksperto sa AI sa taong ito, sa isang lumalaking pagtatangka upang i-alarm ang potensyal na panganib ng hindi nakareglamentadong pag-unlad ng AI. Noong Marso, isang bukas na liham na tumatawag sa mga laboratoryo ng AI na “agad na ipagpaliban para sa hindi bababa sa 6 na buwan ang pagsasanay ng mga sistema ng AI na mas malakas kaysa sa GPT-4” ay pinirmahan ng desididong libo ng tao, kasama sina Elon Musk, Bengio, at Russell.

Noong Mayo, isang pahayag na inorganisa ng Center for AI Safety ay nagdeklara na “pagbawas sa panganib ng pagkawasak mula sa AI ay dapat maging isang prayoridad sa antas pandaigdig kasama ang iba pang panganib na may antas-lipunan gaya ng mga sakit at digmaang nuklear.” Ang pahayag ay pinirmahan ng higit sa 500 prominenteng akademiko at lider ng industriya, muli kasama sina Hinton, Bengio, at Russell, ngunit pati na rin ang mga CEO ng tatlong pinakaprominenteng kompanya sa AI: Sam Altman ng OpenAI, Demis Hassabis ng DeepMind, at Dario Amodei ng Anthropic.

Pinirmahan ni Pieter Abbeel, co-founder, president, at chief scientist ng robotics company na Covariant.ai, at propesor ng electrical engineering at agham pangkompyuter sa Unibersidad ng California, Berkeley, ang bukas na liham ng linggong ito bagama’t hindi niya pinirmahan ang nakaraan. Sinabi ni Abbeel sa TIME na ang mapagpakumbabang tono ng pinakahuling pahayag ay mas naaangkop sa kanyang pananaw kaysa sa mas nakakabahalang tono ng nakaraang bukas na liham. “Kung gagawin natin ng tama ang mga bagay – at marami tayong dapat ayusin – maaari tayong maging napakatagumpay sa hinaharap,” aniya.

Matagal nang nagsisikap ang mga mananaliksik sa AI na ibigay ang atensyon sa mga potensyal na panganib na ibinibigay ng teknolohiya na kanilang tinulungan na i-develop. Noong 2016, pinirmahan nina Hinton, Bengio, at Russell ang isang liham na inorganisa ng Future of Life Institute, isang non-profit na naglalayong bawasan ang mga pangdaigdigang katastrope at eksistensyal na panganib, na tumatawag para sa isang “pagbabawal sa mga awtonomong sandata na labas sa makahulugang kontrol ng tao.”

Historikal, ang mga siyentipiko ay nagsisigaw ng babala at maagang tagapagtaguyod para sa mga isyu na may kaugnayan sa kanilang pananaliksik. Ang mga siyentipikong pangklima ay tumatawag sa atensyon sa problema ng pagbabago ng klima mula noong 1980s. At pagkatapos siya pangunahan ang pagbuo ng bomba atomiko, si Robert Oppenheimer ay naging isang maingay na tagapagtaguyod para sa pandaigdigang kontrol, at kahit ang ganap na pagbabawal, ng mga sandatang nuklear.

Ayon kay Bengio, ang kanyang pagtataguyod sa patakaran sa AI ay lumawak habang “nauunawaan ko ang problema, at ang pulitika sa paligid nito ay malaking umunlad.”

Isa sa mga patakarang inirekomenda sa bagong bukas na liham ay ang pag-aangkin ng lisensiya mula sa mga kompanya bago sila mag-develop ng “napakahusay na hinaharap na mga modelo.” Ang ilang taga-develop ng AI at tagapuna, gayunpaman, ay nagbabala na ang paglisensiya ay magkakaloob ng kalamangan sa malalaking kompanya na kayang magdala ng pangangailangang pang-regulasyon upang makamit ang isang lisensiya.

Tinawag ni Bengio itong isang “kumpletong maliit na argumento,” na nagpapakita na ang bigat na ipinapataw ng paglisensiya ay mahuhuli lamang sa mga kompanya na nagde-develop ng pinakamalalaking, pinakamahusay na mga modelo ng AI. Sa halip, ayon kay Bengio ang tunay na panganib ng pagkuha ng kontrol ay dapat bantayan kung papayagan ang mga kompanya na makaimpluwensya sa pagpapasya upang hindi ito sapat na matibay.

Ayon kay Russell, ang argumento na ang malalaking kompanya sa AI ay sinasadya ang paghahain ng regulasyon upang pigilan ang mga mas maliit na kompanya ay “walang katuturan na nakatayo sa mga binti,” na nag-aangkin na bagama’t mayroon pang mas maraming regulasyon sa mga tindahan ng sandwich kaysa sa mga kompanya ng AI, desididong libo ang bagong kainan at restawran ang bukas bawat taon.

Ang bukas na liham ay dumating sa isang mahalagang panahon, na may mga alituntunin sa pangunahing hurisdiksyon ng pag-unlad ng AI sa iba’t ibang yugto ng kasarinlan. Ang Tsina ang pinakamahusay – ang kanilang mga alituntunin sa pagpapatakbo ng chatbot sa AI, na nagsasanggalang sa nakaraang round ng regulasyon sa AI, ay naging epektibo noong Agosto.

Ang mga kanluraning bansa ay mas nasa likod. Ang EU AI Act ay nasa proseso pa rin ng regulasyon sa EU. Sa US, nakuha na ng Kamara Blanco ang boluntaryong pagkasundo mula sa 15 nangungunang taga-develop ng AI, ngunit ang Kongreso ay malayo pa sa pagpasa ng batas sa AI.

Samantala, sinusubukan ni Prime Minister Rishi Sunak ng UK na maglaro ng mahalagang papel sa pagpapalaganap ng kooperasyon sa usapin ng AI, at ang Kalihim Heneral ng UN na si António Guterres at kanyang tagapagtaguyod sa teknolohiya na si Amandeep Gill ay nagtutulak din upang i-advance ang plano sa pamamahala ng AI sa antas pandaigdig.