Noong Hulyo 16, 1945 nagbago magpakailanman ang mundo. Ang ‘Trinity’ na pagsusulit ng Manhattan Project, sa ilalim ng pamumuno ni Robert Oppenheimer, ay unang nagkaloob sa sangkatauhan ng kakayahang lipulin ang sarili nito: matagumpay na sumabog ang isang atomic bomb 210 milya sa timog ng Los Alamos, New Mexico.

Noong Agosto 6, 1945 inihagis ang bomba sa Hiroshima at tatlong araw mamaya, sa Nagasaki – nagpalabas ng hindi pa nakitang mapanira na kapangyarihan. Ang pagtatapos ng Ikalawang Digmaang Pandaigdig ay nagdala ng isang mahinang kapayapaan, na binabalot ng bagong banta sa pag-iral na ito.

Habang nangangako ang nuclear na teknolohiya ng isang panahon ng sagana sa enerhiya, inilunsad din nito kami sa isang hinaharap kung saan ang digmaang nuclear ay maaaring humantong sa katapusan ng ating sibilisasyon. Tumaas ang ‘blast radius’ ng ating teknolohiya sa isang global na sukat. Unti-unting nagiging malinaw na nangangailangan ng pandaigdigang kooperasyon ang pamamahala sa teknolohiyang nuclear upang maiwasan ang isang malawakang katastrope. Mahalaga ang oras upang magtayo ng matatag na institusyon upang harapin ito.

Noong 1952, 11 bansa ang nagtatag ng CERN at binigyan ito ng gawain sa “pakikipagtulungan sa siyentipikong [nuclear] pananaliksik ng isang dalisay na pundamental na kalikasan” – ipinapaliwanag na ang pananaliksik ng CERN ay gagamitin para sa kapakanan ng publiko. Itinatag din noong 1957 ang International Atomic Energy Agency (IAEA) upang subaybayan ang mga pandaigdigang imbakan ng uranium at limitahan ang pagkalat nito. Kasama ang iba pa, tinulungan ng mga institusyong ito na mabuhay sa nakalipas na 70 taon.

Naniniwala kami na muli nang nararanasan ng sangkatauhan ang pagtaas sa ‘blast radius’ ng teknolohiya: ang pag-unlad ng advanced na artificial intelligence. Isang makapangyarihang teknolohiya na maaaring lipulin ang sangkatauhan kung hindi napipigilan, ngunit, kung ligtas na napapasailalim, maaaring baguhin ang mundo para sa ikabubuti.

Ang multo ng artificial general intelligence

Nagpapahayag ng babala ang mga dalubhasa tungkol sa pag-unlad ng artificial general intelligence (AGI). Pinirmahan ng mga tanyag na siyentipiko sa AI at mga lider ng pangunahing kumpanya sa AI, kabilang sina Sam Altman ng OpenAI at Demis Hassabis ng Google DeepMind, ang isang pahayag mula sa Center for AI Safety na nagsasaad na: “Ang pagbawas sa panganib ng pagkawala ng buhay mula sa AI ay dapat maging isang pandaigdigang prayoridad kasabay ng iba pang mga panganib sa sukat ng lipunan tulad ng mga pandemya at digmaang nuclear.” Ilang buwan bago iyon, pinirmahan ng higit sa 27,000 ang isa pang liham na nananawagan para sa isang paghinto sa mga malalaking eksperimento sa AI, kabilang ang mga nanalo ng Turing Prize na sina Yoshua Bengio at Geoffrey Hinton.

Ito ay dahil sa isang maliit na grupo ng mga kumpanya sa AI (OpenAI, Google Deepmind, Anthropic) ay layuning lumikha ng AGI: hindi lamang mga chatbot tulad ng ChatGPT, ngunit mga AI na “awtonomo at lumalampas sa mga tao sa karamihan ng mga gawaing pang-ekonomiya”. Tinatawag ni Ian Hogarth, investor at ngayon Tagapangulo ng UK Foundation Model Taskforce ng UK, ang mga ito na ‘parang diyos na AI’ at hinimok ang mga pamahalaan na pabagalin ang karera sa pagbuo nito. Kahit ang mga developer ng teknolohiya mismo ay inaasahan malaking panganib mula dito. Sinabi ni Altman, CEO ng kumpanyang nasa likod ng ChatGPT, na ang “Pag-unlad ng superhuman machine intelligence (SMI) ay malamang ang pinakamalaking banta sa patuloy na pag-iral ng sangkatauhan.”

Nanawagan ang mga pinuno ng mundo para sa pagtatatag ng isang pandaigdigang institusyon upang harapin ang banta ng AGI: isang ‘CERN’ o ‘IAEA para sa AI’. Noong Hunyo, pinag-usapan nina Pangulong Biden at Punong Ministro Sunak ng UK ang gayong organisasyon. Sa palagay din ng Kalihim-Heneral ng UN na si Antonio Guterres kailangan natin ito. Dahil sa lumalaking konsensus para sa pandaigdigang kooperasyon bilang tugon sa mga panganib mula sa AI, kailangan nating ilatag nang konkreto kung paano maaaring itayo ang gayong institusyon.

Magmumukha ba ang isang ‘CERN para sa AI’ na parang MAGIC?

Ang MAGIC (ang Multilateral AGI Consortium) ay magiging tanging advanced at secure na pasilidad sa AI ng mundo na nakatutok sa pananaliksik at pag-unlad na nauuna sa kaligtasan ng advanced na AI. Tulad ng CERN, papapasukin ng MAGIC ang pag-unlad ng AGI mula sa mga kamay ng mga pribadong kumpanya at ilalagay ito sa mga kamay ng isang pandaigdigang organisasyon na iniatas patungo sa ligtas na pag-unlad ng AI.

Ang MAGIC ay magkakaroon ng eksklusibidad kapag dating sa mataas na panganib na pananaliksik at pag-unlad ng advanced na AI. Ilegal para sa iba pang mga entity na independyenteng pursigihin ang pag-unlad ng AGI. Hindi ito makakaapekto sa napakaraming pananaliksik at pag-unlad sa AI, at tututukan lamang ang pananaliksik sa frontier, na may kinalaman sa AGI, katulad ng kung paano na natin pinapangasiwaan ang mapanganib na R&D sa iba pang mga teknolohiya. Ang pananaliksik sa engineering ng nakamamatay na pathogen ay ganap na ipinagbabawal o pinipigil sa mga laboratoryo na may napakataas na antas ng biosafety. Sa kabilang banda, ang napakaraming pananaliksik sa gamot ay sa halip na pinangangasiwaan ng mga ahensiyang regulatory tulad ng FDA.

Tututukan lamang ng MAGIC ang pagpigil sa mataas na panganib na pag-unlad ng mga sistema sa AI sa frontier – parang diyos na AI. Ibabahagi lamang ng MAGIC sa labas na mundo ang mga pag-unlad sa pananaliksik kapag napatunayan na walang panganib.

Upang matiyak na mananatiling secure at sa mahigpit na pangangasiwa sa MAGIC ang pananaliksik sa AI na mataas ang panganib, isang pandaigdigang moratoryum sa paglikha ng mga AI gamit ang higit sa itinakdang dami ng kapangyarihang pangkompyuter ay dapat ipatupad (narito ang mahusay na pangkalahatang-ideya kung bakit mahalaga ang kapangyarihang pangkompyuter). Katulad ito ng kung paano na natin pinapangasiwaan ang uranium sa internasyonal, ang pangunahing mapagkukunan na ginagamit para sa mga sandata at enerhiyang nuclear.

Nang walang mga presyur sa kumpetisyon, matitiyak ng MAGIC ang sapat na kaligtasan at seguridad na kailangan para sa nakapagpapabagong ito na teknolohiya, at ipamamahagi ang mga benepisyo sa lahat ng mga signatory. Ang CERN ay umiiral bilang isang halimbawa kung paano tayo magtatagumpay sa MAGIC.

Ang US at UK ay nasa perpektong posisyon upang mapadali ang pagsisikap na ito ng maraming bansa, at i-springboard ang simula nito pagkatapos ng paparating na Pandaigdigang Summit sa Artipisyal na Intelihensiya sa Nobyembre ngayong taon.

Nakakatakot harapin ang eksistensyal na panganib mula sa AGI, at mapanganib na pustahan ang iwan ang hamon na ito sa mga pribadong kumpanya. Hindi natin hahayaan ang mga indibidwal o korporasyon na bumuo ng mga sandatang nuclear para sa pribadong paggamit, at hindi dapat nating pahintulutan na mangyari ito sa mapanganib, makapangyarihang AI. Naging matagumpay tayong hindi magpahamak sa mga sandatang nuclear, at muli nating mapapanatili ang ating kinabukasan – ngunit hindi kung mananatiling walang ginagawa. Dapat nating ilagay ang advanced na pag-unlad ng AI sa mga kamay ng isang bagong pandaigdigang, pinagkakatiwalaang institusyon at lumikha ng isang mas ligtas na hinaharap para sa lahat.

Tinulungan tayo ng mga institusyong post-WWII na maiwasan ang digmaang nuclear sa pamamagitan ng pagkontrol sa pag-unlad ng nuclear. Habang hinaharap ng sangkatauhan ang isang bagong pandaigdig na banta – hindi naikokontrol na artificial general intelligence (AGI) – kailangan muli nating kumilos upang tiyakin ang ating kinabukasan.