Uranium Mine Clean-Up Near National Park

Nagpapaulit-ulit na nagpapahayag ng mga kinikilalang mananaliksik at mga personalidad sa AI sa pamamagitan ng pagkumpara na ang panganib ng AI ay katumbas ng panganib na eksistensyal at pangkaligtasan na ibinigay ng pagdating ng panahon ng enerhiyang nukleyar. Mula sa mga pahayag na dapat sumailalim ang AI sa pag-aalaga na katulad ng enerhiyang nukleyar, hanggang sa mga deklarasyon na paghahambing ng panganib ng pagwawasak ng sangkatauhan sa iyon ng digmaang nukleyar, ang mga paghahambing na ginawa sa pagitan ng AI at nukleyar ay konsistente.

Si Sam Altman, ang CEO ng OpenAI, ay hanggang nagbanggit sa mabuting itinataguyod na pagsasanay ng “paglisensya”, itinuturing na anti-kompetitibo ng ilan. Tinawag niya ang paglikha ng isang ahensiya ng pederal na maaaring magbigay ng mga lisensya upang lumikha ng mga modelo ng AI sa itaas ng tiyak na antas ng kakayahan. Ito ay katulad ng paano ang mga operator ng pasilidad na nukleyar ay kinakailangang may lisensya mula sa isang tagapag-alaga ng nukleyar, tulad ng US Nuclear Regulatory Commission at UK Office for Nuclear Regulation. Bilang bahagi ng kanilang mga kondisyon ng lisensya, ang mga operator ng nukleyar ay dapat sundin ang mga pamantayan sa kaligtasan ng regulasyon at isang legal na tungkulin upang bawasan ang mga panganib hangga’t makakaya.

Ang patuloy na pagbanggit sa kaligtasan ng nukleyar ay dapat magbigay ng kagyat na kagyat na pagpapatupad ng regulasyon at pag-aaral ng nukleyar sa mga sistema ng AI na pinag-uusapan. Ngunit ang pagtutol lamang ang matatagpuan sa pagbanggit ng EU AI Act, isang nabawasang dokumento kumpara sa kasalimuotan at katatagan ng mga regulasyon na kinakailangan para sa mga sistema ng nukleyar. Sa katunayan, dati nang sinabi ni Altman na ang EU AI Act ay “labis na pag-aalaga”, partikular na tinutukoy ang mga sistema ng OpenAI tulad ng sila ay umiiral ay hindi mataas-peligro, at na titigil ang OpenAI sa pagpapatakbo kung hindi sila maaaring sumunod sa paparating na EU AI Act.

Dalawang magkakasalungat na mensahe ang kaya ipinapakita. Isa ay ang hinaharap ng mga kakayahan ng AI ay nagpapakita ng isang malaking panganib, na isang eksklusibong pag-aalaga ng regulasyon ng lisensya ng nukleyar ay kinakailangan, ngunit din na ang umiiral na mga sistema ay hindi nangangailangan ng anumang regulasyon, sa kabila ng mahusay na nadokumentong pinsala, at itinuturing na walang kahalagahan. At dito kung saan ang mga paghahambing sa kaligtasan ng nukleyar ay nababali.

Ang Inhinyeriya ng Kaligtasan, ang disiplina na nagtiyak ng kaligtasan ng mga sistema ng nukleyar, ay nakabatay sa pundasyon na ang mga pagkakamali ng sistema o mga pag-uugali, hindi mahalaga kung gaano kaliit, ay maaaring mag-umpisa at humantong sa katastropikong mga pangyayari. Isipin na lahat ng mga bahagi ng isang sistema ng nukleyar, iyon ay uranium o plutonyum, hardware, at software, hanggang sa literal na konkreto, ay indibidwal at mahigpit na nireregulasyon. Ang mga elemento na ito nang hiwalay ay hindi nagdadala ng banta ng katastropikong reaksyon ng nukleyar, ngunit sa pag-orkestra ay humantong sa paglitaw ng isang kontroladong reaksyon ng nukleyar na fission. Sa kabilang banda, ang mga pagkakamali sa naturang pag-orkestra ay maaaring mag-umpisa sa katastropiko o mataas na peligro na mga pangyayari. Halimbawa, isang maliit na bug sa software na kilala bilang isang kondisyong palaro ay humantong sa Northeast blackout ng 2003.

Ang aming kawalan upang maiwasan ang mga pinsala ng AI ngayon, tulad ng diskriminasyon sa algoritmo at pagbaba ng gastos ng disimpormasyon o mga pag-atake sa cybersecurity, lamang na nagpapahiwatig na hindi kami nakahanda upang ma-trace at maunawaan ang anumang kumakalat na implikasyon at kontrol ng mga panganib ng AI. At kung kulang tayo sa mga pasilidad na teknikal at panggobyerno upang kontrolin o sukatin ang mga mekanismo ng AI na nag-ooutput ng mga pinsala na ito, pagkatapos ay mali tayo upang paniwalaan na mayroon tayong batayan teknikal upang tugunan ang mas malaking-hakbang na mga panganib na maaaring maging posible ng AI.

Kung gayon bakit nagpakita ng pagtutol ang mga laboratoryo ng AI upang sundin ang kailangan ng katatagan ng nukleyar upang panatilihing ligtas ang mga ninuno (e.g., ChatGPT) ng “antas na pagwawasak”? Sa isang blog post ng mga tagapagtatag ng OpenAI, tinanggap nila na “mahalaga na ang ganitong [regulatory] ahensiya ay nakatutok sa pagbawas ng panganib na eksistensyal at hindi mga isyu na dapat iwan sa bawat bansa.” Ang pahayag na ito ay nagtatangka hindi lamang na hiwalayin ang umiiral na pinsala ng mga sistema ng AI mula sa mga hipotetikal na panganib na eksistensyal, ngunit nabigo na kilalanin ang pundamental na prinsipyo ng inhinyeriya na ang mga pinsala ay nag-uumpisa. Kung ang kasalukuyang mga sistema ng AI ay tunay na mga batayan ng isang hipotetikal na AGI, tulad ng madalas na iniuugnay, pagkatapos sila rin ay dapat i-regulate upang tugunan ang kasalukuyang pinsala sa paghahanda para sa karagdagang pag-uugali, kung ito man ay AGI o iba pa.

Isang pattern ang lumilitaw na ang pagtawag sa paghahambing sa digmaang nukleyar ay madalas na naglilingkod upang magpalabas ng mga partikular na kuwento, kung saan man ito ay eksklusibong paglisensya, o isang pagtatangka upang ibaling ang usapan sa regulasyon sa pagtuon sa malalayong hinaharap na banta sa halip. Parehong may potensyal na mapinsala. Para sa una, ang mga sistema ng AI ay walang natatanging mga komponenteng software na nagpapatunay ng isang pangkalahatang paglisensya na hindi mabigat na hadlangan ang paggamit ng software at hardware sa buong. Sa katunayan, anumang pagpapatupad ng ganitong scheme ay malamang magresulta sa malaking paglabag dahil sa malawak na depinisyon at mga komponente ng software ng mga sistema ng AI, nagbibigay ng mga pundamental na bloke para sa mga pag-unlad sa teknolohiya na magiging magagamit sa ilang piniling mga tao. Pagkatapos lahat, ang kasalukuyang mga sistema ng AI ay binuo gamit ang tradisyonal na hardware at software na mga komponente. Kahit ang mga teknolohiyang Heneratibo ng AI ay gumagamit ng Deep Neural Networks, isang pamamaraan na nagmula pa noong dekada 70.

Para sa huli (sumunod sa mga pundasyon ng kaligtasan ng nukleyar sa isang banda), ang kasalukuyang mga sistema ng AI ay nagpakita ng sapat na pinsala upang magpatupad ng regulasyon kahit walang banta sa pagwawasak. Ang mga metodolohiya ng regulasyon ng nukleyar na umiiral na para sa mga parehong hardware, software, at data na mga komponente, handa nang maaaring gamitin anumang araw para sa mga laboratoryo ng AI upang gamitin para sa mataas na peligro na mga aplikasyon. Ngunit napagmasdan natin na ang pagtutol at paglobi ng mga laboratoryo ng AI laban sa EU AI Act ay patunayan nang matagumpay, na nakapagdistract na mula sa mga pagsusumikap sa regulasyon na nauugnay sa mga pinsala na ipinakita ng mga sistema ng AI ngayon. Isang post ng European Commission ay naglalarawan sa tumpak na pagkakasalita ng liham sa pagwawasak, “Ang pagbawas ng panganib ng pagwawasak mula sa AI ay dapat maging isang pangunahing prayoridad sa buong mundo”, isang malayo mula sa mga peligro na inilatag sa mga unang draft ng batas.

Kung ang mga laboratoryo ng AI ay patuloy na mag-iimbak ng takot sa pamamagitan ng mga paghahambing sa mga peligro ng nukleyar, pagkatapos sila ay dapat handang kunin ang paghahambing sa kabuuang kapasidad. Sa katunayan, kung sila ay tutugon sa mga mekanismo ng kaligtasan na handa nang magagamit para sa mga komponente ng nukleyar, sila ay pipiliting matagpuan ang walang mapinsalang wika na sumusuporta sa paggamit ng terminolohiya tulad ng “pagwawasak” at “mga panganib na eksistensyal”. Sa katunayan, ang katastropikong nukleyar ay sinusuportahan ng kilalang mga kakayahan sa agham at pang-politikang pang-heopolitika na teoretikal at maingat na pinag-aralan ev