Sa isang karaniwang araw ng Nobyembre, ginaganap ang Bletchley Park upang maging tahanan ng isang paghaliling mga pensyonado at mga kawan ng mga hindi mapagpasyang mga mag-aaral, na bumibisita upang matuto tungkol sa mga codebreakers—kabilang ang computing pioneer na si Alan Turing—na nakabase rito noong Ikalawang Digmaang Pandaigdig, at tumulong sa mga Sandatahang Lakas ng mga Kaalyado upang talunin ang mga Nazi.

Ngunit ito ay walang karaniwang linggo, at ito ay walang karaniwang mga bisita.

Sa Miyerkules at Huwebes, dumalo ang mga delegado mula sa 27 pamahalaan sa buong mundo, pati na rin ang mga punong-opisyal ng nangungunang mga kompanya ng artificial intelligence, para sa unang AI Safety Summit sa buong mundo sa dating stately tahanan malapit sa London, ngayo’y isang museum. Kasama sa mga dumalo: mga kinatawan ng mga pamahalaan ng U.S. at Tsina, Elon Musk, at CEO ng OpenAI na si Sam Altman.

Ang mataas na profileng pagtitipon na ito, na pinamumunuan ng pamahalaan ng U.K. sa ilalim ni Rishi Sunak, ay nagtapos ng isang taon ng intense na pagtaas sa global na mga pag-uusap tungkol sa safety ng AI, matapos ang paglunsad ng ChatGPT halos isang taon na ang nakalipas. Ang chatbot ay nagpakita sa unang pagkakataon—sa maraming gumagamit sa kahit paano—ang malakas na pangkalahatang kakayahan ng pinakabagong henerasyon ng mga sistema ng AI. Ang kanyang viral na pagtanggap ay nagbigay-buhay sa dating nichong paaralan ng pag-iisip na ang AI ay maaaring, sa mas maaga o mas huli, magdala ng isang eksistensyal na panganib sa sangkatauhan, at naghikayat sa mga policymakers sa buong mundo na pag-isipan kung, at kung paano, ire-regula ang teknolohiya. Nagsasagawa ang mga pag-uusap na ito habang may mga babala hindi lamang na ang mga tool ng AI ngayon ay nagpapakita na ng maraming panganib—lalo na sa mga nakakabit na komunidad—kundi pati na rin na ang susunod na henerasyon ng mga sistema ay maaaring 10 o 100 beses na mas malakas, hindi lamang mas delikado.

Ang Bletchley Park ay pinili ng pamahalaan ng U.K. bilang lokasyon para sa summit dahil sa simbolismo nito: ito ay isa sa mga lugar ng kapanganakan ng modernong pagko-kompyuter; ang mga makina na inimbento rito upang idekodigo ang Enigma Code ng mga Nazi ay bumuo sa blueprint para sa maagang programable na kompyuter. Binuksan ni Michelle Donelan, ang ministro ng agham at teknolohiya ng U.K., ang Summit noong Miyerkules sa pamamagitan ng paghiling ng kanyang pag-asa na magbibigay ang mga delegado na nakalapit para sa isang pagkamit ng katulad na kalakihan, “pagsulong ng mga hangganan ng kung ano ang aktuwal na posible.”

Hindi tinangka ng mga opisyal mula sa buong mundo na dumating sa isang nauukol na set ng mga mapagkukunan para sa teknolohiya. Ngunit ipinahayag ni Sunak noong Huwebes na pumayag ang mga kompanya ng AI sa Summit na ibigay sa mga pamahalaan ang maagang access sa kanilang mga modelo upang gawin ang safety evaluations. Ipinaalam niya rin na si Yoshua Bengio, isang Turing Award-winning computer scientist, ay pumayag na mamuno sa isang katawan na hahanapin upang itatag, sa isang ulat, ang scientific consensus sa mga panganib at kakayahan ng frontier AI systems.

Ang pangunahing tagumpay mula sa Summit ni Sunak—na bibigyan ng mga laboratoryo ng AI ang mga pamahalaan ng maagang access sa kanilang mga sistema—ay medyo kulang sa detalye. Nakapag-anunsiyo na si Sunak noong Hunyo, sa isang talumpati, na ang tatlong nangungunang frontier AI companies (OpenAI, Google DeepMind, at Anthropic) ay pumayag na ibigay sa pamahalaan ng U.K. ang “maagang o priority access” sa kanilang mga sistema para sa layuning pangkaligtasan. Hindi binigyang-diin ni Sunak kung paano nag-iiba ang pagkasunduan na nakamit sa Huwebes mula sa umiiral na pagkakasunduan, kung mayroon man. Hindi rin siya nakomento kung makakatanggap ang mga pamahalaan ng source code, o tinatawag na “weights,” ng mga frontier na modelo—o simpleng ang kakayahan na makipag-ugnayan sa kanila gamit ang interface na tinatawag na API. (Hindi agad sumagot sa kahilingan para sa komento ang opisina ni Sunak.)

Ipinaalam rin ni Sunak na lalawak ang U.K.’s Frontier AI Taskforce upang maging isang permanenteng katawan na nagtutugon sa pagsasagawa ng safety evaluations: ang U.K. AI Safety Institute.

Sa kabila ng limitadong pag-unlad, tinanggap ng mga delegado sa pagtitipon ito ang mataas na antas na mga pag-uusap bilang isang mahalagang unang hakbang patungo sa internasyonal na pakikipagtulungan sa pag-reregula ng teknolohiya—tumatanggap na habang may maraming lugar ng pagkakasundo, may ilang susi na mga pagkakaiba pa rin.

“Ako ay nasisiyahan upang suportahan ang napakailangang koordinasyon ng pamamahala ng AI safety sa pamamagitan ng pakikipagtulungan sa mga kasamahan mula sa buong mundo upang ipakita ang pinakabagong ebidensiya tungkol sa napakahalagang isyu na ito,” ayon kay Bengio sa isang pahayag.

Binuksan ng pamahalaan ng U.K. ang pagtitipon noong Miyerkules sa pamamagitan ng pag-anunsiyo ng “Bletchley Declaration” sa AI, pinirmahan ng 28 bansa, kabilang ang U.S., U.K., Tsina, at India, pati na rin ang Unyong Europeo. Sinabi ng deklarasyon na ang AI ay nagpapakita ng parehong mga maikling-terminong at mas matagal na mga panganib, pinatototohanan ang responsibilidad ng mga lumilikha ng malakas na mga sistema ng AI upang tiyakin ang kanilang kaligtasan, at nakompromiso sa internasyonal na pakikipagtulungan sa pagtukoy at pagpapababa ng mga panganib.

Ang pamahalaan ng U.K., bilang organizer ng Summit, ay naglakad sa isang maliit na linya sa pagitan ng pagsasabi na seryoso sila sa mga panganib ng AI sa isang kamay, habang nagpapahiwatig sa mga kompanya ng teknolohiya na bukas sila sa negosyo sa kabilang kamay. “Para sa akin, ang pinakamalaking panganib na aktuwal na hinaharap natin, ay ang panganib ng pagkawala sa lahat ng mga makamarkang pagkakataon na maaaring tunay na iharap ng AI,” ayon kay Donelan sa mga lumangguhit ng industriya ng teknolohiya sa isang pagtanggap sa punong-himpilan ng Google DeepMind bago ang Summit. “Kung talagang matatakot tayo masyado, o kung iiwas tayo dahil hindi natin hawak ang mga panganib, pagkatapos ay hindi natin makikita ang pag-adopt sa ating NHS [National Health Service], hindi natin makikita ang pag-adopt sa ating network ng transportasyon, hindi natin makakayanan ang paggamit ng AI upang harapin ang pagbabago ng klima o upang suportahan ang mga bansang lumalaking bansa upang harapin ang mga isyu tulad ng kakulangan sa pagkain. At iyon ang pinakamalaking kapahamakan na maaaring imahinahin natin.”

Pinababa ng Kagawad ng Ugnayang Panlabas ng Britanya na si James Cleverley ang mga suhestiyon noong Huwebes na sinamantala ng U.S. ang U.K. sa pamamagitan ng mga anunsiyo nito. “Ito ay hindi tungkol sa pag-imbak, ito ay tungkol sa paghahati,” ani niya sa TIME. “Gusto naming lahat na kasali dito. Hindi ito eksklusibo, ito ay inklusibo.”

Sa Bletchley Park, nasa labas ang pulisya upang bantayan ang secure na temporaryong boundary na itinayo palibot sa wartime na code-breaking complex. Sa labas ng pasukan, may maliit na koponan ng mga tagapagtaguyod mula sa pressure group na Pause AI na naroon noong Miyerkules, nagpapakita ng mga bandila at placard. Ang grupo ay nangangampanya para sa isang temporaryong pagpapatigil sa pagsasanay ng mga sistema ng AI na mas malakas kaysa sa GPT-4 ng OpenAI, ang kahalili ng ChatGPT at ang pinakamalakas na publikong available na malaking wika modelo sa mundo. “Lumalakas ang pagpapakita ng survey na popular sa publiko ang pagpapabagal ng pag-unlad ng AI, gaya ng ipinakita ng maraming mensahe ng suporta na natanggap namin mula sa publiko, mga bata at matatanda, ngayon habang nagpoprotesta kami,” ayon kay Gideon Futerman, isa sa mga nagpoprotesta, sa TIME. “Ang isang pagpapatigil ay hindi lamang kinakailangan, ngunit ito ay makakamit din.”

Sa loob, ang mga pangunahing pag-uusap ay ginanap sa likod ng sarado ngunit lumabas ang ilang indibidwal mula sa industriya upang harapin ang midya. Sinabi ni Mustafa Suleyman, ang cofounder ng Google DeepMind at ngayon ang CEO ng startup na Inflection AI, sa isang press conference na…