(SeaPRwire) –   Bilang isang akademiko na nagpunta sa nakaraang 25 taon sa pagbuo ng mga teknik upang matukoy ang pag-manipula sa larawan, sanay na ako sa mga pananakot na tawag mula sa mga reporter na naghahanap ng pagpapatunay sa isang lumalabas na kuwento.

Ngayon, ang mga tawag, email, at text ay nagsimula nang daloy ng Linggo ng gabi. Si Catherine, Prinsesa ng Wales, ay hindi pa napapakita sa publiko mula Pasko. Ang pang-abdominal na operasyon na pinagdaanan niya noong Enero ay humantong sa malawak na pag-aakala tungkol sa kanyang kinaroroonan at kalusugan.

Ang Linggo ay Araw ng Ina sa UK, at ang Kensington Palace ay naglabas ng isang larawan ni Princess Kate kasama ang tatlong anak na sina Prince George, Princess Charlotte at Prince Louis. Ang larawan ay ipinamahagi ng Associated Press, Reuters, AFP at iba pang midya outlet. Ang larawan ay mabilis na naging viral sa mga social media platform na may desiyos na milyong mga panonood, shares, at mga komento.

Ngunit lamang ilang oras pagkatapos, ang AP ay naglabas ng isang bihira na “photo kill,” na humihiling sa mga customer na tanggalin ang larawan mula sa kanilang mga sistema at arkibo dahil “sa mas malapit na pagsusuri, mukhang ang pinagkunan ay nag-manipula sa larawan.”

Ang pangunahing alalahanin ay tila nakatutok sa kaliwang manggas ni Princess Charlotte, na nagpapakita ng malinaw na tanda ng digital na pag-manipula. Hindi pa malinaw sa oras na iyon kung ang malinaw na artepakto ay isang tanda ng mas malaking pag-edit sa larawan, o isang naiihiwalay na halimbawa ng bahagyang pag-edit sa larawan.

Upang malaman, sinimulan ko ang pagsusuri ng larawan gamit ang isang forensic na software na dinisenyo upang paghiwalayin ang mga larawang fotograpiya mula sa buong AI-generated na mga larawan. Ang analisis na ito ay may kumpiyansang naklasipika ang larawan bilang hindi AI-generated.

Sinubukan ko rin ang ilang mas tradisyunal na mga pagsusuri ng forensic kabilang ang pagsusuri sa ilaw at pattern ng sensor noise. Walang anumang mga pagsusuri na nagpakita ng ebidensya ng mas malaking pag-manipula.

Pagkatapos nito lahat, kinonklusyon ko na pinaka malamang na ang larawan ay inedit gamit ang Photoshop o mga onboard editing tool ng kamera. Bagaman hindi ako 100% sigurado nito, ang paliwanag na ito ay konsistent sa pahayag ni Princess Kate noong Lunes, kung saan sinabi niya “Tulad ng maraming amateur na photographer, minsan ako ring nag-eksperimento sa pag-edit. Gusto kong ipahayag ang aking mga paumanhin para sa anumang kalituhan na sanhi ng pamilyang larawan na ipinamahagi namin kahapon.”

Sa isang makatwirang mundo, ito ay dapat maging katapusan ng kuwento. Ngunit ang mundo – at lalo na ang social media – ay walang katulad kung hindi irasyunal. Nangangalahati na ako sa mga desiyos na email na may “ebidensya” ng mas masamang pag-manipula sa larawan at paglikha ng AI na ginagamit upang mag-espekula nang malawak tungkol sa kalusugan ni Princess Kate. At bagaman ang mga pagsusuri ng forensic na post-hoc na ginagawa ko ay makakatulong sa mga editor ng larawan at mamamahayag upang ayusin mga kuwento tulad nito, hindi ito maaaring makatulong upang labanan ang mga tsismis at konspirasyon na mabilis na kumakalat sa online.

Ang mga pinag-manipulang larawan ay wala nang bago, kahit mula sa mga opisyal na pinagkunan. Halimbawa, ang Associated Press, ay pansamantalang pinatigil ang distribusyon ng opisyal na imahe mula sa Pentagon noong 2008 matapos itong maglabas ng isang larawan ng unang babae na four-star general ng militar ng US. Ang larawan ni Gen. Ann E. Dunwoody ay pangalawang larawan mula sa Pentagon na tinuturok ng AP sa loob ng dalawang buwan. Pinatigil rin ng AP ang paggamit ng mga opisyal na larawan pagkatapos ng pag-aasikaso mula sa Pentagon na paiiralin ang isang Defense Department instruction na nagbabawal sa pagbabago sa mga larawan kung ang pagbabago ay nagpapalitaw ng maling katotohanan o mga kaganapan.

Ang problema, sa kursa, ay ang modernong teknolohiya ay nagpapadali sa pagbabago ng mga larawan at video. At bagaman madalas ginagawa para sa layunin ng paglikha, maaaring maging problema ito kapag ang pagbabago ay tungkol sa mga tunay na pangyayari, nakakabawas ng tiwala sa mamamahayag.

Maaaring makatulong ang detection software sa isang ad-hoc na batayan, pagpapakita ng mga problema sa isang larawan, o kung ang isang larawan ay maaaring AI-generated. Ngunit may mga limitasyon ito, hindi ito scalable o tuwirang tumpak – at ang masasamang loob ay palaging isang hakbang na nangunguna sa pinakabagong detection software.

Kaya, ano ang gagawin?

Ang sagot ay malamang nakasalalay sa digital na pinagmulan – pag-unawa sa pinagmulan ng digital na mga file, maging ito ay mga larawan, video, audio, o anumang iba pa. Ang pinagmulan ay tumutukoy hindi lamang sa paraan ng paglikha ng mga file, kundi kung paano ito nabago sa panahon ng biyahe mula sa paglikha hanggang sa paglathala.

Ang Content Authenticity Initiative ay itinatag noong huling bahagi ng 2019 ng Adobe, na gumagawa ng Photoshop at iba pang malakas na editing software. Ngayon ito ay isang komunidad ng higit sa 2,500 nangungunang midya at teknolohiyang kompanya, na nagtatrabaho upang ipatupad ang isang bukas na pamantayang teknikal tungkol sa pinagmulan.

Ang bukas na pamantayan ay binuo ng Coalition for Content Provenance and Authenticity (), isang organisasyon na binuo ng Adobe, Microsoft, BBC at iba pa sa loob ng Linux Foundation. Tinututukan nito ang pagbuo ng eko-sistema na magpapabilis sa bukas na pagbuo ng teknolohiya at komersyal na pag-adopt.

Ang C2PA ay umunlad ng mga Content Credentials – katumbas ng isang “nutrition label” para sa digital na mga paglikha. Sa pagsiklik sa makilala at makikilalang “cr” logo na nasa o malapit sa isang larawan, makikita ng manonood kung saan galing ang larawan (o iba pang file).

Ang mga protocol ng pagpapatunay ay kinokonsidera sa hardware na mga device – kamera at cellphone – upang ang hinaharap na manonood ay tama ring makapagpasya ng petsa, oras at lokasyon ng isang larawan sa punto ng pagkakakuha. Ang parehong teknolohiya ay bahagi na ng Photoshop at iba pang editing program, na nagpapahintulot sa mga pagbabago sa isang file na ma-log at suriin.

Lahat ng impormasyon na iyan ay lalabas kapag siniklik ng manonood ang “cr” icon, at sa parehong malinaw na format at simpleng wika tulad ng isang nutrition label sa gilid ng isang kahon ng sereal.

Kung ito ay ganap na ginagamit ngayon, ang mga editor ng larawan sa balita ay maaaring suriin ang Content Credentials ng larawan ng Pamilyang Royale bago ang paglathala at maiwasan ang panic ng pagbabawi.

Kaya ang layunin ng Content Authenticity Initiative ay ang global na pag-adopt ng Content Credentials, at kung bakit ang mga kompanya sa midya tulad ng BBC ay unti-unting pinapakilala ang mga label na ito. Ang iba pang katulad ng AP at AFP ay nagtatrabaho upang gawin ito sa huling bahagi ng taon.

Ang pangkalahatang pag-adopt ng pamantayang ito ay nangangahulugan na sa panahon, bawat piraso ng digital na nilalaman ay maaaring magdala ng Content Credentials, na lumilikha ng isang nauunawaang pagkakatiwala at bakit. Ang pagpapatunay kung ano ang totoo – sa halip na pagtukoy kung ano ang mali – ay pinalitan ng katiyakan ang pagdududa.

Ang artikulo ay ibinigay ng third-party content provider. Walang garantiya o representasyon na ibinigay ng SeaPRwire (https://www.seaprwire.com/) kaugnay nito.

Mga Sektor: Pangunahing Isturya, Balita Araw-araw

Nagde-deliver ang SeaPRwire ng sirkulasyon ng pahayag sa presyo sa real-time para sa mga korporasyon at institusyon, na umabot sa higit sa 6,500 media stores, 86,000 editors at mamamahayag, at 3.5 milyong propesyunal na desktop sa 90 bansa. Sinusuportahan ng SeaPRwire ang pagpapamahagi ng pahayag sa presyo sa Ingles, Korean, Hapon, Arabic, Pinasimpleng Intsik, Tradisyunal na Intsik, Vietnamese, Thai, Indones, Malay, Aleman, Ruso, Pranses, Kastila, Portuges at iba pang mga wika.