(SeaPRwire) –   “Nakikipag-usap kami sa iyo…at mukhang nahihirapan ka sa mga hamon ng buhay,” simula ng mensahe. “Narito kami upang ibahagi sa iyo ang mga materyales at mapagkukunan na maaaring magdala ng kapayapaan sa iyo.” Sumusunod ang mga link sa mga hotline para sa tulong sa pagpapatiwakal, isang 24/7 na chat service, at mga kuwento ng mga tao na nagtagumpay sa mga krisis sa kalusugan ng isip. “Pagpapadala sa iyo ng isang virtual yakap,” ang pagtatapos ng mensahe.

Ang nota na ito, na ipinadala bilang isang pribadong mensahe sa Reddit ng kompanyang AI na Samurai, ay kumakatawan sa sinasabi ng ilang mananaliksik na nakapagbibigay-pag-asa na kasangkapan upang labanan ang pagpapatiwakal sa Estados Unidos, na nangangahulugan ng halos 50,000 buhay kada taon. Ginagamit ng mga kompanya tulad ng Samurai ang AI upang analisahin ang mga post sa social media para sa tanda ng intensyon sa pagpapatiwakal, pagkatapos ay makikipag-ugnayan sa pamamagitan ng mga estratehiya tulad ng direktang mensahe.

May tiyak na kahihinatnan sa paggamit ng social media para sa pag-iwas sa pagpapatiwakal, dahil madalas itong sisihin para sa krisis sa kalusugan ng isip at pagpapatiwakal sa Estados Unidos. Ngunit naniniwala ang ilang mananaliksik na may tunay na pag-asa sa pagpunta sa direkta sa pinagmumulan upang “makita ang mga nangangailangan ng tulong sa oras na ito at makapagbigay ng mensahe sa milyun-milyong piraso ng nilalaman,” ayon kay Samurai co-founder na si Patrycja Tempska.

Hindi lamang ang Samurai ang kompanya na gumagamit ng AI upang hanapin at abutin ang mga taong nanganganib. Sinasabi ng kompanyang Anthropic na ang kanilang modelo sa AI ay araw-araw na nagpapahiwatig ng higit sa 400 mga post sa social media na naghahayag ng intensyon sa pagpapatiwakal. At ang Meta, ang kompanyang ina ng Facebook at Instagram, ay nagbabantay o nag-aanalisa ng mga gawi sa paghahanap o browsing na nagpapahiwatig na isipin ng isang tao ang pagpapatiwakal. Kung ibahagi o hanapin ng isang tao ang nilalaman tungkol sa pagpapatiwakal, ipinapakita ng platform ang isang mensahe tungkol sa mga mapagkukunan tulad ng Suicide and Crisis Lifeline – o kung ituturing ng kopanya ng Meta na kinakailangan, tatawagin ang mga tauhan ng emerhensiya.

Nakabatay dito ang ideya na maaaring makagawa ang mga algoritmo ng isang bagay na tradisyonal na nakakalito sa mga tao: pagtukoy kung sino ang nanganganib sa pag-uusig sa sarili upang makatanggap sila ng tulong bago pa man maging huli ang lahat. Ngunit ayon sa ilang eksperto, hindi pa handa ang paghahain na ito para sa primetime.

“Nagpapasalamat kami na naging bahagi na ng kamalayan ng lipunan ang pag-iwas sa pagpapatiwakal. Napakahalaga talaga niyan,” ayon kay Dr. Christine Moutier, punong opisyal ng medikal sa American Foundation for Suicide Prevention (AFSP). “Ngunit maraming kasangkapan ang ipinatupad nang walang pag-aaral sa tunay na resulta.”

Mahirap maghula kung sino ang malamang na magtatangkang magpakamatay kahit para sa pinakamahusay na trainadong tao, ayon kay Dr. Jordan Smoller, co-director ng Mass General Brigham at Harvard University’s Center for Suicide Research and Prevention. May mga factor na kilala ng mga klinisyan na dapat tignan sa kanilang pasyente – ilang diagnosis sa psychiatric, pagdaan sa isang traumatic na pangyayari, depression – ngunit mahirap at maraming pagkakaiba ang pagpapatiwakal, at halos walang indibiduwal na trigger.

Inaasahan na maaaring makuha ng AI, sa kakayahan nitong mag-sift sa malalaking halaga ng datos, ang mga trend sa pagsasalita at pagsulat na hindi mapapansin ng tao, ayon kay Smoller. At may siyensiyang sumusuporta dito.

Higit sa dekada na ang nakalipas, ipinakita ni John Pestian, direktor ng Computational Medicine Center sa Cincinnati Children’s Hospital, na maaaring makapag-predict ang AI ng intensyon sa pagpapatiwakal sa teksto nang may mas mataas na accuracy kaysa sa mga klinisyan – isang pagkakatuklas na nagpapakita ng potensyal ng AI upang makuha ang intensyon sa pagpapatiwakal sa teksto. Mula noon, maraming pag-aaral ang nagpapakita na maaaring makapag-detect ang AI ng intensyon sa pagpapatiwakal sa mga post sa iba’t ibang social media.

Sinusubukan ng mga kompanyang tulad ng Samurai Labs ang mga pagkakatuklas na ito. Mula Enero hanggang Nobyembre 2023, nakadetekta ang modelo ng Samurai ng higit sa 25,000 potensyal na nakapagpapatiwakal na mga post sa Reddit, ayon sa datos ng kompanya na ipinakita sa TIME. Pagkatapos ay pipiliin ng isang taong nagbabantay kung dapat bang i-message ang gumagamit ng mga tagubilin tungkol sa pagkuha ng tulong. Higit sa 10% ng mga taong natanggap ang mga mensahe ay nakipag-ugnayan sa hotline para sa pagpapatiwakal, at nagawan ng apat na rescue sa personal ng mga tauhan ng emerhensiya ng representante ng kompanya. (Wala pang opisyal na pakikipagtulungan ang Samurai sa Reddit, ngunit ginagamit nito ang teknolohiya nito upang independyenteng analisahin ang mga post sa platform. May iba pang tampok ang Reddit para sa pag-iwas sa pagpapatiwakal, tulad ng isang tampok na nagpapahintulot sa mga gumagamit na .)

Sinabi ni Samurai co-founder na si Michal Wroczynski na maaaring may karagdagang benepisyo ang interbensyon ng Samurai na mahirap matukoy. Maaring tumawag ang ilan sa hotline sa ibang oras, halimbawa, o simpleng nakinabang sa pakiramdam na may tumatawag sa kanila. “Napaiyak ako sa mga mata sa mensaheng ito,” ang isinulat ng isang tao sa mensahe na ipinakita sa TIME. “May tumatawag na nag-aalala para sa akin?”

Kapag nasa isang acute na krisis sa kalusugan ng isip ang isang tao, maaaring maligtas ng isang distraction – tulad ng pagbasa ng isang mensahe na lumilitaw sa screen – dahil nagpapalayas ito sa masasamang loop ng isip, ayon kay Moutier. Ngunit ayon kay Pestian, mahalaga para sa mga kompanya na malaman kung ano ang kaya at hindi kaya ng AI sa isang sandaling pag-aalala.

Maaaring epektibo ang mga serbisyo na nagkakaugnayan ng mga gumagamit ng social media sa tao na may suporta, ayon kay Pestian. “Kung may kaibigan ka, baka sabihin nila, ‘Hayaan mo akong ihatid ka sa ospital,'” sabi niya. “Ang AI ay maaaring maging sasakyan na maghahatid ng tao sa pag-aalaga.” Mas delikado ayon sa kaniya ang “payagan ang AI na gumawa ng pag-aalaga” sa pamamagitan ng pagsasanay nito na kopyahin ang ilang aspeto ng terapiya. Napatay ang isang lalaki sa Belgium matapos makipag-usap sa isang chatbot na nag-encourage sa kaniya – isang trahedyang halimbawa ng limitasyon ng teknolohiya.

Bukod sa potensyal na hindi tumpak, may mga etikal at privacy issues din. Maaaring hindi alam ng mga gumagamit ng social media na inaanalisa ang kanilang mga post o ayaw nilang ito, ayon kay Smoller. Maaaring mas mahalaga ito para sa mga komunidad na alam na mas nanganganib sa pagpapatiwakal, tulad ng , na labis na nababantayan ng mga sistema ng AI surveillance, ayon sa isang pangkat ng mananaliksik.

At, posibilidad na maaaring i-eskalate ng algoritmo ang mga alalahanin tungkol sa pagpapatiwakal sa pulisya o iba pang tauhan ng emerhensiya ay nangangahulugan ang mga gumagamit “maaaring makulong, hanapan, dalhin sa ospital, at gamutin laban sa kanilang kagustuhan,” ayon sa eksperto sa batas sa kalusugan na si Mason Marks.

Ayon kay Moutier ng AFSP, may sapat na pag-asa sa AI para sa pag-iwas sa pagpapatiwakal upang patuloy itong pag-aralan. Ngunit sa ngayon, gusto niyang makita ang mga platform ng social media na seryosong protektahan ang kalusugan ng isip ng kanilang mga gumagamit bago dumating sa punto ng krisis. Maaaring gawin ng mga platform na higpitan ang pagkakalantad ng mga tao sa nakakabahalang larawan, pagbuo ng maling body image, at paghahambing sa iba, ayon sa kaniya. Maaari ring ipalaganap ang mga kuwento ng pag-asa mula sa mga taong gumaling mula sa krisis sa kalusugan ng isip at suportang mapagkukunan para sa mga taong nahihirapan (o may mahal sa buhay na nahihirapan), dagdag niya.

Sinimulan na ng ilang platform ang ganitong gawain. Tinanggal o idinagdag ng Meta ang babala sa higit sa 12 milyong post tungkol sa pag-uusig sa sarili mula Hulyo hanggang Setyembre ng nakaraang taon at . Sinimulan na rin ng TikTok na pigilan ang mga gumagamit mula sa pagtingin sa mga post tungkol sa pag-uusig sa sarili at ipakita ang mga mapagkukunan ng tulong. Ngunit, ayon sa kamakailang pagdinig ng Senado kasama ang mga CEO ng Meta, TikTok, X, Snap, at Discord, mayroon pa ring .

Ang mga algoritmo na nag-iinterbene kapag nakadetekta ng may nangangailangan ay nakatuon lamang “sa pinakamadalas na sandali ng kritikal na panganib,” ayon kay Moutier. “Sa pag-iwas sa pagpapatiwakal, bahagi lamang iyon, ngunit hindi ang buong kuwento.” Sa isang ideal na mundo, walang makakarating sa puntong iyon.

Ang artikulo ay ibinigay ng third-party content provider. Walang garantiya o representasyon na ibinigay ng SeaPRwire (https://www.seaprwire.com/) kaugnay nito.

Mga Sektor: Pangunahing Isturya, Balita Araw-araw

Nagde-deliver ang SeaPRwire ng sirkulasyon ng pahayag sa presyo sa real-time para sa mga korporasyon at institusyon, na umabot sa higit sa 6,500 media stores, 86,000 editors at mamamahayag, at 3.5 milyong propesyunal na desktop sa 90 bansa. Sinusuportahan ng SeaPRwire ang pagpapamahagi ng pahayag sa presyo sa Ingles, Korean, Hapon, Arabic, Pinasimpleng Intsik, Tradisyunal na Intsik, Vietnamese, Thai, Indones, Malay, Aleman, Ruso, Pranses, Kastila, Portuges at iba pang mga wika.