In this photo illustration, the Google Gemini logo is seen

(SeaPRwire) –   Nakaraang buwan, inilabas ng Google ang kanilang matagal nang hinihintay na sistema “Gemini,” na nagbibigay ng access sa mga user sa teknolohiya ng AI image generation ng Google para sa unang pagkakataon. Habang karamihan sa mga unang user ay sumang-ayon na impresibo ang sistema sa paglikha ng detalyadong mga imahe para sa text prompts sa loob ng segundo, agad namang natuklasan ng mga user na mahirap makuha ang sistema upang lumikha ng mga imahe ng puting tao, at agad na viral ang mga tweet na nagpapakita ng mga halimbawa ng pag-iisip na tulad ng .

Ilan ang nagsisi sa Gemini para sa pagiging “masyadong woke,” gamit ang Gemini bilang pinakabagong armas sa lumalaking digmaang kultural sa kahalagahan ng pagkilala sa mga epekto ng nakaraang pagkakadiskrimina. Marami ang nagsabi na ito ay nagpapakita ng kawalan ng gana sa loob ng Google, at ilan ang ang larangan ng “AI ethics” bilang isang kahihiyan.

Ang ideya na ang etikal na pagtatrabaho sa AI ang may sala ay mali. Sa katunayan, ipinakita ng Gemini sa Google ang mga aral ng etiks sa AI. Sa halip na gumamit ng “isang sukat para sa lahat” na pagpapatakbo, maaaring dapat na gumawa ang Gemini ng isang pag-aaral sa mga kasong maaaring mangyari – tulad ng nakaraang paglalarawan – na nagresulta sa isang nakakahiya at nakakapagtataka na paghalo ng nakapagpapasaya at nakapagpapalawak na output.

Dapat kong alam iyon. Nakapagtrabaho ako sa etiks sa AI sa loob ng mga kompanya ng teknolohiya sa loob ng higit sa 10 taon, na nagpapakita sa akin bilang isa sa pinakamatanda at pinaka-eksplerto sa buong mundo sa bagay na ito (batang larangan pa lang ito!). Pinamunuan ko rin at kasama ko sa pamumuno ang “Ethical AI” team ng Google, bago sila nag-alok sa akin at sa aking kasamang pamunuan pagkatapos ng aming ulat na nagbabala tungkol sa mga uri ng isyu para sa paglikha ng wika. Ikinritiko ng marami ang Google sa kanilang desisyon, na naniniwala ito ay nagpapakita ng sistematikong pagkakadiskrimina at pagbibigay prayoridad sa mabilis na pagpapatakbo kaysa sa maingat na estratehiya sa AI. Maaari akong lubos na sumang-ayon.

Muling ipinakita ng insidente sa Gemini ang hindi eksperto at mapanganib na estratehiya ng Google sa mga lugar kung saan ako ay pinakamakakatulong, at na kaya kong tulungan ang publiko upang mas maunawaan nang mas malawak. Pag-uusapan ng artikulong ito ang ilang paraan kung paano maaaring gumawa ng mas mabuti ang mga kompanya sa AI sa susunod, upang maiwasan ang pagbibigay ng hindi makatuwirang bala sa digmaang kultural ng kanan, at upang tiyakin na makinabang ang AI sa maraming tao sa hinaharap.

Isa sa mga mahalagang bahagi sa pagpapatupad ng etiks sa AI ay ang paglalarawan ng maaaring mangyaring paggamit, kabilang ang masamang paggamit at pagkakamali. Ibig sabihin nito ay pag-uusapan ang mga tanong tulad ng Pagkatapos ilabas ang modelo naming iniisip, paano gagamitin ito ng tao? At paano namin ito ide-disenyo upang maging pinakamabuti sa mga konteksto na ito? Ang pagtingin na ito ay tumutukoy sa pangunahing mahalaga ng “konteksto ng paggamit” sa paglikha ng mga sistema ng AI. Ang uri ng pag-iisip na ito, na nakabatay sa interaksyon ng lipunan at teknolohiya, ay mas mahirap para sa ilan kaysa sa iba – dito kung saan ang mga eksperto sa interaksyon ng tao at kompyuter, agham panlipunan, at agham kognitibo ay partikular na mahusay (na tumutukoy sa mahalagang interdisiplinari sa pag-hire sa tech). Ang mga papel na ito ay hindi binibigyan ng gaanong kapangyarihan at impluwensiya kaysa sa mga papel na inhinyero, at ang aking hula ay ganito rin sa kaso ng Gemini: ang pinakamahusay sa paglalarawan ng maaaring mangyaring paggamit ay hindi binigyan ng kapangyarihan, na nagresulta sa isang sistema na hindi maaaring harapin ang maraming uri ng angkop na paggamit, tulad ng paglalarawan ng pangkat na pangunahing puti sa kasaysayan.

Nagkakamali kapag pinapatrato ang lahat ng kaso bilang isang kaso, o kaya ay walang modelo ng kaso. Kaya, nang walang etiks na pag-aaral sa mga kasong maaaring mangyari sa iba’t ibang konteksto, maaaring hindi magkaroon ng mga modelo ang mga sistema ng AI na makakatulong sa pagkilala kung ano ang hinahanap ng user (at kung dapat bang lumikha nito). Para sa Gemini, maaari itong saklawin ang pagtukoy kung ang user ay naghahanap ng imaheng pangkasaysayan o nakapagpapalawak, at kung ang kanilang hiling ay hindi malinaw o masama ang intensyon. Ilang taon na ang nakalipas, ginawa ko ang sumusunod na chart upang matulungan. Ang tungkulin ay punan ang mga selda; punado ko na ngayon ito ng ilang halimbawa tungkol sa Gemini.

Ang mga berdeng selda (unang hilera) ay doon kung saan pinaka malamang na magkaroon ng mapagkalingang AI (hindi kung saan palaging magiging mapagkalinga ang AI). Ang mga pula selda (gitnang hilera) ay doon kung saan pinaka malamang na magkaroon ng mapinsalang AI (ngunit maaari ring doon kung saan manggagaling ang hindi inaasahang mapagkalingang pag-unlad). Ang natitirang mga selda ay mas malamang na magkaroon ng mga resulta na halo-halo – ang ilan ay mabuti, ang ilan ay masama.

Ang susunod na hakbang ay ang pag-uusap sa malamang na pagkakamali sa iba’t ibang konteksto, ang pagtugon sa hindi pantay na mga pagkakamali para sa mga pangkat na maaaring madiskrimina. Mukhang nakuha ng developers ng Gemini ang bahaging ito nang malakihan. Mukhang may pag-iisip sa pag-unlad ng Gemini na kilalanin ang panganib ng sobrang pagpapakita ng puting tao sa neutral o positibong sitwasyon, na magpapalakas sa maproblematikong dominante puting pananaw ng mundo. At kaya, malamang may submodule sa loob ng Gemini na idinisenyo upang ipakita ang mas madilim na kutis sa mga user.

Ang katotohanan na nakikita ang mga hakbang na ito sa Gemini, ngunit hindi ang mga hakbang sa pag-iisip ng maaaring mangyaring paggamit, maaaring bahagi dahil sa mas lumawak na kamalayan ng publiko sa bias sa mga sistema ng AI: isang pro-puting bias ay madaling mahulaang PR nightmare, na tumutugma sa , samantalang ang nusansadong pagtingin sa “konteksto ng paggamit” ay hindi. Ang kabuuang epekto ay isang sistema na “nabigo sa tama” sa pagiging kasama ng maaaring mangyaring angkop na paggamit.

Ang pangunahing punto ay maaaring magkaroon ng teknolohiya na makakatulong sa mga user at makakaiwas sa pinsala sa mga pinaka malamang na madamay nang negatibo. Ngunit kailangan mong magkaroon ng mga tao na magaling sa pagganito na kasama sa pagpapasya sa pagbuo at pagpapatupad. At madalas ay hindi binibigyan ng kapangyarihan ang mga tao na ito (o mas malala pa) sa tech. Hindi kailangang ganito: Maaari tayong magkaroon ng iba’t ibang landas para sa AI na nagbibigay kapangyarihan sa mga tao para sa kung ano sila pinakamahusay na makatulong. Kung saan ang iba’t ibang pananaw ay hinahanap, hindi pinapatahimik. Para makarating doon ay kailangan ang ilang paghihirap at pagkabalisa. Malalaman natin kung nasa mabuting landas na tayo kapag nagsimula nang makita ang mga executive sa tech na gaanong kadami ang imahen na nililikha ng Gemini.

Ang artikulo ay ibinigay ng third-party content provider. Walang garantiya o representasyon na ibinigay ng SeaPRwire (https://www.seaprwire.com/) kaugnay nito.

Mga Sektor: Pangunahing Isturya, Balita Araw-araw

Nagde-deliver ang SeaPRwire ng sirkulasyon ng pahayag sa presyo sa real-time para sa mga korporasyon at institusyon, na umabot sa higit sa 6,500 media stores, 86,000 editors at mamamahayag, at 3.5 milyong propesyunal na desktop sa 90 bansa. Sinusuportahan ng SeaPRwire ang pagpapamahagi ng pahayag sa presyo sa Ingles, Korean, Hapon, Arabic, Pinasimpleng Intsik, Tradisyunal na Intsik, Vietnamese, Thai, Indones, Malay, Aleman, Ruso, Pranses, Kastila, Portuges at iba pang mga wika.