(SeaPRwire) –   Si Ed Newton-Rex ay publikong nagresign sa kanyang executive na trabaho sa isang prominenteng kompanya ng AI noong nakaraang taon, sumunod sa isang pagtatalo sa kanyang mga boss tungkol sa kanilang pagtingin sa karapatan sa pagkopya.

Ang Stability AI, ang gumagawa ng sikat na AI image generation model na Stable Diffusion, ay nagpapakain ng milyun-milyong mga imahe na “scraped” mula sa internet nang walang pahintulot mula sa kanilang mga tagagawa. Tulad ng maraming iba pang nangungunang kompanya ng AI, ang Stability ay nagsabing ang teknikong ito ay hindi lumalabag sa batas sa karapatan dahil ito ay isang anyo ng “makatuwirang paggamit” ng may karapatang akda.

Si Newton-Rex, ang pinuno ng audio team ng Stability, ay hindi sumasang-ayon. “Ang mga kompanyang may halaga ng bilyun-bilyon ay, nang walang pahintulot, nagpapakain ng mga heneratibong AI models sa mga gawa ng mga tagagawa na maaaring maging kompetensya sa orihinal na mga gawa,” ayon sa kanya sa isang pahayag noong Nobyembre kung saan inihayag niya ang kanyang pagreresign sa X, ang dating kilalang Twitter.

Ito ay isa sa unang mga salvo sa isang labanan na ngayon ay nag-aagawan tungkol sa paggamit ng may karapatang akda na gawa upang pakainin ang mga sistema ng AI. Noong Disyembre, ang New York Times ay nagsampa ng kaso laban sa OpenAI sa isang korte sa Manhattan, na nag-aakusa na ang lumikha ng ChatGPT ay ilegal na ginamit ang milyun-milyong artikulo ng dyaryo upang pakainin ang mga sistema ng AI na layunin upang makipagkompetensya sa Times bilang isang mapagkakatiwalaang pinagkukunan ng impormasyon. Samantala, noong Hulyo 2023, si comedian na si Sarah Silverman at iba pang manunulat ay nagsampa ng kaso laban sa OpenAI at Meta, na nag-aakusa sa mga kompanya ng paggamit ng kanilang pagsulat upang pakainin ang mga modelo ng AI nang walang pahintulot mula sa kanila. Nang taong iyon din, ang mga artistang sina Sarah Andersen, at Karla Orti ay nagsampa ng kaso labang sa Midjourney, Stability AI, at DeviantArt, na gumagawa ng mga modelo ng image generating AI, na nag-aakusa sa mga kompanya na nagpapakain ng trabaho ng mga artista sa kanilang mga modelo ng AI.

Ang OpenAI ay sinabi na naniniwala silang walang basehan ang kaso ng New York Times laban sa kanila, na nagdagdag na bagama’t naniniwala silang ang paggamit ng datos na “scraped” mula sa internet ay makatuwiran, sila ay nagbibigay sa mga publisher ng pagpipilian na hindi makilahok “dahil tama ito.” Ang Stability AI ay hindi agad sumagot sa kahilingan para sa komento.

Noong Enero 17, inihayag ni Newton-Rex isang bagong uri ng pagsusumikap upang i-insentibayz ang mga kompanya ng AI na respetuhin ang mga tagagawa. Sinimulan niya ang isang non-profit na tinawag na ‘Fairly Trained,’ na nag-aalok ng sertipikasyon sa mga kompanya ng AI na nagpapakain lamang ng datos kung saan pumayag ang mga tagagawa. Pinapataas niya ang mga kompanya na may mas mabuting patakaran sa pagkukunan ng kanilang pagpapakain ng datos, na umaasa na i-i-insentibayz nito ang buong eko-sistema na tratuhin nang mas makatuwiran ang mga tagagawa. “May totoong etikal na panig sa industriyang ito, at layunin ng sertipikasyong ito ay bigyang-diin iyon,” ayon kay Newton-Rex sa TIME.

Siyam na mga modelo ang sertipikado ng Fairly Trained upang sabay sa pagbubukas nito—marami sa kanila ay ginawa ng mga kompanya sa larangan ng paglikha ng tunog. Kasama rito ang mga modelo ng Anthropic, isang kompanya para sa “kalusugan ng tunog” na nagkolaborahan sa mga artistang kabilang sina Grimes at James Blake. Ang sertipikasyon ay nagpapahiwatig na ang mga kompanya ay legal na nakalisensya sa datos kung saan pinalaki ang kanilang mga modelo, sa halip na simpleng pag-angkin ng makatuwirang paggamit.

Kasabay ng kanyang gawain sa AI, si Newton-Rex ay isa ring kompositor ng klasikal na musika na sumusulat ng mga koral. Ayon sa kanya, ang kanyang praktika sa sining ay motibado sa kanya na ipagtanggol ang mga tagagawa. “Ito ay lagi nang isyu na napakalapit sa aking puso, at siguradong bahagi nito ay mula sa pagiging musikero ko mismo,” aniya. “Mahirap malaman kung paano talaga maramdaman ng isang tagagawa hanggang hindi mo naranasan ang proseso ng paglalagay ng iyong gawa sa isang bagay at makita itong lumabas sa mundo.” Ang pagkainis sa pagtingin lamang ng mga kakarampot na royalty check na dumarating para sa kanyang sining, habang ang mga kompanya ng AI ay kumikita ng bilyun-bilyon, ay naniniwala siyang karaniwang damdamin sa mga artista ng anumang uri. “Napakaraming oras ang nilagay ko dito at ito ang natatanggap ko pabalik. Gusto ko bang gamitin nang walang karagdagang bayad ng isang kompanya upang itayo ang kanilang sariling mga modelo na kikita sila?”

Idinagdag niya: “Maraming mga tagagawa, kasama ko, ay sasabihin hindi sa ganun. [Ngunit] kung may tsansa para pumayag at makipag-usap tungkol sa mga termino, at may tsansa para kumita ng pera, maaaring maging isang mabuting bagay iyon.”

Ang Fairly Trained ay hindi nanghihingi sa mga kompanya na humahangad ng sertipikasyon na ibahagi ang kanilang mga dataset para sa pag-audit. Sa halip, itinatanong nito sa mga kompanya na punan ang mga nakasulat na sumbisyon na naglalarawan kung ano ang kasama sa kanilang mga dataset at saan nanggaling ang datos, ano ang mga proseso ng pag-iingat na kanilang nilalagay, at kung sila ay nagpapanatili ng mabuting tala, ayon kay Newton-Rex. “May malinaw na elemento ng tiwala doon,” aniya. “May usapan na dapat gawin tungkol doon, at kung kailangan pa ng higit. Ngunit ang aking pakiramdam ay… sa simula man lamang, ang isang sistemang nakabatay sa tiwala ay gumagana. At mas madi-disinsentibayz ang mga tao mula sa pagbibigay ng hindi tama na impormasyon, lalo na kung iyon ay maaaring magresulta sa pagkawala ng sertipikasyon sa hinaharap.” Karamihan sa mga kompanya na nag-aangkin ng mga exempsyon sa makatuwirang paggamit, ayon pa sa kanya, ay “malinaw” sa kanilang pananaw na sila ay legal na may karapatan na sundin ang estratehiyang iyon.

Ngunit, ang pagkuha lamang ng salita ng mga kompanya tungkol sa nilalaman at pinagmulan ng kanilang mga dataset ay isang paraan na may malinaw na butas. “Kailangan talagang makita natin ang mga sarili nilang dataset upang mapatunayan kung sila ay naglalaman pa rin ng problema,” ayon kay , isang scholar na nag-aaral sa nilalaman ng malalaking dataset na ginagamit upang pakainin ang AI. “Tunay na mahirap sabihin kung sapat ba o hindi, nang walang pagtingin sa mga dataset mismo.”

Karamihan sa pinakamalaking mga kompanya ng AI, kabilang ang OpenAI, Google DeepMind, Meta, at Anthropic, ay hindi nagdidiskubre ng nilalaman o kahit maraming detalye tungkol sa mga dataset na ginagamit upang pakainin ang kanilang pinakamalaking mga modelo. Ito ay madalas na hadlang para sa mga tagagawa na humahanap na malaman kung ginamit nga ang kanilang datos upang pakainin ang mga modelo nang walang pahintulot.

Ang OpenAI ay nagkasundo na sa ilang newsrooms, kabilang ang Associated Press at Axel Springer, upang lisensyahan ang mga artikulo ng balita para sa paggamit bilang pagpapakain ng datos. Nasa karagdagang usapan ito sa ilang iba pa, kabilang ang CNN, Fox, at TIME.

Ang artikulo ay ibinigay ng third-party content provider. Walang garantiya o representasyon na ibinigay ng SeaPRwire (https://www.seaprwire.com/) kaugnay nito.

Mga Sektor: Pangunahing Isturya, Balita Araw-araw

Nagde-deliver ang SeaPRwire ng sirkulasyon ng pahayag sa presyo sa real-time para sa mga korporasyon at institusyon, na umabot sa higit sa 6,500 media stores, 86,000 editors at mamamahayag, at 3.5 milyong propesyunal na desktop sa 90 bansa. Sinusuportahan ng SeaPRwire ang pagpapamahagi ng pahayag sa presyo sa Ingles, Korean, Hapon, Arabic, Pinasimpleng Intsik, Tradisyunal na Intsik, Vietnamese, Thai, Indones, Malay, Aleman, Ruso, Pranses, Kastila, Portuges at iba pang mga wika.