OpenAI razvija alat koji će kreatorima sadržaja omogućiti da bolje kontrolišu kako se njihov sadržaj koristi u obuci generativne veštačke inteligencije. Alat, nazvan Media Manager, omogućiće kreatorima i vlasnicima sadržaja da identifikuju svoja dela u OpenAI-ju i navedu kako žele da ti radovi budu uključeni ili isključeni iz AI istraživanja i obuke.
Cilj je da se alatka uspostavi do 2025. godine, poručuju iz OpenAI-ja, jer kompanija radi sa “kreatorima, vlasnicima sadržaja i regulatorima” u pravcu standarda, možda preko upravnog odbora industrije kome se nedavno pridružio.
“Ovo će zahtevati najsavremenije istraživanje mašinskog učenja kako bismo napravili prvi alat te vrste koji će nam pomoći da identifikujemo tekst, slike, audio i video zaštićene autorskim pravima u više izvora i odražavamo preferencije kreatora. Vremenom planiramo da uvedemo dodatne opcije i funkcije”, objavio je OpenAI u postu na blogu.
Obuku AI modela i autorska prava
Čini se da je Media Manager odgovor OpenAI-ja na sve veće kritike njegovog pristupa razvoju veštačke inteligencije, koji se u velikoj meri oslanja na prikupljanje javno dostupnih podataka sa interneta.
Nedavno je osam istaknutih američkih novina, uključujući Chicago Tribune, tužilo OpenAI za kršenje autorskih i izdavačkih prava u vezi sa korišćenjem generativne veštačke inteligencije od strane kompanije, optužujući OpenAI za krađu članaka za obuku generativnih AI modela koje je potom komercijalizovao bez kompenzacije ili navođenja autorstva izvornih publikacija.
Generativni modeli veštačke inteligencije, uključujući i OpenAI-jev ChatGPT, su vrste modela koji mogu da analiziraju i generišu tekst, slike, video zapise i još mnogo toga. Oni se obučavaju na ogromnom broju primera koji se obično dobijaju sa javnih sajtova i skupova podataka.
OpenAI i drugi kreatori generativne veštačke inteligencije tvrde da poštena upotreba, odnosno pravna doktrina koja dozvoljava korišćenje dela zaštićenih autorskim pravima da bi se napravila sekundarna kreacija, sve dok je transformativna, štiti njihovu praksu javnih podataka i njihovog korišćenja za obuku modela.
Odbrana od budućih tužbi
Nedavno je OpenAI tvrdio da bi bilo nemoguće stvoriti korisne AI modele bez materijala zaštićenog autorskim pravima. U nastojanju da umiri kritičare i odbrani se od budućih tužbi, OpenAI je preduzeo korake da se sa kreatorima sadržaja “nađe negde na sredini”.
OpenAI je prošle godine dozvolio umetnicima da se “oslobode” i uklone svoj rad iz skupova podataka koje kompanija koristi za obuku svojih modela za generisanje slika.
Kompanija takođe dozvoljava vlasnicima web lokacija da putem standarda robots.tkt, koji daje uputstva o web lokacijama botovima koji indeksiraju web, naznače da li sadržaj na njihovoj web lokaciji može da se skrejpuje radi obučavanja AI modela.
OpenAI nastavlja da potpisuje ugovore o licenciranju sa velikim vlasnicima sadržaja, uključujući novinske organizacije, biblioteke medija i sajtove za pitanja i odgovore, kao što je Stack Overflow.
OpenAI nije stigao daleko
Međutim, kreatori sadržaja su OpenAI-jev tok rada za onemogućavanje slika, koji zahteva podnošenje pojedinačne kopije svake slike koja će biti uklonjena zajedno sa opisom, opisali kao težak.
OpenAI, navodno, licenciranje sadržaja plaća relativno malo. Kao što OpenAI sam priznaje u svom blog postu, trenutna rešenja kompanije se ne bave scenarijima u kojima se radovi kreatora citiraju, remiksuju ili ponovo postavljaju na platforme koje ne kontrolišu.
Osim OpenAI-ja, veliki broj trećih strana pokušava da izgradi univerzalne alate za onemogućavanje upotrebe za generativnu veštačku inteligenciju.
Startup Spavning AI, čiji partneri uključuju Stabiliti AI i Hugging Face, nudi aplikaciju koja identifikuje i prati IP adrese robota kako bi blokirali pokušaje skrejpinga, kao i bazu podataka u kojoj umetnici mogu da registruju svoje radove kako bi zabranili obuku prodavaca koji odluče da poštuju zahteva.
StegAI i Imatag pomažu kreatorima da uspostave vlasništvo nad svojim slikama primenom vodenih žigova neprimetnih za ljudsko oko. A Nightshade, projekat sa Univerziteta u Čikagu, “truje” podatke o slikama kako bi ih učinio beskorisnim ili ometajući obuku AI modela.