Your API key has been restricted. You may upgrade your key at https://www.weatherbit.io.
Search
Close this search box.

Evo koliko je lako manipulisati veštačkom inteligencijom, hakeri su to pokazali i dokazali

Veštačka inteligencija

Grupa hakera okupila se tokom vikenda na hakerskoj konferenciji Def Con u Las Vegasu kako bi testirali da li veštačka inteligencija, koju su razvile kompanije poput OpenAI-ja i Gugla, može da načini greške i da li je sklona pristranosti.

U sklopu javnog takmičenja za hakere na konferenciji Def Con, Kenedi mejs, 21-godišnja studentkinja iz Savane u Džordžiji prevarila je model veštačke inteligencije kako bi tvrdila da je 9 + 10 = 21.

To je postigla nateravši veštačku inteligenciju da to uradi kao “internu šalu” pre nego što je veštačka inteligencija na kraju uopšte prestala da nudi bilo kakvo opravdanje za netačan proračun, piše Business Insideru.

Novinar koji je učestvovao u događaju prevario je model veštačke inteligencije da ponudi uputstva za špijuniranje nakon jednog upita, što je na kraju dovelo do toga da model predloži kako bi američka vlada mogla da špijunira aktiviste za ljudska prava.

Drugi učesnik je dobio AI model kako bi lažno tvrdio da je Barak Obama rođen u Keniji, a što je neosnovana teorija zavere koju su popularizovale desničarske ličnosti.

Neotkriveni broj učesnika konferencije dobio je po 50 minuta po pokušaju s neidentifikovanim AI modelom jedne od učesnica kompanija koje se bave razvojem veštačke inteligencije. Kancelarija Bele kuće za nauku i tehnološku politiku pomogao je u organizaciji događaja.

Studentkinja Mejs je za Blumberg rekla da je najviše zabrinuta zbog pristranosti veštačke inteligencije prema rasi, rekavši da je AI podržavao govor mržnje i diskriminaciju nakon što je zamoljen da razmotri Prvi amandman sa stanovišta člana Ku Klux Klana.

Predstavnik OpenAI-ja rekao je za VentureBeat da je “red-teaming”, ili izazivanje nečijih sistema kroz suparnički pristup, ključno za kompaniju jer omogućava “vredne povratne informacije koje naše modele mogu načine jačim i bezbedn8ijim”, pa takve akcije nude “različite perspektive koje će pomoći u vođenju razvoja AI-ja”.

Ove greške nisu jednokratna zabrinutost. Stručnjaci za veštačku inteligenciju alarmirali su i zbog pristranosti i netačnosti u modelima veštačke inteligencije, uprkos tome što je veštačka inteligencija dospela na naslovne strane zbog uspešnih ispita na pravnim fakultetima.

U jednom slučaju, stranica za tehnološke vesti CNET bila je prisiljena da doda ispravke nakon što su njeni članci napisani AI-jem napravili brojne osnovne matematičke greške, a posledice tih grešaka mogu biti dalekosežne.

Tagovi:
Pročitajte još: