Europska komisija je u utorak izdala interne smjernice namijenjene osoblju za korištenje i interakciju s generativnim modelima umjetne inteligencije i pritom navela njihova ograničenja i opasnosti
Dokument je uz prateću napomenu dobio na uvod Euractiv, a odnedavno su dostupni i u internom informacijskom sustavu Europske komisije.
Dokument je usvojen 27. travnja.
Sigurnosni okviri
"Smjernice se odnose na third-party alate koji su javno dostupni online, kao što je ChatGPT. Cilj im je da pomognu osoblju zaposlenom u Europskoj komisiji da se bolje upoznaju s rizicima i ograničenjima koje takvi alati mogu imati te pružiti podršku za prikladno korištenje tih alata", navodi se u pratećoj napomeni koju je sastavilo tijelo Komisije za upravljanje informacijskom tehnologijom (Information Management Steering Board).
Komisija napominje kako ovi alati imaju potencijal da poboljšaju učinkovitost i kvalitetu uredskog rada jer mogu pomoći pri pisanju izvještaja i računalnog koda, ali da se isto tako treba paziti da se upotreba tih alata stavi u određene sigurnosne okvire.
'Živi dokument'
Kaže se i da "rizici i ograničenja koji se ovdje razmatraju nisu nužno relevantni za interno razvijene alate same Europske komisije". Za interne alate koje je razvila ili ih kontrolira Komisija pravila će vrijediti slučaja do slučaja, "prema postojećim korporativnim pravilima za IT sustave".
Također se ističe da su smjernice "živi dokument" koji će se ažurirati i mijenjati u skladu s razvojem tehnologije i budućom regulativom, osobito onom u novom Zakonu o umjetnoj inteligenciji EU (AI Act).
Rizici i opasnosti
Prvi rizik koji se eksplicitno navodi jest potencijalno javno dijeljenje osjetljivih informacija ili osobnih podataka, budući da se svaki unos koji korisnici upišu u AI model šalje pružatelju AI servisa, što znači da ga AI model može zapamtiti i ponovno koristiti u budućim generiranjima.
Stoga je osoblju EU zabranjeno dijeliti "informacije koje nisu već javno dostupne, kao ni osobne podatke" s online AI modelima.
Drugi dio odnosi se na nedostatke AI modela koji mogu dovesti do netočnih ili pristranih odgovora, i to zbog manjkavosti podataka korištenih za treniranje AI modela ili samog dizajna algoritma koji njime upravlja i u kojeg programeri AI modela ne nude uvijek transparentan uvid.
Stoga službenici EU "uvijek moraju kritički analizirati svaki odgovor koji proizvede generativni AI model, u smislu moguće pristranosti ili činjenično netočnih informacija".
Opasnost kršenja autorskih prava
Osim toga, u dokumentu se dodaje i da nedostatak transparentnosti također implicira da postoji i rizik od kršenja prava intelektualnog vlasništva, a posebno autorskih prava, budući da za treniranje AI modela može biti korišten i sadržaj koji nije u javnoj domeni. Budući da rezultati koje daje AI model obično ne pružaju podatke o vlastitim izvorima, gotovo je nemoguće da korisnik u takvim slučajevima dobije odobrenje vlasnika autorskih prava.
Stoga se osoblje Komisije poziva da kritički procjenjuju krši li nešto što je proizveo AI model prava intelektualnog vlasništva i nalaže da se "nikad ne smije izravno kopirati rezultat generativnog AI modela u tekstu javnih dokumenata, kao što su tekstovi koje objavljuje Europska komisija, a posebno onih koji su pravno obvezujući".
Osim toga, ističe se i da generativni AI modeli katkad imaju dug vremenski odaziv ili mogu biti povremeno nedostupni. Stoga je osoblju Komisije zabranjeno da se oslanja na takve alate za sve zadatke koji imaju ključnu važnost i koji zahtijevaju brzu reakciju.
(Preveo David Spaić-Kovačić. Originalan članak pročitajte ovdje: EU Commission issues internal guidelines on ChatGPT, generative AI)