Predlog Evropske Komisije za regulaciju veštačke inteligencije (AI)

Predlog Evropske Komisije za regulaciju veštačke inteligencije (AI)

10.03.2022.

Evropska Komisija je 2021. godine usvojila predlog uredbe kojom se utvrđuju usklađena pravila o veštačkoj inteligenciji. Predlog je opisan kao prvi zakonski okvir za pravno uređenje veštačke inteligencije (AI), zajedno sa koordinisanim planom koji bi pružio garancije u vezi osnovnih ljudskih prava i opšte bezbednosti društva uz unapređenje AI inovacija i investicija. Naime, Komisija je prepoznala prednosti koje sistemi zasnovani na veštačkoj inteligenciji mogu doneti društvu kao celini te je napravila pozitivan korak ka regulisanju i smanjenju mogućih negativnih uticaja trenutno najizazovnije tehnologije.

Veštačka inteligencija je široko definisana članom 3 stavom 1 Predloga Uredbe kao softver razvijen pomoću jedne ili više tehnika i metoda navedenih u Aneksu I (kao što su mašinsko učenje, pristupi zasnovani na logici i znanju, statistički pristupi, Bajesova procena i metode pretrage i optimizacije) i koji mogu, za dati skup ciljeva definisanih od strane čoveka, da generišu izlazne rezultate kao što su sadržaj, predviđanja, preporuke ili odluke koji utiču na okruženje sa kojim su u interakciji. Čini se da je ova definicija nastala pod uticajem tumačenja AI od strane Organizacije za ekonomsku saradnju i razvoj (OECD) iz Preporuke Saveta o veštačkoj inteligenciji iz 2019. godine.

Svrha Predloga Uredbe je da podrži Evropski Uniju u cilju da postane globalni lider u razvoju pouzdane i bezbedne veštačke inteligencije. Termin pod nazivom ”pouzdana veštačka inteligencija” je unet u Etičke smernice za pouzdanu veštačku inteligenciju 2019. godine od strane Grupe Eksperata koja je postavila sedam ključnih zahteva koje sistemi zasnovani na veštačkoj inteligenciji trebaju da ispune da bi mogli da se smatraju pouzdanim kao što su nadzor od strane čoveka, odgovornost, privatnost i upravljanje podacima, transparentnost, nediskriminacija i pravičnost te dobrobit društva i životne sredine.

Centralni deo predložene Uredbe čini pristup zasnovan na riziku koji zabranjuje posebne neprihvatljive upotrebe veštačke inteligencije i striktno reguliše druge sisteme zasnovane na veštačkoj inteligenciji koji bi mogli da prouzrokuju značajne opasnosti. Mogli bismo ovaj pristup vizuelno da zamislimo kao piramidu i da krenemo od vrha na dole. Članom 5 Uredbe propisane su zabranjene upotrebe veštačke inteligencije kao što su sistemi ili aplikacije koji mogu da manipulišu ljudima subliminalnim tehnikama te sistemi koji dozvoljavaju ‘društveno bodovanje’ od strane državnih institucija. U drugom sloju piramide imamo nadalje visokorizične sisteme zasnovane na veštačkoj inteligenciji koji uključuju upotrebu navedene tehnologije u raznim društveno značajnim sektorima kao što su prosveta, zakonodastvo, bezbenosne komponente proizvoda, kritična infrastruktura i drugim bitnim sektorima te su, stoga, podvrgnuti strogim zahtevima pre pristupanja tržištu. Naime, svaki sistem daljinske biometrijske identifikacije se također smatra visokorizičnim sistemom.

Treći sloj piramide gledajući od vrha na dole sadrži AI sisteme sa ograničenim rizikom. Glavna karakteristika ovih sistema zasnovanih na veštačkoj inteligencije je da su povezana sa obavezama u pogledu transparentnosti. Na primer, tehnologije kao što su ‘deep fake’ (sistem koji stvara ili manipuliše vizuelnim sadržajem, audio ili video sadržajem u kojem postoji znatna sličnost sa postojećim licima, predmetima, mestima ili drugim subjektima te koji bi se nekom licu netačno činio istinitim ili verodostojnim) i sistemi kreirani za interakciju sa ljudskim bićima, smatraju se upotrebama za koje treba ispuniti posebne zahteve u pogledu transparentnosti. Konačno, baza piramide sadrži sisteme zasnovane na veštačkoj inteligenciji sa minimalnim rizikom kao što su filteri za neželjenu poštu ili video igrice zasnovane na upotrebi veštačke inteligencije. U skladu sa mišljenjem Evropske Komisije, najveći procenat upotrebe veštačke inteligencije ulazi upravo u ovu kategoriju. Za pružaoce ovakvih sistema, Komisija preporučuje sačinjavanje dobrovoljnih kodeksa ponašanja u skladu sa odredbama člana 69 Predloga Uredbe.

Scroll