na vrh

Veštačka inteligencija dobija svoja pravila: Šta kompanije moraju da znaju?

  • FOTO: Pixabay

Evropska unija je usvojila prvi sveobuhvatni zakon koji reguliše veštačku inteligenciju — EU AI Act (Regulativa 2024/1689).

Kako zakon razvrstava AI sisteme

Zakon ne tretira sve AI sisteme jednako — pravila zavise od stepena rizika koji sistem nosi. 

  • Minimalan ili nikakav rizik: Većina svakodnevnih sistema (npr. spam filteri, jednostavne AI aplikacije) — za njih nema posebnih obaveza. 

  • Sistemi sa “transparentnosnim rizikom”: Na primer, chatbotovi ili generisani sadržaj — moraju obavestiti korisnika da je reč o AI. 

  • “Visokorizični” sistemi: U slučaju da AI utiče na zdravlje, obrazovanje, zapošljavanje, pravosuđe, infrastrukturu i slično — primenjuju se najstroža pravila. 

  • Zabranjene primene: Određene prakse, koje se smatraju neprihvatljivim rizikom, biće zabranjene. 

Obaveze za korisnike i proizvođače “visokorizičnih” AI sistema

Kod korisnika (deployera):

  • Sistemi se smeju koristiti isključivo prema uputstvima proizvođača. 

  • Neophodan je ljudski nadzor — nad sistemom mora biti lice sa odgovarajućom obukom i ovlašćenjima.

  • Mora se čuvati zabeleženi “log” rada sistema najmanje šest meseci. 

  • Ako se otkrije bilo kakav rizik ili problem — upotreba se mora prekinuti, a provajder i nadležni organi obavestiti. 

Kod provajdera / proizvođača:

  • Obavezan je “post-market monitoring”: praćenje kako sistem radi u stvarnim uslovima, beleženje performansi, detekcija grešaka ili degradacije, analiza novih rizika. 

  • Tehnička i organizaciona dokumentacija mora biti potpuna — uključujući plan za nadzor, upravljanje rizicima, kontrolu kvaliteta i ažuriranja tokom celog životnog veka sistema.

FOTO: Unsplash

Zaštita, zabrane i kazne

Zakonom su uvesti strogi zahtevi za robustnost, tačnost, cyber bezbednost i stabilnost sistema — da budu otporni na manipulacije i sajber napade. 
Neke prakse su izričito zabranjene: manipulacija ljudskim ponašanjem, socijalno bodovanje, neciljano masovno biometrijsko nadziranje, automatsko prepoznavanje emocija na poslu ili u školama — sve to spada u “neprihvatljivi rizik”. 
Pre nego što visokorizični AI sistemi stupe na tržište, moraju proći procenu rizika, imati tehničku i organizacionu dokumentaciju, plan monitoringa i — kada je predviđeno — sertifikaciju. 


Za najteže prekršaje moguće su kazne do 7 odsto globalnog godišnjeg prihoda kompanije.

Šta ovo znači za kompanije i korisnike AI-ja?

Ovaj zakon uvodi obavezu nadzora i transparentnosti — AI više ne može da bude “crna kutija” bez odgovornosti. Ako kompanija proizvodi ili koristi “visokorizične” AI sisteme, mora aktivno voditi evidenciju, nadgledanje i biti spremna na sertifikaciju i odgovornost.

Za krajnje korisnike — to znači da bi primena AI u kritičnim oblastima (poput zdravstva, zapošljavanja, pravosuđa) trebalo da bude bezbednija, odgovornija i pod odgovarajućom regulativom.