Veštačka inteligencija dobija svoja pravila: Šta kompanije moraju da znaju?
Evropska unija je usvojila prvi sveobuhvatni zakon koji reguliše veštačku inteligenciju — EU AI Act (Regulativa 2024/1689).
Kako zakon razvrstava AI sisteme
Zakon ne tretira sve AI sisteme jednako — pravila zavise od stepena rizika koji sistem nosi.
-
Minimalan ili nikakav rizik: Većina svakodnevnih sistema (npr. spam filteri, jednostavne AI aplikacije) — za njih nema posebnih obaveza.
-
Sistemi sa “transparentnosnim rizikom”: Na primer, chatbotovi ili generisani sadržaj — moraju obavestiti korisnika da je reč o AI.
-
“Visokorizični” sistemi: U slučaju da AI utiče na zdravlje, obrazovanje, zapošljavanje, pravosuđe, infrastrukturu i slično — primenjuju se najstroža pravila.
-
Zabranjene primene: Određene prakse, koje se smatraju neprihvatljivim rizikom, biće zabranjene.
Obaveze za korisnike i proizvođače “visokorizičnih” AI sistema
Kod korisnika (deployera):
-
Sistemi se smeju koristiti isključivo prema uputstvima proizvođača.
-
Neophodan je ljudski nadzor — nad sistemom mora biti lice sa odgovarajućom obukom i ovlašćenjima.
-
Mora se čuvati zabeleženi “log” rada sistema najmanje šest meseci.
-
Ako se otkrije bilo kakav rizik ili problem — upotreba se mora prekinuti, a provajder i nadležni organi obavestiti.
Kod provajdera / proizvođača:
-
Obavezan je “post-market monitoring”: praćenje kako sistem radi u stvarnim uslovima, beleženje performansi, detekcija grešaka ili degradacije, analiza novih rizika.
-
Tehnička i organizaciona dokumentacija mora biti potpuna — uključujući plan za nadzor, upravljanje rizicima, kontrolu kvaliteta i ažuriranja tokom celog životnog veka sistema.
Zaštita, zabrane i kazne
Zakonom su uvesti strogi zahtevi za robustnost, tačnost, cyber bezbednost i stabilnost sistema — da budu otporni na manipulacije i sajber napade.
Neke prakse su izričito zabranjene: manipulacija ljudskim ponašanjem, socijalno bodovanje, neciljano masovno biometrijsko nadziranje, automatsko prepoznavanje emocija na poslu ili u školama — sve to spada u “neprihvatljivi rizik”.
Pre nego što visokorizični AI sistemi stupe na tržište, moraju proći procenu rizika, imati tehničku i organizacionu dokumentaciju, plan monitoringa i — kada je predviđeno — sertifikaciju.
Za najteže prekršaje moguće su kazne do 7 odsto globalnog godišnjeg prihoda kompanije.
Šta ovo znači za kompanije i korisnike AI-ja?
Ovaj zakon uvodi obavezu nadzora i transparentnosti — AI više ne može da bude “crna kutija” bez odgovornosti. Ako kompanija proizvodi ili koristi “visokorizične” AI sisteme, mora aktivno voditi evidenciju, nadgledanje i biti spremna na sertifikaciju i odgovornost.
Za krajnje korisnike — to znači da bi primena AI u kritičnim oblastima (poput zdravstva, zapošljavanja, pravosuđa) trebalo da bude bezbednija, odgovornija i pod odgovarajućom regulativom.
JOŠ IZ KATEGORIJE
-
Kako je Srcolica postala više od obične stolice: Hoklica u obliku srca 'priča' jezikom ljubavi
-
Deca iz socijalno ugroženih sredina otišla na more
-
Umor koji nas uči: Kako pronaći mir u svakodnevnom ritmu?
-
Četiri dana muzike, zabave i kupovine povodom otvaranja Riva Shoping Centra
-
'Dance Me to the End of Love' - ples života, tuge i ljubavi: Koenova pesma inspirisana Holokaustom!
-
BRAZILSKA MADEROTERAPIJA oblikuje telo, smanjuje stres, ublažava bol
-
Autor je knjige 'Šah sa Vladimirom', humanitarac i novinar: Ovaj mladi čovek je velika inspiracija
-
ŽIVOT u očima fotografa širom sveta
-
ŠIRITE I ŽIVITE LJUBAV, OSMEH NEK VAM BUDE IMPERATIV SVAKOG DANA: Srećnu 2022. godinu vam želi LIFE MAGAZIN!
-
Zašto treba piti čaj?
-
Ljubavna priča koja traje više od pola veka: Bračni par Martinetti dokaz da ljubav, poštovanje i poverenje mogu sve
-
Iz skoro mrtvog stanja, sebe sam lansirala među žive za jedan dan - Mina Julardžija o svojoj svakodnevnoj borbi sa cističnom fibrozom








.jpeg)
.jpg)


.jpg)

.jpg)