Veštačka inteligencija će uvek zahtevati intervenciju ljudi

Share on facebook
Share on twitter
Share on whatsapp
Share on email
Iako su mogućnosti AI praktično neograničene, to ne znači da granice ne treba da postoje. Sve se svodi na poznatu diskusiju „može” nasuprot „treba”.
Share on facebook
Share on twitter
Share on whatsapp
Share on email

Ovaj članak može da se sluša Poslušajte tekst koji slijedi u nastavku

Evropska komisija je 21. aprila predstavila prvi pravni okvir za veštačku inteligenciju (AI), koji će se baviti pitanjima rizika AI, čime je Evropa postala vodeći igrač na globalnom planu. Sve više se postavlja pitanje odgovornog korišćenja veštačke inteligencije i rizika koje nosi preterana autonomija.

Koncept „odgovorne AI” odnosi se na način na koji organizacije koriste tehnologiju i da li se pridržavaju principa koji doprinose zajednici, tiču se zaštite pojedinaca i njihovih osnovnih prava, i uopšte na pouzdanost primene AI.

Korišćenje AI mora biti nepristrasno, ali je potrebno napraviti jasne smernice koje je neophodno primeniti. Potrebno je pažljivo definisati zaštitne mere, standarde i najbolje prakse korišćenja kako bi svi zaposleni u kompanijama koji koriste ove tehnologije znali šta se od njih očekuje.

Iako su mogućnosti AI praktično neograničene, to ne znači da granice ne treba da postoje. Sve se svodi na poznatu diskusiju „može” nasuprot „treba”. U tom cilju, regulatorno okruženje koje se brzo razvija pružiće preduzećima zakonske parametre o tome na koji način mogu da koriste AI. Kompanije moraju da se ponašaju odgovorno da bi uspostavile smernice i principe o tome šta mogu, a šta ne smeju raditi s podacima.

Razumevanje pristrasnosti

Princip pristrasnosti je došao u žižu javnosti s rasnom i polnom pristrasnošću sistema za preponavanje lica. Tehnološki giganti poput IBM-a i Amazon-a suspendovali su ili potpuno povukli iz upotrebe svoje sisteme za prepoznavanje lica zasnovane na AI algoritmima.
Mora postojati nepristrasnost odluka koje se donose i to se mora uzeti u obzir tokom životnog ciklusa podataka. Kompanije moraju umanjiti rizik od pristrasnosti. Moraju biti proaktivne u odabiru skupova podataka kojima se treniraju modeli kako bi bili reprezentativni za populaciju za koju će se koristiti sistem AI.

Ljudska intervencija

Kada je reč o „odgovornoj AI”, najvažnije je staviti čoveka u jednačinu. Postoji razlika između automatizovanog odlučivanja i pomaganja u procesu donošenja odluka. Kompanije treba da naprave strukturu upotrebe i primene AI imajući na umu pristup koji je fokusiran na ljude.
Veoma je važno da se „odgovorna AI” primenjuje od samog početka, a ne kao naknadna zamisao. Pokušaji dodavanja na već implementirana rešenja mnogo su komplikovaniji i skuplji, i verovatno zahtevaju potpuni redizajn postojećih modela. Bolje je stvari postaviti kako treba od samog početka.

Uspeh primene AI dolazi iz partnerstva ljudi i algoritama. Odgovarajući nivo ljudskog nadzora u velikoj meri zavisi od toga gde se koristi. Prilagođavanje oglasa na Web lokaciji ne zahteva mnogo ljudske intervencije, ali podrška donošenju odluka u domenima zdravstvene zaštite ili pravosuđa mnogo je kritičnija zbog potencijalnih uticaja na pojedince i zahtevaće drugačiju kombinaciju analitičkog uvida i ljudskog inputa.

Veštačka inteligencija može doneti ogromnu korist za ljude, životnu sredinu i društvo u celini, ali ne može delovati autonomno. Ona treba da služi našim potrebama i neophodno je da ljudi budu deo jednačine. Bez obzira na sve, jedan od najvećih rizika je samo razmišljati o tome šta bi moglo da pođe po zlu i ne uzeti u obzir sve koristi koje tehnologija može doneti.

Čitajte više