Upozorenja na opasnosti od veštačke inteligencije

Share on facebook
Share on twitter
Share on whatsapp
Share on email
AleksCG.pro
AleksCG.pro
„Moramo da budemo vrlo oprezni, budući da bi podivljali AI mogao da bude opasniji od nuklearnih bombi.“
Share on facebook
Share on twitter
Share on whatsapp
Share on email
Novo!
Sačuvajte članke sa nalogom

Nakon što se prijavite preko Cafe Sandžak, možete sačuvati priče i lako ih pregledavati kasnije na bilo kojem uređaju.

Ovaj članak može da se sluša Poslušajte tekst koji slijedi u nastavku

Različiti eksperti već neko vreme upozoravaju na opasnosti od robota i veštačke inteligencije, a glavni eksperti iz OpenAI su nedavno izneli tvrdnje koje su ozbiljnije od drugih. Radi se o tome da naučnici iz ove laboratorije kažu da neuralne mreže već razvijaju svest.

OpenAI je osnovan 2015. godine, a jedan od originalnih osnivača je bio i Elon Musk. Okupila ih je zajednička zabrinutost da bi veštačka inteligencija jednog dana mogla da ugrozi čovečanstvo, a Musk je još tada rekao da „moramo da budemo vrlo oprezni, budući da bi podivljali AI mogao da bude opasniji od nuklearnih bombi“. To znači da bi AI tehnologiju trebalo razvijati odgovorno i tako da uvek bude pod kontrolom.

Nakon što je 9. februara 2022. godine Ilya Sutskever – jedan od eksperata iz OpenAI, tvitovao da veruje da su trenutne neuralne mreže već „pomalo svesne“, zabrinutost raste. Tvit je kasnije podelio veliki broj Twitter korisnika, ali nije poznato da li se s tvrdnjom slažu, ili je se samo boje.

Većina eksperata ipak veruje da smo daleko od toga, dok drugi tvrde da Sutskever ima uvid u sisteme kojima većina ostalih nema pristup. Ostaje nam da vidimo da li je mašinska svest sledeće veliko zlo.

SANDžaklija preporučuje

Šta naši urednici čitaju, gledaju i slušaju svake hefte. Prijavite se za Heftični Bilten i nikad više ne propustite velike priče.

Čitajte više

Slušajte audio izdanja magazina Sandžaklija

Budimo prijatelji

HEFTIČNI BILTEN

Prijavom na Heftični Bilten slažete se sa Uslovima korišćenja i politikom privatnosti.