Ova godina bi se mogla pokazati jednom od najkritičnijih u tehnološkoj historiji. Umjetna inteligencija više nije ni obećanje ni nejasna prijetnja budućnosti – ona je već tu, preoblikuje ekonomije, mijenja geopolitičku ravnotežu i utiče na izbore, medijski prostor i sigurnosne politike. Istovremeno otvara i duboka pitanja o granicama ljudske kontrole i odgovornosti.

Vlade, tehnološki divovi i vodeći svjetski istraživači nalaze se u svojevrsnom sudaru oko toga kako regulisati tehnologiju koja napreduje brže od političkih institucija. U centru rasprave su ključna pitanja: koja pravila postaviti, ko će ih provoditi, koga treba zaštititi, a kome dati moć da certificira ili ograniči razvoj najnaprednijih modela umjetne inteligencije.


Evropa, SAD i Kina – tri filozofije regulacije

Evropa: Sveobuhvatan okvir i strah od gubitka inovacija

Evropska unija je prva regija u svijetu koja je odlučila da umjetnoj inteligenciji treba sveobuhvatan institucionalni okvir. Zakon o AI uvodi kategorizaciju rizika – neprihvatljiv, visok, ograničen i nizak – s ciljem da zaštiti građane i osnovna prava, te spriječi zloupotrebe u ključnim sektorima poput zdravstva, pravosuđa i obrazovanja.

No, upravo u detaljima nastaje otpor. Evropska filozofija kaže: AI ne može biti prepušten tržištu, mora djelovati u sigurnom okruženju. Međutim, kompanije tvrde da previše regulacije guši inovacije. EU želi postati globalni regulatorni model, ali se suočava s problemom – nema vlastitih tehnoloških giganata koji bi mogli nositi teret implementacije na svjetskom nivou.

Mala i srednja preduzeća brinu zbog troškova usklađivanja, dok organizacije za tehnološka prava upozoravaju da zakon čak ni nije dovoljno strog kada su u pitanju najmoćniji sistemi, tzv. granični modeli.

Sjedinjene Države: „Inovacije prije svega“

SAD nemaju jedinstven zakon o umjetnoj inteligenciji. Umjesto toga, regulacija se kreira kroz:

  • izvršne uredbe predsjednika,
  • smjernice za federalne agencije,
  • zakone na nivou pojedinačnih država,
  • kontrolu izvoza naprednih čipova i tehnologije.

Američka filozofija je jasna: ne gušiti inovacije. Vlada želi kompanijama dati prostor za rast, a najveći utjecaj dolazi iz nastojanja Washingtona da ograniči tehnološko jačanje Kine kontrolom strateških komponenti.

Administracija predsjednika Donalda Trumpa razmatra i pritisak na savezne države kako bi se spriječila fragmentirana, preoštra lokalna regulacija.

Kina: Brzina, kontrola i državna moć

Kina je usvojila jedne od najstrožijih i najbržih AI regulacija. Od 2022. ima:

  • propise o algoritmima,
  • pravila za deepfake sadržaje,
  • sistem državnog licenciranja AI modela.

Kineski pristup temelji se na državnom nadzoru: umjetna inteligencija je strateška infrastruktura, i kao takva mora biti usklađena s interesima države. Iako omogućava brzo uvođenje tehnologije, model je kritikovan zbog netransparentnosti i izostanka nezavisnog nadzora.


Šta kažu vodeći naučnici?

Najistaknutiji istraživači umjetne inteligencije oglašavaju uzbunu i traže globalne mjere.

Yoshua Bengio, jedan od “kumova AI”, zalaže se za strogu regulaciju graničnih modela. Predlaže:

  • nezavisno testiranje sigurnosti,
  • potpunu transparentnost podataka o obuci,
  • međunarodnu koordinaciju nalik nuklearnoj regulaciji.

Geoffrey Hinton, koji je napustio Google kako bi slobodnije govorio, upozorava da veliki modeli pokazuju nepredvidiva ponašanja. Zalaže se za:

  • međunarodnu saradnju,
  • ograničavanje autonomije sistema,
  • postepen prelazak na sigurnije arhitekture.

Stuart Russell smatra da je osnovna greška u dizajnu to što se AI sistemi stvaraju da maksimiziraju unaprijed zadani cilj. Predlaže potpuno novu paradigmu: sisteme koji nisu sigurni u svoje ciljeve, kako bi ljudi mogli zadržati kontrolu.

Timnit Gebru naglašava da rasprava ne može biti samo tehnička – mora obuhvatiti pitanja pravednosti, pristranosti, diskriminacije i društvenih nejednakosti.

EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW