U Belgiji je nedavno otvorena ozbiljna javna i akademska debata o upotrebi vještačke inteligencije u obrazovanju, nakon što je Petra de Sutter, rektorka Univerzitet u Gentu, priznala da je koristila vještačku inteligenciju za pisanje svog uvodnog govora na početku akademske godine u septembru prošle godine. Govor je, međutim, sadržavao više netačnosti, uključujući i dva izmišljena citata, što je izazvalo zabrinutost akademske zajednice i šire javnosti. O ovom slučaju izvijestio je belgijski javni servis RTBF.

Halucinacije vještačke inteligencije i lažni citati

Jedan od najproblematičnijih dijelova govora bio je citat koji je pripisan Albert Einstein: „Dogma je neprijatelj napretka“. Iako rečenica zvuči uvjerljivo i u skladu je s filozofijom slavnog naučnika, on je nikada nije izgovorio. Riječ je o fenomenu koji se u svijetu vještačke inteligencije naziva „halucinacija“ – situaciji u kojoj AI generiše netačne ili potpuno izmišljene informacije, ali ih predstavlja kao činjenice.

Ovakve greške često se javljaju kada se koriste alati poput ChatGPT za pisanje govora, eseja ili analiza. Ako korisnik zatraži citat poznate ličnosti o određenoj temi, sistem može ponuditi autentičan navod, ali jednako lako može generisati „vjerovatan“ citat – rečenicu koja statistički zvuči kao nešto što bi ta osoba mogla reći, iako nema nikakvu stvarnu osnovu.

Stručna objašnjenja i etičke dileme

Fenomen halucinacija objasnio je Hugues Bersini, profesor i direktor laboratorije za vještačku inteligenciju na jednom belgijskom univerzitetu. Prema njegovim riječima, vještačka inteligencija ne „razumije“ sadržaj koji proizvodi, već kombinuje riječi i fraze koje se često pojavljuju zajedno u ogromnoj količini tekstova na kojima je trenirana.

„Vještačka inteligencija je kombinovala Einsteinove citate kako bi stvorila novi koji ima smisla. Statistički gledano, Einstein je to mogao reći, ali taj citat je lažan jer ga on nikada nije izgovorio“, pojasnio je Bersini. Upravo u tome leži opasnost – tekst može djelovati smisleno i uvjerljivo, ali biti potpuno netačan.

Bersini upozorava da je u akademskom okruženju ovakva greška posebno ozbiljna. Univerzitetski profesori i rektori, naglašava on, moraju se pridržavati strogog etičkog kodeksa kada je riječ o znanju i izvorima. Provjera vjerodostojnosti citata danas je moguća uz svega nekoliko klikova, što dodatno pojačava odgovornost korisnika.

Granice pouzdanosti i odgovornost korisnika

Iako tehnološke kompanije ulažu velike napore da smanje halucinacije, one i dalje postoje, posebno u oblastima humanističkih nauka. U egzaktnih disciplinama, poput matematike i programiranja, gdje je rječnik ograničen i pravila su jasna, vještačka inteligencija pokazuje znatno veću pouzdanost. Nasuprot tome, pisanje eseja, govora ili filozofskih tekstova nosi mnogo veći rizik grešaka.

Slučaj Petre de Sutter služi kao važno upozorenje: vještačka inteligencija može biti moćan alat, ali ne i nepogrešiv autoritet. Za razliku od ljudi, ona ne razlikuje istinu od laži i ne provjerava izvore. Kako zaključuje Bersini, odgovornost je uvijek na korisniku da informacije kritički procijeni i provjeri prije nego što ih javno upotrijebi.

EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW EWRW