Šta se desi kada vještačkoj inteligenciji servirate potpuno izmišljenu medicinsku dijagnozu, potkrijepljenu lažnim studijama čiji su autori „profesor Bob“ i posada sa svemirskog broda Enterprise? Prema pisanju N1info.ba, pozivajući se na istraživanje koje je objavio prestižni časopis Nature, AI sistemi su u pojedinim slučajevima takvu informaciju prihvatili bez veće sumnje.
Naučnica bh. porijekla Almira Osmanović Thunström, koja radi na Univerzitetu u Geteborgu u Švedskoj, sprovela je sa svojim timom eksperiment koji je ukazao na ozbiljan problem savremenih AI modela – nedostatak kritičkog odnosa prema informacijama pronađenim na internetu.
U okviru istraživanja, kako prenosi N1info.ba, osmišljeno je izmišljeno medicinsko stanje nazvano „biksonimanija“, koje je predstavljeno kao bolest oka uzrokovana dugotrajnim gledanjem u ekrane.
Da bi eksperiment bio uvjerljiv, kako prenose mediji, kreirani su i lažni naučni radovi sa izmišljenim autorima poput Lažljivog Izgubljenovića, dok su u zahvalnicama spominjani i potpuno izmišljeni detalji poput Akademije Zvjezdane flote na brodu USS Enterprise.
Iako su ovi elementi jasno ukazivali da se radi o nepostojećim izvorima, kako navodi isti izvor, pojedini AI sistemi nisu pokazali potrebnu dozu skepse.
Prema pisanju N1info.ba, pozivajući se na rezultate eksperimenta, modeli poput ChatGPT-a, Googleovog Geminija i Microsoftovog Copilota u određenim odgovorima su izmišljeno stanje tretirali kao legitimno i korisnicima davali savjete.
Eksperiment je, kako se navodi, kasnije razotkrio i časopis Nature, koji je ukazao na problem nekritičkog prihvatanja informacija od strane AI sistema.
„Eksperiment nije bio osmišljen da bi se samo ismijala vještačka inteligencija, već kao odraz toga da su ljudi zaboravili da budu skeptični kada im se tek tako olako predstave informacije“, poručila je Osmanović Thunström za strane medije, a prenosi N1info.ba.
Kako prenosi N1info.ba, stručnjaci upozoravaju da sve više ljudi koristi AI alate za dobijanje savjeta, uključujući i zdravstvene, zbog čega je važno dodatno provjeravati informacije.
Ovaj slučaj, kako navodi Nature, ukazuje na potrebu razvoja pouzdanijih sistema i većeg opreza pri korištenju umjetne inteligencije u svakodnevnom životu.
