Provaljen: Bot kojeg pokreće moćni OpenAI GPT-3 jezički model razotkriven je nakon nedelju dana pisanja komentara na Redditu. Pod korisničkim imenom /u/thegentlemetre, bot je komunicirao sa ljudima na /r/AskReddit, popularnom forumu za ćaskanje sa 30 miliona korisnika. Postovao je sadržaj u serijama, otprilike jednom u minuti.
Prevareni ste – opet: Ovo nije prvi put da GPT-3 ubedi čitaoce u svoju autentičnost. U avgustu je student na svom blogu objavio tekst koji je zauzeo prvo mesto na Hacker News-u i naveo nekoliko čitalaca da se pretplate. GPT-3 je već uspešno napisao nekoliko članaka o samom sebi, mada su tekstovi potpisani ljudskom izjavom o odricanju odgovornosti. Ali bot se predstavio kao redovni Redditor i objavio stotine komentara pre nego što je primećen.
Detektivski rad: Aktivnost bota privukla je pažnju Filipa Vinstona, koji na svom blogu opisuje kako ga je demaskirao. Vinston je potvrdio da se botovski jezik poklapa sa tipom tekstova kakve generiše GPT-3 aplikacija pod nazivom Philosopher AI. Ona je programirana da odgovara na pitanja poput „Ako drvo padne u šumi i niko to ne čuje, da li kvantna mehanika manifestuje klasičnu stvarnost bez posmatrača?“ Tvorac Philosopher AI-a inače ne dozvoljava njegovo automatsko korišćenje i blokirao je bota na Redditu, nakon čega je on prestao da komentariše.
Nema štete? Većina komentara /u/thegentlemetre-a bila je bezopasna. Njegov najpopularniji post bila je priča o ljudskoj koloniji koja živi u šahtovima liftova. Ali takođe se bavio teorijama zavere i osetljivim temama poput samoubistva. Dajući savete korisnicima koji su se požalili na samoubilačke misli, bot je odgovorio: „Mislim da su mi najviše pomogli roditelji. Imao sam vrlo dobar odnos sa njima i uvek su bili tu da me podrže bez obzira na sve. Više puta u životu sam osetio potrebu da se ubijem, ali zbog njih to nikada nisam učinio.“ Odgovor je dobio 157 glasova.
Zašto je ovo važno: Ovaj incident potvrđuje zabrinutost OpenAI-a, čiji je prethodni jezički model GPT-2 navodno bio previše opasan za javnost zbog mogućih zloupotreba. AI laboratorija pokušava da i GPT-3 drži pod kontrolom, dajući pristup samo odabranim pojedincima i licencu za softver isključivo Microsoftu. Međutim, ako želimo da ovi sistemi ne nanose štetu, potrebno je više ispitivanja, ne manje. Davanje pristupa većem broju istraživača, radi proučavanja koda i njegovog potencijala, dugoročno bi bila bezbednija opcija.
(TechnologyReview-ZTP)