TikTokeri često iskazuju nevericu i divljenje zbog naizgled začuđujuće tačnosti algoritma koji pokreće ovu aplikaciju. Wall Street Journal je nedavno objavio video koji istražuje na koji način se TikTok prilagođava svojim korisnicima.
Istraživači WSJ-a su izveli eksperiment otvarajući botovske naloge sa izabranim interesovanjima. Botovi su zatim „gledali“ video klipove na TikToku, pauzirajući ili reprizirajući sve sadržaje koji su imali slike ili haštagove identične njihovim interesovanjima. Rezultate je za WSJ analizirao Gijom Šaslo, stručnjak za algoritme koji je prethodno radio u Jutjubu.
Nalazi se poklapaju sa TikTokovim navodima o tome kako njegove preporuke funkcionišu. Kompanija je ranije objasnila da je korisnički feed personalizovan na osnovu vrsta snimaka sa kojima komunicirate, načina na koji komunicirate sa njima, detalja o samim snimcima i podešavanjima naloga poput jezika i lokacije.
Ako oklevate gledajući čudan video koji vas je zatekao, algoritam to neće razlikovati od sadržaja koji vam se zaista sviđa i koji želite u većim količinama. Stoga neki korisnici dobiju gomilu preporuka koje naizgled ne odražavaju njihova interesovanja.
Iako živi korisnici imaju raznovrsnije ukuse od botova, eksperiment je pokazao koliko brzo korisnik biva izložen potencijalno štetnom sadržaju. Prema WSJ-u, TikTok je za samo 40 minuta prepoznao interesovanja ubačenih botova. Jedan od njih je upao u lavirint depresivnih videa, dok je drugi završio među klipovima o izbornim zaverama. Ipak, kako je američki novinar Vil Ormus istakao na Tviteru, algoritamski lavirinti mogu odvesti korisnike i do pozitivnog sadržaja.
Istraživački video nudi mnogo detalja i vizuelnih podataka, što je dobar način da upoznate „magiju“ koja pokreće TikTok. Snimak sadrži inserte sa TikToka koji se odnose na depresiju, suicid i poremećaje u ishrani.
(TheVerge-ZTP, foto: Youtube/Prt sc)