Lažni lijekovi su igra sa ljudskim životima: Žrtve su i javne ličnosti, a stradaju svi…
Javne ličnosti u BiH postale su žrtve umjetne inteligencije, odnosno lažnih reklama u kojima prezentiraju proizvode opasne po zdravlje
Ako imate dijabetes i tražite izlječenje na brzinu kojekakvim nadriproizvodima, doktor Emir Solaković sigurno nema rješenje, kao što ni dr. Ismet Gavrankapetanović nema čarobni lijek za rast kose.
A takve vrste reklame vam nude lažne Facebook stranice, koje već odavno koriste javne ličnosti kao promotore proizvoda opasnih po zdravlje i to bez njihove dozvole. Sve se to radi uz pomoć umjetne inteligencije koja je sve više prisutna u virtuelnom svijetu, pa je običnom čovjeku teško razlučiti istinu od laži.
LAŽNI SNIMCI
Tako je prije izvjesnog vremena doktor Emir Solaković “reklamirao” na društvenim mrežama nekakve čajeve i preparate za šećernu bolest, ovih dana doktor Ismet Gavrankapetanović “predstavlja” serum za rast kose, lik i glas pjevača Halida Bešlića su iskorišteni u reklami za proizvod za liječenje dijabetesa, a novinar Senad Hadžifejzović “ima” lijek za visoki pritisak, nečiste sudove…
Ustvari, to su lažni snimci intervjua na kojima oni govore o prednostima nekog “ljekovitog proizvoda”. Naravno, oni lakovjerni ili tehnološki neuki će povjerovati i misliti da su proizvodi dobri čim ih reklamiraju javne ličnosti, pogotovo doktori, pa će potrčati da ih kupe.
Žrtva deepfakea su bile brojne svjetske zvijezde, a iz regije Novak Đoković, dok ima i zbijanja šala, pa je Milorad Dodik pričao pohvalno o braći muslimanima
– I tu nastaje problem. I to ogroman, kaže za Oslobođenje doktor Emir Solaković.
On tvrdi da je ovakav način obmanjivanja javnosti svojevrsna vrsta rata u kojoj ljudi stradaju.
On tvrdi da je ovakav način obmanjivanja javnosti svojevrsna vrsta rata u kojoj ljudi stradaju.
I doktor Ismet Gavrankapetanović smatra da su ovakve zloupotrebe lica i glasa itekako opasne, posebno jer je riječ o neprovjerenim proizvodima koje ljudi koji ne znaju da su reklame lažne mogu kupiti.
– Već sam angažirao stručnjaka da prekine ovu zloupotrebu mog lika i glasa, govori nam.
Senad Hadžifejzović, čiji su lik i glas, također, zloupotrijebljeni, upozorava: “Ko to bude kupovao, neka mu je Bog na pomoći. Ne budite naivni!”
Halid Bešlić je, kako kaže za Oslobođenje, angažovao advokata.
– Ovo je nešto što je ne strašno, nego prestrašno. Mene su mnogi zvali i pitali kakvi su ti lijekovi, jesam li smanjio šećer, ma strašno. Uglavnom, angažovao sam pravni tim da poduzme sve korake koji su potrebni da se ovo riješi, ističe on.
I dok svako od njih bije bitku zbog (zlo)upotrebe njihovog lika i glasa, stalni sudski vještak informacijsko-tehnologijske struke Vahidin Đaltur tvrdi da korištenje deepfakea – ovog umjetno-inteligentnog sistema u većini zemalja nije zabranjeno osim kad se odnosi na dječiju pornografiju, klevetu i govor mržnje.
– Dodatni je problem što je izvor ovakve snimke, ukoliko su napravljene korištenjem profesionalne opreme, vrlo teško otkriti. Sistem umjetne inteligencije neprestano se popravlja i usavršava, te su lažni glasovi sve realističniji i teže ka tome da budu identična kopija originalom glasu. Vrlo brzo ćemo doći u situaciju da će vjerojatno samo druga umjetna inteligencija biti u stanju prepoznati lažne digitalne sadržaje koje je proizvela Deepfake AI, pojašnjava Đaltur.
Jedino rješenje je da ovo što govorim u medijima dođe do ljudi koji će pročitati novine, portal i onda prepričati drugima kakva se opasnost krije iza ovih lažnih reklama, ističe dr. Solaković
S obzirom na samu dostupnost i na moć koju mediji danas imaju na ljude, kaže da nas ne trebaju čuditi pokušaji manipulisanja informacijama.
– Od senzacionalističkih naslova (engl. clickbait), preko maliciozno “fotošopiranih” fotografija, do lažnih vijesti (engl. fake news). U zadnje vrijeme sve je popularniji i spomenuti alat zvani deepfake, koji spada u umjetnu inteligenciju. Šta je deepfake?
UMETANJE RIJEČI
To je grana mašinskog učenja, a ono spada u oblast umjetne inteligencije. Deepfake se bazira na nečemu što zovemo generative adversarial networks (GANs), odnosno generativne suparničke mreže. Algoritam GAN uključuje dvije odvojene umjetne inteligencije (Artificial Intelligence – AI), jednu koja generiše sadržaj – na primjer, generisani audiozapis – i drugu, “protivničku”, koja pokušava prepoznati da li je taj audiozapis realan ili lažni, tj. radi li se o pravim glasovima ili ne, objašnjava Đaltur.
Dodaje kako je pomoću ove tehnologije moguće umetnuti nove riječi u govor osobe koja priča u videu, tako da na kraju ispadne kako je rekla nešto što nije mislila reći.
– Dakle, relativno malim intervencijama se promijeni sadržaj poruke koju je osoba htjela poslati u javnost, tvrdi on.
(Oslobođenje)