Deepfake tehnoloģijas – kad redzēt un dzirdēt vairs nav ticēt.

Pirms mēneša ASV telekanāla ESPN tika demonstrēta dokumentālā filma vairākās sērijās ar nosaukumu The Last Dance. Tajā tika parādīts it kā 1998. gada sižets, kurā ESPN analītiķis izsaka šokējoši precīzas prognozes par 2020. gadu.
https://www.adweek.com/…/state-farm-and-kenny-mayne-brilli…/

Ātri vien izrādījās, ka šis sižets nav īsts – tas tika ģenerēts, izmantojot AI- datorgrafiku. Tas izraisīja lielu interesi skatītājos, taču tam vajadzētu izraisīt ko citu – nopietnas bažas. Tas ir viens no piemēriem ļoti nopietnam un bīstamam šo laiku fenomenam – tā sauktam Deepfake.

Šī tehnoloģija ļauj ikvienam ar pietiekošām zināšanām un piekļuvi Internetam radīt reālistisku cilvēku foto un pat video, kuros tie runā un dara lietas, ko tie patiesībā nedara –vai pat neeksistē vispār.

Šis termins pirmo reizi parādījās 2017. gada beigās. Daži no šādiem video ir izplatījušies tīklā, iepazīstinot miljonus visā pasaulē ar šo jauno fenomenu. Viens no tiem ir bijušais prezidents Obama, kurš it kā lieto rupjus vārdus attiecībā uz Donaldu Trampu.
https://www.youtube.com/watch?v=cQ54GDm1eL0&feature=youtu.be

Cits piemērs ir FB īpašnieks Zukerbergs, kurš atklāti atzīst, ka FB ir radīts kā manipulāciju instruments. Kaut arī mēs diezgan droši varam pieņemt, ka gan Obama, gan Zukerbergs patiešām pie sevis domā to, kas pateikts šajos video, taču loģika saka priekšā, ka neko tādu viņi skaļi nekad neteiktu.
https://www.instagram.com/p/BypkGIvFfGZ/…

Taču šie video uz pirmā acu uzmetiena izskatās pietiekoši īsti un ļoti daudzi patiešām arī var noticēt to autentiskumam – īpaši otrajam video. Šādu ‘deepfake’ skaits Internetā pieaug ļoti strauji – jau 2019. gada sākumā viens no šāda satura uzraugiem Deeptrace ziņoja par gandrīz 8000 šāda veida video, bet tikai 9 mēnešus vēlāk šis cipars pieauga jau līdz gandrīz 15.000. Kopš tā laika tas noteikti ir vismaz divkāršojies.

Pagaidām šī tehnoloģija vēl nav tik reāla, lai spētu radīt 100% īsta video iespaidu, ja to nedaudz pavēro, to var atšķirt. Taču arī tā nestāv uz vietas un dažādi eksperti paredz, ka tas brīdis, kad neprofesionāls skatītājs vairs nespēs atšķirt neīsto no patiesā, ir visai tuvu.

“2019. gada janvārī ‘deepfake’ video bija neapstrādāti un parupji”, saka Hany Farid, Kalifornijas universitātes profesors. “Bet jau pēc deviņiem mēnešiem es neesmu redzējis neko, kas attīstās tik ātri. Tā ir tikai aisberga virsotne”

Un šobrīd mēs atrodamies vēl kādas manipulāciju tehnoloģijas priekšā – šis viltus materiāls drīzumā pāraugs par destruktīvu politisku un sociālu spēku un tam ir jāsagatavojas.
Kā tas bieži mēdz būt, pirmo reizi šī tehnoloģija tika pielietota porno industrijā. 2019. gada septembrī 96% no šāda tipa video bija tieši ar tādu saturu. Parādījās vairākas lapas, kuras izplatīja šādus video un to skatījumi pēdējos gados ir simtiem miljonu apmērā. Tajos tiek izmantotas dažādu slavenību iestrādātas videografikas.

Bet no šiem tumšajiem nostūriem šī aizvien slīpētākā tehnoloģija ir sākusi iespiesties arī politiskajā un sociālajā sfērā. Un tur tās potenciāls ir milzīgs. Nevajag daudz iztēles, lai iedomātos, kas var notikt, ja sabiedrībai parāda šādu safabricētu un reālistisku video par kāda politiķa kukuļņemšanu vai seksuālu uzbrukumu no viņa puses, kas politiskajā virtuvē ir ļoti populāra lieta – parādiet to īsi pirms vēlēšanām.

Iedomājieties šādus sižetus par armiju, policiju, kas nogalina cilvēkus kaut kur – vai pat kādas valsts prezidentu, kurš paziņo par atomkara uzsākšanu – ja pasaulē tagad nebūs iespējams saprast, kas no tā visa ir īsts un kas nē, tad tas var radīt katastrofālas sekas.

Jo vairāk šāda tehnoloģija kļūst pieejama, jo vairāk to var izmantot jebkurš – viens politiskais spēks pret otru, mediji, kas jau tāpat izplata viltus ziņas, pat atsevišķi indivīdi var radīt saturu, izdomāt un radīt neesošas personības un piedēvēt tiem izteikumus un darbības, kādas patiesībā neeksistē.

Ja agrāk apdraudējums kādai valstij tika saistīts ar aviācijas bāzes kuģiem, raķetēm un atomieročiem, tad šodien pietiek ar reālistisku viltus video, kurš var radīt haosu sabiedrībā, ietekmēt procesus un panākt kādam vēlamo rezultātu, pat neizejot no studijas.

Tam piekrīt arī tehnoloģiju eksperti. “Ja mēs vairs nevaram ticēt video, skaņai, attēliem un informācijai, ko redzam tajos, tad tas ir vairāk kā bīstami” – tā Hani Farids.

Šis risks vairs nav tikai teorētisks, pasaulē jau ir agrīnie piemēri tam, kā ‘deepfake’ ietekmē sabiedrību un politiku. Aprīlī Beļģijas politiskā grupa izveidoja video, kurā Beļģijas premjerministre savā runā saista Kovid ar postījumiem dabai un aicina pieņemt drastiskus mērus klimata izmaiņām.
https://tube.rebellion.global/…/2ad12b6b-bb53-473c-ad74-14e…

Taču tas ir mākslīgi radīts video – bet cik cilvēku tam tomēr noticēja? Otra medaļas puse ir iespēja vai aizdomas, ka kāds video varētu būt viltots. Tam piemērs ir nelielas Āfrikas valsts Gabonas notikumi. Tās prezidents Ali Bongo 2018. gadā nebija redzams vairākus mēnešus. Sākās spekulācijas par to, kur viņš palicis. Vai viņa veselība ļauj pildīt pienākumus un varbūt, ka viņš jau ir miris?

Lai kliedētu šīs šaubas, viņa administrācija paziņoja, ka Jaunā gada vakarā viņš uzstāsies ar runu.
Bet tajā viņš izskatījās diezgan stīvs un nedabisks – tas nekavējoties radīja aizdomas par to, ka tas video ir viltots un valdība kaut ko slēpj. Tas tas viss aizgāja līdz tam, ka notika valsts apvērsuma mēģinājums.

Tas gan neizdevās un kopš tā laika prezidents ir parādījies sabiedrībā un joprojām atrodas amatā. Taču eksperti līdz šim brīdim nav 100% skaidrībā, vai tas video bija īsts, vai nebija – lielākā daļa gan piekrīt, ka tomēr bija.
https://www.youtube.com/watch?v=bS1l3JigDhc

Taču tas vairs nav galvenais – mācība ir tajā, ka šī problēma un nespēja saprast, kas ir īsts un kas nav aizvien pieaug un veikli cilvēki to izmantos savām vajadzībām. Tas dod iespēju apšaubīt arī īstus video.

Ja viss tajā notiekošais ir patiess, tas tik un tā rada iespēju apsūdzēt, ka tas tā nav – pateicoties tam, ka eksistē šie viltus video. Tas savukārt rada tādu sociālo fenomenu kā ‘realitātes apātija’ – ja ir nepieciešama pārāk liela piepūle, lai atšķirtu realitāti no ilūzijas, tad cilvēks vienkārši paliek pie tā, ko ir domājis iepriekš. Tā ir vieglāk.

Bet mēs esam nonākuši līdz brīdim, kad redzēt vien vairs nav pamats ticēt. Kāds var būt pilnīgi izdomāta personība, kāds var būt jau miris, bet viņa paziņojumi joprojām tiek izplatīti, kāds savukārt var tikt apvainots tajā, ko nekad nav darījis un kāds var iziet sveikā tad, ja viņa darītais tiek pasludināts par viltotu.

Pamats šai tehnoloģijai ir 2014. gada atklājumi, ko veica Monreālas universitātes doktora grādu IT tehnoloģijās tolaik apgūstošais Ian Goodfellow – to dēvē par ‘generative adversial networks’ jeb GAN. Tas dod iespēju izmantot esošo materiālu, piemēram, cilvēka sejas fotogrāfijas, lai ģenerētu tādus pašus attēlus pikseļu līmenī.
https://arxiv.org/abs/1406.2661

Tas viss atkal rada nepieciešamību izstrādāt atbilstošas programmas, kuras spēj analizēt šos foto un video un atpazīt, kas no tā ir mākslīgs, kas ir īsts. Tas prasa ieviest kaut kādas izmaiņas likumdošanā, lai cīnītos ar šo fenomenu- taču šīs tehnoloģijas izmantotāju skaits salīdzinot ar tiem, kuri to centīsies ierobežot, būs tūkstošiem pret vienu.

Tādas, lūk, ir jaunās tūkstošgades problēmas – virtuālās ilūzijas vairs nav iespējams atšķirt no realitātes. Un tikai iekšējā intuīcija, zināšanas un sirds sajūtas šeit var palīdzēt.

Attēlā redzamie 4 cilvēki nav īsti – tos ģenerējis mākslīgais intelekts🙂

https://www.forbes.com/…/deepfakes-are-going-to-wreak-hav…/…

Komentēt

Fill in your details below or click an icon to log in:

WordPress.com logotips

You are commenting using your WordPress.com account. Log Out /  Mainīt )

Google photo

You are commenting using your Google account. Log Out /  Mainīt )

Twitter picture

You are commenting using your Twitter account. Log Out /  Mainīt )

Facebook photo

You are commenting using your Facebook account. Log Out /  Mainīt )

Connecting to %s