Më tutje, për shembull, e shikoni aktorin e famshëm Tom Kruz se si pengohet dhe rrëzohet, më pas kërkon falje. Ndërsa në fakt, vetëm mendoni se e shikoni atë. Nuk është ai. Ai është njeriu që pothuajse e ka "përvetësuar" personazhin e Tom Kruzit dhe bëhet aq i famshëm, që rregullisht e intervistojnë, ndërsa ai jep deklarata në lidhje me teknikën që e përdor.

Bëhet fjalë për Dip Fejk (Deep Fake) – teknika që në shikim të parë duket revolucionare, por pasojat mund të jenë katastrofike. Zbatimi i kësaj teknike mund të shkatërrojë jetë, të manipulojë opinionin, t'ju hutojë, të ndikojë në rezultatet e zgjedhjeve, në zhvillimet politike dhe shoqërore, ose me një fjalë - të ndikojë në çdo segment të aspektit individual, shoqëror, global.

Rreziku më i madh që paraqesin "dip fejks" është aftësia e tyre për të përhapur informacione të rreme që duket se vijnë nga burime të besueshme, si shembulli me videon e rreme të Presidentit të Ukrainës, Volodimir Zelenski që u kërkoi ushtarëve të tij të dorëzohen.

Dipfejk, sipas përkufizimit, përfshin fotografi, video dhe audio të gjeneruara nga teknologjia e inteligjencës artificiale (IA) që paraqesin diçka që nuk ekziston në realitet ose ngjarje që nuk kanë ndodhur kurrë.

Nocioni është marrë nga kombinimi i fjalëve "të mësuarit e thellë" me inteligjencën artificiale dhe "e rreme", me theksimin se përmbajtja nuk është reale.

"Dip fejk" filloi të përdoret për herë të parë në vitin 2017, kur moderatori i Reddit krijoi nënreddit të quajtur "deepfakes" dhe filloi të publikonte video që përdorën teknologjinë e zëvendësimit të personave për t'i futur ngjashmëritë e personaliteteve të famshme në videot ekzistuese pornografike.

Përveç pornografisë, shembujt e dip fejkut të cilat ishin gjerësisht të përhapura, ishte për shembull, Papa Françesku i veshur me xhaketë pufer, video që supozohet se shihet ish-presidenti amerikan, Donald Tramp në konflikt me policinë, video e drejtorit ekzekutiv të Fejsbukut, Mark Zakerberg i cili flet për "fuqinë e tij të keqe të kompanisë" dhe video të mbretëreshës tashmë të ndjerë Elizabeta duke vallëzuar dhe duke mbajtur fjalim për fuqinë e teknologjisë. Asnjë nga këto ngjarje nuk ka ndodhur në jetën reale. Por, jo të gjithë e dinë këtë, kështu që lehtë mund të mashtrohen. Kjo është arsyeja pse lajmet dip fejk zhvlerësohen rregullisht nga kontrolluesit e fakteve në mbarë botën.

Mënyra në të cilën punon algoritmi i "dip fejk" është kompleks. Por, “salca sekrete” e algoritmeve ka dy komponentë të rëndësishëm. I pari është se algoritmi zhvillon kuptim të thellë të fytyrës së një personi dhe mëson se si t'i hartojë ato atribute tek personi tjetër. Meqë shumica e njerëzve kanë gojën, sytë dhe hundën në afërsisht të njëjtin vend në fytyrë, algoritmi i rremë thellë mund t'i analizojë karakteristikat e asaj anatomie dhe ta mësojë atë në detaje jashtëzakonisht të imta. Më pas manipulon me karakteristikat në videon e dytë për t'iu përshtatur karakteristikave të së parës. Algoritmi i bën të gjitha këto duke e ruajtur stilin dhe pamjen e përgjithshme të videos origjinale.

Fillimisht, dip fejk u përdorën kryesisht për qëllime të padëmshme dhe argëtuese, të tilla si krijimi i zëvendësimeve të fytyrës të personaliteteve të famshme ose futja e personave në filma. Megjithatë, me avancimin e teknologjisë, u rrit edhe potenciali i saj për abuzim. Algoritmet e Deepfake janë bërë më të sofistikuara, duke mundësuar manipulime perfekte dhe bindëse. Kjo ka ngritur shqetësime në lidhje me potencialin për përdorim me qëllim të keq, si përhapja e dezinformatave, shpifjeve, madje edhe manipulimeve politike.

Në vitin 2018, studiuesit amerikanë zbuluan se njerëzit në videot "dip fejk" nuk i mbyllin sytë, përkatësisht se në pjesën më të madhe të fotografive i shfaqin njerëzit me sytë e tyre vazhdimisht të hapur. Por, sapo u publikua kërkimi, u shfaqën "dip fejks" me kapsallitje, përkatësisht kreatorët mësuan se pasi u zbulua dobësia, ajo mund edhe të përmirësohet.

Sipas Gardian, më lehtë vërehen "dip fejks" me cilësi të ulët. Për shembull, sinkronizimi i buzëve mund të jetë i dobët ose toni i lëkurës mund të jetë i turbullt, por mund të ketë edhe dridhje në incizim.

Si rrjedhojë, teknologjia deep fake është shpatë me dy tehe në fushën e inteligjencës artificiale. Edhe pse ofron mundësi kreative dhe argëtuese, potenciali i tij për abuzim dhe qëllime keqdashëse shkaktojnë shqetësim të rëndësishëm global. Siç përparojnë fejk algoritmet e thella, me rëndësi thelbësore është të qëndroni vigjilentë dhe të zhvillohen strategjitë për t'i zbutur ndikimet negative. Duke inkurajuar ndërgjegjësimin, duke investuar në teknologjinë e zbulimit dhe duke zbatuar masat e duhura juridike dhe politike, mund të lëvizim në peizazhin kompleks të teknologjisë së deep fake dhe të ruajmë besimin, sigurinë dhe integritetin e botës sonë digjitale.