Aktualitet

EKSPERTIZË nga Mimoza Xharo: A po e trondit manipulimi dixhital - ‘deepfake’ hapësirën e sigurisë?

Shkruar nga Liberale
EKSPERTIZË nga Mimoza Xharo: A po e trondit manipulimi dixhital -

Mimoza Xharo (Duka)*

Një video false për një shpërthim  në Pentagon, gjeneruar nga inteligjenca artificiale tronditi edhe për disa minuta tregjet financiare botërore. Pak kohë më parë, një incident tjetër shokoi botën kibernetike, ku hakerat nga Koreja e Veriut tronditën me oferta punësimi false rrjetin profesional Linkedin, një nga platforma profesionale më të  mëdha në botë. Sipas Statista, Zuckerberg i Facebook ka qenë target me video të manipuluar  që kanë; por edhe një  video false në Channel 4, më vonë e quajtur ‘deepfake of the queen’,  jepte një mesazh alternativ për krishtlindjet në Mbretërinë e Bashkuar; ndoshta duke kulmuar me një mesazh të manipuluar të Zelenskit, në 16 Mars, gjoja duke ju bërë thirrje forcave ukrainase të dorëzonin armët dhe të ktheheshin në shtëpi. Denoncimi për videon deepfake të Zelenskit dha ‘alarmin’ që qeveritë, politikanët, korporatat dhe organizatat përfshi asetet mediatike të vlerësojnë të tronditur  impaktin e deepfake-manipulimit dixhital.

A është ky momenti kur deepfakes dhe mediat sintetike po hyjnë si armë  subversioni në gjeografinë politike? - Duket se po, ky incident, por edhe të tjera më parë dëshmojnë se programet me bazë inteligjencën artificiale po i kthejnë këto dukuri në  një kërcënim real për sigurinë. Në të vërtetë, kërcënimi nuk qëndron në deepfake dhe media sintetike, në vetvete dhe as nga teknologjia që përdoret, por në synimin e përdoruesit dhe në objektin e synuar publikun duke bombarduar me manipulim,  dizinformacion, aktivitete influencuese malinje dhe aktivitete kriminale në lloje e fusha të ndryshme.

Por, çfarë është deepfake dhe bashkë me atë media sintetike?Deepfake i referohet një manipulimi , video apo imazhi, të një personi gjatë të cilës tiparet njohëse shprehëse alterohen në mënyrë të tillë që të duken identike me të një personi tjetër, me vlerën e dhënies së një mesazhi qëllimi i të cilit lidhet me një qellim të caktuar. Ky mesazh afrohet nga networke gjenerative kundërshtare (generative adversarial netëorks GANs).  Teknikisht këto programe  krijohen nga modele ‘machine learning’, me njohje të pamjes, që më pas alternohet me  algoritma, e më tej  ngarkohen me të dhëna të targetuara për subjektin  për paraqitje sa më reale aq sa vetëm profesionistët mund të zbulojnë diferencën. Të dy setet me të dhëna përdoren më pas për të trajnuar rrjetin e neuroneve të inteligjencës artificiale për të kombinuar karakteristikat unike të subjektit. Pas shumë përsëritjeve networku arrin të grafojë dixhitalisht pamjen  e subjektit të targetuar për qëllimin që do të përdoret. Deepfakes nuk kufizohet vetëm në mesazhe të thjeshta, imazhe apo tekste, apo  video mjaft ‘të besueshme’ por edhe manipulime të tjera nga më të sofistikuarat.

Përndryshe, media sintetike është një term gjithëpërfshirës i krijimit/ modifikimit artificial të një medie online nëpërmjet teknologjisë  dhe programeve që bazohen tek inteligjenca artificale, më thjeshtë një  media e krijuar ose modifikuar/manipuluar.Deepfakes’  dhe media sintetike sot përfshihen në atë që njihet si  Generative Adversarial Netëork (GAN), ku rrjetet gjenerojnë dhe ushqejnë networkun, përmes manipulimeve.  Fillesat e  GAN ndoshta i gjejmë te   Goodfellow dhe bashkëpunëtorëve të tij në  2014, gjatë demonstrimeve për të krijuar imazhe sintetike të pamjeve humane.

A po e sfidon  Deepfake dhe medias sintetike sigurinë? -  Edhe pse ‘deepfake’ nuk është një fenomen i ri, programet që e mundësojnë po avancojnë mjaft  vrullshëm. Sipas Sensity AI, në tetor 2020, analistët raportuan për rreth 100,000 imazhe kompjuterike ilegale, pa konsensusin e individëve. AI Dungeon në 2021 evidentoi se tekstet  sintetike lidheshin me abuzimin e minorenëve. Nga një sondazh i kryer nga Statista në vitin 2022, ku u pyetën 16 000 individë nga 8 vende (SHBA, Kanada, Meksikë, Gjermani, Itali, Spanjë, Mbretëri e Bashkuar, dhe Australi) zbuloi se 71% e të intervistuarve nuk kishin njohuritë fillestare për manipulimin dixhital (deepfake)ndërsa vetëm 43% e tyre pranonin se janë në gjendje të dallojnë diferencën mes një videoje reale dhe deepfake. Ndërsa individët shqetësohen  për manipulimet dixhitale kryesisht në frikën për  të ardhurat bankare e financiare, ekspertët e sigurisë ndjejnë se po sfidohen për përdorimin e tyre nga aktorë shtetërorë dhe jo-shtetërorë me qëllime në spektër të gjerë të elementëve kritikë të sigurisë nga ato më të thjeshtat deri në ato madhore.

Që prej viti 2019, aktorët të ndryshëm shtetërorë autoritarë, e kanë kthyer në industri  ndërmarrjen e  operacioneve manipuluese e  influence duke përdorur imazhet sintetike të prodhuara nga GAN, për të dëmtuar vendet e tjera dhe për të ndërtuar kredibilitet propagandues për të arritur synime malinje deri në objektiva moral e material në kontekstin e  konflikteve të armatosura.

Kërcënimi po vjen në rritje për aq kohë sa teknologjia dhe programet që mundësojnë  deepfakes po integrohen me inteligjencën artificiale duke krijuar një fushë të minuar pjellore.  Kjo është një nga dilemat se përse mbrojtja nga deepfake dhe mediat sintetike po bëhet përherë e më thelbësore nga ekspertët e sigurisë në rrjete shoqëruar me nevojën e ndërgjegjësimit të publikut për rreziqet. Aktorë kriminalë po  rrisin përdorimin e deepfakes, sipas EUROPOL, kërcënimi po kthehet në  real dhe sfida për përballje po aq e rëndësishme. Është interesant fakti, sipas sondazhit 80 % e të anketuarve janë të interesuar për një alert të institucioneve të sigurisë dhe vetëdijes së për shërbimet e tyre.

Fakti që teknologjia e manipulimit dixhital është e aksesueshme për publikun e gjerë përbën një sfidë jo te lehtë. Ndërsa çdo qasje teknike më parë u përkiste ekspertëve,  tashmë shkalla e përdorimit të rrjeteve  është e mundshme nga çdo përdorues dhe në këtë ‘fushë të hapur’, aktorë malinjë   mund t’i përdorin lehtësisht dhe në një kohë më shpejtë  programet krahasuar me masat e sigurisë. Dueli duket se ka filluar dhe pritet të jetë i vështirë...

Me avancimin e teknologjisë rritet edhe vështirësia e identifikimit të përmbajtjes së manipuluar qëllimisht përkundrejt një synimi.  Christoffer Ualdemarsson (2020) identifikon katër mënyra se si deepfake mund të shndërrohen në instrumente të rrezikshëm: së pari, media sintetike mund të përdoret për të manipuluar proceset demokratike, apo individë të caktuar të zgjedhur ‘target’; së dyti, në përmbajtje,  media sintetike mund të synojë ndasi sociale. Së treti, target mund të jenë institucionet shtetërorë apo organizma ndërkombëtare. Së katërti, përdorimi masiv  i rrjeteve mundëson  impaktin e synuar në kohë më të shpejtë dhe audiencë më të gjerë.

Ekspertët e sigurisë vlerësojnë se bota po shkon drejt një të ardhmeje përherë e më sintetike, ku 90-95 % e përmbajtjeve të videove do të gjenerohet sintetikisht e shoqëruar nga fuqia e paprecedentë e internetit dhe platformave sociale online. Deepfakes e ka kapacitetin të intensifikoj  erozionin e normave që lidhen me të vërtetën për individ, organizata apo grupe sociale. UNIDIR, institucion kërkimor i OKB, arrin deri atje sa të pranojë se manipulimet dixhitale - deepfakes të kombinuara me teknologji të tjera çorientuese online mund të shkaktojnë destabilitet deri në kontekstin e  marrëdhënieve ndërkombëtare.

Në përfundim një nga sfidat reale përballë avancimit të  teknologjive dhe programeve të reja, kryesisht të lidhur me  inteligjencën artificiale do jetë aftësia jonë për të parandaluar këtë fenomen. Ne e kuptojmë  që kjo sfidë po vjen... Krijimi i besimit në një ekosistem digjital është sfidues  dhe kërkon institucione, programe dhe platforma ku të promovohet besimi dhe  e verteta dhe të faktohet në kohë rekord falsiteti sintetik për ti dhënë më tepër siguri individëve e shoqërisë.  Ndoshta edhe për këtë arsye  është mjaft e rëndësishme që bashkë me njohjen e programeve të reja, publiku të ndërgjegjësohet edhe për  impaktin e përdorimi të mundshëm për qëllime të tjera.

 Mimoza Xharo (Duka)* : Doktore në studimet e sigurisë

 

 

Liberale Newsroom

Poll
SHQIPENGLISH