Prezantimi i ‘DeepFakeMburoja’ – Modeli me 6 hapa për të luftuar manipulimin nga inteligjenca artificiale

October 29, 2024 6 mins to read
Share

Zhvillimi i teknologjisë së inteligjencës artificiale ka ngritur shqetësime të konsiderueshme në lidhje me përhapjen e dezinformatave, por edhe për mashtrimet dhe shkeljet e privatësisë. Deepfakes, të cilat janë mesazhe mediale sintetike shumë realiste të krijuara duke përdorur inteligjencën artificiale, kanë një potencial për të mashtruar dhe manipuluar në një shkallë masive. Këto manipulime të sofistikuara mund të bëhen në forma të ndryshme, si video, audio dhe imazh, dhe rezultati është shpesh i padallueshëm, duke e bërë shumë sfiduese të dallosh një ndryshim midis përmbajtjes reale dhe asaj të manipuluar.

Pavarësisht disa përpjekjeve për të krijuar vegla apo aplikacione që ndihmojnë për t’u mbrojtur nga deepfakes, ne ende nuk kemi një të tillë efektiv ku të mbështetemi për zbulimin e tyre, sepse kemi parë që ato vegla kanë dështuar në disa raste, siç e thekson edhe një studim i fundit nga Instituti Reuters. Prandaj, është thelbësore të zhvillojmë të menduarit tonë kritik kur jemi të ekspozuar ndaj përmbajtjes audiovizive në burime të ndryshme mediale. Ne duhet të zhvillojmë shkathtësi të edukimit medial, dhe kjo mund të arrihet në mënyra të ndryshme, duke përfshirë të mësuarit më shumë rreth medias, të kuptuarit e bazave se si funksionojnë media, të dallojmë faktin nga opinioni, etj.

Në këtë tekst, unë do të paraqes modelin tim për t’u mbrojtur nga deepfakes, “DeepFakeMburoja në gjashtë hapa”.

Së pari, është shumë e rëndësishme të mos nxitoni në përfundime. Për shembull, nëse keni parë një video në medie sociale të një politikani që bën një deklaratë kontradiktore. Mos e besoni menjëherë dhe reagimi impulsiv mund të çojë në gabime. Pra, gjithmonë merrni frymë përpara se të besoni apriori në përmbajtjen që shihni ose dëgjoni, ose ta shpërndani pa e kuptuar se po përhapni informacione të manipuluara.

Së dyti, gjithmonë merrni parasysh burimin/autorin . Gjatë vlerësimit të informacionit, është thelbësore të merret parasysh besueshmëria e burimit dhe autorit. Pra, gjithmonë pyesni veten, është nga një media me reputacion apo një llogari e panjohur e mediave sociale? Jini të kujdesshëm ndaj informacionit nga burime të paverifikuara, si faqet ose grupet e mediave sociale, dhe gjithmonë përpiquni të identifikoni autorin origjinal për t’u siguruar që informacioni është i besueshëm. Burimet e paverifikuara janë shpesh shpërndarës të dezinformatave dhe deepfakes.

Së treti, kërkoni nëpër platforma dhe media të shumta online. Nëse po e shihni atë video të politikanit në një media sociale, kontrolloni nëse mediat e besueshme raportojnë të njëjtën storje. Mbështetja në një burim të vetëm mund t’iu bëjë më të ndjeshëm ndaj dezinformatave. Prandaj, verifikoni informacionin duke kërkuar burime të ndryshme përpara se të analizoni dhe formoni një opinion.

Së katërti, shikoni për defekte. Deepfakes po zhvillohen, megjithatë ka ende disa defekte që sytë ose veshët tanë mund të kapin. Prandaj, është e rëndësishme të analizoni fytyrën, ngjyrën e lëkurës, sinkronizimin e buzëve, sfondin, pauzat e panatyrshme ose luhatjet në lartësinë e zërit. Për të vazhduar me shembullin tonë të videos në mediat sociale, shqyrtojeni videon nga afër për lëvizje të panatyrshme, ten i paqëndrueshëm i lëkurës, sinkronizim të dobët të buzëve, elementë të çuditshëm të sfondit ose modifikim të pazakontë të zërit. Ndërsa “deepfakes” mund të jenë jashtëzakonisht bindës, ato shpesh përmbajnë gabime të vogla. Prandaj, është e rëndësishme t’i kushtoni vëmendje detajeve, sepse këto defekte mund të jenë të padukshme nëse nuk jeni të kujdesshëm.

Së pesti, përdorni disa mjete që mund të jenë të dobishme në zbulimin e deepfakes në mënyra të ndryshme, të tilla si “Reverse Image Search” me Google Lens për të identifikuar burimin e një imazhi ose videoje, ku u shfaq për herë të parë një imazh ose video dhe nëse është ndryshuar, ose analizë metadata dhe audio duke përdorë InVid për të identifikuar mospërputhjet ose anomalitë në të dhëna ose mospërputhje në audio. Mospërdorimi i këtyre mjeteve mund t’ju lërë në pozicion që të besoni përmbajtje të manipuluar, ndërsa për çdo video të dyshimtë që keni parë, është e rëndësishme të verifikoni vërtetësinë e saj dhe përdorimi i mjeteve të shumta do t’ju ndihmojë të bëni një analizë të duhur të përmbajtjes.

Së gjashti, ju duhet të mendoni përtej teknologjisë dhe të vlerësoni në mënyrë kritike përmbajtjen. Pyesni veten: A duket kjo shumë e mirë (ose e keqe) për të qenë e vërtetë? Merrni parasysh kontekstin më të gjerë dhe vlerësoni nëse informacioni përputhet me faktet, ngjarjet dhe njohuritë e ekspertëve. Mendoni për motivet pas përmbajtjes dhe nëse ajo duket se po promovon një agjendë apo narrativë të caktuar. Gjithmonë ka një qëllim pas çdo “deepfake”, shpesh i lidhur me çështje më të mëdha politike, ekonomike ose etike. Deepfakes mund të përdoren në politikë për të përhapur dezinformata dhe për të dëmtuar procese të rëndësishme, siç janë zgjedhjet. Dikush mund të krijojë një deepfake me synimin për të ndikuar në zgjedhje duke manipuluar opinionin publik, siç ndodhi në Sllovaki këtë vit, ose në SHBA vitin e kaluar. Një qëllim tjetër i deepfakes mund të lidhet me ekonominë, dhe tashmë ka shembuj të ndryshëm ku njerëzit manipulohen, siç është shembulli i një grupi inxhinierik në Mbretërinë e Bashkuar, i cili transferoi 25 milionë dollarë për mashtruesit që përdorën një deepfakes të një menaxheri të tyre gjatë një video-konference në Hong Kong. Sigurisht, deepfake mund të përdoret edhe për argëtim, si një përmbajtje e padëmshme. Mbi të gjitha, është e rëndësishme të kuptosh këto qëllime themelore dhe pse ekziston fare deepfakes.

Duke adoptuar modelin “DeepFakeMburoja në gjashtë hapa”, ne mund të krijojmë një pengesë të fortë kundër manipulimeve nga Inteligjenca Artificiale. Ne mund të zvogëlojmë mundësinë për t’u mashtruar ose çorientuar duke kontrolluar dyfish informacionin, duke hulumtuar përmbajtjen dhe duke marrë parasysh plotësisht kontekstin e saj. Ne mund të mbrohemi nga pasojat negative të deepfakes dhe të garantojmë një mjedis digjital më të sigurt dhe më të mirinformuar.