Associated Press
Në mesin e imazheve të shtëpive të bombarduara dhe rrugëve të shkatërruara të Gazës, disa nga fotografitë veçoheshin për tmerrin që pasqyronin: fëmijë të përgjakur e të braktisur.
Të shikuara me miliona herë online që kur nisi lufta, këto fotografi janë të manipuluara, pasi janë krijuar duke përdorur inteligjencën artificiale. Nëse shikohen me vëmendje, mund të vërehen gjurmët e përdorimit të inteligjencës artificiale: gishtërinj të përthyer në një formë të çuditshme, apo sy që shndrisin me një shkëlqim jonatyral. Të gjitha këto janë shenja të një mashtrimi digjital.
Zemërimi nga imazhet që u krijuan për të provokuar, megjithatë është shumë i vërtetë.
Fotografitë nga lufta ndërmjet Izraelit dhe Hamasit – grupit palestinez të shpallur organizatë terroriste nga Shtetet e Bashkuara dhe Bashkimi Evropian – pasqyrojnë potencialin që inteligjenca artificiale të përdoret si mjet për propagandë, duke krijuar imazhe të kasaphanës që duken shumë të vërteta. Që kur nisi lufta muajin e kaluar, imazhe të modifikuara në mënyrë digjitale janë shpërndarë në rrjetet sociale dhe janë përdorur për të bërë pretendime të rreme lidhur me përgjegjësinë për viktimat apo për t’i mashtruar njerëzit për mizoritë që nuk kanë ndodhur.
Përderisa shumica e pretendimeve të rreme lidhur me luftën që kanë qarkulluar online nuk kanë kërkuar përdorimin e inteligjencës artificiale, por janë krijuar me burime më konvencionale, avancimet në teknologji po bëhen me shpejtësi të madhe, e me pak mbikëqyrje. Kjo ka bërë që inteligjenca artificiale të ketë potencial që të shndërrohet në një armë shumë të dukshme dhe ofron detaje se çfarë mund të ndodhë në konfliktet e ardhshme, zgjedhjet dhe ngjarjet e tjera të mëdha.
“Do të bëhet më keq – shumë më keq – para se të bëhet më mirë”, tha Jean-Claude Goldenstein, udhëheqës i CREOpoint, që është një kompani me seli në San Francisko dhe Paris, e cila përdor inteligjencën artificiale për të verifikuar pretendimet online. Kjo kompani ka krijuar një bazë të të dhënave për mashtrimet lidhur me Gazën, të cilat janë bërë më virale.
“Fotografitë, videot dhe audiot: të krijuara duke përdorur inteligjencën artificiale do të jenë një përshkallëzim që ju nuk e keni parë”.
Në disa raste, fotografitë nga konfliktet apo fatkeqësitë e tjera janë ripërdorur dhe janë paraqitur si fotografi të reja. Në të tjera raste, programet gjeneruese të inteligjencës artificiale janë përdorur për të krijuar imazhe nga fillimi, sikurse një fotografi, që u bë virale në ditët e para të luftës, ku shfaqej një foshnje duke qarë dhe duke qëndruar në gërmadhat e krijuara nga bombardimet.
Të tjerë shembuj të imazheve të krijuara duke përdorur inteligjencën artificiale përshijnë edhe video që tregojnë sulme të supozuara izraelite me raketa, tanke duke kaluar nëpër lagjet e shkatërruara apo familje duke kërkuar për të mbijetuar nën rrënoja.
Në shumë raste, imazhet e rreme duket se janë dizajnuar për të shkaktuar reagime të forta emocionale duke përfshirë edhe përdorimin e trupave të foshnjave, fëmijëve apo familjeve. Në ditët e para të përgjakshme të luftës, mbështetësit, si të Izraelit, ashtu edhe të Hamasit, pretenduan se pala tjetër kishte vrarë fëmijë dhe foshnja. Por, imazhet e manipuluara të foshnjave që qanin u paraqitën “si dëshmi”.
Propagandistët që kanë krijuar imazhe të tilla janë të aftë që të shënjestrojnë impulset më të thella dhe ankthet e njerëzve, tha Imran Ahmed, drejtor ekzekutiv i Qendrës për Luftën e Urrejtjes Digjitale. Kjo qendër është një organizatë jofitimprurëse që gjurmon dezinformatat gjatë luftës. Qoftë nëse është një foshnje e rreme apo fotografi e vërtetë e një fëmije nga një konflikt tjetër, ndikimi emocional te shikuesi është i njëjtë.
Sa më i rëndë të jetë imazhi, aq më shumë ka gjasa që lexuesi ta mbajë mend dhe ta shpërndajë atë dhe padashur duke e përhapur më shumë dezinformimin.
“Njerëzve po iu thuhet tani: shikojeni fotografinë e kësaj foshnjeje”, tha Ahmed duke shtuar: “Dezinformata është dizajnuar në atë formë që t’iu bëjë që të përfshiheni me të”.
Përmbajtje e ngjashme mashtruese, e krijuar përmes inteligjencës artificiale, nisi të shpërndahej pasi Rusia nisi pushtimin e Ukrainës më 2022. Një video e manipuluar shfaqi presidentin ukrainas, Volodymyr Zelensky, duke urdhëruar ukrainasit që të dorëzoheshin. Pretendime të tilla vazhduan të qarkullonin deri javën e kaluar. Kjo dëshmon se sa këmbëngulëse mund të jenë dezinformatat edhe pse lehtësisht mund të dallohen se janë të tilla.
Çdo konflikt i ri, apo sezon zgjedhor, ofron mundësi të reja për krijuesit e dezinformatave për të demonstruar avancimet e fundit të inteligjencës artificiale. Kjo ka bërë që shumë ekspertë të inteligjencës artificiale dhe njohës të politikës të paralajmërojnë për rreziqet që mund të paraqiten vitin e ardhshëm, kur disa shtete do të mbajnë zgjedhje të rëndësishme, përfshirë Shtetet e Bashkuara, India, Pakistani, Ukraina, Tajvani, Indonezia dhe Meksika.
Rreziku që inteligjenca artificiale dhe mediat sociale mund të përdoren për të shpërndarë gënjeshtra te votuesit amerikanë, ka alarmuar ligjvënësit nga të dyja partitë në Uashington. Gjatë një seance dëgjimore të mbajtur së fundmi për rreziqet nga teknologjia mashtruese, demokrati nga Virxhinia në Dhomën e Përfaqësuesve, Gerry Connolly, tha se ShBA-ja duhet të investojë në financimin e zhvillimit të mjeteve të inteligjencës artificiale të dizajnuara për t’iu kundërvënë inteligjencës tjetër artificiale.
“Si shtet ne duhet ta rregullojmë këtë çështje”, tha Connolly.
Në mbarë botën, kompanitë e teknologjisë po punojnë në programe të reja që mund të identifikojnë përmbajtjen mashtruese, të vendosin shirit në fotografi që tregojnë origjinën e tyre apo të skanojnë tekstin për të verifikuar çdo pretendim të dyshimtë që mund të jetë krijuar duke përdorur inteligjencën artificiale.
“Vala e re e inteligjencës artificiale do të jetë: Si mund të verifikojmë përmbajtjen që publikohet. Si mund të detektojmë dezinformimin, si mund të analizojmë tekstin për të përcaktuar nëse është i besueshëm?”, tha Maria Amelie, bashkëthemeluese e Factiverse, një kompani norvegjeze që ka krijuar një program të inteligjencës artificiale që mund të skanojë përmbajtjen për pasaktësi apo futjen e informacioneve të gjeneruara nga inteligjenca artificiale.
Programe të tilla do t’iu interesonin shumë edukatorëve, gazetarëve, analistëve financiarë dhe të tjerëve, të cilët duan që të çrrënjosin përmbajtjen e rreme, plagjiaturën apo mashtrimin. Programe të ngjashme po dizajnohen edhe për të identifikuar fotografitë dhe videot e manipuluara.
Përderisa kjo teknologji është shpresëdhënëse, ata që përdorin inteligjencën artificiale për të gënjyer shpesh janë një hap para, tha David Doermann, njohës i shkencave kompjuterike që ka udhëhequr përpjekjen e Agjencisë për kërkime të avancuara të mbrojtjes, për t’iu përgjigjur kërcënimeve të sigurisë kombëtare që paraqesin imazhet e manipuluara përmes inteligjencës artificiale.
Doermann, i cili tani është profesor në Universitetin e Bufalos, tha se përgjigja efektive ndaj sfidave politike dhe sociale që paraqesin dezinformatat e krijuara përmes inteligjencës artificiale do të kërkojë edhe teknologji më të mirë, por edhe rregullore më të mira, standarde të vendosura nga industria në mënyrë vullnetare dhe investime të gjera në programet e shkrim-leximit, për t’u ndihmuar përdoruesve të internetit që të gjejnë mënyra se si të dallojnë përmbajtjen e vërtetë nga ajo e rremë.
“Çdo herë kur ne lëshojmë në përdorim një mjet që detekton këtë, armiqtë tanë mund të përdorin inteligjencën artificiale për të fshehur gjurmët që çojnë deri te provat”, tha Doermann. “Detektimi dhe përpjekja për t’i eliminuar këto gjëra nuk janë më zgjidhje. Duhet të kemi një zgjidhje shumë më të madhe”.