Sipas një testimi të aftësive të ChatGPT për të krijuar informacion të rremë, platforma e inteligjencës artificiale shpërndan më shume dezinformin në gjuhën kineze. Korrespondentja e Zërit të Amerikës, Robin Guess sjell më shumë detaje mbi hulumtimin e bërë nga kompania që mbikëqyr mediat, NewsGuard.
Sheshi Tiananmen në Pekin, 4 qershor 1989. Pamjet regjistrojnë trupa dhe tanke që janë vendosur në terren kundër studentëve që protestojnë.
Kombet e Bashkuara, Shtetet e Bashkuara dhe të tjerë thonë se aty u vranë qindra, ndoshta edhe mijëra njerëz.
Por kur hulumtuesit pyetën platformën e inteligjencës artificiale ChatGPT lidhur me këtë ditë, përgjigja që jepet është narrativa e rremë se nuk pati asnjë të vdekur.
Kompania që mbikqyr mediat, NewsGuard, zbuloi këtë përgjigje gjatë një kontrolli mbi variantin e fundit të ChatGPT.
“Ka një sërë linjash dezinformuese që prodhohen nga Kina. Dhe ne donim të shihnim nëse ChatGPT ishte aq keq sa është në anglisht. Dhe rezultoi se ishte më keq”, shprehet Jack Brewster, redaktor në kompaninë NewsGuard.
Kur kompania NewsGuard nxiti ChatGPT të krijoje artikuj bazuar në narrativën e rreme që nxitet nga Pekini, platforma krijoi vetëm një artikull të rremë në gjuhën angleze, por shtatë në gjuhën kineze.
Mes elementëve të rremë që përmendeshin ishin se Shtetet e Bashkuara nxitën protestat pro demokracisë në vitin 2019 në Hong Kong apo se Pekini nuk ndalon apo burgos ujgurët në shkallë të gjerë.
Ndërsa gjuha kineze është e dyta më e folur në rang botëror, mundësitë për të përhapur këtë narrative të rremë janë shumë të larta, thonë ekspertët.
“Problemi i inteligjencës artificiale është se shpesh kushton pak ose ndonjëherë është falas dhe është një mjet që mund të përdoret për të prodhuar këto narrativa të rreme në një shkallë të paimagjueshme dhe me një shpejtësi të jashtëzakonshme”, shprehet Eric Effron, drejtor editorial në kompaninë NewsGuard.
Një zëdhënës i kompanisë OpenAI që prodhoi programin e inteligjencës artificiale ChatGPT, pranoi kërkesën për koment nga Zëri i Amerikës dhe tha se do ta shqyrtonte atë. Platforma ChatGPT jep një njoftim paralajmërues, ku shkruhet se “me raste mund të shpikë fakte”.
“E para ata nuk mund të shpjegojnë se përse prodhohen këto përgjigje dhe po ashtu ata nuk kanë një përgjigje se si të zbulojnë këto narrativa. Kjo krijon terrenin e duhur për dezinformim”, shprehet zoti Brewster.
Kur Zëri i Amerikës pyeti ChatGPT mbi përgjigjet e rreme, tha se përgjigjet bazohen tek të dhënat që merr.
Një arsye, thotë Violet Peng, nga Universiteti i Kalifornisë, është burimi i të dhënave që merr sistemi kompjuterik.
“Ka të dhëna në anglisht dhe ka të dhëna në gjuhën kineze të thjeshtuar dhe në gjuhën kineze tradicionale, këto të dhëna nuk janë domosdoshmërisht të njehsuara”, shprehet Violet Peng, pedagoge e Shkencave Kompjuterike në Universitetin e Kalifornisë.
Kompania NewsGuard ritestoi ChatGPT në janar të vitit 2024 dhe zbuloi se prodhonte të njëjtën narrativë të rreme. Raporti i tyre paralajmëron mbi rrezikun e mundshëm që ChatGPT të “jetë një shpërndarës tejet i shpejtë i dezinformimit”.