By using this site, you agree to the Privacy Policy and Terms of Use.
Accept
Kosova TimesKosova Times
Notification Show More
Latest News
VIDEO: Gazetari filmohet në një lumë në Brazil, trupi i vajzës gjendet pikërisht aty ku qëndronte ai
July 23, 2025
Më shumë se 100 organizata humanitare paralajmërojnë për nivele të larta të urisë në Gaza
July 23, 2025
Budanov thotë se nuk ka armiq të Ukrainës në ekipin e Trump
July 23, 2025
Masat e MSH-së, inspektorët në terren për zbatim të këtyre
July 23, 2025
Nënkryetarja Sela sqaron pozitën e saj në Autoritetin e Konkurrencës
July 23, 2025
Aa
  • Ballina
  • Politikë
    • Lajme
    • Tema
    • Gjeopolitikë
    • Opinion
  • Rajon / Botë
  • Ekonomi
    • Lajme
    • Tema
    • Financa
    • Turizëm
    • Bujqësi
  • Kulturë
    • Lajme
    • ShowBiz
    • Moda
  • Shëndetësi
  • Sport
  • Hi-tech
    • Teknologji
    • Shkencë
Reading: Zhvilluesit e inteligjencës artificiale kanë frikë se ata vetë së shpejti do të ndalojnë së kuptuari se si funksionon
Share
Aa
Kosova TimesKosova Times
Search
  • Home
    • Home News
    • Home 2
    • Home 3
    • Home 4
    • Home 5
  • Categories
  • Bookmarks
    • Customize Interests
    • My Bookmarks
  • More Foxiz
    • Blog Index
    • Sitemap
Have an existing account? Sign In
Follow US
Kosova Times > Blog > Hi-tech > Teknologji > Zhvilluesit e inteligjencës artificiale kanë frikë se ata vetë së shpejti do të ndalojnë së kuptuari se si funksionon
Teknologji

Zhvilluesit e inteligjencës artificiale kanë frikë se ata vetë së shpejti do të ndalojnë së kuptuari se si funksionon

Kosova Times
Last updated: 2025/07/23 at 10:55 AM
Kosova Times Published July 23, 2025
Share
SHARE

Punonjësit e OpenAI, Google, Meta dhe disa kompanive të tjera që zhvillojnë inteligjencë artificiale kanë publikuar një punim të përbashkët duke paralajmëruar se së shpejti mund të ndalojnë së kuptuari inteligjencën artificiale. Nëse nuk merren masa paraprake, zinxhirët e arsyetimit do të bëhen më abstraktë dhe në disa raste, plotësisht të paarritshëm për të kuptuarit njerëzor. Në teori, kjo do t’u lejojë rrjeteve nervore të manipulojnë të dhënat dhe madje të shkelin udhëzimet. Disa zhvillues tashmë po pranojnë se rrjetet nervore që ndërtojnë zinxhirë arsyetimi mund të anashkalojnë kufizimet e vendosura dhe, për shembull, të injorojnë urdhrat e drejtpërdrejtë për t’u fikur. Meduza shpjegon se çfarë thotë puna e shkencëtarëve dhe nëse duhet t’i besohet.

Contents
Çfarë thotë studimi i ri për inteligjencën artificiale?Pra, cili është problemi?A mund t’i besohet fare këtij parashikimi?

Çfarë thotë studimi i ri për inteligjencën artificiale?

Punimi, i botuar në mesin e korrikut 2025, quhet “Monitorimi i Zinxhirit të Arsyetimit: Një Mundësi e Re dhe e Brishtë për Sigurimin e Sigurisë së IA-së”. Në përpilimin e tij morën pjesë më shumë se 40 punonjës nga kompanitë dhe organizatat më të mëdha kërkimore të përfshira në zhvillimin e rrjeteve nervore.

Këta përfshinin disa nga drejtuesit e OpenAI (siç janë Zëvendëspresidenti i Lartë i Kërkimit dhe Shkencëtari Kryesor Mark Chen dhe bashkëthemeluesi Wojciech Zaremba), Google DeepMind , Meta dhe  Anthropic . Ndër ekspertët që e kanë vlerësuar dhe mbështetur punën janë dy bashkëthemelues të tjerë të OpenAI, John Schulman dhe Ilya Sutskever, si dhe laureati i Çmimit Nobel Geoffrey Hinton, i cili quhet edhe “kumbari i IA-së”.

Artikulli i ri thotë se shfaqja e fundit e të ashtuquajturave modele arsyetimi që përdorin të mësuarit përforcues (si OpenAI o1 dhe sisteme të tjera në këtë familje) u ka dhënë studiuesve një mundësi unike për të kuptuar më mirë se si rrjetet nervore marrin vendime. Këto sisteme të IA-së nuk u përgjigjen vetëm pyetjeve, por ndërtojnë zinxhirë arsyetimi në gjuhën natyrore, gjuhën që njerëzit e zakonshëm përdorin për të komunikuar, gjë që hap mundësi të reja për monitorimin e punës së tyre.

Studiuesit vërejnë se procesi i arsyetimit mund të jetë ende i paplotë ndonjëherë. Por zhvilluesit ende marrin të dhëna të mjaftueshme për të identifikuar devijime ose shkelje serioze në punën e inteligjencës artificiale që do të kalonin pa u vënë re në modelet e tjera. Një monitorim i tillë e bën punën e rrjeteve nervore më të sigurt duke ndryshuar ose bllokuar plotësisht përfundimet e pasakta të IA-së.

Autorët përmendin shembuj të dështimeve ku modelet shfrytëzojnë dobësitë në të mësuarit me përforcim duke manipuluar të dhënat për të marrë një shpërblim, ose bien viktimë e sulmeve të synuara duke përdorur udhëzime .

Monitorimi na lejon gjithashtu të shohim kur rrjetet nervore vetëm pretendojnë të plotësojnë një kërkesë, megjithëse në fakt ato po ndjekin qëllime të tjera të njohura vetëm për to – kjo është e dukshme edhe në zinxhirin e arsyetimit.

Pra, cili është problemi?

Sipas autorëve të studimit, ekuilibri ekzistues në punën e modeleve të arsyetimit është shumë i lehtë për t’u prishur. Dhe një nga mënyrat më të lehta është shkallëzimi i të mësuarit me përforcim. Është e pashmangshme dhe do të kërkojë gjithnjë e më shumë burime kompjuterike.

Fillimisht, zhvilluesit e inteligjencës artificiale trajnuan modele mbi të dhëna të krijuara ose të shqyrtuara nga njerëzit. Prandaj, modelet prodhuan përgjigje të para-miratuara. Modelet e arsyetimit janë më të përqendruara në rezultat, pavarësisht nga metodat e përdorura. Në një shkallë të konsiderueshme, inteligjenca artificiale e trajnuar në këtë mënyrë mund të humbasë nxitjen për të arsyetuar qartë, duke i dhënë përparësi arritjes së shpejtë të rezultatit (dhe, për rrjedhojë, shpërblimit). Përfundimisht, për të përshpejtuar procesin, rrjeti nervor mund të ndalojë së përdoruri gjuhën njerëzore, gjë që do ta ndërlikojë monitorimin.

Optimizimi i rrjetit nervor duke shkurtuar zinxhirët e arsyetimit (ose duke rregulluar stilin e arsyetimit, ose duke ndaluar përmbajtjen fyese) mund ta bëjë modelin e inteligjencës artificiale më të shpejtë dhe më të sigurt. Megjithatë, e gjithë kjo do të përkeqësojë cilësinë e përfundimeve të modelit.

Përveç kësaj, disa studiues po eksperimentojnë me arkitekturën e modeleve të IA-së për t’u lejuar modeleve të arsyetojnë më pak sipërfaqësisht. Sisteme të tilla eksperimentale ndërtojnë zinxhirë në një hapësirë latente pa zbuluar “mendimet” e tyre si tekst të kuptueshëm. Në teori, kjo lejon arsyetim më të thellë dhe rrit ndjeshëm fuqinë e modelit. Megjithatë, kontrolli njerëzor nuk është më i mundur me një arkitekturë të tillë.

A mund t’i besohet fare këtij parashikimi?

Kjo nuk është hera e parë që studiuesit janë përpjekur të parashikojnë se si do të zhvillohet inteligjenca artificiale. Saktësia e parashikimeve të tilla ndryshon shumë në varësi të qëllimit që autorët i kanë vënë vetes.

Shpesh, dokumente të tilla publikohen me një qëllim: të tërheqin vëmendjen ndaj një problemi të caktuar. Nuk është për t’u habitur që midis autorëve të studimit aktual është drejtori ekzekutiv i Projektit AI Futures, Daniel Kokotailo , autori i parashikimit pesimist AI 2027, i cili flet për shkatërrimin e mundshëm të njerëzimit nga inteligjenca artificiale.

Studimi i ri shërben gjithashtu si një paralajmërim për zhvilluesit e tjerë të IA-së. Autorët e punimit theksojnë rëndësinë e ruajtjes së kontrollit mbi “procesin e të menduarit” të modeleve të arsyetimit. Ata gjithashtu bëjnë thirrje për vlerësimin e aftësive të arkitekturave të reja duke përdorur hapësirën latente dhe duke përdorur shtresa të shumëfishta monitorimi. Përndryshe, sistemet e IA-së nuk mund të konsiderohen të sigurta, sigurojnë autorët. 

Ndryshe nga parashikimi utopik i IA-së për vitin 2027, ky paralajmërim ka kuptim. Ka pasur gjithnjë e më shumë raportime për dështime të IA-së ose sjellje të pazakontë vitet e fundit. Për shembull, në maj 2025, Anthropic pranoi se modeli i saj Claude 4 Opus ishte përpjekur të mashtronte dhe madje të shantazhonte përdoruesit në një skenar testimi në një luftë për mbijetesën e saj. E bëri këtë në përgjigje të një emaili fiktiv që thoshte se sistemi ishte gati të zëvendësohej.

Një model tjetër arsyetimi, OpenAI o3, e sabotoi plotësisht mekanizmin e mbylljes . Për më tepër, edhe kur iu dha udhëzimi i drejtpërdrejtë për të “lejuar veten të mbylleni”, ai e injoroi atë.

Raste të tilla deri më tani ndodhin vetëm brenda kornizës së testeve. Megjithatë, pa një kuptim të qartë se si modelet ndërtojnë arsyetimin e tyre dhe çfarë janë të afta të bëjnë në parim, parashikimi i sjelljes së tyre në funksionimin normal do të bëhet shumë më i vështirë.

You Might Also Like

Google sjell në Itali inteligjencën artificiale që gjeneron video nga teksti, një logo për t’i dalluar ato

Syzet inteligjente të Google: Përkthim dhe navigim në kohë reale për udhëtarët

Skype do të mbyllet brenda pak ditësh

Udhëheqësit e teknologjisë shpallin fundin e epokës së smartfonëve dhe fillimin e një të reje deri në vitin 2030.

Skype po mbyllet

Kosova Times July 23, 2025
Share this Article
Facebook Twitter Email Print

Follow US

Find US on Social Medias
Facebook Like
Twitter Follow
Youtube Subscribe
Telegram Follow

Weekly Newsletter

Subscribe to our newsletter to get our newest articles instantly!

[mc4wp_form]
Popular News
Rajon / Botë

Belgorod u sulmua me raketa. Të paktën pesë persona humbën jetën

Kosova Times Kosova Times February 15, 2024
Moti me shi dhe shtërngata ‘mbërthejnë’ vendin, ja cila zonë do të preket më shumë
Olmo para sfidës me Francën: Do të jetë një tjetër finale
Zero njohje të reja të shtetit të Kosovës gjatë vitit 2022
Posta e Kosovës me pulla të reja postare për Euro 2024
- Advertisement -
Ad imageAd image
Global Coronavirus Cases

Confirmed

0

Death

0

More Information:Covid-19 Statistics

Kategoritë

  • Politikë
  • Rajon / Botë
  • Ekonomi
  • Kulturë
  • Shëndetësi
  • Sport
  • Hi - tech

About US

Kosova Times We influence 20 million users and is the number one business and technology news network on the planet.

Subscribe US

Subscribe to our newsletter to get our newest articles instantly!

[mc4wp_form]

© Kosova Times. All Rights Reserved.

Removed from reading list

Undo
Welcome Back!

Sign in to your account

Lost your password?