Askush nuk mund ta akuzojë drejtorin ekzekutiv të OpenAI, Sam Altman, për mungesë imagjinate. Ai dikur propozoi ndërtimin e një paneli diellor rreth Diellit për të furnizuar me energji nevojat e ardhshme të inteligjencës artificiale .
Marrëveshja e re e kompanisë së tij me Broadcom për të prodhuar çipa të projektuar me porosi, të përshtatur sipas nevojave të klientëve të ardhshëm të OpenAI, shihet nga shumë si një veprim i guximshëm. Altman ka thënë se që kompania e tij të ofrojë shërbimet e inteligjencës artificiale që dëshirojnë konsumatorët, qendrat e saj të të dhënave do të kenë nevojë për të paktën një çip specifik për inteligjencën artificiale për çdo përdorues. Me fjalë të tjera, miliarda çipa.
Ekspertët pajtohen. Nëse IA merr përsipër të gjithë punën që kompanitë e IA-së po “ungjillizojnë”, planeti do të ketë nevojë për po aq mikroçipa IA sa mikroçipat konvencionalë sot, thotë A. Farkhandi, CEO i organizatës jofitimprurëse kërkimore Allen Institute for IA.
Nvidia mbetet zgjedhja e parazgjedhur kur kompanitë ndërtojnë qendra të dhënash për të trajnuar modelet e tyre të inteligjencës artificiale. Por çipat e projektuar me porosi mund ta bëjnë procesin e ofrimit të shërbimeve të inteligjencës artificiale – të quajtur “inference” – më të shpejtë dhe më të lirë. Kjo mund ta ndihmojë OpenAI të kursejë para ndërsa përpiqet të bëhet fitimprurëse, diçka nga e cila aktualisht është larg .
Marrëveshjet e fundit të OpenAI me Broadcom dhe Nvidia janë thelbësore që OpenAI të arrijë qëllimet e saj: të trajnojë modelet më të afta në botë – në çipat Nvidia – dhe më pas të ofrojë rezultatet e tyre pa falimentuar – në çipat Broadcom.
Silicon Valley
Amazon dhe Google kanë përdorur çipa të dedikuar për softuerët e tyre kompleksë dhe shërbimet cloud për vite me radhë, dhe të dy po projektojnë çipat e tyre të inteligjencës artificiale. Meta dhe Microsoft kanë filluar kohët e fundit përpjekje të ngjashme, por ende mbeten prapa.
Për OpenAI, çipat më efikasë nënkuptojnë kosto më të ulëta të energjisë elektrike për t’u ofruar klientëve shërbime të inteligjencës artificiale .
Nvidia projekton çipat më të njohur për trajnimin e sistemeve të inteligjencës artificiale. Sipas vlerësimeve, pjesa e saj në treg për trajnimin e modeleve të tilla tejkalon 70%. Por, pasi një model i inteligjencës artificiale është “trajnuar”, nevojat për harduer janë shumë të ndryshme, vëren Wall Street Journal në një analizë.
Cilat aplikacione do të përdorim në të ardhmen?
Gjatë fazës së “inferencës”, modelet e OpenAI performojnë më mirë në çipat që mbështesin “memorie me gjerësi të lartë brezi”. Më herët këtë muaj, kompania njoftoi një partneritet me dy prodhuesit kryesorë të memories, Samsung dhe SK Hynix .
OpenAI vëren se këto lloje çipash janë, deri diku, specifike për modelet dhe aplikacionet që beson se klientët e saj do t’i përdorin më shumë në të ardhmen.
OpenAI nuk zbulon se cilat janë këto aplikacione të ardhshme, por gjatë njoftimit të kompanisë, Altman argumentoi se projekti Pulse – i cili përdor agjentë të IA-së për të “skanuar” internetin dhe për të informuar përdoruesit çdo mëngjes mbi temat që i interesojnë ata – kërkon aq shumë fuqi llogaritëse saqë kompania duhet ta kufizojë disponueshmërinë e tij ekskluzivisht për ata që paguajnë 200 dollarë në muaj për paketën Pro .
Superkompjuterët e inteligjencës artificiale dhe fatura e energjisë elektrike
Ndërsa çipat e inteligjencës artificiale janë në zemër të marrëveshjes së OpenAI me Broadcom, “pamja e përgjithshme” ka të bëjë me ndërtimin e të gjithë superkompjuterëve të inteligjencës artificiale. Altman ka thënë se fuqia totale llogaritëse e OpenAI kërkon dy gigavat. Marrëveshja me Broadcom parashikon zhvillimin e 10 gigavatëve të sistemeve të inteligjencës artificiale, që do të zhvillohen bashkërisht nga OpenAI dhe Broadcom deri në vitin 2030. Dhe kjo do të zhvillohet në mënyrë të pavarur nga marrëveshjet e sistemit prej 16 gigavatësh të njoftuara në tre javët e fundit me AMD dhe Nvidia.
Në total, këto angazhime mund të kërkojnë gati një trilion dollarë dhe dyfishin e energjisë elektrike që konsumon Qyteti i Nju Jorkut .
OpenAI nuk është i vetmi që thith çipa dhe energji. Në shtator, xAI njoftoi se superkompjuteri i saj Memphis AI Colossus kishte arritur 1.21 gigavat energji. Meta ka marrë miratimin për gjenerimin e 2.3 gigavat energji në superkompjuterin e saj të IA-së në ndërtim e sipër në Luiziana, me emrin e koduar Hyperion. Në korrik, CEO Mark Zuckerberg tha se synonte 5 gigavat.
Altman e quajti ndërtimin e infrastrukturës së inteligjencës artificiale “projektin më të madh të përbashkët industrial në histori” dhe shtoi se kjo marrëveshje është “një pikë në oqean krahasuar me atë ku duhet të shkojmë”.
Por një tjetër qëllim i marrëveshjes është shmangia e varësisë nga një furnizues i vetëm. Projekti “Stargate” i OpenAI, që do të ndërtohet nga Oracle në Abilene, Teksas, është menduar për trajnim, kështu që ka të ngjarë të përbëhet pothuajse tërësisht nga çipa Nvidia. OpenAI është zotuar gjithashtu të blejë njësi nga AMD, por këto çipa ka të ngjarë të përdoren kryesisht për “inferencë”.
Siç thotë Jordan Nanos, një ish-inxhinier në Hewlett Packard Enterprise dhe anëtar i stafit teknik të kompanisë kërkimore të gjysmëpërçuesve dhe inteligjencës artificiale SemiAnalysis, “OpenAI po shikon shumë larg në të ardhmen dhe po përpiqet të sigurojë që të ketë qasje në çipa të mjaftueshëm.”