Tekno-apokaliptikët, utopistët, ata që kujdesen për etikën dhe sigurinë: katër grupet që dominojnë debatin mbi zhvillimin e AI. Idetë e të cilëve kanë ndezur betejën për drejtimin OpenAI.
Saga që ka pasur si protagoniste kompaninë OpenAI (që krijoi ChatGPT) javët e fundit, ka nxjerrë në dritë një konflikt që vazhdon prej disa kohësh, dhe që ka përfshirë sektorin e Inteligjencës Artificiale.
Në fakt, në origjinën e shkarkimit (më pas të rikthimit në detyrë) të Sam Altman, qëndrojnë dallimet e mëdha midis themeluesit të OpenAI dhe bordit të drejtorëve (anëtarët e të cilit, u zëvendësuan më pas thuajse të gjithë) mbi mënyrën e duhur për ta zhvilluar më tej këtë risi. Pra vizione të kundërta, që marrin ndonjëherë edhe nuanca ideologjike.
Nga njëra anë, bordi i mëparshëm i drejtorëve – i udhëhequr nga drejtuesi shkencor Ilya Sutskever – i cili e konsideron inteligjencën artificiale një teknologji thelbësisht të rrezikshme dhe që duhej trajtuar me kujdes. Nga ana tjetër, Sam Altman, i bindur – siç shkroi në një postim disa muaj më parë – se inteligjenca e fortë artificiale (d.m.th. e aftë të arrijë aftësitë njerëzore nga çdo këndvështrim) “mund ta lartësojë njerëzimin”.
Ajo që ndodhi brenda OpenAI pason konfliktin që po ndodh prej disa kohësh në Silicon Valley. Kjo përplasje, ka në polet e saj të kundërta të ashtuquajturit doomers (tekno-apokaliptikët, që janë të bindur se një AI e fortë paraqet “rreziqe ekzistenciale” për qeniet njerëzore) dhe tekno -utopistët, që janë të sigurt se kjo teknologji do të na çojë drejt një të ardhmeje më të mirë, dhe do t’i lejojë qeniet njerëzore të arrijnë nivele mirëqenieje të paparë më herët.
Duke shfrytëzuar ndikimin e tyre ekonomik, politik ose akademik, këto grupe po i lënë në plan të dytë ata – si shumica e shkencëtarëve kompjuterikë – që janë duke u përpjekur të përqendrohen në çështje më konkrete dhe realiste.
Tekno-apokaliptikët
Në vitin 2014, Elon Musk deklaroi se zhvillimi i Inteligjencës Artificiale ishte ekuivalenti teknologjik i “thirrjes së Djallit”. Në atë kohë, AI gjeneruese (e aftë të prodhojë vetë tekste si ChatGPT, imazhe si Midjourney apo edhe tinguj dhe video), ishte ende shumë larg. Aplikacionet më të përhapura të “mësimit të thelluar”, kishin të bënin me njohjen e imazheve apo sugjerimet e personalizuara. Megjithatë, Musk, i ndikuar sigurisht edhe nga shkrimet e filozofit të diskutueshëm Nick Bostrom (autor i esesë Super-inteligjenca), paralajmëroi që në atë kohë ndaj atyre që ai i konsideronte si rreziqet e mëdha të kësaj teknologjie.
Që nga ajo kohë, Musk është bërë një lider i tekno-apokaliptikëve dhe i teorisë së “rrezikut ekzistencial”, sipas së cilës zhvillimi i Inteligjencës Artificiale, do të çojë në mënyrë të pashmangshme në një super-inteligjencë, e cila nga ana tjetër mund t’i shpëtojë kontrollit të qenieve njerëzore dhe të rebelohet kundër këtyre të fundit.
Ky vizion e nxiti të themelonte OpenAI, që synonte zhvillimin e Inteligjencës Artificiale në një mënyrë “të sigurt dhe të përgjegjshme”. Me kalimin e viteve, teoria e “rrezikut ekzistencial” të paraqitur nga AI, ka fituar mbështetje gjithnjë e më të madhe në mesin e anëtarëve më radikalë të shumë grupeve të mendimit, përfshirë institutin “Future of life”, që pak muaj më parë publikoi ??një letër të hapur ku bënte thirrje për ndalimin e zhvillimit të këtyre mjeteve. Teoria e “rrezikut ekzistencial” ishte në qendër të samitit të fundit mbi AI, i organizuar nga kryeministri britanik Rishi Sunak.
AI Safety: Garantët e zhvillimit të sigurt të Inteligjencës Artificiale
Është grupi që mbi gjithë konsideratat e tjera, dëshiron që zhvillimi i Inteligjencës Artificiale të ndodhë në mënyrë të sigurt. Ai hulumton në çdo moment mbi mënyrat më premtuese, për të parandaluar që AI t’i shpëtojë kontrollit tonë dhe të rebelohet kundër qenieve njerëzore, madje edhe pa e kuptuar këtë gjë.
Imagjinoni skenarin e mëposhtëm dhe tashmë të mirënjohur (të cilin ia detyrojmë sërish Bostrom): një Inteligjencë Artificiale veçanërisht e avancuar merr komandën për të maksimizuar prodhimin e kapëseve të letrës. Duke e interpretuar fjalë për fjalë objektivin që i është dhënë, kjo AI konsumon të gjitha burimet e planetit tonë për të prodhuar sa më shumë kapëse letre, duke shkaktuar pa dashje edhe zhdukjen e qenieve njerëzore.
Siç e thekson edhe Melanie Mitchell, profesoreshë e Kompleksitetit në Universitetin e Santa Fe, “ne duam që makinat të bëjnë atë që ne synojmë ne, por jo domosdoshmërisht atë që u themi”. A është e mundur të arrihet ky objektiv, dhe të sigurohet që Inteligjenca Artificiale të jetë në gjendje të kontekstualizojë dhe balancojë komandat tona, duke i interpretuar ato ashtu si ne njerëzit?
Sipas kësaj teze, përçimi tek makinat i vlerave tona njerëzore, do t’i lejonte ato të interpretonin komandat në mënyrë korrekte, duke mos u kufizuar tek “maksimizimi i funksionit objektiv” (pra ta përfundojnë detyrën që i është dhënë, në mënyrën më efikase të mundshme), por duke e kuptuar në mënyrë të pavarur se çfarë duam ne njerëzit në të vërtetë, dhe cilat janë kufijtë dhe kufizimet që duhen respektuar (për shembull, shmangia e shkatërrimit të planetit për të prodhuar një numër të tepruar kapësesh letre).
Megjithatë, mbetet i hapur dhe shumë larg zgjidhjes problemi se si t’i transmetojmë në mënyrë efektive vlerat tona këtyre makinave. Aktualisht, janë duke u zhvilluar disa eksperimente, të cilat nuk kanë çuar ende tek rezultatet përkatëse. Ndër ndjekësit e kësaj shkolle mendimi, është edhe ish-drejtori shkencor i OpenAI Ilya Sutskever, themeluesi i DeepMind, Demis Hassabis, ata të Anthropic Dario etj. Kjo lëvizje, ka prodhuar disa punë të rëndësishme shkencore, por shpesh i afrohet pozicioneve më ekstreme të tekno-apokaliptikëve.
Tekno-utopistët
Udhëheqësi i rrymës me optimiste në gjirin e ekspertëve në lidhje me zhvillimin e Inteligjencës Artificiale është padyshim investitori shumë i fuqishëm Marc Andreessen, themeluesi i kompanisë A16Z, dhe autor i një eseje të botuar kohët e fundit me titull “Inteligjenca Artificiale do të shpëtojë botën”.
Natyrisht, edhe në këtë grup, vëmendje i kushtohet rreziqeve të mundshme që vijnë nga Inteligjenca Artificiale. Dhe nuk ka asnjë dyshim, që edhe këta janë dakord me parashikimin se një Inteligjencë Artificiale shumë e fuqishme mund të lindë brenda pak vitesh. Ajo që i dallon nga të tjerët, është besimi që nëse zhvillohet në mënyrën e duhur, një teknologji do ta çojë botën drejt një utopie të re socio-ekonomike.
Ky është një vizion i përshkruar gjerësisht në esenë e fundit me titull “AI 2041” nga shkencëtari kompjuterik dhe investitori Kai-Fu Lee, ku përmes një historie fantastiko-shkencore, ai përshkruan se si Inteligjenca Artificiale do të krijojë një “ekonomi të bollëkut”, që do të na çlirojë nga çdo lloj vështirësie ekonomike, do të na lejojë ta zgjasim pa masë jetëgjatësinë, do të na çlirojë nga zgjedha e punës, por jo vetëm.
Për këtë arsye, utopistët janë kundër çdo rregullimi që mund të ngadalësojë zhvillimin e AI. Ata synojnë të arrijnë sa më shpejt tek një AI e plotfuqishme. Përveç Andresseen dhe Sam Altman, figura të tilla si kreu ekzekutiv i Microsoft Satya Nadella apo Google Sundar Pichai, përfshihen shpeshherë në grupin e utopistëve. Por a jemi vërtet të sigurt se vizioni i tyre është një vizion i vërtetë i së ardhmes, dhe se ata nuk janë thjesht të interesuar të maksimizojnë kthimin e investimeve të tyre në këtë sektor?
Eticienët e Inteligjencës Artificiale
Grupet që kemi përmendur deri më tani janë të shqetësuar për të ardhmen, mbi shfaqjen e një super-inteligjence, se si ta shmangnim atë, si ta menaxhojmë më mirë apo të shfrytëzojmë sa më shumë potencialin e saj. Të gjitha këto grupime, ndajnë gjithashtu një interpretim shumë ideologjik dhe fantastiko-shkencor.
Ndërkohë grupi i katërt ka padyshim shqetësime më konkrete, realiste dhe të menjëhershme.
Ata janë ekspertët e etikës së Inteligjencës Artificiale, që në vend se të merren me apokalipse apo utopi, përpiqen të tërheqin vëmendjen ndaj rreziqeve aktuale që paraqet kjo teknologji.
Pse ChatGPT ose Midjourney priren të prodhojnë imazhe stereotipe dhe diskriminuese të shoqërisë, dhe cilat janë rreziqet e një teknologjie që tenton të përjetësojë statuskuosë, në vend se të na ndihmojë ta kapërcejmë atë?
Cilat janë rreziqet e një mjeti thjesht statistikor, që përdoret në fusha shumë delikate si mbikëqyrja, kujdesi shëndetësor, përzgjedhja e vendeve të punës etj? Këtij grupimi – që vjen kryesisht nga universitetet – i detyrohemi për zbulimin se si (dhe pse) algoritmi Amazon i përdorur për përzgjedhjen e personelit, i diskriminonte sistematikisht gratë, se si sistemet e njohjes së fytyrës të përdorura nga policia amerikane janë shumë të gabuara, më shpesh kur bëhet fjalë për identifikimin e grave apo njerëzve që u përkasin pakicave etnike etj.
Eksponenti më i njohur është studiuesja Timnit Gebru, autore e një studimi në vitin 2020 mbi rreziqet e diskriminimit të qenësishëm në sisteme si ChatGPT (studim që solli shkarkimin e saj nga Google, ku ajo drejtonte komitetin e etikës). Po ashtu është edhe Joy Buolamwini (themelues e Algorithmic justice league), Kate Crawford (autore e esesë “As artificiale dhe as inteligjente”), dhe gjuhëtarja nga Universiteti i Uashingtonit Emily Bender
Të ardhur kryesisht nga bota akademike, dhe të pajisur në mënyrë të pashmangshme me burime ekonomike dhe fuqi mediatike shumë më të ulëta sesa Musk, Altman me shokë, Timnit Gebru dhe studiuesit e tjerë po arrijnë të kundërshtojnë të paktën pjesërisht vizionet futuriste të grupeve të tjera. Falë tyre Akti Evropian i AI, fokusohet mbi të gjitha tek rreziqet konkrete. Edhe homologu i tij amerikan bën të njëjtën gjë.
Mbetet vetëm të shpresohet që ndikimi i tyre të vazhdojë të rritet. Dhe për këtë gjë kanë përgjegjësinë e tyre edhe mediat./ WIRED Italia