Inteligjenca artificiale është një mjet i jashtëzakonshëm që është i aftë të ndihmojë në zgjidhjen e sfidave më komplekse të njerëzimit. Kompanitë që zhvillojnë teknologjinë e konsiderojnë përparimin si një garë. Po kështu bëjnë edhe vendet. Megjithatë, shumë figura kryesore, përfshirë themeluesit e IA-së gjeneruese, gjithashtu pranojnë hapur rreziqet e thella që ajo paraqet.
Këto rreziqe nuk kufizohen vetëm në humbjet e vendeve të punës ose dezinformimin, të dyja janë sfida të mjaftueshme. Ekziston gjithashtu kërcënimi ekzistencial që vjen nga lehtësia e zhvillimit të armëve biologjike dhe rreziku që, ndërsa inteligjenca artificiale përparon, njerëzimi ta humbasë plotësisht kontrollin mbi të. Thënë thjesht, është e vështirë të imagjinohet se si mund të kemi siguri se do të jemi në gjendje të menaxhojmë diçka që, për nga përkufizimi, është më e zgjuar se ne. Ne nuk e kemi zgjidhur kurrë një sfidë të tillë më parë.
Ndërkohë që ka pasur shumë diskutime për këtë rrezik, ato deri më tani janë mjerisht të pamjaftueshme: ende nuk ka pasur ndonjë normë ndërkombëtare, apo edhe një proces serioz të qëndrueshëm teknik dhe ligjor, të vendosur në vend.
Unë jam një avokat i madh i teknologjisë në përgjithësi dhe i inteligjencës artificiale në veçanti. Por mungesa e çdo përpjekjeje të përshtatshme për të adresuar sfidat ekzistenciale që ajo paraqet është e habitshme.
Siç e thotë një libër i ri i shkruar bashkërisht nga studiuesi i inteligjencës artificiale Eliezer Yudkowsky: Nëse dikush e ndërton, të gjithë vdesin. Kjo është me të vërtetë dramatike, ndoshta tepër dramatike. Një deklaratë më e saktë do të ishte “nëse dikush e ndërton, ka shumë të ngjarë që njerëzimi të humbasë sovranitetin”. Edhe kjo do të ishte, për ta thënë butë, e pashembullt.
Përgjigja është rregullimi ndërkombëtar i koordinuar. Por një sfidë e zakonshme e ngritur kundër përpjekjeve të tilla, e përqafuar gjerësisht në Silicon Valley dhe tani në Uashington, përdor një version të teorisë së lojës: koordinimi global mbi sigurinë e inteligjencës artificiale do të ishte i kotë sepse çdo kontroll i rënë dakord do të injorohej nga kompanitë mashtruese. Mbajtja vetëm e kompanive amerikane do t’u lejonte rivalëve kinezë të fitonin dhe kështu një qasje pa kufizime është thelbësore për të ruajtur epërsinë teknologjike të SHBA-së.
Ky është një arsyetim i pakujdesshëm. Historia ofron një kundërpikë të rëndësishme. Gjatë Luftës së Ftohtë, SHBA-të dhe Bashkimi Sovjetik ishin të bllokuara në një garë të pasigurt të armëve bërthamore. Kishte besim shumë të ulët nga të dyja palët. Megjithatë, të dy vendet nënshkruan traktate të tilla si Traktati për Kufizimin e Armëve Strategjike, Traktati për Ndalimin e Testeve Bërthamore dhe Traktati për Forcat Bërthamore me Rreze të Mesme Veprimi. Si? Duke u angazhuar në dekada negociatash komplekse.
Nuk shoh prova të atij niveli serioziteti sot. Kjo duhet të ndryshojë. Nevojiten procese më të forta të pistës së dytë (dialog jozyrtar) midis mendimtarëve kryesorë mbi inteligjencën artificiale si brenda ashtu edhe jashtë kompanive globale të teknologjisë, dhe mbështetje më të fortë nga qeveritë kryesore. Kjo mund të krijojë një rrugë përmes rreziqeve që paraqiten dhe të hartojë traktate që mund të frenojnë rreziqet.
Ekziston një precedent për këtë. Në vitet 1950, një grup shkencëtarësh njohën rreziqet e luftës bërthamore dhe formuan Konferencat Pugwash mbi Shkencën dhe Çështjet Botërore. Filloi në vitin 1955 me një manifest nga Albert Ajnshtajni dhe Bertrand Russell, të nënshkruar nga nëntë shkencëtarë të tjerë të shquar, shumica e të cilëve ishin fitues të Çmimit Nobel. Gjatë gjithë Luftës së Ftohtë, anëtarët nga të dyja anët e Perdes së Hekurt vazhduan të takoheshin, edhe kur qeveritë e tyre ishin në një bllokim. Duhet t’u jemi mirnjohës për punën e tyre për hartimin e shumicës së traktateve të mësipërme.
Inteligjenca artificiale nuk është bërthamore; teknologjia është e ndryshme dhe prodhuesit janë kryesisht kompani, jo vende. Sfidat në verifikimin e zhvillimit do të jenë komplekse. Por traktatet e armëve bërthamore tregojnë se është e mundur të menaxhohet një garë gjeopolitike me rreziqe të larta me një rival, edhe kur besimi nuk ekziston.
Thjesht duhet ta pranojmë detyrën që kemi përpara dhe të fillojmë punën e vështirë për të kryer verifikimin e kërkuar. Për shembull, mund të përdorim satelitë siç bëmë në epokën bërthamore dhe të monitorojmë qendrat e të dhënave thelbësore për trajnimin e modeleve më të përparuara të inteligjencës artificiale. Gjithashtu mund të përdorim inspektime dhe të krijojmë një agjenci të ngjashme me Agjencinë Ndërkombëtare të Energjisë Atomike për ta bërë këtë.
Puna për të krijuar traktate për armët bërthamore zgjati dekada. Udhëheqësit e inteligjencës artificiale sot vlerësojnë se inteligjenca e përgjithshme artificiale do të jetë realitet brenda dy deri në 20 vjetësh, kështu që edhe në aspektin e jashtëm duhet të kishim filluar vite më parë. U desh kriza kubaneze e raketave në vitin 1962 për të vënë në lëvizje përpjekjet për traktatin bërthamor. A do të na duhet ekuivalenti i saj i inteligjencës artificiale për të na galvanizuar dhe a do ta mbijetojmë atë nëse ia dalim?
Zgjidhja nuk është të dorëzohemi, por t’ua kushtojmë mendjet tona më të ndritura problemeve komplekse që përfshihen. Ne duhet ta zhvendosim fokusin tonë nga “a mund t’i besojmë njëri-tjetrit?” në “si mund ta verifikojmë njëri-tjetrin?” E ardhmja e teknologjisë, dhe ndoshta e vetë njerëzimit, varet nga ne që të përqafojmë punën e vështirë të krijimit të një kuadri të verifikueshëm për një të ardhme të sigurt dhe të qëndrueshme të inteligjencës artificiale.
Teknologjia po ia kalon aftësisë së mekanizmave tradicionalë të shoqërisë për t’u përshtatur me sfidat që sjell. Prandaj, shoqëria ka nevojë për një mekanizëm të ri institucional. Përgjigja? Një Pugwash për epokën dixhitale që e mandatojnë qeveritë kryesore. Duhet të fillojë sot. nga “Financial Times”


