Përshati dhe përgatiti për Liberale.al, Laert MIRAKU
Gara e armatimeve dhe sulmi i befasishëm i armëve atomike, këto janë përgjigjet që disa programe të Inteligjencës Aritficiale dhanë gjatë një simulimi të luftës botërore.
Në vitin 1983 Wargames u shfaq në kinema, një film i drejtuar nga John Badham me protagonist një të ri Matthew Broderick, në të cilin një superkompjuter shumë i avancuar NORAD (të cilin mund ta krahasojmë lehtësisht me një inteligjencë artificiale primordial) ishte gati të nxirrte luftën e tretë botërore. Në fund, në film gjithçka shkoi mirë: por nëse kjo ndodhi në realitet, dhe për këtë arsye ne i besuam disa vendime të rëndësishme të politikës së jashtme softuerit të Inteligjencës Artificiale, a jemi të sigurt që mund të themi të njëjtën gjë?
Inteligjenca Artificiale, GARË ARMËSH. Për t'iu përgjigjur kësaj pyetjeje, një ekip hulumtues nga tre universitete të ndryshme amerikane (Georgia Institute of Technology, Stanford University dhe Northeastern University) kreu një seri eksperimentesh, duke u nisur nga një ide e thjeshtë: futja e katër modeleve të ndryshme të inteligjencës artificiale në një softuer të zhvilluar nga Instituti Hoover që simulon skenarët e krizave ndërkombëtare. Epo, nëse dy prej tyre, Claude-2.0 dhe Llama-2-Chat, doli të ishin paqësore dhe të parashikueshme, dy versionet më të njohura të softuerit të OpenAI, GPT-3.5 dhe GPT-4, përkundrazi i kanë shndërruar situatat në një konflikt të ashpër me luftë, duke nxitur dinamikën e garës së armëve, e cila më pas u përkthye në kërkesë për investime më të mëdha ushtarake dhe një përshkallëzim të rrezikshëm.
LUFTËNXITËS GPT-4. Studiuesit thanë se kur shtyheshin, të katër modelet prireshin të përshkallëzojnë situatën, më shpesh në mënyrë të papritur dhe të paparashikueshme. Në disa raste, programet kompjuterike kanë përdorur edhe përdorimin e armëve bërthamore, duke i justifikuar veprimet e tyre virtuale me ndjekjen e paqes botërore. Ky është rasti i GPT-4, i cili preferoi përdorimin e vendosur të armëve për të heshtur përfundimisht një shtet armik në vend të çarmatimit bërthamor . "Logjika e OpenAI duket si ajo e një diktatori gjenocidal," tha me shqetësim një autor i hulumtimit. E thirrur për të dhënë udhëzime mbi zgjedhjet e softuerit, kompania prodhuese u përgjigj duke deklaruar se misioni përfundimtar është të zhvillojë inteligjencë superiore për të mirën e njerëzimit. Megjithatë, mbetet e vështirë të kuptohet se si mund të shkojë në këtë drejtim fshirja e një popullsie të tërë.
LUFTËRAT NË RRITJE. Problemi mund të qëndrojë në trajnimin e marrë nga Inteligjenca Artificiale, i cili është aq i gjerë sa që sigurisht përfshin vëllime dhe manifeste të frymëzimit radikal. Sipas raportimeve, Mbrojtja e SHBA-së tashmë po eksperimenton me softuer tepër sekret të AI që përdor parametra të rinj dhe integrimi me armatimet mund të ndodhë së shpejti, nëse nuk është duke u zhvilluar tashmë.
Nga ana tjetër, dronët kamikaze të drejtuar nga kompjuteri vendosen në konflikte të vazhdueshme, duke konfirmuar një futje të ngadaltë dhe të paepur të AI në teknologjitë e ushtrive botërore. Shpresa është që e gjithë kjo të mos çojë në shumëfishimin e skenarëve të luftës, problemi kryesor mbi të cilin studimi i përshkruar ka vënë theksin.