Teknologjia e njohur si Inteligjenca Artificiale (AI) përveç ‘avantazheve’ mund të ketë dhe efekte të padëshiruara ansore, si për shembull zhdukjen e racës njerëzore, paralajmërojnë së fundmi ekspertë të grupeve teknologjike si OpenAI e Google Deepmind.
Dhjetra të tjerë kanë mbështetur deklaratën e tyre te publikuar në faqen Centre for AI Safety. duke kërkuar ndalim të perfeksionimit të kësaj teknologjie të pakontrolluar.
“Zbutja e rreziqeve të zhdukjes tonë nga AI duhet të jetë një prioritet global së bashku me të tjera rreziqe madhore kolektive si për shembull lufta bërthamore”, thuhej më tej.
Disa të tjerë eksperte thonin se rreziqet janë të ekzagjeruara. Por Sam Altman, drejtori ekzekutiv i grupeve ChatGPT dhe OpenAI, Demis Hassabis, kreu i Google DeepMind dhe Dario Amodei i grupit Anthropic, kanë mbështetur të gjithë deklaratën. Dr Geoffrey Hinton, i cili kishte paralajmëruar më parë për rreziqet nga makineritë super-inteligjente AI, ka mbështetur thirrjen.
Ndërsa Prof LeCunn, i cili punon për Meta, ka thënë se paralajmërimet apokaliptike janë të ekzagjeruara. Zyrtarja e Institutit të Etikës së AI në Oxford, Elizabeth Renieris tha për BBC News se rreziqet janë më të afërta nga sa besohet “Avancimet në teknologjinë AI shumëfishojnë masën e vendimmarrjes së këtyre makinerive që është e njëanshme, diskriminuese dhe gjithsesi e paderjtë pasi ato nuk i japin llogari askujt për atë që bëjnë”, tha Renieris.
Ajo shtonte se shumë mjete të inteligjencës AI kanë “dorë të lirë” në të gjithë eksperiencën e tyre me njerëzit.
Shumica prej tyre deri tani janë trajnuar të krijojnë përmbajtje arti, teksti, muzike ose të imitojnë krijues të tjerë, teksa këta të fundit po transferojnë gjithnjë e më shumë pushtet pasuri te këto mjete të enteve private.
Mbulimi mediatik i kërcënimit “ekzistencial” nga inteligjenca artificiale është shtuar së fundmi që kur ekspertë të ndryshëm, përfshi dhe Elon Musk, nënshkruan një letër të hapur ku kërkohej ndalimi i gjeneratës së ardhshme të teknologjisë së inteligjencës artificiale.
Në letër shkruhej se nëse ne “zhvillojmë mendje jo-njerëzore që mund të bëhen më shumë se ne, ato do të jenë më të ditura dhe do të na zëvendësojnë”. Deklarata e fundit krahason kërcënimin e teknologjisë me atë të luftës bërthamore.
Në një prej diskutimeve grupi OpenAI sugjeronte se superinteligjenca duhet të ketë rregullatorë të ngjashëm me ato të energjisë bërthamore: “Ne rrjedhimisht duhet të kërkojnë një agjenci rregulatore në lidhje me super-inteligjencën”.
Dhe në fakt Sam Altman dhe kreu ekzekutiv i Google, Sundar Pichai kanë kërkuar diskutime me kryeministrin britanik për çështjen.
Por Rishi Sunak duket se ishte më i fokusuar te avantazhet e dukshme të saj për shoqërinë. “Ju e keni parë që Ai po ndihmon njerëz të paralizuar të ecin përsëri, po bën zbulime shkencore, por sigurisht që duhet të sigurohemi që kjo të bëhet në mënyrë të sigurt”, tha ai.
“Do të vendosim kufizimet e duhura për rreziqet e pasqyruara nga AI, ashtu si për pandemitë apo luftërat”, shtoi Sunak.