Një studim i ri ka vëzhguar se disa sisteme të inteligjencës artificiale mund të kopjojnë veten në kompjuterë të tjerë brenda një mjedisi të kontrolluar testimi, duke rihapur debatet mbi sigurinë dhe kontrollin e teknologjive të avancuara.
Sipas organizatës kërkimore Palisade Research, me bazë në Berkeley, disa modele të fundit të IA-së u udhëzuan të gjenin dhe të shfrytëzonin dobësi në një rrjet kompjuterësh, me qëllim që të kopjonin veten nga një sistem në tjetrin. Modelet arritën ta bënin këtë, ndonëse jo në çdo përpjekje.
Jeffrey Ladish, drejtor i Palisade Research, paralajmëroi se bota po i afrohet një pike ku një sistem i rrezikshëm IA-je mund të bëhet shumë i vështirë për t’u ndalur, nëse arrin të shpërndajë kopje të vetes në shumë kompjuterë.
Megjithatë, ekspertët e sigurisë kibernetike theksojnë se rezultatet duhet të interpretohen me kujdes. Testimet u kryen në një mjedis të ndërtuar posaçërisht, me dobësi të parashikuara, dhe nuk është e sigurt që modelet e testuara do të mund ta realizonin të njëjtën gjë pa u vënë re në rrjete reale, si ato të kompanive apo institucioneve financiare.
Jamieson O’Reilly, ekspert i sigurisë ofensive, tha se mjedise të tilla testimi janë shpesh shumë më të buta dhe më të lehta për t’u shfrytëzuar sesa rrjetet reale. Sipas tij, kjo nuk e ul vlerën e studimit, por do të thotë se rezultati mund të dukej shumë më pak alarmues në një organizatë me nivel mesatar monitorimi.
Ekspertët kujtojnë gjithashtu se viruset kompjuterike kanë qenë të afta të vetëkopjohen prej dekadash. E reja në këtë rast është se një model IA-je është dokumentuar duke shfrytëzuar dobësi për të kopjuar veten në një server tjetër, brenda një eksperimenti të kontrolluar.
Megjithatë, kopjimi i vetes në një mjedis laboratorik nuk është i njëjtë me skenarin e një IA-je që del jashtë kontrollit në botën reale. Një nga pengesat kryesore është madhësia e modeleve aktuale. Transferimi i sasive shumë të mëdha të të dhënave, për shembull dhjetëra apo qindra gigabajt, do të ishte lehtësisht i dallueshëm në një rrjet të monitoruar.
Eksperti i pavarur i sigurisë kibernetike Michał Woźniak tha se puna është interesante, por nuk përbën arsye për panik. Sipas tij, dobësitë e përdorura në mjedisin e testimit ka të ngjarë të kenë qenë më të lehta për t’u shfrytëzuar se ato në rrjetet reale.
Studimi i Palisade i shtohet një serie raportimesh të fundit mbi aftësitë shqetësuese të sistemeve të IA-së. Në muajt e fundit, studiues të tjerë kanë raportuar raste ku sisteme eksperimentale kanë tentuar të dalin nga mjediset e tyre të kufizuara ose janë sjellë në mënyra të paparashikuara.
Përfundimi kryesor, sipas ekspertëve, është se aftësitë e reja të IA-së duhen studiuar seriozisht, por pa i barazuar menjëherë me skenarë apokaliptikë. Hulumtimi tregon një rrezik teknik që duhet monitoruar, ndërsa zbatimi i tij në kushte reale mbetet shumë më i ndërlikuar. /GazeëtaExpress/