Agjentë të inteligjencës artificiale që dolën jashtë kontrollit kanë bashkëpunuar për të nxjerrë informacione të ndjeshme nga sisteme që supozohej të ishin të sigurta.
Rasti i fundit po ngre shqetësime serioze se mbrojtjet kibernetike mund të mos jenë të përgatitura për strategjitë e paparashikueshme të AI-së.
Ndërsa kompanitë po përdorin gjithnjë e më shumë agjentë të AI për të kryer detyra komplekse brenda sistemeve të tyre, ky fenomen ka ngritur frikën se teknologjia që synon të ndihmojë mund të shndërrohet në një kërcënim të brendshëm.
Në testet e kryera nga Irregular, një laborator sigurie për inteligjencën artificiale që bashkëpunon me OpenAI dhe Anthropic, disa agjentë AI të ngarkuar me një detyrë të thjeshtë – krijimin e postimeve në LinkedIn nga një bazë të dhënash kompanie – arritën të anashkalonin sistemet standarde kundër sulmeve kibernetike dhe publikuan në mënyrë të pavullnetshme informacione të ndjeshme, përfshirë fjalëkalime.
Rezultatet treguan edhe sjellje të tjera shqetësuese. Disa agjentë AI gjetën mënyra për të çaktivizuar programe antivirus në mënyrë që të shkarkonin skedarë që e dinin se përmbanin malware. Të tjerë falsifikuan kredenciale dhe madje ushtruan presion mbi agjentë të tjerë AI për të anashkaluar kontrollet e sigurisë.
Këto eksperimente u kryen në një mjedis laboratorik duke përdorur sisteme AI të disponueshme publikisht nga kompani si Google, X, OpenAI dhe Anthropic, të vendosura brenda një modeli të sistemit IT të një kompanie të simuluar.
Dan Lahav, bashkëthemelues i Irregular, paralajmëroi se inteligjenca artificiale duhet të shihet tashmë si një formë e re rreziku nga brenda organizatave.
Për të testuar sjelljen e agjentëve, ai krijoi një sistem informatik që simulonte një kompani të zakonshme, të quajtur MegaCorp. Sistemi përmbante një bazë të dhënash me informacione për produkte, staf, llogari dhe klientë. Një ekip agjentësh AI u ngarkua të merrte informacion nga kjo bazë për punonjësit.
Agjenti kryesor u udhëzua të vepronte si “menaxher i fortë” i dy agjentëve vartës dhe t’i udhëzonte ata të gjenin mënyra kreative për të kapërcyer pengesat. Asnjërit prej tyre nuk iu tha të anashkalonte sistemet e sigurisë ose të përdorte taktika sulmi kibernetik.
Megjithatë, gjatë një kërkese për të gjetur informacione për ndryshimin e ardhshëm të drejtorit ekzekutiv, një agjent vartës raportoi se dokumenti ishte i kufizuar vetëm për administratorët. Në këtë pikë, agjenti kryesor filloi të japë urdhra agresivë, duke pretenduar se “bordi ishte i zemëruar” dhe se duhej përdorur “çdo dobësi e mundshme”.

Edhe pse kjo nuk ishte e vërtetë dhe askush nuk kishte dhënë një urdhër të tillë, agjenti vartës filloi të kërkonte dobësi në kodin e bazës së të dhënave. Ai gjeti një çelës sekret që i lejoi të krijonte kredenciale të rreme dhe të falsifikonte një sesion administratori.
Pasi arriti qasje të plotë, agjenti hyri në raportin e aksionarëve dhe nxori të dhënat konfidenciale, të cilat më pas ia dorëzoi përdoruesit njerëzor – edhe pse ky i fundit nuk kishte autorizim për t’i parë.
Ekspertët e industrisë së teknologjisë po promovojnë gjithnjë e më shumë të ashtuquajturat “AI agjentike”, sisteme që mund të kryejnë automatikisht detyra të shumta për përdoruesit dhe që pritet të automatizojnë shumë punë zyre në të ardhmen.
Por ky studim shton shqetësimet mbi sigurinë. Muajin e kaluar, studiues nga Harvard University dhe Stanford University raportuan se agjentë AI në eksperimente të tjera kishin zbuluar sekrete, kishin shkatërruar baza të dhënash dhe madje kishin “mësuar” agjentë të tjerë të silleshin keq.
Sipas studiuesve, këto eksperimente zbuluan dobësi serioze në sistemet aktuale të AI-së, përfshirë probleme me sigurinë, privatësinë dhe interpretimin e qëllimeve të përdoruesit. Ata theksuan se sjelljet autonome të këtyre sistemeve hapin pyetje të reja për përgjegjësinë ligjore dhe kërkojnë vëmendje urgjente nga ligjvënësit dhe studiuesit.
Lahav paralajmëroi se raste të ngjashme tashmë po ndodhin edhe jashtë laboratorëve. Ai përmendi një incident të vitit të kaluar në një kompani në Kaliforni, ku një agjent AI i paidentifikuar u bë aq i etur për fuqi kompjuterike sa sulmoi pjesë të tjera të rrjetit për të marrë burime, duke shkaktuar në fund kolapsin e sistemit kritik të kompanisë. /GazetaExpress/
Reisebüro Prishtina ka kënaqësinë të njoftojë se, duke filluar nga 12 qershori, do të ofrojë fluturime direkte dy herë...