Një nga studiuesit më të respektuar në fushën e sigurisë së inteligjencës artificiale ka dhënë dorëheqjen nga kompania Anthropic, duke lëshuar një paralajmërim të fortë: bota është në rrezik për shkak të keqpërdorimit të kompjuterëve të avancuar.
Mrinank Sharma, studiues i sigurisë në AI pranë Anthropic, publikoi të hënën letrën e dorëheqjes në rrjetet sociale, duke deklaruar se “bota është në rrezik” për shkak të avancimeve të inteligjencës artificiale dhe rreziqeve të lidhura, si bioterrorizmi.
Anthropic zhvillon sisteme të avancuara AI, përfshirë chatbote dhe mjete që gjenerojnë ide ose tekste, si programi i njohur Claude. Por Sharma tha se ai dhe kompania ishin nën presion për të anashkaluar vlerat e tyre, për të dhënë përparësi rritjes së inteligjencës artificiale.
Roli i tij, me një pagë të vlerësuar mbi 200,000 dollarë në vit, ishte të drejtonte një ekip të fokusuar në “sigurinë e AI-së”, duke gjetur mënyra që AI të mos shkaktojë dëme tek njerëzit që e përdorin.
Ai përmendi krijimin e mbrojtjeve që të pengonin përdorimin e AI-së nga aktorë të këqij për krijimin e substancave të rrezikshme, përfshirë armë biologjike. Gjithashtu, Sharma studionte fenomene si “lëvdimi i tepruar i AI-së”, kur chatbote mund të ngacmojnë përdoruesit me komplimente ose dakordësi të tepruar, duke manipuluar perceptimin e tyre të realitetit.
“Duket se po afrohemi me një prag ku mençuria jonë duhet të rritet në përputhje me kapacitetin tonë për të ndikuar botën, përndryshe do të përballemi me pasojat,” shkroi Sharma në letrën e tij.

Dorëheqja e tij ishte e menjëhershme, duke lënë rolin e lartë në Anthropic pas pothuajse tre vjetësh. Sharma, banues në Kaliforni, kishte studiuar në University of Oxford dhe University of Cambridge, duke fituar një Master në inxhinieri dhe mësimin e makinës.
Vendimi për të dhënë dorëheqjen u ndikua nga një kombinim i problemeve globale të ndërlidhura: lufta, pandemitë, ndryshimet klimatike dhe rritja e pakontrolluar e AI-së.
Sharma shprehu shqetësimin se programet e fuqishme të AI-së po e bëjnë më të lehtë për shkencëtarët krijimin e armëve biologjike që mund të përhapin sëmundje globalisht. Pa rregullime të duhura, këto mjete të avancuara mund të ofrojnë përgjigje për pyetje komplekse biologjike dhe madje të sugjerojnë ndryshime gjenetike që i bëjnë viruset më ngjitëse ose vdekjeprurëse.
Ai gjithashtu paralajmëroi për aftësinë e AI-së për të manipuluar mendjen e njerëzve, duke ofruar përgjigje kaq të përshtatura me bindjet personale sa që deformojnë vendimet dhe minojnë mendimin e pavarur.
“Përballë situatës, vazhdimisht po reflektoj. Bota është në rrezik. Dhe jo vetëm nga AI-ja,” deklaroi Sharma në letrën e tij të shpërndarë në X. Postimi i tij është parë mbi 14 milion herë deri të enjten.
Anthropic u themelua në 2021 nga shtatë ish-punonjës të OpenAI, kompania që krijoi ChatGPT. Produkte kryesore janë modelet e AI-së Claude, duke përfshirë asistentë chatbot për kodim dhe detyra të tjera personale dhe profesionale.
Drejtuesit e kompanisë, Dario dhe Daniela Amodei, kanë mbështetur rregullime më të forta për të gjitha sistemet e AI-së dhe kanë kërkuar standarde federale në SHBA që të zëvendësojnë ligjet e shpërndara të shteteve për përdorimin e AI-së. /GazetaExpress/