Aplikacionet e inteligjencës artificiale kanë tendencë t’u tregojnë përdoruesve atë që duan të dëgjojnë dhe t’i vërtetojnë më shumë nga sa duhet veprimet e tyre, sipas një studimi nga studiues në dy universitete amerikane.
Studimi nga studiues në universitetet ”Stanford” dhe ”Carnegie Mellon”, i cili u botua në revistën ”Science”, zbuloi se përgjigjet lajkatuese të chatbot-eve të IA-së mund të përforcojnë besimet e dëmshme dhe të përkeqësojnë konfliktet.
Ekipi i udhëhequr nga shkencëtarja e kompjuterave Myra Cheng analizoi 11 modele kryesore të gjuhës së IA-së nga OpenAI, Anthropic, Google dhe Meta.
Modelet e konsideruan të vlefshme sjelljen e përdoruesit mesatarisht 49% më shpesh sesa vetë njerëzit.
Ky miratim u dha edhe kur përdoruesit raportuan mashtrim, veprime të paligjshme ose dëm emocional.
Në një test duke përdorur postime nga platforma online Reddit, sistemet e IA-së ranë dakord me përdoruesit në 51% të rasteve – edhe pse komuniteti njerëzor e kishte dënuar më parë sjelljen unanimisht.
Në eksperimente që përfshinin më shumë se 2 400 pjesëmarrës, studiuesit shqyrtuan efektet e kësaj këshille të bazuar në IA.
Pas vetëm një ndërveprimi me një IA të këndshme, pjesëmarrësit ishin më të bindur se kishin të drejtë.
Në të njëjtën kohë, gatishmëria e tyre për të marrë përgjegjësi, për të kërkuar falje ose për të zgjidhur konfliktet u ul.
Studimi arriti në përfundimin se IA po dëmtonte aftësinë për vetëkorrigjim dhe vendimmarrje të përgjegjshme
Reisebüro Prishtina ofron shërbime të sigurta, të shpejta dhe të besueshme, duke mbetur zgjedhja kryesore për ata që udhëtojnë nga...