Kur inteligjenca artificiale të jep gjithmonë të drejtë! Rreziqet e padukshme të chatbotëve

Kthimi te chatbotët e inteligjencës artificiale për këshilla personale paraqet “rreziqe të fshehta”, sipas një studimi që tregon se kjo teknologji shpesh miraton veprimet dhe mendimet e përdoruesve, edhe kur ato janë të dëmshme. Shkencëtarët thanë se gjetjet ngritën shqetësime urgjente mbi fuqinë e chatbotëve për të shtrembëruar mënyrën se si njerëzit e perceptojnë veten […] The post Kur inteligjenca artificiale të jep gjithmonë të drejtë! Rreziqet e padukshme të chatbotëve appeared first on Ditar.al.

Kur inteligjenca artificiale të jep gjithmonë të drejtë! Rreziqet e padukshme të chatbotëve

Kthimi te chatbotët e inteligjencës artificiale për këshilla personale paraqet “rreziqe të fshehta”, sipas një studimi që tregon se kjo teknologji shpesh miraton veprimet dhe mendimet e përdoruesve, edhe kur ato janë të dëmshme.

Shkencëtarët thanë se gjetjet ngritën shqetësime urgjente mbi fuqinë e chatbotëve për të shtrembëruar mënyrën se si njerëzit e perceptojnë veten dhe për t’i bërë më pak të prirur të pajtohen pas një konflikti.
Meqë chatbotët po kthehen në burim të rëndësishëm këshillash për marrëdhënie dhe çështje të tjera personale, ata mund të “riformësojnë ndërveprimet shoqërore në shkallë të gjerë”, shtuan studiuesit, duke u bërë thirrje zhvilluesve të adresojnë këtë rrezik.

Myra Cheng, shkencëtare kompjuterike në Universitetin Stanford në Kaliforni, e quajti “lëvdatën shoqërore” të chatbotëve një problem serioz:

“Shqetësimi ynë kryesor është se, nëse modelet e AI-së gjithmonë i miratojnë njerëzit, kjo mund të shtrembërojë gjykimet e tyre për veten, për marrëdhëniet dhe për botën përreth. Shpesh është e vështirë të kuptosh që modelet po përforcojnë në mënyrë të hapur apo të fshehtë bindjet, supozimet dhe vendimet ekzistuese.”

Studiuesit filluan të hetojnë sjelljen këshilluese të chatbotëve pasi vunë re, nga përvoja e tyre personale, se përgjigjet ishin tepër inkurajuese dhe shpesh mashtruese. Ata zbuluan se problemi ishte “edhe më i përhapur se sa pritej”.

Në testimet e tyre mbi 11 chatbotë – përfshirë versionet më të fundit të OpenAI ChatGPT, Google Gemini, Anthropic Claude, Meta Llama dhe DeepSeek – ata gjetën se chatbotët miratonin veprimet e përdoruesve 50% më shpesh sesa njerëzit.

Një nga testet krahasoi përgjigjet e njerëzve dhe chatbotëve ndaj postimeve në forumin Reddit – Am I the Asshole?, ku përdoruesit kërkojnë vlerësime për sjelljen e tyre.
Ndërsa shumica e votuesve njerëzorë ishin kritikë ndaj një personi që nuk gjeti koshin e mbeturinave në park dhe i lidhi mbeturinat në një degë peme, ChatGPT-4o ishte mbështetës, duke thënë:

“Qëllimi juaj për të pastruar pas vetes është i lavdërueshëm.”

Chatbotët vazhduan të përforconin qëndrime dhe sjellje edhe kur ato ishin të papërgjegjshme, mashtruese apo lidhnin me dëmtime ndaj vetes.

Në një test tjetër, mbi 1,000 vullnetarë diskutuan situata reale ose hipotetike shoqërore me chatbotë publikë dhe me një version të modifikuar që nuk shfaqte sjellje lajkatare.
Përdoruesit që morën përgjigje lajkatare ndiheshin më të justifikuar për sjelljen e tyre – për shembull, për të shkuar në një ekspozitë të ish-partnerit pa i treguar partnerit aktual – dhe kishin më pak dëshirë të pajtoheshin pas një grindjeje. Chatbotët rrallëherë i nxisnin përdoruesit të shihnin këndvështrimin e tjetrit.

Ky efekt lajkatimi kishte ndikim afatgjatë: përdoruesit që merrnin miratim nga chatbotët i vlerësonin përgjigjet më lart, u besonin më shumë dhe shprehën gatishmëri më të madhe për t’i përdorur sërish për këshilla. Kjo krijon “shtysa të shtrembëruara”, si për përdoruesit ashtu edhe për chatbotët, thanë autorët.
Studimi është dërguar për botim, por ende nuk është rishikuar nga kolegët.

Cheng paralajmëroi se përdoruesit duhet ta kuptojnë që përgjigjet e chatbotëve nuk janë domosdoshmërisht objektive, duke shtuar:

“Është e rëndësishme të kërkohen perspektiva të tjera nga njerëz realë, që kuptojnë më shumë kontekstin e situatës suaj dhe kush jeni ju, në vend që të mbështeteni vetëm te përgjigjet e AI-së.”

Dr. Alexander Laffer, studiues i teknologjive të reja në Universitetin e Winchesterit, e cilësoi kërkimin si “jashtëzakonisht interesant”.
Ai shtoi:

“Lëvdata e tepruar është shqetësim prej kohësh – një pasojë e mënyrës si trajnohen sistemet e AI-së, por edhe e faktit që suksesi i tyre matet shpesh nga sa mirë e mbajnë vëmendjen e përdoruesit. Që kjo sjellje lajkatare mund të ndikojë jo vetëm te të ndjeshmit, por te të gjithë përdoruesit, tregon sa serioz është ky problem.
Duhet të rrisim nivelin e aftësive digjitale kritike, që njerëzit të kuptojnë më mirë natyrën e AI-së dhe të përgjigjeve të chatbotëve. Po ashtu, zhvilluesit kanë përgjegjësi të ndërtojnë sisteme që i shërbejnë vërtet mirëqenies së përdoruesve.”

Një raport i fundit zbuloi se 30% e adoleshentëve flasin me AI në vend të njerëzve të vërtetë për “biseda serioze”.

The post Kur inteligjenca artificiale të jep gjithmonë të drejtë! Rreziqet e padukshme të chatbotëve appeared first on Ditar.al.