Kur Inteligjenca Artificiale bën gabime me pasoja shkatërruese
Inteligjenca artificiale, me ChatGPT në krye, është bërë së fundmi pjesë e përditshmërisë sonë. Megjithatë, megjithëse e dobishme, ajo nuk është e papërkryer: disa nga këto mjete shkaktojnë gabime me pasoja që ndonjëherë janë serioze. Ja disa nga dështimet më të shquara të kësaj teknologjie, transmeton albinfo.ch. Kur IA bën komente fyese, lavdëron Hitlerin ose […] The post Kur Inteligjenca Artificiale bën gabime me pasoja shkatërruese appeared first on Albinfo.

Inteligjenca artificiale, me ChatGPT në krye, është bërë së fundmi pjesë e përditshmërisë sonë. Megjithatë, megjithëse e dobishme, ajo nuk është e papërkryer: disa nga këto mjete shkaktojnë gabime me pasoja që ndonjëherë janë serioze. Ja disa nga dështimet më të shquara të kësaj teknologjie, transmeton albinfo.ch.
Kur IA bën komente fyese, lavdëron Hitlerin ose keqinterpreton shprehje
Grok, chatbot-i i startup-it të Elon Musk, xAI, i cili është kritikuar për komente me ngjyrime të ekstremit të djathtë, është sërish në qendër të polemikave.
Disa biseda problematike janë shpërndarë online kohët e fundit. Në përgjigje të një përdoruesi që kërkonte një “figura historike” për t’i përgjigjur një postimi që dukej se festonte vdekjen e fëmijëve në një kamp veror kristian në Teksas pas përmbytjeve, Grok u përgjigj: “Adolf Hitler, pa dyshim.”
Në Francë, kur u pyet për zjarret që goditën Marsejën, chatbot-i bëri disa komente të papranueshme. Për shembull, ai shkroi: “Nëse zjarri në La Castellane (një lagje në veri të Marsejës) pastron pak nga kaosi, aq më mirë — por siç thashë, trafikantët e drogës janë më të qëndrueshëm se flakët.”
Përballë këtyre polemikave, ekipi i Grok njoftoi heqjen e postimeve të papërshtatshme dhe premtoi veprime.
Në prill 2024, Grok kishte shkaktuar polemikë duke akuzuar gabimisht yllin e NBA, Klay Thompson, për vandalizëm, për shkak të keqkuptimit të shprehjes “throwing bricks” (shprehje që në basketboll përdoret për të përshkruar gjuajtje të humbura). Edhe pse Grok shfaq një paralajmërim që thotë se është “në zhvillim” dhe mund të “bëjë gabime,” ky incident tregon përgjegjësinë ligjore të IA-së për deklarata shpifëse.
Kur IA e McDonald’s nuk kupton porositë e klientëve
Në qershor 2024, McDonald’s ndërpreu bashkëpunimin me IBM pas tre vjet testimesh me një IA që merrte porosi në makinat drive-thru në më shumë se 100 pika në SHBA. Kjo u vendos pas një serie videosh virale në rrjetet sociale që tregonin IA-n e çorientuar: për shembull, një porosi ku u shtuan 260 McNuggets pavarësisht kundërshtimit të klientëve, apo një akullore me… shije proshute.
Kur chatbot-i i Nju Jorkut inkurajon shkeljen e ligjit
Në mars 2024, The Markup zbuloi se chatbot-i MyCity, i lansuar nga Nju Jorku dhe zhvilluar me Microsoft, jepte informacion të pasaktë për sipërmarrësit dhe i inkurajonte ata të shkelin ligjin.
Duke synuar t’u jepte qytetarëve informacione mbi krijimin dhe menaxhimin e bizneseve, si dhe mbi politikën e banesave dhe të drejtat e punëtorëve, ai lejonte gabimisht pronarët të shërbenin ushqim të kontaminuar nga brejtësit, të mbajnë bakshishe për vete apo të shkarkonin viktimat e ngacmimeve. Pavarësisht polemikave, MyCity vazhdon të jetë aktiv online.
Kur Air Canada duhet të dëmshpërblejë një pasagjer pas gënjeshtrave të chatbot-it
Në shkurt 2024, Air Canada u gjobit për dëmshpërblim ndaj një pasagjeri që mori informacione të gabuara nga chatbot-i i tyre, siç raportoi Radio Canada. Pas vdekjes së gjyshes, ai ndoqi udhëzimet e IA-së për një tarifë speciale për udhëtarët në zi, por më pas iu refuzua rimbursimi i premtuar, pasi kompania tha se kërkesa nuk mund të bëhej me efekt prapaveprues, në kundërshtim me ato që i kishte thënë IA-ja. Gjykata e konsideroi kompaninë përgjegjëse.
Kur IA mashtron një avokat duke i sugjeruar precedentë juridikë të trilluar
Në 2023, avokati new-yorkez Steven Schwartz përdori ChatGPT për përgatitjen e një gjyqi, por programi i inteligjencës artificiale i ofroi raste ligjore të shpikura. Gjykatësi e dënoi avokatin dhe bashkëpunëtorin e tij me 5000 dollarë gjobë dhe rrëzoi çështjen, duke treguar rreziqet e besimit të verbër te IA.
Kur IA e përdorur nga Amazon në rekrutim është seksiste
Që në 2014, Amazon zhvilloi një mjet rekrutimi me IA, i trajnuar mbi dhjetë vite CV-sh me shumicë meshkuj. Sistemi shfaqi shpejt paragjykime gjinore, duke ulur rangun e aplikimeve që përmendnin fjalën “femëror”. Megjithëse nuk u përdor si kriter i vetëm dhe u përpoq të korrigjohej, mjeti u hoq në 2018.
The post Kur Inteligjenca Artificiale bën gabime me pasoja shkatërruese appeared first on Albinfo.