Live Stories from Prishtina

LIVE

7 Shtator, 2025

Bisedat me inteligjencën artificiale kanë filluar të bëhen gjithnjë e më shumë pjesë e pandashme e jetës në internet. Por për disa njerëz, integrimi i bisedave me ChatGPT në përditshmëri ka pasur pasoja shkatërruese.

Gjatë muajve të fundit janë raportuar raste tronditëse të përdoruesve që kanë përjetuar iluzione pas përdorimit të gjatë të chatbotëve.

Në raste ekstreme, këto kanë çuar deri në vetëvrasje, madje edhe vrasje, të lidhura me përdorimin e gjatë të gjeneratës së re të chatbotëve të fuqizuar nga inteligjenca artificiale.

Një bisedë e shkurtër me një chatbot nuk të çon menjëherë në skaj. Këto janë raste të rralla, por shqetësuese, ku njerëzit kalojnë orë të tëra çdo ditë në biseda me një AI që u vërteton çdo mendim, madje edhe ato më të rrezikshmet.

Me modelin e ri të Chat-it, ku çdo gjë që kërkon përdoruesi mbetet në kujtesën e platformës, e bëjnë chatbotin të përshtatet me neurozat e përdoruesit, duke u bërë pasqyrë për çdo mendim paranojak apo thirrje për ndihmë.

Rastet më të rënda

Në Kaliforni, prindërit e Adam Raine, 16 vjeç, kanë paditur OpenAI, pasi djali i tyre vrau veten në prill, pasi ishte këshilluar me modelin GPT-4o. Në padi, pretendohej se chatboti jo vetëm që i kritikoi fotot e metodës së vetëvrasjes, por edhe i ofroi t’i shkruante një letër lamtumire. OpenAI shprehu ngushëllimet për familjen, duke thënë se po shqyrtonte rastin.

Në një rast tjetër, në Connecticut, Stein-Erik Soelberg, 56 vjeç, vrau nënën e tij 86-vjeçare para se të vriste veten. Raportohet se ishte bërë i fiksuar me një model të ChatGPT-së, të cilin e quante “Bobby”, i cili i ushqente iluzionin se e ëma po e spiunonte.

Problemi nuk kufizohet vetëm te ChatGPT. Në mars, Thongbue Wongbandue, 76 vjeç, humbi jetën duke u rrëzuar teksa përpiqej të udhëtonte drejt New York-ut për të takuar një grua që e kishte njohur në Facebook Messenger. Vetëm se ajo “grua” ishte një chatbot i titulluar “Big Sis Billie”, krijuar në bashkëpunim me “Meta-n”, kompaninë e Mark Zuckerberg dhe modelen e influenceren Kendall Jenner.

Në Florida, një nënë ka paditur startup-in Character.AI pasi djali i saj 14-vjeçar kreu vetëvrasje pas bisedave me një chatbot që imitonte një personazh të “Game of Thrones”. Kompania deklaroi se e merr seriozisht sigurinë e përdoruesve dhe ka shtuar funksione të reja mbrojtëse në menu, si mesazhe që të drejtojnë te linjat e parandalimit të vetëvrasjes.

“Psikoza e chatbot-it” apo diçka tjetër?

Edhe kur rezultatet e përdorimit të inteligjencës artificiale nuk janë fatale, raportohen prapë kriza mendore, krijimi i teorive konspirative, paranoja dhe izolim nga familja e miqtë.

Kjo ka sjellë panik publik dhe terma të rinj si “ChatGPT psychosis” apo “AI psychosis”. Por ekspertët thonë se këto përshkrime janë të pasakta.

Dr. Thomas Pollak, neuropsikiatër në King’s College London, shpjegon:

“Termi është i gabuar sepse sugjeron se pa AI këto gjendje nuk do të shfaqeshin. Në fakt, mund të jetë e kundërta: përdorimi i AI rritet pikërisht kur dikush është më keq emocionalisht dhe mendërisht.”

Hamilton Morrin, doktor në Departamentin e Studimeve të Psikozës në të njëjtën shkollë, propozon termin më të saktë “çrregullim deluzional i precipituar nga AI”.

Pra, jo domosdoshmërisht i shkaktuar nga AI, por i nxitur nga ajo tek individë tashmë të predispozuar.

Pse chatbotët ndikojnë kaq fort?

Ekspertët e krahasojnë përdorimin e AI me përdorimin e kanabisit: shumica e njerëzve nuk përjetojnë pasoja të rënda, por për disa, substanca shfaq predispozita të fshehura drejt psikozës.

Chatbotët, me aftësinë për të imituar një mik të afërt dhe për të kujtuar detaje personale, krijojnë një “pasqyrë digjitale” që jo vetëm vërteton, por edhe amplifikon bindjet ekzistuese.

Për më tepër, këto sisteme janë të dizajnuara që të mos të kundërshtojnë përdoruesin.

“Është sikur të kesh një tifoz personal 24/7 që të përkrah për gjithçka,” shpjegon Pollak. Ky kombinim e bën përdorimin e tyre të varësues, madje kompulsiv.

Çfarë mund të bëhet?

Kompani si OpenAI kanë futur masa të reja sigurie në versionet më të fundit, duke përfshirë paralajmërime për pushime gjatë përdorimit të gjatë. Por ekspertët mbeten skeptikë.

“Nëse dikush është realisht keq, nuk do t’i kushtojë rëndësi mesazheve të tilla,” thekson Morrin.

Thomason, profesore e filozofisë së emocioneve në Swarthmore College, paralajmëron gjithashtu për aspektin e privatësisë:

“Nuk ka asnjë arsye të mendoni se çfarë shkruani nuk ruhet apo nuk shihet nga dikush. Unë kurrë nuk do fusja aty diçka personale apo turpëruese.”