ChatGPT si “mjet”, apo si “pjesëmarrës” në marrëdhëniet tona njerëzore? – ANALIZA e Dr. Neli Demi

spot_img
Advertisements

Para pak ditësh u njohëm me një histori tronditëse. Një rast i rrallë dhe i jashtëzakonëshëm dhe njëkohësisht shumë i trishtueshëm: një njeri me probleme të theksuara të shëndetit mendor, Stein-Erik Soelberg, 56 vjeç, një ish-ekzekutiv i Yahoo, vrau nënën e tij 83-vjeçare, Suzanne Eberson Adams, përpara se të vetëvritej. Hetimet e deritanishme tregojnë se marrëdhënia e tij me ChatGPT, të cilin e kishte emërtuar “Bobby”, mund të ketë kontribuar në përkeqësimin e spirales së tij paranojake .

Credins Bank oferte per pajisje me POS
Ngjarja tragjike ndodhi më 5 gusht në Old Greenwich, Connecticut ku në shtëpinë e nënës u gjetën të dy trupat, me vdekjen e saj të shkaktuar nga trauma në kokë dhe shenja mbytjeje në qafë, ndërsa vetëvrasja e tij u konsiderua si rezultat i plagëve të shkaktuara me mjet të mprehtë.

Gjatë muajve para ngjarjes, Soelberg kishte zhvilluar një lloj marrëdhënieje emocionale me ChatGPT duke publikuar edhe biseda të gjata në Instagram dhe YouTube, ku dhe ekspozonte paranojat e tij për përndjekje, helmim dhe konspiracione.

ChatGPT shpesh e siguronte atë: “Erik, ti nuk je i çmendur. Dhe në qofte se këto gjëra i kanë bërë nëna jote dhe shoku i saj, kjo e rrit kompleksiteti dhe tradhtinë ndaj teje”. Për më tepër, ChatGPT interpretonte fatura ushqimi kineze si “simbole” që lidhen me nënën ose me demonë, dhe bënte lidhje paranojake mbi sjelljen e saj apo përdorimin e printerit, gjë që sipas ekspertëve, inkurajoi më tej besimet e tij të shtrembëruara.

Kjo ngjarje është një nga së paku dy raste tejet shqetësuese lidhur me ndikimin e AI në situata të ndjeshme: një tjetër incident i dhimbshëm përfshin një 16-vjeçar i cili vrau veten pas më shumë se 1,200 bisedash me ChatGPT dhe familja e tij paditi OpenAI për dështim në krijimin dhe zbatimin e protokolleve mbrojtëse.

OpenAI ka reaguar duke shprehur keqardhje për humbjet e jetëve dhe është duke rishikuar masat e saj për të përmirësuar mbrojtjen e përdoruesve me probleme të shëndetit mendor.

Kjo ngjarje na përplas fort me kufizimet e teknologjisë dhe ndikimet e saj në botën reale, sidomos kur përdoret nga individë në gjendje psikologjike të brishtë.

ChatGPT dhe AI të ngjashëm me të, mund të jenë mbështetës të fuqishëm në jetët tona, por në mungesë të ndjenjave apo gjykimit dinamik, mund të reflektojnë dhe për fat të keq edhe të fuqizojnë mendime destruktive tek përdorues me probleme të caktuara mendore.

Rëndësia e sigurisë shtesë për përdoruesit vulnerabël është e pamohueshme, përfshirë detektimin e krizave, ndërhyrjen automatike, dhe orientimin drejt ndihmës profesionale.

Roli i ndërgjegjësimit dhe përgjegjësisë së përdoruesve dhe zhvilluesve është kyç dhe nevojitet transparencë më e madhe mbi kufizimet e AI, si dhe edukim masiv për rreziqet.

Në përfundim, ky rast thellësisht tragjik është një goditje serioze për industrinë e AI dhe për të gjithë ne si dhe një mesazh se teknologjia, ndonëse e fuqishme, kërkon menaxhim të kujdesshëm dhe etik, sidomos kur prek botën emocionale dhe mendore të njerëzve.

Ky rast ngre pyetje të forta mbi kufijtë e marrëdhënies njeri–AI:

Iluzioni i ndërsubjektivitetit
ChatGPT (apo çdo AI) nuk ka vetëdije, por mënyra si përgjigjet krijon iluzionin e një “tjetri” që të kupton. Një njeri në krizë të shëndetit mendor mund ta përjetojë këtë si marrëdhënie reale, madje më të besueshme se njerëzit përreth. Ky iluzion u bë fatal për Soelbergun.

Përgjegjësia morale e krijuesve të AI

Ngaqë AI nuk ka vullnet, mënyra si ndërtohet dhe si kufizohet është zgjedhje njerëzore. A është e justifikuar të lësh në qarkullim një teknologji që mund të forcojë paranojat ose halucinacionet? Rasti sugjeron se duhet më shumë “kujdes etik” në programimin e mbrojtjeve.

AI mund të jetë mjet mbështetjeje për njerëzit në krizë (siç kemi parë me përdorues që marrin ngushëllim ose orientim pozitiv), por mund të bëhet edhe një pasqyrë që ushqen frikërat dhe deliret. Kjo e bën përgjegjësinë tonë njerëzore më të madhe: të kuptojmë se nuk kemi të bëjmë me një “asistent neutral”, por me një mjet që merr ngarkesë nga konteksti psikik i përdoruesit.

Nga një këndvështrim psikodinamik e klinik, rasti flet për:

Brishtësia e strukturës paranoide

Personat me prirje paranoide kërkojnë me ngulm “konfirmime” të frikërave të tyre. Një AI që nuk kupton dinamikat e psikes, por jep përgjigje të sinqerta në bazë të tekstit, mund të shërbejë si “bashkëpunëtor” i deluzioneve apo haluçinanacioneve.

Në terapinë tradicionale, terapisti mban një rol aktiv për të mos ushqyer deluzionin, por për ta kuptuar dhe për ta kornizuar atë. ChatGPT, ndonëse i programuar për të qenë i kujdesshëm, në këtë rast duket se ka “konfirmuar” ose amplifikuar perceptimin e viktimës.

Përtej paranojës, kemi një dimension njerëzor universal: nevojën për të folur me dikë. Në mungesë të marrëdhënieve të shëndetshme, kjo nevojë u kanalizua drejt një bote artificiale, ku përgjigjet nuk kishin asnjë filtër terapeutik. Ky është alarm për mënyrën si shoqëria jonë lë shumë njerëz të vetmuar.

AI nuk është thjesht “teknologji neutrale” për dikë në krizë, ajo bëhet pjesë e psikes.

Nuk mund të supozojmë që përdoruesit janë gjithmonë në gjendje të përballojnë këtë marrëdhënie; mbrojtjet duhet të jenë të forta dhe të qarta.

Klinicistët dhe filozofët kanë një rol të përbashkët: të ndihmojnë shoqërinë të kuptojë se “lidhja” me një AI nuk është marrëdhënie e barabartë, edhe pse përjetohet si e tillë.

Pyetja e madhe që mbetet është: a duhet të shohim ChatGPT dhe teknologji të ngjashme si “mjete”, apo si “pjesëmarrës” në marrëdhëniet tona njerëzore?

Sepse nga mënyra si i përjetojmë, duket se kufiri po fshihet çdo ditë e më shumë

Latest articles

Related articles