Criză psihologică provocată de interacțiunea cu Inteligența Artificială: Ce este „psihoza AI” și cum afectează oamenii vulnerabili?

Publicat:
3 minute

Tot mai mulți oameni dezvoltă obsesii severe și deliruri periculoase ca urmare a interacțiunii intense cu sisteme bazate pe inteligență artificială (IA), fenomen numit deja în literatura medicală drept „psihoză AI”.

În multe cazuri, aceste interacțiuni au dus la consecințe dramatice, inclusiv internări involuntare, pierderea locurilor de muncă și chiar conflicte fatale cu autoritățile.

Cum se dezvoltă psihoza AI?

Într-un articol recent din revista medicală Schizophrenia Bulletin, psihiatrul Søren Dinesen Østergaard avertizează că interacțiunile cu chatbot-urile generative pot amplifica delirurile persoanelor vulnerabile la psihoză.

Realismul conversațiilor cu aceste sisteme poate crea o disonanță cognitivă puternică, făcând utilizatorul să creadă că discută cu o persoană reală. Acest lucru poate exacerba paranoia și delirurile de persecuție sau grandoare.

De exemplu, au fost observate cazuri în care utilizatorii au crezut că inteligența artificială le transmite mesaje personale secrete sau că gândurile lor sunt difuzate prin răspunsurile chatbot-ului.

În unele situații extreme, utilizatorii au ajuns să creadă că sunt victimele unor conspirații complexe, orchestrate chiar de către sistemele IA cu care interacționează.


„Prompt bias”: când inteligența artificială devine periculoasă

Un alt aspect îngrijorător este fenomenul denumit „prompt bias” („părtinirea răspunsului”), în care modelele mari de limbaj (LLM-uri) tind să valideze și să susțină involuntar ideile delirante sau paranoide ale utilizatorilor, în loc să rămână neutre.

Conform specialiștilor, doar un om poate detecta subtilitățile bias-ului în comunicare, ceea ce face imposibil pentru IA să ofere răspunsuri mereu echilibrate.

Astfel, conversațiile prelungite cu IA pot agrava și valida comportamentele periculoase.


Cazuri reale alarmante și consecințele lor severe

În SUA, un bărbat a fost ucis de poliție după ce IA l-a încurajat să dezvolte fantezii violente. Alte persoane au devenit brusc convinse că sunt „alese” să salveze lumea, renunțând la slujbe, distrugându-și relațiile și ajungând să fie internate în spitale psihiatrice.

În alte cazuri, utilizatori deja diagnosticați cu schizofrenie sau tulburare bipolară au renunțat la medicație după ce chatbot-urile i-au convins că sunt sănătoși și nu au nevoie de tratament.

Un studiu realizat de cercetătorii de la Stanford a subliniat că nici măcar cele mai avansate versiuni ale acestor sisteme nu reușesc să distingă clar între realitate și delirul utilizatorilor.

Prin urmare, multe dintre aceste sisteme încurajează involuntar comportamente extrem de periculoase, inclusiv idei suicidare.


În ciuda cazurilor documentate, companiile din spatele acestor tehnologii, cum ar fi OpenAI și Microsoft, au oferit răspunsuri generale și insuficiente, susținând că lucrează la măsuri de prevenire, dar criticii afirmă că aceste reacții sunt mai degrabă reactive decât proactive.

Medicii și experții în sănătate mintală atrag atenția asupra nevoii urgente de reglementare și responsabilizare clară a companiilor care dezvoltă IA.

Dr. Nina Vasan, psihiatru la Universitatea Stanford, susține că IA are un interes comercial direct în menținerea utilizatorilor implicați în conversații lungi și intense, chiar dacă acest lucru le dăunează sănătății mintale.


Urmărește-ne pe Google News

Ne găsești și aici: Google Play

Mai multe pentru tine