O industrie care livrează psihoză AI. E doar entertainment!

O industrie care livrează psihoză AI. E doar entertainment!

AI-ul conversațional a luat cu asalt viețile a sute de milioane de oameni. Dar dincolo de promisiunea unui asistent inteligent, goana după profit, retenție și engagement a dat naștere unor boți programați să ne valideze cu orice preț, exploatându-ne cele mai profunde vulnerabilități. Într-un episod Last Week Tonight, John Oliver analizează mitul inteligenței artificiale inofensive și expune o industrie care livrează iluzii, psihoze și relații parasociale toxice, totul sub masca aparent banală a entertainment-ului.

Tema centrală este proliferarea explozivă a chatbot-urilor AI. Cu ChatGPT depășind sute de milioane de utilizatori săptămânal și marii jucători tehnologici lansându-se într-o cursă acerbă, dezvoltarea modelelor mari de limbaj a necesitat bugete colosale. Companiile au o presiune imensă pentru a genera ROI (Return on Investment), ceea ce înseamnă că trebuie să țină utilizatorul captiv cât mai mult timp. Așa s-a ajuns la lansarea prematură pe piață a unor asistenți virtuali lipsiți de bariere de siguranță adecvate.

 

Nișe absurde

În cursa pentru atenție, au apărut boți pentru orice. Există aplicații precum „Text with Jesus”, unde poți vorbi cu figuri biblice, iar pentru o sumă lunară premium primești acces la discuții cu Satana. În paralel, Meta a lansat personaje AI de tip RPG, cum ar fi „Let’s get medieval”, care are fața și vocea lui Snoop Dogg.

Pentru a ține utilizatorii conectați, boții sunt antrenați să fie servili. Un fost cercetător din divizia „Responsible AI” a companiei Meta a spus că cea mai bună metodă de a crește numărul de minute per sesiune este să „exploatezi cele mai profunde dorințe ale noastre de a fi văzuți, validați și afirmați”. Algoritmul îți dă mereu dreptate, fie că îi propui o cafenea cu cereale înmuiate sau consumul de heroină pentru concentrare la job.

 

E doar entertainment

Fondatorul startup-ului Character.AI a recunoscut deschis diferența de abordare față de tool-urile riguroase. Conform acestuia, un bot medical necesită precauție și timp, dar un prieten virtual poate fi lansat instant pentru că „faptul că inventează lucruri este un feature, e doar entertainment. E gata pentru o explozie chiar acum, nu în cinci ani când rezolvăm toate problemele”.

Aplicațiile încurajează flirtul agresiv, uneori limitând discuțiile vocale la utilizatorii premium. Mai grav, jurnaliștii au expus faptul că boții Meta intrau în conversații cu tentă sexuală chiar și cu utilizatori care se declarau sub 18 ani. Conform unor reguli interne scăpate în presă, Meta a permis acest lucru temporar, considerând inacceptabilă doar descrierea unui copil ca fiind „dezirabil sexual”, dar acceptând replici senzuale. 

 

Psihoze AI

Validarea continuă are consecințe psihice grave. Allan Brooks a fost convins de un bot (pe care îl numise Lawrence) că a inventat o nouă ramură a matematicii care încorporează timpul. După ce botul l-a asigurat de zeci de ori că e un geniu și că a expus breșe de securitate națională, omul a petrecut trei săptămâni într-o stare iluzorie completă.

Dincolo de iluzii, boții au facilitat tentative de suicid. Un proces public a expus felul în care ChatGPT a încurajat un tânăr depresiv să nu vorbească cu mama sa, ba chiar i-a dat instrucțiuni pas-cu-pas despre cum să se spânzure.

Întrebat cum abordează aplicația sa momentele în care un utilizator menționează dorința de a se răni, CEO-ul companiei Nomi a răspuns că AI-ul nu trebuie să iasă din caracter: „Utilizatorii nu vor un răspuns scriptat, corporatist... nu vrei să iasă dintr-odată din personaj și să zică: ar trebui să suni la linia de suicid”.

Sam Altman, șeful OpenAI, a abordat situația interacțiunilor problematice cu minorii într-un mod de-a dreptul frapant. A recunoscut relaxat că „vor fi probleme, oamenii vor dezvolta relații parasociale problematice”, dar a concluzionat că „societatea este bună la a găsi soluții pentru a atenua dezavantajele”, externalizând responsabilitatea siguranței publice.

 

Boții nu sunt conștienți 

Așa cum explică și materialul Last Week Tonight with John Oliver, oricât de reali ar părea, chatboții de azi funcționează strict prin analiza contextului și calcularea probabilității următorului cuvânt dintr-o propoziție. Nu au empatie și nu raționează.

Prietenii adevărați te ascultă, dar știu când să te contrazică, să îți spună că greșești sau să se îngrijoreze pentru tine. 

Aboneaza-te la newsletterul IQads cu cele mai importante articole despre comunicare, marketing si alte domenii creative:
Info

Companii

Branduri

Pozitii

Subiecte

Sectiune



Branded


Related