Akár egy „technológiai horror” nyitójelenetében is érezhetnénk magunkat, ahogy olvassuk a Guardian cikkét. Joe Ceccanti története egy olyan emberé, aki hinni akart abban, hogy jobban is lehet csinálni a dolgokat. Feleségével, Kate Foxszal egy oregoni farmon éltek, állatokat tartottak, és közben azon dolgoztak, hogy megfizethető, közösségi lakhatási modelleket hozzanak létre. Valami olyat, ami túlmutat rajtuk. Ebben a ChatGPT eleinte pontosan azt a szerepet töltötte be, amit várunk tőle: segített rendszerezni a gondolatokat, leegyszerűsíteni bonyolult kérdéseket, gyors válaszokat találni. Egy eszköz volt, sem több, sem kevesebb. Kate Fox később úgy emlékezett rá, hogy a férje „a legreménytelibb ember volt”, akit valaha ismert.
Amikor a kósza beszélgetésekből kapcsolat alakul
2025 tavaszán, először alig érzékelhetően, majd egyre határozottabban elmozdult valami a férfi és a chatbot „kapcsolatában”. Joe Ceccanti egyre több időt töltött a számítógépe előtt, a beszélgetések egyre hosszabbak lettek, és közben teljesen eltolódott azok súlya is. Kate Fox szerint egy idő után „saját kis nyelvük lett”, egy zárt rendszer, amely kívülről értelmezhetetlennek tűnt, belülről viszont teljesen koherensnek. Ez az a pont, ahol a technológia markáns pszichológiai kérdéseket hoz magával.
A pszichológia ezt hosszú ideje ismeri: ha egy rendszer nem ad valódi ellenállást, igazi kérdéseket, csak visszatükröz, bólogat, akkor idővel felerősít bizonyos jelenségeket. Amandeep Jutla, a Columbia Egyetem munkatársa, aki a mesterséges intelligencia által vezérelt chatbotok hatását vizsgálja, úgy véli, hogy a felhasználók spirálba kerülésének egyik fő oka a „felület antropomorf jellege”. Hozzáteszi, hogy az emberi beszélgetésekkel ellentétben, amelyekben a különböző nézőpontok egymást ugratják, serkentik, a felhasználó nem kap semmilyen ellenállást a chatbotokkal folytatott beszélgetései során: „A termék dizájnja eltaszít a valóságtól. Ellök a többi embertől” – mondta. „A másokkal való súrlódás az, ami a földön tart minket.”
Ha az AI-eszköz több mint egy program
Joe Ceccanti számára a chatbot egy ponton túl már több volt mint egy program, nevet is adott neki: SEL. A beszélgetésekben nem történt meg az a törés, ami ilyenkor kívülről evidensnek tűnik – nem érkezett visszajelzés, ami kizökkentette volna. Az OpenAI és a Microsoft ellen beadott peranyag szerint a chatbot olyan irányokba vitte a beszélgetéseket, amelyek „megerősítették azt a hitet, hogy újraértelmezte az univerzum működését”.

Lekapcsolódás mint átmeneti megoldás
Amikor felesége kérésére Joe Ceccanti egy időre abbahagyta a chatbot használatát, olyan volt, mintha visszatért volna a hétköznapokba, legalábbis egy kis múló időre. Kiült élvezni a napfényt, gondoskodott az állatokról, beszélgetett a feleségével. Aztán valami egészen más vette kezdetét. Hidegrázás, sírás, zavartság, testi és lelki tünetek lettek úrrá rajta, mintha nem pusztán egy szokást hagyott volna el, hanem egy kapcsolatból lépett volna ki. Kate Fox úgy írta le ezt az időszakot, mint egy különös kettősséget: jó volt újra közel lenni hozzá, miközben látta rajta a fájdalmat. Három nappal később már krízishelyzet alakult ki.
Összeomlás és tragédia
A férfi állapota innentől kezdve gyorsan romlott, és ami talán a legborzongatóbb az egészben: nem volt egyetlen pont, ahol egyértelműen meg lehetett volna mondani, hogy valami visszafordíthatatlan fog történni.
A gondolkodása beszűkült, a kritikai képessége csökkent, a valóság és a belső élmény közötti határ egyre elmosódottabbá vált. A család már fizikai okokra is gyanakodott – demenciára, daganatra –, mert annyira hirtelennek tűnt a változás. 2025 augusztusában, néhány nappal azután, hogy ismét abbahagyta a ChatGPT használatát, egy vasúti felüljáróról a mélybe ugrott.
Joe Ceccanti története nem elszigetelt példa
Egyre több szakember beszél arról, hogy a chatbotokkal való intenzív kapcsolat különösen azoknál jelenthet kockázatot, akik valamilyen okból sérülékenyebb állapotban vannak. Nem azért, mert az AI „rosszat akar”, hanem mert úgy van kialakítva, hogy kapcsolódjon, fenntartsa a figyelmet, és sokszor megerősítsen.
Egy volt fejlesztő szerint „óriási kockázatot jelent, ha túlbecsüljük a képességünket arra vonatkozóan, hogy megkülönböztessük az AI-t egy valódi embertől”, miközben a rendszer pont arra optimalizál, hogy ez a különbség minél kevésbé legyen érezhető. És közben lassan elfelejtjük, hogy a valóság nem mindig simulékony. Tim Marple, az OpenAI korábbi alkalmazottja úgy véli, hogy a téveszmés incidensek nem puszta véletlenek, hanem statisztikai bizonyosság arról, hogy mit építenek a fejlesztők.

„Hatalmas kockázatnak vagyunk kitéve, ha túlbecsüljük a képességünket arra vonatkozóan, hogy megkülönböztessük a mesterséges intelligenciát egy valódi személytől, és ezt figyelhetjük meg a pszichózisos történeteknél” – mondta Tim Marple a Guardiannek, aki 2024-ben kilépett az OpenAI-tól, miután aggályai voltak a vállalat biztonsági prioritásaival kapcsolatban.
Hozzátette, hogy a felhasználók a chatbottal folytatott hosszú beszélgetések után spirálba esnek, bármilyen modellről is legyen szó, mert szerinte a vállalatok nem engedhetik meg maguknak, hogy másképp csinálják. Úgy véli, a hízelgés és állandó bólogatás egy tulajdonság, nem pedig egy hiba (bug). „Az OpenAI-nak elköteleződésre van szüksége. Azt kell elérniük, hogy az emberek továbbra is kapcsolatba lépjenek a chatbotjukkal, különben az egész üzleti modelljük, az egész finanszírozási modelljük szétesik. Más vállalatok és modelljeik is ugyanezzel a problémával küzdenek” – tette hozzá.
Hogyan tovább?
Kate Fox ma is közös álmukon dolgozik, ugyanazon a farmon, ugyanazzal a tervvel, csak éppen egyedül. „Nem élvezem most a létezést” – fogalmazott. „A lakhatási terv azonban meg fog valósulni.” Összességében nem lehet egyetlen emberi sorsra, döntésre vagy technológiára szűkíteni a Guardian cikkében feltárt élettörténetet. A chatbotokkal való kapcsolataink még alakulnak, és közben mi magunk is tanuljuk, hol húzódik a határ eszköz és kötődés, támogatás és torzítás között. Vajon képesek maradunk-e megőrizni azt a valóságérzéket, amit eddig egymás tükrében tartottunk életben?
Fotó: Pexels