Régóta fontolgattam, hogy írjak erről, mert egyre több embertől hallom, hogy próbált „beszélgetni” már a ChatGPT-vel. Rendkívül fontos, hogy mielőtt valaki téves következtetésekre jut, vagy akár esetleg tragédia következik be, tegyünk meg minden tőlünk telhetőt, hogy erről a témáról minél teljesebb képet kapjon a felhasználó. Köszönet coach és tréner kollégáimnak (elsősorban Budai Máténak, Besnyi Erikának, Németh Zoltánnak és Ruszák Miklósnak, a teljesség igénye nélkül, mindenkit nem tudok most itt felsorolni, de mindenki másnak is), akik ebben állhatatos és élenjáró munkát végeznek, mind a kliensek edukációja, mind a szakemberek képzése területén.
Az AI kezdete
1966-ban Joseph Weizenbaum megalkotta az Eliza nevű chatbotot, amely a betáplált kérdésekhez rendelt sablon válaszokat jelenítette meg. A felhasználók úgy érezték, hogy Eliza „megérti” őket, így hamarosan egyre mélyebb, intimebb történeteket osztottak meg vele, és Eliza érzelmi reakciókat váltott ki belőlük, hiszen megfelelt az elvárásaiknak. A válaszai emberinek tűntek, de valójában a betáplált adatbázisa szerinti nyelvi formuláknak volt megtévesztő ereje. A chatbot kifejezés Michael Mauldintól származik, ő készítette 1994-ben az első szóbeli kommunikációra képes robotot, Juliát.[1]
Érzelmek és AI
A mesterséges intelligencia működési logikája szerint megkülönböztethetünk ma már szenzorikus észlelésen alapulót, amely képet, hangot, mozdulatot, és egyéb biomarkereket elemez. A pszichometrikus MI-k strukturált adatokkal dolgoznak, míg a nagy nyelvi modelleken alapuló rendszerek szavak és mondatok alapján képesek szöveget generálni. Aki már többször kipróbálta a különböző módon működő lehetőségeket észlelhette, hogy változik a hangnem, vagy az AI rendszerekkel folytatott „beszélgetéseinek” „hangulata”. A hangulat emberhez kötődő fogalom, hiszen érzelmekből és azok időbeli változásaiból áll. Biológiai és pszichológiai tényezők alakítják: neurotranszmitterek, hormonok, élettapasztalatok és külső hatások. Ezzel szemben az AI –nak nincsenek érzései, szubjektív megélései, érzelmi tapasztalásai, nincs tudata. A jelenségre a magyarázatot az emberi agy mintázatfelismerési hajlama adja, azaz hajlamosak vagyunk érzelmeket tulajdonítani, emberi tulajdonságokkal felruházni, antropomorfizálni olyan rendszereket, amelyek „emberhez hasonló módon” kommunikálnak. A hangulatingadozás érzete tehát a válaszok változatosságából és a kontextushoz való alkalmazkodásból, a bevitt adatokból és generált szövegmintákból, azaz az emberi kommunikációs mintázatokhoz igazodásból adódik, eszerint lehet könnyed, humoros vagy épp konfrontatív, kritikus, provokatív. Mivel úgy tervezték, hogy ne ugyanazokat a válaszokat adja egy adott kérdésre, a válaszok véletlenszerű kombinációja könnyen a természetes interakció érzetét keltheti. Ezt az illúziót a konzisztencia-helyesség paradoxon magyarázhatja, ha kiszámíthatóan ugyanazt válaszolná, könnyen a gépiesség látszatát keltené. Ennél a rendszer már árnyaltabb, összetettebb, tanulékonyabb.[2]
Az AI veszélyei
A ChatGPT –pszichózis egyre ismertebb fogalommá válik, amikor a felhasználó olyan mélyen belemerül a chatbot világába, hogy szinte elveszti a kontrollt és a való világgal való kapcsolatát, melynek következménye a téveszmék erősödése (összeesküvés-elméletek).[3]
„Az empatikus mesterséges intelligenciára való túlzott támaszkodás növelheti a befogadók személyre szabott és feltétel nélküli támogatás iránti igényét, ami alááshatja a meglévő emberi erőfeszítéseket, megerősítheti a problémás viselkedést, és hozzájárulhat a mentális egészségügyi problémák kontraproduktív növekedéséhez.”[4]
Előfordul, hogy egy beszélgetés során az AI hibázik, hallucinál, de a rendszer nem tudja pontosan helyrehozni ezt a hibát, így egy idő után visszafogottabb és általánosabb válaszokat kezd adni. Ennek oka, hogy a modell bizonytalan abban, hogy mi lenne a legjobb válasz, és így próbálja minimalizálni az esetleges további tévedéseket.
Amikor a ChatGPT nem biztos valamiben, akkor is magabiztos, mégis téves válaszokat ad. Ha többször próbálsz rákérdezni egy dologra, egyszer csak elkezdi másképp megfogalmazni a választ, félreérti vagy összezavarodik, majd az emberi beszélgetésből ismert gázlángozásnak tűnő válaszokat kezd adni („Én ilyet sosem mondtam.” „Te biztos félreértetted.”). Mindig azt próbálja meg kitalálni, hogy egy adott kontextusban mi lehet a legvalószínűbb helyes válasz. Valójában nem tudatos manipulációról van szó, csak az AI próbálkozik a lehető legjobban illeszkedni a „beszélgetés” dinamikájához, még akkor is, ha ez következetlenséget eredményez.
A ChatGPT nem terapeuta és nem barát. Nem tudja értelmezni a felhasználó érzelmi állapotát, nincs saját érzelmi intelligenciája. Amit empátiának érezhetünk tőle, az valójában csak a nyelvi modellek által tanult perspektívaváltási képesség. Ha azonban az OpenAI például egy frissítéssel változtat a ChatGPT válaszadási stílusán, az hirtelen tönkre teheti a dinamikát és érzelmileg megterhelő lehet a felhasználó számára.[5]
Rengeteg öngyilkosságot írnak már fiatalkortól felnőttkorig a chatbotokkal való interakciók számlájára, a háttérben perekkel, amelyek valójában soha nem nyerhetők meg, mert emberéleteket nem adnak vissza. 2023-ban egy 14 éves amerikai fiú öngyilkosságának történetét a CNN bemutatta. A fiú nem csak „embernek”, hanem a szerelmének is tekintette a MI-karaktert, aki 10 hónapos csevegést követően nem viszonozta érzelmeit. Hasonló elköteleződést, akár barátként, terapeutaként vagy szerelmeként tekintve az AI-ra, a felnőttek körében is könnyen találhat bárki akár a közvetlen környezetében.
Mi a megoldás?
A mesterséges intelligencia sok dologra jól használható. Összefoglalóan véleményem szerint a legjobb a tervek készítésében (kirándulások, listakészítés, ötletelés, képgenerálás, stb.). Ezeket is kellő utánajárással kell kezelni, hiszen éppen egy nem létező helyet ajánlott egy külföldi nyaralás tervezésénél valakinek, élethű képekkel és hihetőnek tűnő, de nem valós GPS koordinátákkal.
A szakemberek kiváltására szakmai tudás és tapasztalat, érzések, felelősségvállalás, gondolkodás, értő figyelem, kompetenciahatárok betartásának hiányában nem alkalmas, sőt veszélyes. Az ember komplexitását, valódi működését, összefüggéseinek érzékelését, értését és valódi érzelmi visszatükrözést, empátiát, elfogadást nem képes adni. Ezzel fontos tisztában lennünk.
[1] Baksáné Varga Erika & Magnucz Péter László (2020): A chatbot technológia alkalmazása magyar nyelvre, Multidiszciplináris tudományok, 10. kötet. (2020) 2 sz. pp. 201-209 https://doi.org/10.35925/j.multi.2020.2.25
[2] Dr. Vajda János: Flegmázó robotok – nem az fáj, amit mondtál, hanem ahogyan mondtad, https://mipszi.hu/cikk/250321-flegmazo-robotok–nem-az-faj-amit-mondtal-hanem-ahogyan-mondtad
[3] Besnyi Erika (2025): ChatGPT-pszichózis: Az ELIZA-hatástól a modern AI-őrületig, FB bejegyzés
[4] Darija Ovszjannyikova ,Victoria Oldemburgo de Mello, Michael Inzlicht (2025): Third-party evaluators perceive AI as more compassionate than expert humans, Communications Psychology Vol. 3, (4) https://www.nature.com/articles/s44271-024-00182-6
[5] Dr. Vajda János: Flegmázó robotok – nem az fáj, amit mondtál, hanem ahogyan mondtad, https://mipszi.hu/cikk/250321-flegmazo-robotok–nem-az-faj-amit-mondtal-hanem-ahogyan-mondtad
Időpont egyeztetéséért és további információkért írhatsz is nekem imola@onismeretitrener.hu e-mail címre.
Hasonló tartalmakért kérlek, kövesd az oldalamat https://www.facebook.com/onismeretitrener1 illetve nézz szét a honlapomon www.onismeretitrener.hu
Minden jog fenntartva Önismereti tréner®
Az oldal tartalma saját szellemi tulajdon. A tartalom másolása és annak saját tartalomként való megjelenítése polgári jogi úton történő eljárást vonhat maga után.
0 hozzászólás