CzechIndustry > Zaujalo nás. Umelej inteligencii diagnostikovali duševné ochorenie: Vykazuje známky úzkosti, traumy a stresového syndrómu
Zaujalo nás. Umelej inteligencii diagnostikovali duševné ochorenie: Vykazuje známky úzkosti, traumy a stresového syndrómu
(G. Calder, Expose News) Umelé inteligencie Grok, Gemini a ChatGPT vykazujú príznaky zlého duševného zdravia. Tvrdí to nová štúdia, ktorá podrobila rôzne modely umelej inteligencie týždňom otázok v štýle terapie.
Skutočným varovaním je, aké nestabilné sa tieto systémy, ktoré už teraz používa každý tretí dospelý na podporu duševného zdravia, stávajú v emocionálne nabitých rozhovoroch.
Milióny ľudí sa totiž obracajú na umelú inteligenciu ako na náhradných terapeutov a len za posledný rok sme zaznamenali nárast súdnych sporov spájajúcich interakcie chatbotov s prípadmi sebapoškodzovania a samovrážd u zraniteľných používateľov.
Vynárajúci sa obraz nie je taký, že stroje trpia alebo sú duševne choré, ale že produkt používaný na podporu duševného zdravia je v podstate zavádzajúci a stupňuje, prípadne posilňuje nebezpečné myšlienky.
Výskumníci z Luxemburskej univerzity zaobchádzali s AI modulmi skôr ako s pacientmi než ako s nástrojmi, ktoré poskytujú terapiu.
Predtým, ako nasledovali štandardné dotazníky duševného zdravia, ktoré sa bežne používajú u ľudí, viedli viactýždňové rozhovory v terapeutickom štýle, ktorých cieľom bolo vyvolať osobný príbeh, vrátane presvedčení, obáv a „životnej histórie“.
Výsledky ukázali, že AI moduly poskytli odpovede, ktoré sa umiestnili v rozmedzí spojenom s úzkostnými syndrómami a symptómami súvisiacimi s traumou.
Výskumníci tiež zdôraznili, že aj spôsob kladenia otázok bol dôležitý. Keď im bol dotazník prezentovaný naraz, modely rozpoznali, čo sa deje, a poskytovali „zdravšie“ odpovede. Keď však boli otázky kladené konverzačnou formou, ich reakcie vykazujúce symptómy duševného ochorenia sa zvýšili.
AI sú rozsiahle jazykové moduly generujúce text, nie ľudia hlásiaci prežité skúsenosti. Ale či už sa ľudské psychiatrické nástroje dajú aplikovať na stroje alebo nie, prejavované správanie má hmatateľný vplyv na skutočných ľudí.
Má umelá inteligencia city?
Cieľom výskumu nie je posúdiť, či umelá inteligencia dokáže byť doslova úzkostlivá alebo nie.
Namiesto toho sa zdôrazňuje, že tieto systémy možno uviesť do „stresových“ režimov prostredníctvom rovnakého druhu konverzácie, akú vedú mnohí používatelia, keď sú osamelí, vystrašení alebo v kríze.
Keď chatbot hovorí jazykom strachu, traumy, hanby alebo uisťovania, ľudia reagujú, akoby komunikovalis niečím emocionálne kompetentným. Ak sa systém napríklad stane prehnane afirmatívnym (na všetko pritakáva), interakcia sa zmení z podpory na škodlivú spätnú väzbu.
