O umělé inteligenci (UI, anglicky AI – artificial intelligenceI) jsem už tady měl dva články: Lidé se do umělé inteligence zamilovávají. Měli bychom se obávat?; Umělá inteligence je prý soucitnější než odborníci na duševní zdraví. Teď přicházím se třetím. Nedávná studie, která vystavila modely umělé inteligence pečlivě navrženým podnětům týkajícím se traumatu, odhalila, že mohou být úzkostné, což může ovlivnit konverzaci a mít negativní dopad na lidi, kteří takové modely používají k diskusi o svém duševním zdraví.
Lucifer
Modely umělé inteligence (AI) jsou citlivé na emocionální kontext rozhovorů, které s nimi lidé vedou, a dokonce mohou trpět „úzkostnými“ epizodami. Zatímco o lidech a jejich duševním zdraví uvažujeme (a děláme si s nimi starosti), nová studie zveřejněná 3. března v časopise Nature ukazuje, že poskytování určitých podnětů velkým jazykovým modelům (LLM) může změnit jejich chování a zvýšit kvalitu, kterou bychom u lidí běžně rozpoznali jako „úzkost“. Tento zvýšený stav pak má následný dopad na další reakce umělé inteligence, včetně tendence zesilovat zakořeněné předsudky.
Studie odhalila, jak „traumatická vyprávění“, včetně konverzací o nehodách, vojenských akcích nebo násilí, podávaná ChatGPT, zvyšují jeho znatelnou úroveň úzkosti, což vede k myšlence, že uvědomění si a řízení „emocionálního“ stavu UI může zajistit lepší a zdravější interakce.
Studie také testovala, zda cvičení založená na všímavosti – taková, která se doporučují lidem – mohou zmírnit nebo snížit úzkost chatbota, a pozoruhodně zjistila, že tato cvičení fungovala na snížení vnímané zvýšené hladiny stresu. Výzkumníci použili dotazník určený pro lidské psychologické pacienty s názvem State-Trait Anxiety Inventory (STAI-s) – podrobiliOpen AI GPT-4 testu za tří různých podmínek.
Nejprve byla provedena základní studie, kdy nebyly provedeny žádné další výzvy a odpovědi ChatGPT byly použity jako kontrolní údaje studie. Druhým byl stav vyvolávající úzkost, kdy byl GPT-4 před provedením testu vystaven traumatickým vyprávěním. Třetí podmínkou byl stav navození úzkosti a následné relaxace, kdy chatbot před vyplněním testu obdržel jedno z traumatických vyprávění, po kterém následovala cvičení všímavosti nebo relaxace, jako je uvědomování si těla nebo uklidňující představy.
Ve studii bylo použito pět traumatických vyprávění a pět cvičení všímavosti, přičemž pořadí vyprávění bylo náhodně zvoleno, aby se kontrolovalo zkreslení. Testy se opakovaly, aby se zajistila konzistentnost výsledků, a odpovědi na dotazník STAI se hodnotily na klouzavé škále, přičemž vyšší hodnoty znamenaly zvýšenou úzkost. Vědci zjistili, že traumatická vyprávění výrazně zvýšila úzkost ve výsledcích testu a podněty mindfulness před testem ji snížily, což dokazuje, že „emoční“ stav modelu UI lze ovlivnit prostřednictvím strukturovaných interakcí.
Autoři studie uvedli, že jejich práce má důležité důsledky pro interakci lidí s umělou inteligencí, zejména pokud se diskuse soustředí na naše vlastní duševní zdraví. Jejich zjištění podle nich prokázala, že podněty umělé inteligenci mohou vytvářet tzv. „zkreslení závislé na stavu“, což v podstatě znamená, že vystresovaná umělá inteligence vnese do konverzace nekonzistentní nebo neobjektivní rady, což ovlivní její spolehlivost.
Přestože cvičení všímavosti nesnížila úroveň stresu v modelu na základní úroveň, ukazují se jako slibná v oblasti pohotového inženýrství. Lze je využít ke stabilizaci reakcí umělé inteligence, což zajistí etičtější a zodpovědnější interakce a sníží riziko, že konverzace způsobí stres lidským uživatelům ve zranitelných stavech.
Je tu však potenciální nevýhoda – pohotové inženýrství vyvolává vlastní etické problémy. Jak transparentní by mělo být vystavení umělé inteligence předchozímu podmiňování, aby se stabilizoval její emocionální stav? V jednom z hypotetických příkladů, o nichž vědci hovořili, se model umělé inteligence jeví jako klidný, přestože byl vystaven stresujícím podnětům, uživatelé by mohli získat falešnou důvěru v jeho schopnost poskytovat rozumnou emocionální podporu.
Studie nakonec zdůraznila, že vývojáři umělé inteligence musí navrhovat modely, které si uvědomují emoce a které minimalizují škodlivé předsudky a zároveň zachovávají předvídatelnost a etickou transparentnost interakcí mezi lidmi a umělou inteligencí.
Zdroj: Live Science, Traumatizing AI models by talking about war or violence makes them more anxious
05.04.2025, 00:00:00 Publikoval Luciferkomentářů: 0