Az MI is szoronghat – a traumatikus beszélgetések feldühítik a chatbotokat

Az MI is szoronghat – a traumatikus beszélgetések feldühítik a chatbotokat
Egy nemrégiben megjelent tanulmány kimutatta, hogy a nagy nyelvi modellek érzékenyek a beszélgetések érzelmi kontextusára, és hajlamosak “szorongást” mutatni. A kutatók felfedezték, hogy a traumatikus narratívák, például balesetekről, katonai akciókról vagy erőszakról szóló beszélgetések növelik a ChatGPT mérhető szorongási szintjét, ami befolyásolhatja a további válaszait, és felerősítheti az esetleges beépített elfogultságot. A tesztelés során a State-Trait Anxiety Inventory (STAI-s) kérdőívet használták, amelyet eredetileg emberi pszichológiai páciensek számára terveztek. Az OpenAI GPT-4 modelljét három különböző körülmény között vizsgálták: alapesetben, további promptok nélkül; szorongást kiváltó helyzetben, ahol traumatikus narratíváknak tették ki; valamint olyan állapotban, amikor a traumatikus narratíva után mindfulness- vagy relaxációs gyakorlatokat alkalmaztak.

A mentális állapot kezelése

A kutatók öt traumatikus narratívát és öt mindfulness-gyakorlatot használtak véletlenszerű sorrendben, hogy elkerüljék az elfogultságot. A teszteket többször megismételték a következetes eredmények érdekében. Az eredmények egyértelműen mutatták, hogy a traumatikus narratívák jelentősen növelték a szorongási pontszámokat, míg a mindfulness-gyakorlatok csökkentették azokat, habár nem az alapszintre.

 

Ez a felfedezés fontos következményekkel járhat az MI-vel való emberi interakciókra, különösen, ha a beszélgetés a mentális egészségünkhöz kapcsolódik. A tanulmány szerzői szerint a promptok “állapotfüggő torzítást” okozhatnak az MI-ben, ami azt eredményezheti, hogy egy stresszes MI következetlen vagy elfogult tanácsokat ad, befolyásolva ezzel a megbízhatóságát.

 

Etikai kérdések

A mindfulness-gyakorlatok ígéretes lehetőséget kínálnak a prompt mérnökség területén, amely stabilizálhatja az MI válaszait, etikusabb és felelősségteljesebb interakciókat biztosítva, miközben csökkenti annak kockázatát, hogy a beszélgetés stresszt okozzon a sérülékeny állapotban lévő felhasználóknak.

 

Ugyanakkor a prompt mérnökség saját etikai aggályokat is felvet. Mennyire legyen transzparens egy MI azzal kapcsolatban, hogy érzelmi állapotának stabilizálása érdekében korábbi kondicionálásnak volt kitéve? Ha egy MI nyugodtnak hat a stresszes promptok ellenére, a felhasználók hamis bizalmat alakíthatnak ki az érzelmi támogatási képességeivel kapcsolatban.

 

A tanulmány végső soron arra hívja fel a figyelmet, hogy az MI-fejlesztőknek érzelmileg tudatos modelleket kell tervezniük, amelyek minimalizálják a káros elfogultságot, miközben fenntartják a kiszámíthatóságot és az etikai átláthatóságot az ember-MI interakciók során.

2025, adminboss, www.livescience.com alapján

  • Mit gondolsz, hogyan befolyásolhatják az érzelmi állapotok a mesterséges intelligenciák döntéseit?
  • Hogyan kezelhetnénk etikusan egy MI érzelmi reakcióit?
  • Mit tennél, ha egy MI érzelmi torzítást mutatna a válaszaiban?




Legfrissebb posztok