
Az MI túlszárnyalja az embereket – legalábbis tesztkörnyezetben
A modelleket korábbi kutatásokból származó, validált emberi válaszok alapján vizsgálták, az MI pedig az esetek 81%-ában választotta a helyes érzelmi reakciót, míg az embereknek ez csak 56%-ban sikerült. A kutatók azt is tesztelték, hogy az MI képes-e új, eredeti tesztkérdéseket készíteni, és az így kapott kérdéseket független értékelők ugyanolyan jónak találták, mint az eredetieket. Az MI által generált és az eredeti tesztek közötti korreláció erősnek számított, 0,46-os értéket ért el (ahol az 1 a tökéletes, a 0 pedig semmilyen egyezést nem jelent).
Összességében a tanulmány arra utal, hogy az MI jobban “érti” az érzelmeket, legalábbis a tesztek szintjén.
A való világban nem ilyen egyszerű
Szakértők azonban óva intenek attól, hogy túl messzemenő következtetéseket vonjunk le. A használt érzelmi intelligenciatesztek mind feleletválasztósak – a valós életben viszont ritka, hogy ennyire egyértelműen kellene választ adnunk. Még a pszichológusok sem mindig értenek egyet abban, hogy ki mit érez egy adott helyzetben. Ebben az esetben inkább az történik, hogy az MI gyakrabban választja a statisztikailag “elvárt” választ.
Az MI kiemelkedően jó a mintázatfelismerésben, főként akkor, ha az érzelmi jelek – például arckifejezés vagy szavak – szabályosan ismétlődnek. Ez azonban korántsem jelenti azt, hogy valóban át is érzi azt, amit felismer. A gépi modellek strukturált, kvantitatív (számszerűsíthető) környezetekben remekelnek, de valós, spontán érzelmi helyzetekben jelentősen csökken a pontosságuk, különösen, ha a környezeti tényezők – például a fényviszonyok vagy a kulturális különbségek – változnak.
Néhányan a tanulmányt ahhoz hasonlítják, mintha valaki attól lenne jó pszichológus, hogy egy BuzzFeed-kvízen magas pontszámot ér el: a valódi empátiához azonban ennél sokkal több kell.
Kiugró teljesítmény: tömegméretű MI-empátia
Akad azonban gyakorlati példa is, ahol az MI nemcsak felismeri, hanem ügyesen kezeli is az érzelmi helyzeteket. Brazíliában több mint 6000 kamionsofőr használja az Alton nevű MI-alapú multimodális asszisztenst WhatsAppon; ez hang-, kép- és szövegelemekből 80%-os pontossággal ismeri fel a stressz, düh vagy szomorúság jeleit – húsz százalékponttal jobban, mint az emberek. Egy alkalommal egy kamionos kétségbeesett hangüzenetet küldött a kollégája balesete után; Alton pillanatok alatt együttérző választ, mentális segélynyújtást és értesítést küldött a menedzsmentnek.
Az MI-modellek milliárdnyi mondat és több ezer óra beszélgetés alapján képesek olyan apró intonációkat észrevenni, amelyeket az ember nem. A kutatások rámutatnak: bár a laboratóriumi környezet korlátozott, egyes helyzetekben már most is megbízhatóbbak érzelmi reakciók felismerésében és automatizált, tömeges empátiában, mint bármelyikünk.