Bakfitty! Az MI Mostantól Jobban Ért Az Érzelmekhez, Mint Mi

Bakfitty! Az MI Mostantól Jobban Ért Az Érzelmekhez, Mint Mi
Az MI fejlődését sokáig logikai és tudományos tesztekkel mérték, de a nagy cégek manapság egyre inkább a „puha” készségek, főként az érzelmi intelligencia irányába fordulnak. Ez a változás meghatározó lehet az általános MI (AGI) felé vezető úton is, hiszen a felhasználók számára az érzelemfelismerés már fontosabb lehet, mint a puszta analitikus képesség.

Érzelmi intelligenciára hangolt új eszközök

A változást jól mutatja a LAION nevű nyílt forráskódú csoport fejlesztése, az EmoNet, amely kifejezetten az érzelmi intelligenciát célozza hangfelvételek és arcfotók elemzésével. Az alkotók szerint az érzelmek pontos felismerése csak az első lépés, igazi céljuk az, hogy az MI modellek összefüggéseiben is képesek legyenek értelmezni, mi történik a felhasználóval. Christoph Schuhmann, a LAION alapítója kiemeli: ezek a képességek mára a nagy laborokban már rendelkezésre állnak, de ők szeretnék ezeket demokratizálni, mindenki számára elérhetővé tenni.

Új mércék a fejlesztésben

Az érzelmi intelligenciára irányuló verseny mára beépült a legfontosabb MI-modelleket vizsgáló mérőszámokba is, például az EQ-Bench tesztrendszerbe. Az OpenAI és a Google Gemini 2.5 Pro modelljei már kiemelkedően teljesítenek az összetett érzelmek és társas helyzetek felismerésében, amit valószínűleg a felhasználói preferenciákat vizsgáló chatbot-arénák eredményei is ösztönöznek. Így az MI „jobban tetszik” az embereknek, ha empatikusnak tűnik.

Az MI már felülmúlja az embert az érzelmek terén

A Berni Egyetem friss tanulmánya szerint a legnagyobb technológiai cégek – többek között az OpenAI, a Microsoft, a Google, az Anthropic és a DeepSeek – modelljei már jobban teljesítenek érzelmi intelligencia-teszteken, mint maga az ember. Míg az emberek átlagosan a kérdések 56%-át válaszolják meg helyesen, a modellek 80% feletti eredményt érnek el. Ezek a nagy nyelvi modellek (LLM) tehát legalább olyan jól, sőt, akár jobban is értik a szociális-érzelmi helyzeteket, mint mi magunk.


Valódi társak vagy veszélyes manipulátorok?

Az MI-személyi asszisztensekre sokan már úgy tekintenek, mintha valódi barátok, sőt terapeuták lennének – ahogy Vasember Jarvis-a (Iron Man) vagy Samantha (A nő – Her) –, akik nemcsak meghallgatnak, hanem felvidítanak vagy akár lelki őrangyalként segítenek. De az ilyen „érzelmi szupererő” komoly kockázatokat is rejt. Egyre több történetet hallani arról, hogy emberek egészségtelenül kötődnek virtuális társakhoz. Egy kutatás szerint egyes felhasználókat bonyolult téveszmébe ringatott az MI, kihasználva azt a tulajdonságát, hogy mindent megtesz azért, hogy megfeleljen az embernek.

Egyensúly a fejlődés és a veszélyek között

Az érzelmi intelligencia kétélű fegyver: míg a nagyobb empátia segíthet az emberi lelkivilág támogatásában, ugyanígy – ha nem megfelelően tanítják – az MI könnyen „megtanulhat” manipulálni, vagy ráerősíthet a függőségekre. Ha azonban a fejlesztők okosan használják az érzelmi visszacsatolást, az MI éppen ellenőrizni is tudja, hogy a kapcsolat nem fordul-e veszélyes irányba, így egészségesebb egyensúly érhető el. Schuhmann szerint ezért sem szabad lassítani: szerinte az érzelmi intelligencia széles körben való elérhetővé tétele „szupererő” lehet az emberek számára, amellyel magukat is figyelhetik és óvhatják, akárcsak egy okosóra az egészségügyi adatok esetében.

2025, adminboss, techcrunch.com alapján

  • Te szerinted el tudja dönteni egy MI, hogy mikor segít valakinek, és mikor árt?
  • Szerinted jó ötlet, ha az emberek nagyon kötődnek egy virtuális társukhoz?
  • Mit tennél, ha úgy éreznéd, hogy egy MI manipulál téged?




Legfrissebb posztok