
Amikor az MI jobban ragaszkodik a törvényhez
A Chicagói Egyetem jogprofesszora, Eric Posner és kutatótársa, Shivam Saran azt vizsgálták, mennyire képes egy MI-modell – egész pontosan az OpenAI GPT-5 – jogi döntéseket hozni. Legújabb tesztjükben a GPT-5-nek ugyanazokat a fejtörő jogi kérdéseket tették fel, amelyeket régebben 61 amerikai szövetségi bírónak is. Ezúttal a feladat nem háborús bűnök megítélése volt, hanem jóval hétköznapibb jogviták eldöntése: autóbaleset kapcsán melyik állam jogát kell alkalmazni. A kutatók minden lényeges információt – a tényállást, a felek érveit, jogszabályokat, precedenseket és összefoglaló ítéleteket – megadtak a modellnek.
Ezután a GPT-5 hibátlanul teljesített a teszten, sem tévedést, sem logikai baklövést nem vétett az indoklásaiban – olyan hibákat, amelyeket emberi résztvevőknél vagy korábbi MI-variánsoknál gyakran tapasztaltak.
Az emberibb bíráskodás veszélyei és előnyei
Noha jogszabályi kérdésekben az MI 100 százalékban formális döntéseket hozott és sohasem engedett az érzelmi tényezőknek, a tapasztalt bírók csak az esetek 52 százalékában követték pontosan a törvényt. A kutatók ugyanakkor figyelmeztetnek: a bírók nem azért hoznak gyakran eltérő ítéletet, mert hanyagok vagy önkényesek lennének, hanem mert bizonyos esetekben a törvény rugalmasságot enged, és emberi mérlegelésre épít. A kutatásban ugyanilyen szigorúságot mutatott a Google Gemini 3 Pro is, míg más MI-modellek – például a Gemini 2.5 Pro, az o4-mini vagy a Llama 4 változatai – jóval ritkábban ragaszkodtak a törvényhez.
Felmerül a kérdés: vajon tényleg jobb-e a szigorúan formalista MI, mint az emberi jogértelmezés?
Emberi elfogultság vagy igazságos szabályalkalmazás?
Egyetemi kutatások szerint az MI-k túlnyomórészt figyelmen kívül hagyják a személyes körülményeket, így akár szimpatikus alperest is büntetnének, ha azt kívánja a törvény. Noha ez kizárja a részrehajlást, súlyos igazságtalanságokat is eredményezhet, ha a merev szabályokkal szemben hiányzik az emberi empátia.
A kérdés tehát az, hogy rábízzuk-e az igazságszolgáltatást egy algoritmusra, amely sosem szegné meg a szabályokat, de nem mérlegel társadalmi vagy erkölcsi szempontokat. Ebben a dilemmában az MI és az ember együttműködésének jövője, végső soron pedig a társadalom döntése válik sorsdöntővé.
