
Két eltérő törvényjavaslat, komoly tétek
Az OpenAI az SB 3444-es törvénytervezet mellett kampányol, amellyel a nagy MI-fejlesztők mentesülnének a felelősség alól, még akkor is, ha az általuk készített rendszer legalább 100 ember halálát vagy súlyos sérülését okozza, illetve több mint 360 milliárd forintos kárt idéz elő. Ez a mentesség kiterjed arra az esetre is, ha az MI segít a vegyi, biológiai, sugárzó vagy nukleáris fegyverek létrejöttében vagy alkalmazásában.
Nem sokkal később újabb csavar következett: az Anthropic élesen elutasította a törvényt. Szerintük a valódi átláthatósághoz és a közbiztonsághoz felelősségvállalás kell, nem kibúvók. Helyette egy másik, SB 3261 néven futó javaslatot támogatnak, amely előírná, hogy minden MI-fejlesztő tegye közzé a biztonsági és gyermekvédelmi terveit, illetve egy jelentési rendszeren keresztül naprakészen informálják a lakosságot és a törvényhozókat a lehetséges katasztrófákról.
Gyerekvédelem és csekély felelősségvállalás
A gyerekek védelme az OpenAI által favorizált elképzelésből kimarad, míg az Anthropic-féle tervezet kiemelten foglalkozik ezzel. A javaslat szerint a fejlesztő felelőssége megállapítható lenne, ha az MI komoly lelki gyötrelmet, halált vagy testi sérülést (például önsértést) okoz egy gyermeknek.
Kritikák, aggályok és szakértői vélemények
Jogászok szerint az SB 3444 mégsem jelent valós veszélyt a vállalatokra nézve: arra az esetre, ha a kötelező biztonsági terveket nem tartják be, semmilyen szankciót nem tartalmaz, és csak akkor lehetne felelősségre vonni a fejlesztőt, ha szándékosság vagy kirívó gondatlanság bizonyítható. Ez azonban a szakértők szerint irreális elvárás, hiszen épp ezeknél a veszélyes technológiáknál a gyakorlatban általában nem vizsgálják a készítők szándékát.
Sokan úgy vélik, az OpenAI által támogatott irány teljesen ellentétes azzal az iránnyal, amerre haladni kellene: teljes mentesülést ad, cserébe szinte semmi követelményt sem támaszt. Ugyanakkor az OpenAI szerint a kompromisszumos szabályozás csökkenti a komoly kockázatokat, de nem fékezi meg az innovációt.
Kitekintés: mi jön ezután?
Eközben az OpenAI hangsúlyozza, hogy más államokban is együtt dolgozik a döntéshozókkal a megfelelő biztonsági keretek kialakításán. A cég abban reménykedik, hogy ezekből a szabályokból előbb-utóbb országos szintű, egységes jogszabály születik, amely mellett az USA vezető maradhat az MI-fejlesztésben.
