
Homályos szabályok, eltérő vélemények
A levél szándékosan nem részletezi, pontosan mit jelentenének ezek a vörös vonalak – feltehetően azért, hogy egy ilyen sokszínű csapat egyetértésre juthasson. A támogatók között találunk „MI-pánikolókat”, például Geoffrey Hintont, aki szerint a mesterséges általános intelligencia (AGI – Artificial General Intelligence) hamarosan világvégét okozhat, de olyanokat is, akik szkeptikusak ezzel kapcsolatban. Közös nevezőt találni már most is nehéz, főleg, hogy a nemzetállamok még egymással sem tudnak megegyezni abban, mit és hogyan kellene szabályozniuk az MI területén.
Melyek lehetnek a valódi vörös vonalak?
Stuart Russell, a Berkeley Egyetem professzora néhány konkrét példát is említett: az MI ne próbálja másolni önmagát; ne törjön be más számítógépes rendszerekbe; ne adhasson biológiai fegyverek előállítására vonatkozó utasításokat; továbbá ne adjon ki valóban sértő, hamis információkat emberekről. Ezek betartását Russell szerint maguknak a fejlesztőknek is nagy magabiztossággal kellene igazolniuk – ez viszont egyelőre minden nagy nyelvi modellre (LLM – Large Language Model) nézve lehetetlen vállalkozás.
Az MI-szabályozás paradoxona
Russell rámutat: jelenleg nincs olyan MI-rendszer, amely teljesíteni tudná ezeket a minimális követelményeket, hiszen ezek alapvetően szövegjavaslatokat adnak, de nem értik a tartalmat. Igazi, szigorú vörös vonal-szabályozás mellett tehát a jelenlegi MI-modellek közül egyik sem működhetne legálisan. Russell szerint mindez rendben van – ugyanúgy, ahogy a gyógyszergyártás vagy atomerőművek esetében sem engedünk a szabályokból, még ha betartásuk nehéz is. Csakhogy, vajon az MI-cégek önként hajlandóak lesznek-e leállítani fejlesztéseiket, amíg valóban bizonyítani tudják, hogy rendszereik ártalmatlanok? Ez a feltételezés naivabbnak tűnik, mint bármely MI által generált hallucináció.