Turing-díjasok kongatják a vészharangot az MI-technológiák veszélyei miatt

Turing-díjasok kongatják a vészharangot az MI-technológiák veszélyei miatt
A  mesterséges intelligencia betanítási módszer megalkotói aggódnak, hogy a vállalatok a profit és nem a biztonság által vezéreltek. Két úttörő tudós, akik létrehozták a mesterséges intelligencia képzésének alapvető technikáit, most a reflektorfényt arra használják, hogy felhívják a figyelmet a nyilvánosság számára elhamarkodottan kiadott MI-modellek veszélyeire. A Massachusettsi Egyetem kutatója, Andrew Barto és a DeepMind korábbi kutatója, Richard Sutton figyelmeztettek, hogy az MI-cégek nem tesztelik alaposan termékeiket kiadás előtt, és ezt ahhoz hasonlították, mintha “hidat építenénk, majd úgy tesztelnénk, hogy embereket sétáltatunk rajta”.

Millió dolláros elismerés a megerősítéses tanulás fejlesztőinek

A gyakran a “Számítástechnika Nobel-díjaként” emlegetett Turing-díj egymillió dolláros jutalommal jár, és idén közösen ítélték oda Barto-nak és Suttonnak a “megerősítéses tanulás” kifejlesztéséért – ez egy olyan gépi tanulási módszer, amely próba-szerencse alapon tanítja az MI-rendszereket optimalizált döntések meghozatalára.

“Szoftvereket kiadni milliók számára biztonsági intézkedések nélkül nem jó mérnöki gyakorlat” – hangsúlyozta Barto. “A mérnöki gyakorlat azért fejlődött, hogy csökkentse a technológia negatív következményeit, és nem látom, hogy ezt gyakorolnák a fejlesztő vállalatok.”

A szakma más nagyjai is figyelmeztetnek

A nem biztonságos MI-fejlesztést a szakterület más szakértői is bírálták. 2023-ban technológiai vezetők egy csoportja nyilatkozatot adott ki, figyelmeztetve arra, hogy “az MI miatt bekövetkező kihalás kockázatának csökkentése globális prioritásnak kell lennie”.

Barto bírálta az MI-vállalatokat, amiért “üzleti ösztönzők motiválják őket” ahelyett, hogy az MI-kutatás előmozdítására összpontosítanának.

  • Mit gondolsz a cégek azon döntéséről, hogy a profitot helyezik előtérbe a biztonság helyett?
  • Te hogy biztosítanád, hogy a mesterséges intelligencia modellek biztonságosak legyenek, mielőtt a nagyközönség számára elérhetővé tennéd?
  • Mit tennél a mesterséges intelligencia fejlesztői ösztönzők megváltoztatása érdekében, hogy ne csak az üzleti érdekeket szolgálják?




Legfrissebb posztok