Több átláthatóság, több irányítás
A fejlesztők testre szabhatják ezeknek a modelleknek a működését saját szabályzataik alapján – például egy termékértékelő oldal ezzel szűrheti ki a hamis értékeléseket, egy videojátékos fórum pedig a csalásról szóló beszélgetéseket. Mivel ezek az MI-modellek a „gondolatmenetüket” is láthatóvá teszik, a fejlesztők pontosabb képet kapnak arról is, hogyan születik egy adott döntés.
Bővülő biztonsági közösség
Az új modellek fejlesztésében a Robust Open Online Safety Tools (ROOST) segített, a Discord és a SafetyKit pedig tesztelte őket. Egyelőre csak kutatási verzióban érhetők el, az OpenAI pedig visszajelzéseket is vár a szakmától. A ROOST közben új közösséget is létrehoz, ahol a biztonsággal foglalkozó szakemberek cserélhetnek tapasztalatot.
Túl a haszonszerzésen?
Az új fejlesztésekkel az OpenAI a kritikusokat is szeretné megnyugtatni: sokan vádolták a céget azzal, hogy túl gyorsan terjeszkedik, miközben háttérbe szorul az MI etikai oldala. Az OpenAI értéke ma már több billió forint – nem csoda, hogy a világ legértékesebb techstartupjai között tartják számon. Az MI egyre nagyobb erejével elengedhetetlenné váltak az ilyen biztonsági fejlesztések. A modellek súlyai a Hugging Face oldaláról letölthetők.
