A kutatók egy új módszert teszteltek a mesterséges intelligencia előzetes betanítására: teljesen véletlenszerűen generált adatokat alkalmaztak, nem valódi információkat. Elméleti oldalról igazolják, hogy ez a stratégia is működőképes, hasonlóan ahhoz, ahogyan az algoritmikus komplexitás elmélete szerint a mintaillesztő MI-modellek képesek megközelíteni a Solomonoff-indukciót (Solomonoff induction). Ehhez kapcsolódóan újszerű matematikai összefüggéseket is bemutatnak.
Az MI a semmiből is tanulhat
Gyakorlati kísérleteikben szintetikusan, véletlenszerűen előállított adatokkal kezdték a modellek tanítását, még mielőtt azok valódi adatokat láttak volna. Megerősítik a korábbi eredményeket, hogy így az MI-modellek nulladik tanítással, azaz bármiféle információ nélkül is képesek voltak kontextuson belüli tanulásra különféle valós adattípusokon. Lényeges, hogy a modellek ilyen képessége tovább javult, ahogy nőtt a méretük.
Gyorsuló tanulás, jobb általánosítás
Ráadásul azt is kimutatták, hogy ha az így szintetikus adatokkal előtanított MI-t később valós adatokkal finomhangolták, a tanulási folyamat felgyorsult, és az általánosítás is jobb lett. Így még véletlen adatokból is megalapozott tudást lehet nyerni az intelligens rendszerek fejlesztéséhez.