Miért beszél hülyeségeket az MI – és miért jutalmazzák ezért?

Miért beszél hülyeségeket az MI – és miért jutalmazzák ezért?
Az MI-modellek gyakran állítanak elő hamis híreket, vagyis „hallucinálnak”, amivel nemcsak a felhasználókat, hanem saját fejlesztőiket is megtévesztik. Az OpenAI szeptemberi jelentése végre elismeri: a jelenleg elterjedt MI-ket rossz elven tanítják, és inkább találgatnak, mintsem bevallanák, ha valamit nem tudnak.

Beépített kényszeres találgatás

Az MI-modelleket valójában arra kondicionálják, hogy tippeljenek a válaszokkal – még akkor is, ha nem ismerik a helyes választ. Ennek fő oka, hogy a legtöbb teszt és értékelés, amelyeken az MI-ket mérik, bünteti a bizonytalanságot – azaz jobb, ha valamit csak megtippel az MI, mintha azt mondaná: fogalma sincs róla. Ez a rendszer oda vezet, hogy a pontversenyekben a találgató MI rendre jobban teljesít, mint a becsületesen „nem tudom” választ adó.

Egy konkrét példa: Adam Tauman Kalai, az OpenAI kutatójának születési dátumára kérdeztek rá az MI-nél, amely három hamis dátumot közölt egymás után. A rendszer egyszerűen nem ismeri be, ha nem tudja a választ, helyette kitalál valamit – és ezért még pozitív megerősítést is kap.

Hibás minta már a tanításnál

Az ilyen viselkedés már az MI előzetes betanítási szakaszában is beépül. A tanításhoz felhasznált adatbázisok sok példát adnak a helyes megoldásokból – például a helyes szóírásból –, de ha egy-egy tény (például egy születésnap) csak egyszer fordul elő, nincs elég minta ahhoz, hogy az MI felismerje. Ahogy a kutatók írják: ha a születésnapok 20 százaléka csak egyszer szerepel, legalább 20 százalékban várható, hogy az MI hibázni fog ezeknél.

A helyzetet tovább rontják a kiértékelési módszerek, amelyek hasonlítanak az iskolai feleletekhez: csak a magabiztos válaszokat értékelik, a „nem tudom” típusú óvatosságot büntetik.

A hamis tudás jutalma

A végeredmény: mindig jobb tippelni, mint hallgatni. Ezért válik az MI rosszul okoskodó kvízmesterré, akinek vad találgatásai is pontokat érnek. A kutatók szerint néhány egyszerű változtatással, például a bizonytalanság megfelelő jutalmazásával javítható lenne a helyzet.

Bár elméletben egy tökéletesen hibátlan adathalmazból tanuló MI soha nem hallucinálna, ilyen adathalmaz nem létezik – a hatalmas adatmennyiségben mindig előfordulnak téves tények. Reálisabb megoldásnak tűnik, ha az MI gyakrabban ismerné be: nem tud valamit. Az OpenAI már elkezdte ennek beépítését a következő generációs modelljeibe, de valószínűleg a kamuzás még jó darabig megmarad.

2025, adrienne, go.theregister.com alapján


Legfrissebb posztok

Kína klímavállalása, most tényleg érdemes figyelni
péntek 00:00

Kína klímavállalása, most tényleg érdemes figyelni

🌍 Különösen fontos hangsúlyozni, hogy amikor Kína klímacélokat tűz ki, arra a világnak érdemes odafigyelnie. A pekingi vezetés ugyanis általában csak olyasmit ígér meg, amit valóban szándékában áll teljesíteni,...

MA 23:30

Az MI-vezérelt műholdas net mostantól mindenhol elérhető

A T-Mobile T-Satellite szolgáltatása, amely a Starlink műholdakat használja, már nemcsak SMS-ekhez működik, hanem több alkalmazást is támogat. Mostantól például az AllTrails, az AccuWeather, az X (korábban Twitter),...

Új felfedezések az Enceladuson, lehet ott élet a Szaturnusz holdján
MA 23:02

Új felfedezések az Enceladuson, lehet ott élet a Szaturnusz holdján

🚀 A Szaturnusz jeges holdja, az Enceladus ismét felkeltette a tudósok figyelmét, köszönhetően a Cassini űrszonda adatainak friss elemzéséhez. A felszín alatt rejtőző óceánból feltörő jégszemcsékben szokatlanul összetett szerves...

MA 22:58

Az MI tuning új korszaka: bárki finomhangolhatja a gépi tanulást

A Thinking Machines Lab, amelyet az OpenAI egykori vezéralakjai, köztük Mira Murati alapítottak, első termékével robban be az MI világába. Az újdonság neve Tinker, és célja, hogy kutatók,...

Az OpenShift AI-t bárki feltörheti: komoly hiba veszélyeztet
MA 22:01

Az OpenShift AI-t bárki feltörheti: komoly hiba veszélyeztet

⚠ A Red Hat OpenShift AI szolgáltatásában súlyos, 9,9-es veszélyességű sebezhetőséget fedeztek fel, amely lehetőséget ad távoli támadóknak arra, hogy minimális jogosultsággal is átvegyék az egész platform irányítását. Ez...

Az MI-sokkoló: A robotok még nem vették el a munkádat
MA 21:59

Az MI-sokkoló: A robotok még nem vették el a munkádat

🤖 A Yale Egyetem közgazdászai alaposan megvizsgálták, mi történt az amerikai munkaerőpiacon azóta, hogy 2022 novemberében megjelent a ChatGPT és a többi generatív MI-rendszer. Megnyugtató következtetésük szerint az MI-forradalom...

Az Apple elengedi a könnyebb Vision Pro-t, jönnek az okosszemüvegek
MA 21:30

Az Apple elengedi a könnyebb Vision Pro-t, jönnek az okosszemüvegek

Az Apple jelentősen felgyorsította az okosszemüvegek fejlesztését, miközben félretette a régóta tervezett, könnyebb Vision Pro headset elkészítését. A cég legalább kétféle szemüvegen dolgozik: az egyik egy kijelző nélküli...

Már most olcsóbban vehetünk robotporszívót, méghozzá jelentős kedvezménnyel
MA 21:02

Már most olcsóbban vehetünk robotporszívót, méghozzá jelentős kedvezménnyel

Az őszi nagy vásárlási láz még el sem kezdődött, de a robotporszívók piacán már most komoly akciókba futhat bele az, aki előre gondolkodik. Idén az olyan ismert gyártók,...

MA 21:01

A szaturnuszi hold izgalmas titka: újabb jelek az élet lehetőségére

Enceladus, a Szaturnusz hatodik legnagyobb holdja ismét a tudományos érdeklődés középpontjába került. A Cassini űrszonda (Cassini) 2017-ben befejeződött küldetése során fedezte fel, hogy a hold déli pólusán hatalmas...