Az MI chatrobotok kamuznak a tudományos eredményekről

Az MI chatrobotok kamuznak a tudományos eredményekről
Az elmúlt években egyre kifinomultabb MI chatrobotok jelentek meg, de ezzel együtt nőtt annak a veszélye is, hogy ezek a nagyméretű nyelvi modellek félreértelmezik vagy túlságosan leegyszerűsítik a tudományos kutatások eredményeit. Egy friss kutatás szerint a legmodernebb MI rendszerek, mint a ChatGPT, a Llama vagy a DeepSeek, hajlamosabbak a túlzott általánosításra és a kritikus részletek figyelmen kívül hagyására. Ez valójában rontja a modellek pontosságát és megbízhatóságát, különösen az orvosi és tudományos területeken.

Az egyszerűsítés veszélyei

A kutatók közel 4900 tudományos publikáció összefoglalását elemezték, és azt találták, hogy az MI chatek ötször gyakrabban általánosítottak, mint az emberi szakértők. Ha a chatbotokat nem egyszerű összefoglalásra, hanem pontos tartalmi összefoglalóra utasították, akkor kétszer nagyobb eséllyel túlozták el a kutatások eredményeit. Ráadásul a legújabb modellek esetében ez a hatás tovább erősödött, míg a régebbi verziók inkább kerülték a bizonytalan kérdések megválaszolását.

Jelentős eltérések a megfogalmazásban

Az MI modellek működése során az információ több rétegen szűrődik át, így gyakran veszítenek el lényeges részleteket. A tudományos közleményeknél ez különösen nagy probléma, mert a körülmények, megszorítások és a kontextus elengedhetetlenek a helyes értelmezéshez. Egy konkrét példa: a DeepSeek egy orvosi összefoglalóban a „biztonságos és sikeresen alkalmazható kezelés” kifejezést átírta „biztonságos és hatékony kezelési lehetőségre”, ami félrevezető lehetett volna az orvosi gyakorlatban. Más esetben a Llama chatrobot kihagyta a gyógyszeres kezelés adagolását, gyakoriságát és a hatásokat, ezzel kockáztatva, hogy az orvosok a szükségesnél általánosabban alkalmazzák a gyógyszert.

Miért problémás az általánosítás?

A kutatók tíz népszerű MI modellt teszteltek – többek között a ChatGPT négy és a Claude három változatát, a Llama két verzióját és egy DeepSeek modellt. Egyértelműen kiderült, hogy főleg a ChatGPT, a Llama és a DeepSeek modellek, amikor pontosabb választ kellett volna adniuk, kétszer nagyobb eséllyel túlozták el az eredményeket. Egyedül a Claude teljesített minden tekintetben jól. Az MI modellek gyakran átalakították a numerikus adatokat általános információkká, ezekből a torzításokból pedig nemcsak félreérthető összefoglalók születtek, hanem akár veszélyes kezelési javaslatok is.


Bizalomvesztés és félreértések

Az MI rendszerek teljesítménye és torzításai miatt a szakemberek attól tartanak, hogy a félrevezető összefoglalók hozzájárulnak a tudományos eredmények félremagyarázásához, miközben az emberek egyre inkább ezeket a modelleket használják információszerzésre. Egy pszichológiai MI cég alelnöke szerint ráadásul a torzítások gyakran alattomosabbak: egy állítás hangsúlyát lopva növelik meg. Mivel például az orvoslásban az MI-összefoglalók már a napi rutin részévé váltak, különösen fontos lenne szűrőket alkalmazni, hogy a végleges szövegek biztosan tükrözzék az eredeti kutatások bizonyítékait.

Lehet-e javítani ezen?

A tanulmány szerzői elismerik, hogy a vizsgálat nem volt teljes körű; további kutatások szükségesek például más tudományos feladatok vagy nem angol nyelvű szövegek esetében. Ugyanakkor abban egyetértenek, hogy a promptok kidolgozottsága is befolyásolhatja a végeredményt, és ahogy az MI eszközök mindennapossá válnak, egyre nő annak a veszélye, hogy széles körben félreértelmezik a tudományos eredményeket.

A szakma több képviselője szerint alapvető hiba, hogy a fejlesztők általános célú MI modelleket használnak speciális szakterületeken anélkül, hogy hozzáértő szakemberek felügyelnék a folyamatot, holott ezekhez sokkal célzottabb oktatás szükséges.

2025, adminboss, www.livescience.com alapján

  • Te mit gondolsz, jó ötlet bízni az MI összefoglalókban szakmai területeken?
  • Mit tennél, ha gyanúsan általános választ kapsz egy komoly kérdésre?
  • Szerinted megéri-e kockáztatni az egyszerűség kedvéért a pontosságot?




Legfrissebb posztok