
A Prism: új szint a tudományos cikkírásban
A Prism egy MI-vel támogatott, díjmentesen használható fejlesztőkörnyezet, amely kifejezetten tudósoknak készült. Az OpenAI egy LaTeX-alapú szövegszerkesztőbe integrálta legújabb modelljét: így a kutatók elkészíthetik és formázhatják a cikkeiket, automatikusan generálhatják az irodalomjegyzéket, vázlatokból ábrákat készíthetnek, és valós időben dolgozhatnak együtt társszerzőikkel. A használathoz elég egy ChatGPT-fiók.
Ez a jelenség jól illusztrálható azzal, hogy az OpenAI tudományért felelős alelnöke szerint a ChatGPT hetente 8,4 millió üzenetet kap kifejezetten tudományos témákban — tehát az MI mára a tudósok mindennapi munkájának meghatározó eszközévé vált. A Prism mögött egy 2025 végén felvásárolt felhőalapú LaTeX-platform, a Crixet áll. A mérnökök szerint a cél az, hogy a kutatóknak kevesebb időt kelljen a formázásra fordítaniuk, és többet foglalkozhassanak érdemi tudománnyal.
Az MI-szemét problémája: veszélyes vízválasztó
Nem kizárt, hogy az MI által generált, jól kinéző, de tartalmilag gyenge kéziratok árasztják el a szakmai folyóiratokat. Miközben az MI egyre alacsonyabbra teszi a belépési küszöböt a tudományos szövegírásban, a lektorálás kapacitása közel sem nő ilyen ütemben. Bár az OpenAI hangsúlyozza, hogy a Prism nem kutat, csak segédkezik, mégis a szerzőkön múlik, hogy megfelelő forrásokat hivatkozzanak.
Miközben a klasszikus irodalomkezelő szoftverek, mint az EndNote, már évtizedek óta formáznak, nem találnak ki forrásokat; ezzel szemben az MI könnyen hihetőnek tűnő forrásokat gyárt, amelyek a valóságban nem léteznek. A tudományos közösség egyre inkább aggódik a publikációk minősége és az olvasók bizalma miatt.
Immár kézzelfogható: minőség helyett mennyiség
Egy 2025 decemberében publikált tanulmány szerint, amikor a kutatók MI-t vesznek igénybe cikkírásra, 30–50 százalékkal több kéziratot nyújtanak be, ám ezek a cikkek rosszabbul teljesítenek a szakmai lektoráláson. Az MI által írt, bonyolult nyelvezetű szövegek mögött gyengébb tudomány húzódik meg — ezt a lektorok is felismerik, így ritkábban jelennek meg ilyen cikkek. Ez a tendencia minden tudományterületre jellemző, és komolyan fel kell tenni a kérdést: tényleg ezt az irányt kell támogatni?
Egy elemzés 41 millió, 1980 és 2025 között publikált cikk adatain azt mutatta, hogy az MI-t használó kutatók többet publikálnak, ugyanakkor a tudományos kísérletek sokszínűsége csökken. Az MI rövid távon hatékony, de hosszú távon leszűkítheti a kutatási irányokat.
Sok a rossz példa: az MI mint hamis tudásforrás
Az MI által generált tudományos tartalom problémája nem újkeletű. 2022-ben a Meta kénytelen volt visszavonni a Galactica nevű modellt, miután kiderült, hogy valósághű, de hamis tudományos cikkeket ír — egyebek között egy sosem létezett tanulmányról, amely arról szólt, hogy miért jó összetört üveget enni. Ennél is frissebb példa a japán Sakana AI fejlesztése, a The AI Scientist, amelyet a szakértők értékelhetetlen cikkgyárnak minősítettek. A nagy kiadócsoportok egyre hangosabban emelik fel a szavukat: a publikációs rendszer túl van terhelve, és az MI csak ront a helyzeten.
Gyorsítja a tudományt, vagy elárasztja szeméttel?
Nem kizárt, hogy az OpenAI valóban gyorsabbá teszi a tudományos felfedezéseket. Több kutató számolt be arról, hogy az MI-modellek jelentősen meggyorsítják a munkát: egyes matematikusok egy hétvége alatt oldanak meg régóta nyitott problémákat, mások hetek helyett napok alatt végeznek szimmetriaszámításokat. Ugyanakkor kérdéses, hogy ez valóban a tudomány javát szolgálja, vagy csak középszerű cikkekkel árasztja el a folyóiratokat.
A nem angol anyanyelvű tudósok számára az MI nagy segítség lehet, hiszen így könnyebben publikálnak lektorált folyóiratokban. Csakhogy ezzel együtt egyre több középszerű publikáció nehezíti a már most is túlterhelt lektorálási rendszert.
Nem kizárt, hogy elúszik a tudományos közösség kontrollja
Az MI által csinosra polírozott, de gyenge cikkek átjuthatnak a felszínes minőségellenőrzésen, és így az olvasók, sőt, maguk a kutatók sem mindig tudják, hol végződik az érdemi tudomány, és hol kezdődik a jól megírt fantázia. Az OpenAI elismeri a kockázatot: a Prism nem kutat önállóan, az ellenőrzés továbbra is az ember feladata marad.
Ugyanakkor egyre többen aggódnak: mi lesz, ha a valódi tudomány elvész az adat- és szövegtengerben? Lehet, hogy a jövőben nem a hiány, hanem éppen a tudományos szemét bősége teszi tönkre a kutatást.
