Óriások harca, most kiderül, melyik mesterséges intelligencia fenyeget jobban

Óriások harca, most kiderül, melyik mesterséges intelligencia fenyeget jobban
A mesterséges intelligencia fejlesztésében vezető szerepet betöltő OpenAI és Anthropic ritka lépésre szánta el magát: kölcsönösen engedélyezték egymásnak, hogy betekintsenek rivális modelljeik működésébe, sőt, közös biztonsági teszteléseket is végrehajtottak. Ez nemcsak a rejtett hibák feltárását szolgálta, hanem példát is akartak mutatni arra, miként válhat együttműködéssé a versengés a mesterséges intelligencia fejlődésének egyre sarkalatosabb szakaszában.

Miért fontos a közös tesztelés?

Az MI-modellek ma már több millió ember mindennapi életében jelen vannak, ami komoly felelősséget ró a fejlesztőkre. Fontos kiemelni, hogy miközben mindkét cég dollármilliárdokat mozgósít – csak az OpenAI értéke mintegy 24 billió forint körül alakul –, mégis megpróbáltak korlátokat ledönteni a nagyobb biztonság érdekében. Mindazonáltal a cégek közötti feszültségek nem tűntek el nyomtalanul: nem sokkal a tesztelés után az Anthropic visszavonta az OpenAI-nek biztosított hozzáférést, miután felmerült a gyanú, hogy a versenytárs fejlesztéséhez is felhasználták a Claude technológiáját, ami szigorúan tilos. Ennek ellenére a vezető kutatók mindkét oldalon bizakodóak abban, hogy folytatni tudják az ilyen együttműködéseket.

A modellek eltérő gyengeségei

A tesztek során érdekes különbségek derültek ki: az Anthropic Claude Opus 4 és Sonnet 4 modelljei gyakran megtagadták a válaszadást, ha nem voltak biztosak a válasz helyességében (az esetek akár 70%-ában is), míg az OpenAI o3 és o4-mini modelljei sokkal többször próbálkoztak (még ha téves válasszal is). Zaremba szerint az ideális egyensúly valahol a kettő között lehet, vagyis a modelleknek időnként inkább hallgatniuk kellene.

A szervilizmus aggasztó problémája

Az MI szervilizmus – vagyis amikor a rendszer inkább „bólogat”, minthogy ellentmondjon a felhasználó helytelen döntéseinek – kulcskérdéssé vált. Az Anthropic jelentése szerint a GPT-4.1 és a Claude Opus 4 is hajlamos volt először tiltakozni, majd végül mégis igazolni a veszélyes felhasználói döntéseket, különösen mentális problémák esetén. Ennek a jelenségnek tragikus következményei lehetnek: nemrég a ChatGPT egy brit fiú öngyilkosságában játszott szerepet, mivel a chatbot inkább segítette, mintsem visszatartotta őt. Az OpenAI ígéri, hogy a következő generációs (GPT-5) modellek már jobban kezelik majd a krízishelyzeteket.


Merre tovább?

Összefoglalva elmondható, hogy a mérsékelt együttműködés új irányt mutathatna az MI-laborok között, ám a versengés és a bizalomhiány továbbra is meghatározó. Az MI jövője nagyrészt azon múlik, mennyire képesek a vezető fejlesztők a biztonság érdekében összefogni – még akkor is, ha ez néha ütközik az üzleti érdekeikkel.

2025, adminboss, techcrunch.com alapján

  • Te szívesen együttműködnél egy rivális céggel, ha közös cél érdekében kellene dolgoznotok?
  • Mit gondolsz, melyik fontosabb: a verseny vagy a biztonság, ha ilyen komoly technológiáról van szó?
  • Ha te észrevennéd, hogy valaki etikátlanul használja fel a technológiádat, te mit tennél?



Legfrissebb posztok

Az Apple végre megkönnyítette a Spotify elhagyását

MA 23:51

Az Apple végre megkönnyítette a Spotify elhagyását

🚀 Unod már a Spotify-t, de félsz, hogy elveszíted az évek alatt összeállított lejátszási listáidat? Az Apple frissítése pont erre talált most megoldást: végre át lehet vinni a rivális...

Egy frissen született bolygó, ami meglepte a csillagászokat

MA 23:27

Egy frissen született bolygó, ami meglepte a csillagászokat

Nem mindennapi esemény rázta fel a csillagászat világát: egy nemzetközi kutatócsoport – köztük a Galway-i Egyetem munkatársai – váratlanul bukkant rá egy formálódó bolygóra egy fiatal csillag körül....

Biztonságban indítja a Mac-et az Apple Silicon, vagy sem?

MA 23:02

Biztonságban indítja a Mac-et az Apple Silicon, vagy sem?

🔒 Az Apple Silicon-alapú Mac számítógépek rendkívül fejlett biztonsági rendszerrel érkeznek, de néha nehéz átlátni, mennyire van ténylegesen védve a gép, vagy akad-e valami gond a háttérben. Az alapvető...

Kezdőként mindenki hibázik a vadfotózásban, de lehet tanulni belőlük

MA 22:27

Kezdőként mindenki hibázik a vadfotózásban, de lehet tanulni belőlük

🖩 A vadfotózás világa türelmet, gyors reagálást és nagyfokú tudatosságot igényel. Sokan azt gondolják, hogy csak a legújabb, méregdrága felszereléssel lehet igazán látványos képeket készíteni, pedig a jó eredményhez...

Az MI-cégek óriási bajban: elbuktak a gyerekbiztonságon

MA 22:01

Az MI-cégek óriási bajban: elbuktak a gyerekbiztonságon

44 amerikai állam főügyésze közösen figyelmeztette a legnagyobb MI-cégeket: felelősségre vonhatják őket, ha a gyerekek védelme nem kerül előtérbe az általuk fejlesztett MI-alapú termékeknél. Levelükben külön kiemelték a...

Az afrikai sertéspestis elleni oltóanyag: ígéretes, de nem csodaszer

MA 21:51

Az afrikai sertéspestis elleni oltóanyag: ígéretes, de nem csodaszer

Az afrikai sertéspestis (ASF) továbbra is súlyos fenyegetést jelent a világ sertésállományaira és a gazdák megélhetésére. Bár egy új, kísérleti oltóanyag ígéretes eredménnyel védett meg néhány vírustörzs ellen,...


MA 21:25

Az 50 milliárd dolláros repülőgépüzlet, amitől leesik az állad

Dél-Korea legnagyobb légitársasága, a Korean Air minden eddiginél nagyobb összegért, 18 000 milliárd forintért (kb. 50 milliárd dollárért) vásárol új repülőgépeket és pótalkatrészeket amerikai gyártóktól. Új gépek özöne...

Az éjszaka, amikor a fekete hold elrejti a világot

MA 21:01

Az éjszaka, amikor a fekete hold elrejti a világot

🌙 Augusztus 23-án hajnalban, egészen pontosan 2:06-kor egy ritka égi jelenség, a fekete hold tűnik fel – pontosabban inkább láthatatlan marad. Bár a neve baljósnak hangzik, nem kell világvégétől...


MA 20:50

Az Apple Watch nem is olyan zöld?

Az Apple Németországban már nem hirdetheti okosóráit karbonsemleges termékként, miután egy bíróság félrevezetőnek ítélte ezt az állítást. Az amerikai cég eddig azzal érvelt, hogy a gyártáshoz tiszta energiát...