Az MI „vörös vonalai”: tényleg betarthatók?

Az MI „vörös vonalai”: tényleg betarthatók?
Több mint 200 Nobel-díjas és szakértő – köztük a legismertebb MI-kutatók, valamint 70, mesterséges intelligenciával foglalkozó szervezet – közösen kezdeményezték, hogy 2026-ig globális „vörös vonalakat” határozzunk meg az elfogadhatatlan MI-kockázatok megelőzésére. Az elképzelés szerint világos, ellenőrizhető szabályokra van szükség, amelyek valóban kikényszeríthetők, és minden fejlett MI-szolgáltató felelősséggel tartozik ezek betartásáért.

Homályos szabályok, eltérő vélemények

A levél szándékosan nem részletezi, pontosan mit jelentenének ezek a vörös vonalak – feltehetően azért, hogy egy ilyen sokszínű csapat egyetértésre juthasson. A támogatók között találunk „MI-pánikolókat”, például Geoffrey Hintont, aki szerint a mesterséges általános intelligencia (AGI – Artificial General Intelligence) hamarosan világvégét okozhat, de olyanokat is, akik szkeptikusak ezzel kapcsolatban. Közös nevezőt találni már most is nehéz, főleg, hogy a nemzetállamok még egymással sem tudnak megegyezni abban, mit és hogyan kellene szabályozniuk az MI területén.

Melyek lehetnek a valódi vörös vonalak?

Stuart Russell, a Berkeley Egyetem professzora néhány konkrét példát is említett: az MI ne próbálja másolni önmagát; ne törjön be más számítógépes rendszerekbe; ne adhasson biológiai fegyverek előállítására vonatkozó utasításokat; továbbá ne adjon ki valóban sértő, hamis információkat emberekről. Ezek betartását Russell szerint maguknak a fejlesztőknek is nagy magabiztossággal kellene igazolniuk – ez viszont egyelőre minden nagy nyelvi modellre (LLM – Large Language Model) nézve lehetetlen vállalkozás.

Az MI-szabályozás paradoxona

Russell rámutat: jelenleg nincs olyan MI-rendszer, amely teljesíteni tudná ezeket a minimális követelményeket, hiszen ezek alapvetően szövegjavaslatokat adnak, de nem értik a tartalmat. Igazi, szigorú vörös vonal-szabályozás mellett tehát a jelenlegi MI-modellek közül egyik sem működhetne legálisan. Russell szerint mindez rendben van – ugyanúgy, ahogy a gyógyszergyártás vagy atomerőművek esetében sem engedünk a szabályokból, még ha betartásuk nehéz is. Csakhogy, vajon az MI-cégek önként hajlandóak lesznek-e leállítani fejlesztéseiket, amíg valóban bizonyítani tudják, hogy rendszereik ártalmatlanok? Ez a feltételezés naivabbnak tűnik, mint bármely MI által generált hallucináció.

2025, adrienne, mashable.com alapján

  • Mit gondolsz, egyetértesz azzal, hogy nagyon szigorú szabályokat kellene hozni az MI-re?
  • Ha te fejlesztő lennél, leállítanád a saját MI-projektedet, amíg nem bizonyíthatod, hogy biztonságos?
  • Szerinted mennyire reális, hogy a vállalatok saját magukat szabályozzák ilyen kérdésekben?



Legfrissebb posztok

Kína klímavállalása, most tényleg érdemes figyelni
MA 00:00

Kína klímavállalása, most tényleg érdemes figyelni

🌍 Különösen fontos hangsúlyozni, hogy amikor Kína klímacélokat tűz ki, arra a világnak érdemes odafigyelnie. A pekingi vezetés ugyanis általában csak olyasmit ígér meg, amit valóban szándékában áll teljesíteni,...

csütörtök 23:30

Az MI-vezérelt műholdas net mostantól mindenhol elérhető

A T-Mobile T-Satellite szolgáltatása, amely a Starlink műholdakat használja, már nemcsak SMS-ekhez működik, hanem több alkalmazást is támogat. Mostantól például az AllTrails, az AccuWeather, az X (korábban Twitter),...

Új felfedezések az Enceladuson, lehet ott élet a Szaturnusz holdján
csütörtök 23:02

Új felfedezések az Enceladuson, lehet ott élet a Szaturnusz holdján

🚀 A Szaturnusz jeges holdja, az Enceladus ismét felkeltette a tudósok figyelmét, köszönhetően a Cassini űrszonda adatainak friss elemzéséhez. A felszín alatt rejtőző óceánból feltörő jégszemcsékben szokatlanul összetett szerves...

csütörtök 22:58

Az MI tuning új korszaka: bárki finomhangolhatja a gépi tanulást

A Thinking Machines Lab, amelyet az OpenAI egykori vezéralakjai, köztük Mira Murati alapítottak, első termékével robban be az MI világába. Az újdonság neve Tinker, és célja, hogy kutatók,...

Az OpenShift AI-t bárki feltörheti: komoly hiba veszélyeztet
csütörtök 22:01

Az OpenShift AI-t bárki feltörheti: komoly hiba veszélyeztet

⚠ A Red Hat OpenShift AI szolgáltatásában súlyos, 9,9-es veszélyességű sebezhetőséget fedeztek fel, amely lehetőséget ad távoli támadóknak arra, hogy minimális jogosultsággal is átvegyék az egész platform irányítását. Ez...

Az MI-sokkoló: A robotok még nem vették el a munkádat
csütörtök 21:59

Az MI-sokkoló: A robotok még nem vették el a munkádat

🤖 A Yale Egyetem közgazdászai alaposan megvizsgálták, mi történt az amerikai munkaerőpiacon azóta, hogy 2022 novemberében megjelent a ChatGPT és a többi generatív MI-rendszer. Megnyugtató következtetésük szerint az MI-forradalom...

Az Apple elengedi a könnyebb Vision Pro-t, jönnek az okosszemüvegek
csütörtök 21:30

Az Apple elengedi a könnyebb Vision Pro-t, jönnek az okosszemüvegek

Az Apple jelentősen felgyorsította az okosszemüvegek fejlesztését, miközben félretette a régóta tervezett, könnyebb Vision Pro headset elkészítését. A cég legalább kétféle szemüvegen dolgozik: az egyik egy kijelző nélküli...

Már most olcsóbban vehetünk robotporszívót, méghozzá jelentős kedvezménnyel
csütörtök 21:02

Már most olcsóbban vehetünk robotporszívót, méghozzá jelentős kedvezménnyel

Az őszi nagy vásárlási láz még el sem kezdődött, de a robotporszívók piacán már most komoly akciókba futhat bele az, aki előre gondolkodik. Idén az olyan ismert gyártók,...

csütörtök 21:01

A szaturnuszi hold izgalmas titka: újabb jelek az élet lehetőségére

Enceladus, a Szaturnusz hatodik legnagyobb holdja ismét a tudományos érdeklődés középpontjába került. A Cassini űrszonda (Cassini) 2017-ben befejeződött küldetése során fedezte fel, hogy a hold déli pólusán hatalmas...