
Az új szabályok minden előfizetőt és funkciót érintenek
A módosítás mindhárom Claude csomagra – az ingyenes, Pro és Max verziókra –, valamint a Claude Code funkcióra is vonatkozik. Azoknak, akik hozzájárulnak, az adatait a korábbi 30 nap helyett már akár öt évig is tárolhatják, ami jelentős változás az eddigi gyakorlathoz képest.
Leiratkozás: Kényelmetlen döntési folyamat
Minden meglévő felhasználó egy felugró ablakban, „Felhasználói feltételek és szabályzatok frissítése” címmel találkozik a döntési lehetőséggel, ahol szeptember 28-ig választani kell. Fontos megjegyezni, hogy a jóváhagyást kínáló nagy fekete gomb jól látható, míg az adatgyűjtést tiltó kapcsoló eldugva található, és alapértelmezésben engedélyezett állapotban van. Aki átrohan a folyamaton, akaratán kívül is hozzájárulhat adatainak MI-képzéshez való felhasználásához.
Az újonnan regisztrálók már a regisztráció során döntenek. Később a Beállítások > Adatvédelem menüpontban visszavonható a hozzájárulás.
Az üzleti és oktatási fiókok védve maradnak
Noha a lakossági felhasználók érintettek, a vállalati és oktatási előfizetők továbbra is szigorúbb adatvédelmet élveznek. Az Anthropic tehát különbséget tesz a nagyobb adatbiztonsági elvárásokkal rendelkező intézményi felhasználók és a magánszemélyek között. Üzleti partnerek érzékeny adatai nem kerülnek be a képzési adathalmazba.
Kiberbiztonsági aggodalmak és hosszan tárolt adatok
A szakértők kockázatként értékelik az adatok ötéves tárolását, illetve a kibővített adatgyűjtési és megfigyelési lehetőségeket. Az adott időszak alatt például egy 2025-ös beszélgetés 2030-ig is elérhető marad, így a felhasználók érzékeny – akár üzleti titkokat vagy személyes adatokat tartalmazó – kommunikációja nagyobb támadási felületet jelenthet a kiberbűnözők számára.
Váltás a Big Tech-es irányba
Az Anthropic eddig magát privacy-párti MI-cégként pozicionálta a piacon, ellentétben a már korábban adatgyűjtő OpenAI-jal. Most viszont beáll a sorba: az új szabályok között kiterjedt megfigyelés, helymeghatározás, harmadik féltől származó adatgyűjtés, valamint az MI biztonsági és társadalmi kockázatainak kutatása is szerepel.
Összességében elmondható, hogy bár az Anthropic a fejlettebb és biztonságosabb MI-modellek fejlesztésével indokolja az adatgyűjtést, a felhasználóknak tudatos döntést kell hozniuk személyes beszélgetéseik sorsáról.