Az Anthropic nemrég frissítette új szabályzatát. Fotó: GK Images . |
Augusztus 28-án az Anthropic mesterséges intelligencia fejlesztő cég bejelentette a Felhasználói Feltételek és Adatvédelmi Szabályzat frissítését. A felhasználók mostantól engedélyezhetik adataik felhasználását Claude fejlesztésére és a visszaélések, például csalások és csalás elleni védelem megerősítésére.
Ez a közlemény augusztus 28-tól kerül közzétételre a chatbotban. A felhasználóknak egy hónapjuk van a feltételek elfogadására vagy elutasítására. Az új szabályzatok az elfogadást követően azonnal hatályba lépnek. Szeptember 28. után a felhasználóknak engedélyezniük kell a Claude további használatát.
A vállalat szerint a frissítések célja, hogy hatékonyabb és hasznosabb MI-modelleket biztosítsanak. Ennek az opciónak a módosítása egyszerű, és bármikor elvégezhető az Adatvédelmi beállításokban.
Ezek a változások a Claude Free, Pro és Max csomagokra vonatkoznak, amelyek tartalmazzák a Claude Code-ot, az Anthropic programozóeszközét. A Kereskedelmi Feltételek hatálya alá tartozó szolgáltatások nem vonatkoznak, beleértve a Claude for Work, a Claude Gov és a Claude for Education szolgáltatásokat, valamint az API-k használatát, beleértve az olyan harmadik feleken keresztül elérhető API-kat, mint az Amazon Bedrock és a Google Cloud Vertex AI.
A részvétellel a felhasználók segítenek javítani a modell biztonságát, növelve a káros tartalmak pontos észlelésének képességét, és csökkentve az ártalmatlan beszélgetések téves megjelölésének kockázatát – áll az Anthropic blogbejegyzésében. Claude jövőbeli verziói olyan készségekkel is bővülnek, mint a programozás, az elemzés és az érvelés.
Fontos, hogy a felhasználók teljes mértékben ellenőrizhessék adataikat, és azt, hogy engedélyezik-e a platformnak azok használatát egy felugró ablakban. Az új fiókok ezt opcionálisan beállíthatják a regisztrációs folyamat során.
![]() |
Új feltételek felugró ablak a chatbotban. Fotó: Anthropic. |
Az adatmegőrzési időszakot öt évre növelték, ami az új vagy folytatódó beszélgetésekre vagy kódolási munkamenetekre, valamint a chatbotokra adott válaszokra vonatkozik. A törölt adatokat a jövőben nem használjuk fel a modell betanításához. Ha a felhasználók nem járulnak hozzá az adatok betanításhoz történő megadásához, akkor továbbra is a jelenlegi 30 napos megőrzési szabályzat marad érvényben.
Az irányelv magyarázatakor az Anthropic elmondta, hogy a mesterséges intelligencia fejlesztési ciklusai jellemzően évekig tartanak, és az adatok konzisztens megőrzése a betanítási folyamat során szintén segíti a modellek konzisztenciájának megőrzését. A hosszabb adatmegőrzés a káros minták észlelésére szolgáló osztályozókat is javítja, azaz a visszaélésszerű viselkedés azonosítására használt rendszereket.
„A felhasználók adatainak védelme érdekében automatizált eszközök és folyamatok kombinációját használjuk az érzékeny adatok szűrésére vagy maszkolására. Nem adjuk el a felhasználói adatokat harmadik félnek” – írta a vállalat.
Az Anthropicot gyakran emlegetik a biztonságos mesterséges intelligencia egyik vezető vállalataként. Az Anthropic kidolgozott egy Alkotmányos MI nevű megközelítést, amely etikai elveket és irányelveket határoz meg, amelyeket a modelleknek követniük kell. Az Anthropic egyike azon vállalatoknak is, amelyek aláírták a Biztonságos MI Kötelezettségvállalásokat az Egyesült Államok, az Egyesült Királyság és a G7 kormányaival .
Forrás: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html











Hozzászólás (0)