Az Anthropic nemrég frissítette szabályzatát. Fotó: GK Images . |
Augusztus 28-án az Anthropic mesterséges intelligencia fejlesztő cég bejelentette a frissített Felhasználói Feltételek és Adatvédelmi Szabályzat kiadását. A felhasználók mostantól engedélyezhetik adataik felhasználását a Claude fejlesztésére és a visszaélések, például az adathalászat és a csalás elleni védelem fokozására.
Ez az értesítés augusztus 28-tól lesz elérhető a chatbotban. A felhasználóknak egy hónapjuk van a feltételek elfogadására vagy elutasítására. Az új szabályzatok az elfogadást követően azonnal hatályba lépnek. Szeptember 28. után a felhasználóknak dönteniük kell arról, hogy továbbra is használják-e a Claude-ot.
A cég szerint a frissítések célja, hogy hasznosabb és hatékonyabb MI-modelleket biztosítsanak. Ennek az opciónak a módosítása egyszerű, és bármikor elvégezhető az Adatvédelmi beállításokban.
Ezek a változások a Claude Free, Pro és Max csomagokra vonatkoznak, amelyek tartalmazzák a Claude Code-ot, az Anthropic programozóeszközét. A Kereskedelmi Feltételek hatálya alá tartozó szolgáltatások nem tartoznak ide, beleértve a Claude for Work, a Claude Gov és a Claude for Education szolgáltatásokat, valamint az API-k használatát, beleértve a harmadik feleken, például az Amazon Bedrockon és a Google Cloud Vertex AI-ján keresztül elérhető API-kat.
Blogbejegyzésében az Anthropic kijelentette, hogy a részvétellel a felhasználók segítenek javítani a modell biztonságát, növelik a rosszindulatú tartalmak pontos észlelésének képességét, és csökkentik az ártalmatlan beszélgetések téves megjelölésének kockázatát. Claude jövőbeli verziói olyan képességekkel is rendelkeznek majd, mint a programozás, az elemzés és az érvelés.
Fontos, hogy a felhasználók teljes mértékben ellenőrizhessék adataikat, és egy látható ablakban eldönthessék, hogy engedélyezik-e a platformnak azok használatát. Az új fiókok esetében ez opcionálisan beállítható a regisztrációs folyamat során.
![]() |
Az új Általános Szerződési Feltételeket megjelenítő ablak a chatbotban. Kép: Anthropic. |
Az adatmegőrzési időt 5 évre növeltük, ami az új beszélgetésekre vagy kódolási munkamenetekre, valamint a chatbotokra adott válaszokra vonatkozik. A törölt adatokat nem használjuk fel a jövőbeli modell betanításához. Ha a felhasználók nem járulnak hozzá az adatok megadásához a betanításhoz, akkor továbbra is a jelenlegi 30 napos megőrzési szabályzat marad érvényben.
Az Anthropic irányelveit ismertetve azzal érvel, hogy a mesterséges intelligencia fejlesztési ciklusai jellemzően évekig tartanak, és az adatok konzisztenciájának fenntartása a betanítási folyamat során segít következetesebb modellek létrehozásában. A hosszabb adatmegőrzés a visszaélésszerű viselkedés azonosítására használt osztályozókat és rendszereket is javítja, lehetővé téve a káros viselkedési minták észlelését.
„A felhasználók adatainak védelme érdekében automatizált eszközök és folyamatok kombinációját használjuk az érzékeny adatok szűrésére vagy elrejtésére. Nem adjuk el a felhasználói adatokat harmadik félnek” – írta a vállalat.
Az Anthropicot gyakran emlegetik a biztonságos mesterséges intelligencia egyik vezető vállalataként. Az Anthropic kidolgoz egy Alkotmányos MI nevű módszertant, amely etikai elveket és irányelveket határoz meg, amelyeket a modellnek követnie kell. Az Anthropic egyike azon vállalatoknak is, amelyek részt vesznek az Egyesült Államok, az Egyesült Királyság és a G7 kormányaival kötött biztonságos mesterséges intelligenciára vonatkozó kötelezettségvállalásokban.
Forrás: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html







Hozzászólás (0)