Vietnam.vn - Nền tảng quảng bá Việt Nam

Claude wywołał kolejną sensację.

Nowy model sztucznej inteligencji firmy Anthropic, Claude Mythos, uznano za zbyt niebezpieczny, ponieważ tylko ponad 40 firm ma do niego dostęp w celu łatania globalnych luk w zabezpieczeniach oprogramowania.

ZNewsZNews08/04/2026

Nowy model sztucznej inteligencji Anthropic potrafi znaleźć każdą lukę w zabezpieczeniach. Zdjęcie: Bloomberg .

Firma Anthropic ogłosiła niedawno nowy model sztucznej inteligencji o nazwie Claude Mythos Preview, ale odmówiła jego powszechnego udostępnienia z obawy przed możliwością jego wykorzystania do ataków na infrastrukturę krytyczną. Zamiast tego firma udostępniła model ponad 40 głównym partnerom technologicznym, w tym Apple, Amazon, Microsoft i Google, w celu wyszukiwania i łatania luk w zabezpieczeniach oprogramowania.

Sojusz ten, zwany Projektem Glasswing, obejmuje dostawców sprzętu, takich jak Cisco i Broadcom, a także Fundację Linuxa, organizację zarządzającą znaczną częścią ważnego oprogramowania open source. Firma Anthropic zobowiązała się przeznaczyć na ten cel do 100 milionów dolarów z kredytów Claude.

Nowa supermodelka AI

To, co czyni Claude Mythos Preview szczególnie niepokojącym, to jego zdolność do automatycznego wykrywania luk zero-day – luk w oprogramowaniu, o których nie wiedzą nawet programiści. Wcześniej tego typu luki były zazwyczaj wykrywane po miesiącach badań prowadzonych przez czołowych ekspertów ds. bezpieczeństwa. Jednak najnowszy model sztucznej inteligencji firmy Anthropic potrafi to robić na dużą skalę, automatycznie i w sposób ciągły.

Anthropic anh 1

Claude Mythos zaskoczył społeczność zajmującą się cyberbezpieczeństwem. Zdjęcie: Bloomberg .

Według Anthropic, Claude Mythos odkrył tysiące luk w popularnych systemach operacyjnych i przeglądarkach. Jedną z nich była luka w zabezpieczeniach, która istniała od 27 lat w OpenBSD, systemie operacyjnym typu open source zaprojektowanym specjalnie pod kątem bezpieczeństwa i zintegrowanym z wieloma routerami. Inna luka znajdowała się w popularnym oprogramowaniu wideo , którego automatyczne skanowanie nie wykryło 5 milionów razy.

„Model Claude’a Mythosa wykrył luki w zabezpieczeniach, które badacze bezpieczeństwa ignorowali przez dziesięciolecia” – powiedział Logan Graham, szef zespołu testującego luki w zabezpieczeniach tego modelu w firmie Anthropic.

Elia Zaitsev, dyrektor ds. technologii w CrowdStrike, uważa, że ​​model ten stwarza globalne zagrożenie cyberbezpieczeństwa.

„Rzeczy, które kiedyś zajmowały miesiące, teraz zajmują tylko minuty dzięki sztucznej inteligencji” – powiedział Zajcew. Ostrzegł również, że konkurenci będą próbowali wykorzystać podobne możliwości dzięki Claude'owi Mythosowi.

Potencjalne zagrożenia

Nikesh Arora, dyrektor generalny Palo Alto Networks, opisał Claude'a Mythosa jako nieprzewidywalne zagrożenie.

„Wyobraź sobie, że to rój agentów nieustannie i skrupulatnie katalogujących wszystkie słabości twojej infrastruktury technologicznej” – zauważył Nikesh Arora.

Jared Kaplan, dyrektor naukowy w Anthropic, wyjaśnia, że ​​możliwości bezpieczeństwa Claude'a Mythosa nie są wynikiem specjalnego szkolenia. To naturalna konsekwencja doskonałych umiejętności programistycznych modelu i jego zdolności do automatycznego korygowania błędów w czasie. Przewiduje, że wkrótce inne modele sztucznej inteligencji będą miały podobne możliwości, co wywinduje wyścig między hakerami a zespołami ds. bezpieczeństwa na nowy poziom.

Anthropic anh 2

Mało prawdopodobne, że Claude Mythos zostanie szeroko rozpowszechniony. Zdjęcie: Bloomberg .

Decyzja o zachowaniu modelu bezpieczeństwa ma precedens z 2019 roku, kiedy OpenAI odmówiło udostępnienia GPT-2 z obawy przed jego wykorzystaniem do automatyzacji produkcji dezinformacji. Osoby kierujące projektem GPT-2 później odeszły z OpenAI i założyły firmę Anthropic.

To ogłoszenie nastąpiło dzień po tym, jak Anthropic ogłosił prognozowany ponad trzykrotny wzrost rocznych przychodów do 2026 roku, z 9 miliardów dolarów do ponad 30 miliardów dolarów . Znaczna część tego wzrostu wynika z popytu na Claude jako narzędzie programistyczne. Ta wyjątkowa funkcjonalność pozwala modelowi wykrywać luki w zabezpieczeniach w niespotykany dotąd sposób.

Anthropic znajduje się w bardzo sprzecznej sytuacji w obecnym krajobrazie sztucznej inteligencji. Firma jednocześnie ściga się z czasem, aby opracować wydajne systemy generujące przychody, i jednocześnie musi stale ostrzegać o ryzyku związanym z technologią, którą tworzy.

Źródło: https://znews.vn/anthropic-lai-gay-chan-dong-post1641929.html


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Mleko ryżowe

Mleko ryżowe

Szczęśliwego Dnia Zjednoczenia

Szczęśliwego Dnia Zjednoczenia

Wystawa Narodowa

Wystawa Narodowa