![]() |
Moltbot wyróżnia się możliwością automatycznego wykonywania zadań przypisanych przez użytkownika. Zdjęcie: Moltbot . |
Moltbot, wcześniej znany jako Clawdbot, to lokalnie działający agent AI na wielu urządzeniach. Użytkownicy mogą zlecić Moltbotowi wykonywanie zadań w ich imieniu za pośrednictwem popularnych platform komunikacyjnych, takich jak WhatsApp, Telegram, Signal, Discord czy iMessage. W mediach społecznościowych wiele osób dzieli się informacjami o tym, jak wykorzystuje Moltbota do zarządzania przypomnieniami, rejestrowania danych o stanie zdrowia, a nawet komunikacji z klientami.
Federico Viticci, redaktor serwisu MacStories , powiedział, że zainstalował Moltbota na komputerze Mac Mini M4 i przekształcił go w narzędzie do tworzenia codziennych podsumowań audio na podstawie danych z aplikacji Kalendarz, Notion i Todoist. W innym przypadku użytkownik poinformował, że Moltbot potrafi automatycznie generować animowane mimiki twarzy i dodawać efekt „uśpienia” bez konieczności ręcznej interwencji.
W zakresie działania, Moltbot przekazuje żądania użytkownika do wybranego przez niego dostawcy sztucznej inteligencji, takiego jak OpenAI, Anthropic czy Google. Podobnie jak wiele innych asystentów, może wypełniać formularze bezpośrednio w przeglądarce, wysyłać e-maile i zarządzać kalendarzami. Jednak, według opinii niektórych użytkowników, Moltbot wykonuje te zadania wydajniej i elastyczniej.
Wymaga jednak również od użytkowników udzielenia bardzo głębokiego dostępu do systemu komputerowego, w tym odczytu, zapisu plików i uruchamiania poleceń. Łączenie uprawnień administratora urządzenia z danymi logowania do aplikacji może stwarzać poważne zagrożenia bezpieczeństwa, jeśli nie będzie ściśle kontrolowane.
Rachel Tobac, prezes SocialProof Security, ostrzega, że jeśli agent sztucznej inteligencji, taki jak Moltbot, uzyska uprawnienia administracyjne na komputerze, atakujący mogą próbować przejąć kontrolę nad systemem za pomocą jednej wiadomości. Według niej, zautomatyzowani agenci sztucznej inteligencji mogą zostać wykorzystani poprzez ataki typu „prompt injection”, lukę, która została zidentyfikowana, ale nie ma na nią ostatecznego rozwiązania. Ataki typu „prompt injection” mają miejsce, gdy atakujący manipuluje sztuczną inteligencją za pomocą złośliwych instrukcji, wysyłanych bezpośrednio lub ukrytych w plikach, wiadomościach e-mail lub stronach internetowych, które przetwarza sztuczna inteligencja.
![]() |
Moltbot może stanowić zagrożenie bezpieczeństwa. Zdjęcie: Moltbot . |
Obawy te jeszcze bardziej się nasiliły, gdy Jamieson O'Reilly, ekspert ds. bezpieczeństwa i założyciel firmy zajmującej się cyberbezpieczeństwem Dvuln, odkrył, że niektóre prywatne wiadomości, informacje o logowaniu do konta i klucze API związane z Moltbotem wyciekły do sieci.
W związku z tym dane te mogą zostać wykorzystane przez hakerów do kradzieży informacji lub przeprowadzenia innych ataków. Według The Register , zgłosił problem zespołowi programistów Moltbota, a łatka została już wydana.
Źródło: https://znews.vn/rui-ro-tu-tro-ly-ai-biet-tuot-moltbot-post1623740.html








Komentarz (0)