Według BGR , rok 2024 będzie przełomowy dla świata , który musi zdecydować, czy sztuczna inteligencja rzeczywiście stanowi przyszłość informatyki, czy jest jedynie chwilową modą. Podczas gdy rzeczywiste zastosowania sztucznej inteligencji stają się coraz bardziej zróżnicowane, ciemna strona tej technologii zostanie ujawniona również w postaci licznych oszustw w nadchodzących miesiącach.
Eksperci ds. zwalczania oszustw Scams.info opublikowali właśnie listę 3 oszustw opartych na sztucznej inteligencji, na które należy uważać w 2024 roku. Ogólna zasada mówi, że należy zachować ostrożność w przypadku wszystkiego, co wygląda zbyt efektownie, ale poniższe schematy wymagają szczególnie wzmożonej czujności.
Oszustwa inwestycyjne oparte na sztucznej inteligencji
Duzi gracze, tacy jak Google, Microsoft i OpenAI, zainwestowali miliony dolarów w sztuczną inteligencję i będą nadal intensywnie inwestować w tym roku. Oszuści wykorzystają ten fakt, aby nakłonić Cię do inwestowania w wątpliwe możliwości. Jeśli ktoś w mediach społecznościowych próbuje Cię przekonać, że sztuczna inteligencja zwielokrotni Twoje zyski z inwestycji, zastanów się dwa razy, zanim sięgniesz po portfel.
„Świetne okazje” i inwestycje o niskim ryzyku tak naprawdę nigdy nie istnieją.
„Zachowaj ostrożność wobec inwestycji obiecujących wysokie zyski przy niskim ryzyku i dokładnie przeanalizuj sytuację, zanim zainwestujesz w nie swoje pieniądze” – ostrzega ekspert Nicholas Crouch ze Scams.info. Nowi inwestorzy powinni również zachować ostrożność wobec ofert, które wymagają od nich polecania nowych członków; często działają one w oparciu o model marketingu wielopoziomowego (MLM), przynosząc korzyści tylko tym, którzy są na szczycie, podczas gdy inni uczestnicy rzadko z nich korzystają.
Podawanie się za krewnego
Oszustwo polegające na podszywaniu się pod znajomych lub krewnych w celu pożyczenia pieniędzy nie jest niczym nowym, ponieważ imitacja głosu nie jest zbyt skuteczna. Jednak dzięki sztucznej inteligencji ten rodzaj oszustwa staje się o wiele bardziej podstępny. Wystarczy film z YouTube'a lub post na Facebooku z głosem krewnego, a oszust może użyć sztucznej inteligencji, aby idealnie go odtworzyć. Czy zauważyłbyś różnicę podczas rozmowy telefonicznej?
Sztuczna inteligencja może z łatwością naśladować głosy Twoich bliskich.
Zrzut ekranu z Washington Post
„Bardzo ważne jest, aby ludzie chronili swoje konta w mediach społecznościowych, aby uniemożliwić oszustom zbieranie nagrań głosowych i informacji o rodzinie” – podkreślił Crouch.
Korzystanie z komend głosowych w celu ominięcia systemów bezpieczeństwa.
Niektóre banki wykorzystują rozpoznawanie głosu do weryfikacji użytkowników podczas transakcji telefonicznych. Z wyżej wymienionych powodów ta metoda nagle stała się mniej bezpieczna niż wcześniej. Jeśli opublikujesz filmy lub klipy zawierające Twój głos w dowolnym miejscu w internecie, osoby naruszające zasady mogą wykorzystać te treści do skopiowania Twojego głosu. Jak zauważa Crouch, banki nadal dysponują innymi danymi do weryfikacji tożsamości klientów, ale ta taktyka przybliża przestępców do kradzieży Twojego konta bankowego.
Systemy bezpieczeństwa oparte na sterowaniu głosem nie są już odporne na sztuczną inteligencję.
Sztuczna inteligencja ma potencjał, by fundamentalnie zmienić nasze życie i sposób, w jaki wchodzimy w interakcje z urządzeniami. To również najnowsze narzędzie, którego hakerzy i oszuści będą używać do ataków na użytkowników. Dlatego kluczowe jest zachowanie czujności i przeprowadzenie dogłębnych badań przed podjęciem jakichkolwiek działań związanych ze sztuczną inteligencją.
Link źródłowy






Komentarz (0)