SGGPO
Eksperci firmy Kaspersky przedstawili swoją analizę możliwych konsekwencji rozwoju sztucznej inteligencji (AI), w szczególności potencjalnych zagrożeń psychologicznych, jakie niesie ze sobą ta technologia.
| Pan Witalij Kamluk dzieli się wiedzą na temat sztucznej inteligencji |
Witalij Kamliuk, dyrektor Globalnego Zespołu ds. Badań i Analiz (GReAT) w regionie Azji i Pacyfiku w firmie Kaspersky, ujawnił, że gdy cyberprzestępcy wykorzystują sztuczną inteligencję do popełniania przestępstw, mogą zrzucać winę na technologię i czuć się mniej odpowiedzialni za konsekwencje cyberataku.
„Oprócz zagrożeń technologicznych, jakie stwarza sztuczna inteligencja, istnieje również potencjalne zagrożenie psychologiczne. Powszechnym syndromem psychologicznym wśród cyberprzestępców jest tzw. syndrom unikania przestępstwa. Atakując lub raniąc przechodniów, sprawcy są pod ogromną presją psychologiczną, ponieważ widzą bezpośrednie konsekwencje swoich działań. Nie dotyczy to jednak cyberprzestępcy, który kradnie i atakuje ofiarę, której nigdy nie widzi” – wyjaśnił Kamluk.
Innym psychologicznym efektem ubocznym sztucznej inteligencji, który może mieć wpływ na zespoły ds. bezpieczeństwa IT, jest „delegowanie odpowiedzialności”. Dzieje się tak, gdy coraz więcej procesów i narzędzi cyberbezpieczeństwa jest automatyzowanych i delegowanych do sztucznych sieci neuronowych. Ludzie mogą czuć się mniej odpowiedzialni w przypadku cyberataku, szczególnie w środowisku korporacyjnym.
„Wraz z rozwojem sztucznej inteligencji (AI) zaobserwowaliśmy przełomy technologiczne, które potrafią syntetyzować treści podobne do tych, które robią ludzie: od obrazów, przez dźwięki, filmy deepfake, a nawet rozmowy tekstowe, których nie sposób odróżnić od rozmów prowadzonych przez ludzi. Jak większość przełomów technologicznych, AI to miecz obosieczny. Zawsze możemy wykorzystać ją na naszą korzyść, o ile wiemy, jak ustalić bezpieczne wytyczne dla tych inteligentnych maszyn” – dodał Kamluk.
Źródło






Komentarz (0)