Podczas ceremonii wręczenia dyplomów Akademii Sił Powietrznych Stanów Zjednoczonych na początku sierpnia prezydent USA Biden ostrzegał przed potęgą sztucznej inteligencji (AI), przewidując, że technologia ta może „przewyższyć ludzkie myślenie” w niedalekiej przyszłości. „ To nie będzie łatwe. To niesamowita szansa, ale mamy dużo pracy do wykonania ” – stwierdził Biden.
W niedawnym wywiadzie prezes Microsoftu, Brad Smith, powiedział, że bez interwencji człowieka sztuczna inteligencja może stać się bronią zagrażającą życiu: „ Każda powstająca technologia może stać się narzędziem pomagającym ludziom, ale także bronią. Musimy zadbać o to, aby sztuczna inteligencja była pod kontrolą człowieka, abyśmy mogli ją spowolnić lub wyłączyć w razie potrzeby ”.
Microsoft jest obecnie jedną z wiodących firm w rozwoju sztucznej inteligencji i już na wczesnym etapie zainwestował w OpenAI, „ojca” ChatGPT. Firma wydała miliardy dolarów na badania nad zastosowaniami sztucznej inteligencji, integrując tę zaawansowaną technologię ze swoimi produktami, w tym Bingiem – wyszukiwarką podobną do Google. Chociaż aktywnie promuje korzyści płynące ze sztucznej inteligencji, pan Smith zapewnił, że Microsoft jest świadomy potencjalnych zagrożeń związanych z jej wykorzystaniem i jednocześnie namawia inne firmy do „postępowania właściwie”.
To, czy sztuczna inteligencja jest dobra czy zła, zależy od tego, w jaki sposób ludzie kontrolują tę technologię.
Sztuczna inteligencja, stosowana nie tylko w codziennych zastosowaniach, stała się potężnym narzędziem w dziedzinie cyberbezpieczeństwa. Pojawienie się ChatGPT w listopadzie 2022 roku stało się przedmiotem debat na temat sztucznej inteligencji, ukazując namacalny wpływ technologii sieci neuronowych i ujawniając, że sztuczna inteligencja ma potencjał, by zniszczyć przemysły na całym świecie.
Jedną z dyskusji wokół ChatGPT jest to, jak cyberprzestępcy wykorzystują tę technologię do nasilenia ataków phishingowych i malware. Badania wykazały, że hakerzy mogą używać tego narzędzia do tworzenia złośliwego kodu na podstawie pojedynczych żądań, aby ominąć reguły bezpieczeństwa.
Podczas niedawnego dorocznego Tygodnia Cyberbezpieczeństwa w Indonezji firma ochroniarska Kaspersky przedstawiła koncepcję cyberodporności – sposób tworzenia systemów informatycznych z wrodzonymi możliwościami ochrony.
„ Cyberodporność to technologia, która reprezentuje system bezpieczeństwa zaprojektowany z myślą o bezpieczeństwie, zdolny do stworzenia rozwiązania praktycznie niezniszczalnego, minimalizującego liczbę potencjalnych luk w zabezpieczeniach” – powiedział Jewgienij Kasperski, dyrektor generalny firmy Kaspersky. „Tradycyjne cyberbezpieczeństwo już nie wystarcza, aby nas chronić. Musimy zrewolucjonizować nasze mechanizmy obronne, aby zapewnić bezpieczeństwo cyfrowego świata ”.
Region Azji i Pacyfiku (APAC) jest obecnie na czele rewolucji w dziedzinie sztucznej inteligencji (AI). Niedawne badanie IDC wykazało, że wydatki na AI w tym regionie podwoją się w ciągu trzech lat, z 9,8 mld dolarów w 2023 roku do 18,6 mld dolarów w 2026 roku. Aby poprawić efektywność i zmniejszyć zależność od technologii, większość lokalnych firm dąży do włączenia AI do swoich portfeli technologicznych w ciągu trzech lat. Obecnie wartość rynku AI w regionie Azji i Pacyfiku wynosi 22,1 mld dolarów i oczekuje się, że do 2028 roku wzrośnie prawie czterokrotnie, osiągając 87,6 mld dolarów.
Raport IDC podkreśla, że Chiny, Australia i Indie to trzy największe kraje w regionie pod względem wydatków na sztuczną inteligencję, a wiele innych krajów wkrótce pójdzie w ich ślady. „ Dlatego ważne jest dla nas, abyśmy już teraz wytyczyli bezpieczną ścieżkę, zapewniając sobie możliwość korzystania z tej technologii bez narażania bezpieczeństwa ” – dodał Adrian Hia, dyrektor zarządzający regionu Azji i Pacyfiku w firmie Kaspersky.
Khanh Linh
Źródło






Komentarz (0)