Penerapan Kecerdasan Buatan (AI) dalam bekerja telah menjadi tren yang tak terelakkan, membantu meningkatkan efisiensi dan menghemat waktu.
Namun, di balik kemudahan itu terdapat potensi risiko terhadap keamanan data, terutama fenomena "Shadow AI" - ketika karyawan menggunakan perangkat AI secara ceroboh, tanpa kendali, dan secara tidak sengaja meletakkan data rahasia perusahaan di platform publik.
Ketergantungan dan kekhawatiran awal
Thanh Huyen (21 tahun), seorang karyawan Pemasaran Konten di sebuah perusahaan kosmetik dan makanan fungsional, berbagi bahwa ia mengandalkan AI 90% dalam pekerjaannya, mulai dari perencanaan, pembuatan konten hingga mendesain gambar dan video .
Namun, setelah dia secara tidak sengaja menemukan artikel yang mirip dengan ide yang ditanyakannya kepada ChatGPT, Huyen mulai khawatir tentang kemampuan AI untuk mengingat dan berbagi informasi masukan.

Penerapan AI dalam pekerjaan hampir menjadi standar bagi banyak industri saat ini (Foto: Bao Ngoc).
Meskipun kisah Huyen mungkin kebetulan, fakta yang tidak dapat disangkal adalah bahwa menyediakan informasi kepada AI berarti mengizinkan alat ini mengumpulkan dan menyimpan data untuk melatih model.
Masalah menjadi serius jika platform AI diretas atau pengamanannya buruk, yang menyebabkan kebocoran informasi dan konsekuensi negatif.
"AI Bayangan" - Potensi Bahaya
HM (20 tahun), seorang spesialis layanan pelanggan, secara teratur memberikan daftar informasi pelanggan (nama lengkap, tanggal lahir, nomor telepon, riwayat pembelian) kepada AI untuk dianalisis, menghemat waktu dan meningkatkan kinerja.
M. yakin bahwa ini bukan risiko potensial karena perusahaannya kecil dan datanya tidak akan diungkapkan. Namun, kasus M. merupakan contoh khas "Shadow AI" - penggunaan AI oleh karyawan tanpa persetujuan atau pengawasan dari departemen teknologi informasi atau keamanan siber.

Fenomena “Shadow AI” mengacu pada penggunaan AI oleh karyawan di bisnis tanpa kontrol atau manajemen apa pun (Ilustrasi: CV).
Laporan Cisco menemukan bahwa 62% organisasi di Vietnam kurang percaya diri dalam mendeteksi penggunaan AI yang tidak diatur oleh karyawan. Sebuah survei di Inggris juga menemukan bahwa 75% manajer keamanan siber khawatir tentang ancaman internal seperti Shadow AI.
Hal ini menunjukkan bahwa Shadow AI menjadi ancaman umum, terutama ketika banyak bisnis tidak memiliki kebijakan yang jelas tentang penggunaan AI dan karyawan kurang menyadari keamanan data.
Terimalah kompromi untuk menghindari ketertinggalan
Meskipun menyadari risikonya, Thanh Huyen tetap "bertaruh" pada AI. Ia yakin manfaat langsung yang dibawa AI terlalu besar, membantunya menghasilkan puluhan artikel dan ide setiap hari.
Kenyamanan, kecepatan, dan kemampuan untuk meningkatkan kinerja membuat Huyen bersedia memberikan informasi sensitif dan rahasia kepada AI, bahkan informasi pribadi atasannya.

Meskipun ada risiko potensial dalam penggunaan AI tanpa kendali, banyak karyawan masih menerima pengorbanan demi manfaat langsung (Ilustrasi: CV).
Demikian pula, Trung Hieu (20 tahun), seorang karyawan Pemasaran Konten, juga secara teratur memberikan dokumen internal dan informasi bisnis kepada chatbot AI.
Hieu melihat adanya peningkatan signifikan dalam produktivitas, menciptakan keunggulan kompetitif dan yakin bahwa hal ini tidak terlalu memengaruhi operasi perusahaan.
Kasus-kasus ini menunjukkan bahwa Shadow AI menyebar karena kurangnya kebijakan yang jelas dari perusahaan dan kurangnya kesadaran di antara karyawan tentang risiko keamanan, kualitas, dan ketergantungan.
Serangkaian risiko ketika terlalu mempercayai AI
Tn. Nguyen Viet Hung, CEO perusahaan pengembangan perangkat lunak aplikasi AI, menjelaskan popularitas Shadow AI karena tiga faktor: AI membantu bekerja lebih cepat dan lebih efisien; kebiasaan bergantung pada formulir AI dengan cepat; dan bisnis kurangnya peringatan dan pelatihan tentang risiko.

Bapak Nguyen Viet Hung, CEO perusahaan pengembangan perangkat lunak aplikasi AI (Foto: Cong Khanh).
Para ahli memperingatkan bahwa Shadow AI dapat menyebabkan kebocoran data (pelanggan, internal) jika diterapkan pada perangkat AI gratis.
Selain itu, kualitas konten yang dihasilkan AI tidak diverifikasi, yang dapat dengan mudah menyebabkan bias dan memengaruhi keputusan bisnis.
Yang lebih serius, penggunaan AI yang tidak terkendali dapat menciptakan kerentanan keamanan, sehingga menyulitkan sistem TI untuk memantau dan merespons dengan cepat, serta mempersulit penentuan tanggung jawab saat insiden terjadi.
Area gelap sulit dikontrol.
Memantau dan mengelola karyawan menggunakan AI merupakan proses yang panjang dan terkoordinasi. Para ahli mengatakan bahwa akses karyawan ke data internal menjadi hambatan besar dalam mencegah mereka meneruskan data pribadi melalui perangkat AI pribadi.
Lebih jauh lagi, peralatan AI kini mudah diakses, sehingga menyulitkan TI untuk mendeteksi atau mengelolanya.

Akses yang mudah terhadap perangkat AI menjadi salah satu hambatan yang membuat pengendalian informasi yang diunggah karyawan pada platform AI menjadi semakin sulit (Ilustrasi: CV).
Untuk mengatasinya, pakar Nguyen Viet Hung menyarankan agar bisnis meningkatkan pelatihan karyawan tentang kesadaran risiko saat menggunakan AI dan memperoleh pemahaman yang lebih mendalam tentang "Shadow AI".
Pada saat yang sama, segera terbitkan peraturan perundang-undangan dan kebijakan internal. Solusi penting lainnya adalah memperkuat kemampuan keamanan di perusahaan, termasuk pemantauan perilaku, pengendalian akses data, dan otorisasi yang cermat bagi setiap karyawan.
Saat ini, banyak perusahaan masih belum memiliki proses yang jelas untuk menggunakan AI, dan hanya mendorong penggunaannya untuk meningkatkan produktivitas. Untuk mengatasi Shadow AI, banyak perusahaan besar telah mulai menerapkan platform AI internal atau mewajibkan karyawan untuk menggunakan perangkat yang disetujui dengan kebijakan keamanan informasi yang jelas.
Sumber: https://dantri.com.vn/cong-nghe/sep-buong-long-nhan-vien-than-nhien-cap-du-lieu-mat-cho-ai-20250806090132034.htm
Komentar (0)