Bank terbesar Amerika JPMorgan Chase, Amazon dan perusahaan teknologi Accenture semuanya telah membatasi karyawannya menggunakan ChatGPT karena masalah keamanan data.
Menurut CNN, kekhawatiran para pelaku bisnis ini beralasan. Pada 20 Maret, chatbot OpenAI mengalami kesalahan yang mengekspos data pengguna. Meskipun kesalahan tersebut segera diperbaiki, perusahaan mengungkapkan bahwa insiden tersebut memengaruhi 1,2% pengguna ChatGPT Plus. Informasi yang bocor mencakup nama lengkap, alamat email, alamat penagihan, empat digit terakhir nomor kartu kredit, dan tanggal kedaluwarsa kartu.
Pada tanggal 31 Maret, otoritas perlindungan data Italia (Garante) mengeluarkan larangan sementara pada ChatGPT dengan alasan masalah privasi setelah OpenAI mengungkapkan kerentanan tersebut.
Mark McCreary, wakil ketua divisi keamanan data dan privasi di firma hukum Fox Rothschild LLP, mengatakan kepada CNN bahwa kekhawatiran keamanan seputar ChatGPT tidak berlebihan. Ia menyamakan chatbot AI tersebut dengan "kotak hitam".
ChatGPT dirilis oleh OpenAI pada November 2022 dan dengan cepat menarik perhatian karena kemampuannya menulis esai, cerita, dan lirik lagu dengan memberikan perintah. Raksasa teknologi seperti Google dan Microsoft juga telah merilis perangkat AI serupa, yang didukung oleh model bahasa berskala besar yang dilatih pada repositori data daring yang luas.
Mengikuti langkah Italia, Jerman juga mempertimbangkan untuk melarang ChatGPT
Ketika pengguna memasukkan informasi ke dalam alat-alat ini, mereka tidak tahu bagaimana informasi tersebut akan digunakan, tambah McCreay. Hal ini mengkhawatirkan bagi perusahaan karena semakin banyak karyawan menggunakan alat untuk membantu mereka menulis email kantor atau mencatat rapat, yang menyebabkan risiko lebih besar terbongkarnya rahasia dagang.
Steve Mills, direktur etika AI di Boston Consulting Group (BCG), mengatakan perusahaan khawatir karyawannya secara tidak sengaja mengungkapkan informasi sensitif. Jika data yang dimasukkan orang digunakan untuk melatih alat AI ini, mereka telah kehilangan kendali atas data tersebut kepada orang lain.
Berdasarkan kebijakan privasi OpenAI, perusahaan dapat mengumpulkan semua informasi dan data pribadi pengguna layanan untuk meningkatkan model AI. Mereka dapat menggunakan informasi ini untuk meningkatkan atau menganalisis layanan mereka, melakukan riset, berkomunikasi dengan pengguna, dan mengembangkan program serta layanan baru.
Kebijakan privasi menyatakan bahwa OpenAI dapat memberikan informasi pribadi kepada pihak ketiga tanpa memberi tahu pengguna, kecuali diwajibkan oleh hukum. OpenAI juga memiliki dokumen Ketentuan Layanannya sendiri, tetapi perusahaan memberikan sebagian besar tanggung jawab kepada pengguna untuk mengambil tindakan yang tepat saat berinteraksi dengan perangkat AI.
Para pemilik ChatGPT telah memposting di blog mereka tentang pendekatan mereka terhadap AI yang aman. Perusahaan tersebut menekankan bahwa mereka tidak menggunakan data untuk menjual layanan, mengiklankan, atau membangun profil pengguna, melainkan OpenAI yang menggunakan data untuk membuat model mereka lebih bermanfaat. Misalnya, percakapan pengguna akan digunakan untuk melatih ChatGPT.
Kebijakan privasi ChatGPT dianggap cukup samar.
Google, perusahaan di balik Bard AI, memiliki ketentuan privasi tambahan bagi pengguna AI-nya. Perusahaan akan memilih sebagian kecil percakapan dan menggunakan alat otomatis untuk menghapus informasi identitas pribadi, yang akan membantu meningkatkan Bard sekaligus melindungi privasi pengguna.
Contoh percakapan akan ditinjau oleh pelatih manusia dan disimpan hingga tiga tahun, terpisah dari akun Google pengguna. Google juga mengingatkan pengguna untuk tidak menyertakan informasi pribadi tentang diri mereka sendiri atau orang lain dalam percakapan di Bard AI. Raksasa teknologi ini menekankan bahwa percakapan ini tidak akan digunakan untuk tujuan periklanan dan akan mengumumkan perubahan di masa mendatang.
Bard AI memungkinkan pengguna untuk berhenti berlangganan dan tidak menyimpan percakapan ke akun Google mereka, serta meninjau atau menghapus percakapan melalui tautan. Selain itu, perusahaan memiliki fitur perlindungan yang dirancang untuk mencegah Bard memasukkan informasi pribadi dalam balasan.
Steve Mills mengatakan bahwa terkadang pengguna dan pengembang baru menyadari risiko keamanan yang tersembunyi dalam teknologi baru ketika sudah terlambat. Misalnya, fungsi pelengkapan otomatis dapat secara tidak sengaja mengungkapkan nomor jaminan sosial pengguna.
Pengguna tidak boleh memasukkan apa pun ke dalam alat ini yang tidak ingin mereka bagikan dengan orang lain, kata Tn. Mills.
[iklan_2]
Tautan sumber
Komentar (0)