Bank terbesar di Amerika, JPMorgan Chase, Amazon dan syarikat teknologi Accenture telah menyekat pekerja daripada menggunakan ChatGPT atas kebimbangan keselamatan data.
Menurut CNN, kebimbangan perniagaan ini benar-benar berasas. Pada 20 Mac, chatbot OpenAI mengalami ralat yang mendedahkan data pengguna. Walaupun ralat itu telah diperbaiki dengan cepat, syarikat itu mendedahkan bahawa kejadian itu menjejaskan 1.2% pengguna ChatGPT Plus. Maklumat yang bocor termasuk nama penuh, alamat e-mel, alamat pengebilan, empat digit terakhir nombor kad kredit dan tarikh tamat tempoh kad.
Pada 31 Mac, pihak berkuasa perlindungan data Itali (Garante) mengeluarkan larangan sementara pada ChatGPT dengan alasan kebimbangan privasi selepas OpenAI mendedahkan kelemahan itu.
Mark McCreary, pengerusi bersama keselamatan data dan privasi di firma undang-undang Fox Rothschild LLP, memberitahu CNN bahawa kebimbangan keselamatan di sekitar ChatGPT tidak keterlaluan. Dia menyamakan AI chatbot dengan "kotak hitam."
ChatGPT telah dilancarkan oleh OpenAI pada November 2022 dan dengan cepat menarik perhatian kerana keupayaannya untuk menulis esei, mengarang cerita atau lirik lagu dengan memberi mereka gesaan. Gergasi teknologi seperti Google dan Microsoft juga telah melancarkan alat AI yang berfungsi sama, dikuasakan oleh model bahasa besar yang dilatih di kedai data dalam talian yang besar.
Berikutan langkah Itali, Jerman juga sedang mempertimbangkan untuk mengharamkan ChatGPT
Apabila pengguna memasukkan maklumat ke dalam alat ini, mereka tidak tahu bagaimana ia akan digunakan, tambah Encik McCreay. Ini membimbangkan syarikat kerana semakin ramai pekerja menggunakan alat untuk membantu menulis e-mel kerja atau mencatat nota untuk mesyuarat, yang membawa kepada risiko yang lebih besar untuk mendedahkan rahsia perdagangan.
Steve Mills, pengarah etika AI di Boston Consulting Group (BCG), berkata syarikat bimbang tentang pekerja secara tidak sengaja mendedahkan maklumat sensitif. Jika data yang dimasukkan orang sedang digunakan untuk melatih alat AI ini, mereka telah memberikan kawalan data kepada orang lain.
Menurut dasar privasi OpenAI, syarikat mungkin mengumpul semua maklumat peribadi dan data daripada pengguna perkhidmatan untuk menambah baik model AInya. Mereka mungkin menggunakan maklumat ini untuk menambah baik atau menganalisis perkhidmatan mereka, menjalankan penyelidikan, berkomunikasi dengan pengguna dan membangunkan program dan perkhidmatan baharu.
Dasar privasi menyatakan bahawa OpenAI boleh memberikan maklumat peribadi kepada pihak ketiga tanpa memberitahu pengguna, melainkan dikehendaki oleh undang-undang. OpenAI juga mempunyai dokumen Syarat Perkhidmatannya sendiri, tetapi syarikat meletakkan banyak tanggungjawab kepada pengguna untuk mengambil langkah yang sesuai apabila berinteraksi dengan alatan AI.
Pemilik ChatGPT telah menyiarkan di blog mereka tentang pendekatan mereka terhadap AI yang selamat. Syarikat itu menekankan bahawa ia tidak menggunakan data untuk menjual perkhidmatan, mengiklankan atau membina profil pengguna. Sebaliknya, OpenAI menggunakan data untuk menjadikan modelnya lebih berguna. Contohnya, perbualan pengguna akan digunakan untuk melatih ChatGPT.
Dasar privasi ChatGPT dianggap agak kabur.
Google, syarikat di belakang Bard AI, mempunyai peruntukan privasi tambahan untuk pengguna AInya. Syarikat akan memilih sebahagian kecil perbualan dan menggunakan alat automatik untuk mengalih keluar maklumat yang boleh dikenal pasti secara peribadi, yang akan membantu meningkatkan Bard sambil melindungi privasi pengguna.
Perbualan sampel akan disemak oleh jurulatih manusia dan disimpan sehingga tiga tahun, berasingan daripada akaun Google pengguna. Google juga mengingatkan pengguna untuk tidak memasukkan maklumat peribadi tentang diri mereka atau orang lain dalam perbualan di Bard AI. Gergasi teknologi itu menekankan bahawa perbualan ini tidak akan digunakan untuk tujuan pengiklanan dan akan mengumumkan perubahan pada masa hadapan.
Bard AI membenarkan pengguna untuk menarik diri daripada menyimpan perbualan ke akaun Google mereka, serta menyemak atau memadamkan perbualan melalui pautan. Selain itu, syarikat itu mempunyai perlindungan yang direka untuk menghalang Bard daripada memasukkan maklumat peribadi dalam respons.
Steve Mills mengatakan bahawa kadangkala pengguna dan pembangun hanya menemui risiko keselamatan yang tersembunyi dalam teknologi baharu apabila sudah terlambat. Contohnya, fungsi autolengkap boleh mendedahkan nombor keselamatan sosial pengguna secara tidak sengaja.
Pengguna tidak boleh meletakkan apa-apa ke dalam alatan ini yang mereka tidak mahu dikongsi dengan orang lain, kata Encik Mills.
Pautan sumber
Komen (0)