Perkembangan ChatGPT yang pantas dan tidak dijangka - chatbot kecerdasan buatan (AI) dengan fungsi unggul telah mengubah sedikit sebanyak kehidupan manusia, terutamanya dalam cara bekerja. Walau bagaimanapun, risiko yang berkaitan dengan teknologi ini telah menimbulkan banyak kebimbangan kepada pihak berkuasa di banyak negara, terutamanya kebimbangan mengenai data pengguna.
Dalam konteks dunia masih kekurangan rangka kerja undang-undang baharu yang kukuh untuk mengurus AI dengan berkesan dan memastikan kebolehpercayaan yang tinggi untuk pengguna, banyak negara telah mula mengambil langkah untuk mengawal selia penggunaan ChatGPT dan AI secara umum untuk meminimumkan risiko yang dibawa oleh teknologi ini.
Banyak negara "mengambil tindakan" dengan AI
Itali berada di barisan hadapan dalam mengeluarkan keputusan untuk mengharamkan ChatGPT.
Pada 31 Mac, pihak berkuasa Itali mengeluarkan larangan sementara pada apl ChatGPT kerana kebimbangan privasi dan kegagalan apl untuk mengesahkan pengguna berumur 13 tahun ke atas seperti yang dikehendaki oleh Itali. Pada masa yang sama, Itali juga berkata ia akan membuka penyiasatan tentang cara OpenAI menggunakan data pengguna.
Berikutan larangan Itali terhadap ChatGPT, banyak negara telah mengambil tindakan terhadap aplikasi tersebut. (Foto: Reuters).
Pihak berkuasa perlindungan data Itali telah memberikan OpenAI - syarikat yang mencipta ChatGPT - tarikh akhir pada akhir April untuk memenuhi keperluan perlindungan data dan privasi sebelum menyambung semula operasi biasa di negara itu.
Sejurus selepas keputusan Itali, banyak negara mula "mengikut" negara ini menyekat ChatGPT kerana kebimbangan berkaitan isu keselamatan dan privasi data.
Pengawal selia privasi dan keselamatan Perancis dan Ireland telah menghubungi rakan sejawatan mereka dari Itali untuk mengetahui asas larangan tersebut. Badan pemantau privasi Perancis CNIL berkata pada 11 April bahawa ia sedang menyiasat beberapa aduan mengenai ChatGPT.
Pesuruhjaya perlindungan data Jerman berkata Berlin mungkin "mengikut jejak langkah Itali" dalam menyekat ChatGPT.
Terutamanya, Pihak Berkuasa Perlindungan Data Eropah (EDPB) menubuhkan pasukan petugas di ChatGPT pada 13 April, dengan menyatakan: "Negara anggota EDPB membincangkan tindakan penguatkuasaan baru-baru ini oleh pihak berkuasa perlindungan data Itali terhadap OpenAI berhubung perkhidmatan ChatGPT. EDPB memutuskan untuk melancarkan pasukan petugas untuk menggalakkan kerjasama dan bertukar maklumat mengenai kemungkinan tindakan penguatkuasaan."
Selain itu, penggubal undang-undang Kesatuan Eropah (EU) juga membincangkan Akta AI EU, yang akan mengawal selia sesiapa sahaja yang menyediakan produk atau perkhidmatan menggunakan AI, termasuk sistem yang menjana kandungan, ramalan, pengesyoran atau keputusan yang mempengaruhi alam sekitar. EU juga mencadangkan mengklasifikasikan alat AI yang berbeza mengikut tahap risiko mereka, daripada rendah kepada tidak boleh diterima.
Agensi perlindungan data Sepanyol AEPD mengumumkan ia sedang menjalankan siasatan awal ke atas pelanggaran data ChatGPT.
Di Australia, Kementerian Sains dan Teknologi mengumumkan pada 12 April bahawa kerajaan telah meminta nasihat badan penasihat saintifiknya tentang cara bertindak balas terhadap AI dan sedang mempertimbangkan langkah seterusnya.
Langkah itu menimbulkan persoalan tentang keselamatan AI dan perkara yang boleh dilakukan oleh kerajaan untuk mengurangkan risikonya. Laporan Mac oleh perunding KPMG dan Persatuan Industri Maklumat Australia mendapati bahawa dua pertiga daripada warga Australia berkata terdapat undang-undang atau peraturan yang tidak mencukupi untuk menghalang AI daripada disalahgunakan, manakala kurang daripada separuh percaya AI digunakan dengan selamat di tempat kerja.
Banyak negara telah mula mengambil langkah untuk mengawal selia teknologi AI. (Foto: Reuters).
Di UK, kerajaan berkata ia berhasrat untuk membahagikan tanggungjawab untuk mengawal selia AI antara hak asasi manusia, kesihatan dan keselamatan serta badan persaingan, dan bukannya mewujudkan pengawal selia baharu.
Baru-baru ini, pemimpin majoriti Demokrat di Senat AS, Chuck Schumer, merangka dan mengeluarkan rangka kerja kawal selia baharu tentang AI yang boleh menghalang kerosakan besar kepada negara. Cadangan Encik Schumer memerlukan syarikat membenarkan pakar bebas menyemak dan menguji teknologi AI sebelum mengeluarkan atau mengemas kininya.
Terdahulu pada 11 April, Jabatan Perdagangan AS berkata ia sedang mendapatkan ulasan awam mengenai langkah akauntabiliti AI.
Sementara itu, Pusat Kepintaran Buatan dan Dasar Digital di AS telah meminta Suruhanjaya Perdagangan untuk menyekat OpenAI daripada mengeluarkan keluaran komersial baharu GPT-4, dengan alasan bahawa teknologi itu "berat sebelah, menipu dan menimbulkan risiko kepada privasi dan keselamatan awam."
Sementara itu, di Jepun, Menteri Transformasi Digital Taro Kono berkata beliau mahu mesyuarat menteri digital G7 akan datang, yang dijadualkan berlangsung pada akhir April, untuk membincangkan teknologi AI termasuk ChatGPT dan menyampaikan mesej G7 bersatu.
China baru-baru ini mengumumkan langkah yang dirancang untuk mengawal selia perkhidmatan AI, mengatakan syarikat yang menghantar teknologi AI mesti menyerahkan penilaian keselamatan kepada pihak berkuasa sebelum melancarkan perkhidmatan di pasaran.
Pakar memberi amaran tentang bahaya daripada AI
Sesetengah pakar mengatakan AI boleh membawa kepada "bencana peringkat nuklear." (Foto: Reuters).
Tinjauan yang dikeluarkan oleh Institut Kecerdasan Buatan Universiti Stanford pada awal April mendapati bahawa 36% penyelidik percaya AI boleh membawa kepada "malapetaka peringkat nuklear", seterusnya menekankan kebimbangan sedia ada tentang perkembangan pesat teknologi.
Sementara itu, 73% AI akan membawa kepada "perubahan sosial revolusioner".
Laporan itu mengatakan bahawa walaupun teknologi ini menawarkan keupayaan yang tidak dapat dibayangkan sedekad yang lalu, teknologi ini juga terdedah kepada ilusi, berat sebelah dan penyalahgunaan untuk tujuan jahat, mewujudkan cabaran etika untuk pengguna perkhidmatan ini.
Laporan itu juga menyatakan bahawa bilangan "insiden dan kontroversi" yang berkaitan dengan AI telah meningkat 26 kali ganda sepanjang dekad yang lalu.
Bulan lalu, jutawan Elon Musk dan pengasas bersama Apple Steve Wozniak adalah antara beribu-ribu pakar teknologi yang menandatangani surat menyeru agar dihentikan sementara dalam latihan sistem AI yang lebih berkuasa daripada chatbot GPT-4 Open AI, dengan mengatakan "sistem AI yang berkuasa hanya perlu dibangunkan setelah kami yakin bahawa kesannya akan positif dan risikonya akan terurus."
Yongkang (Reuters, AL Jazeera, ABC)
Sumber
Komen (0)