Kita hidup di era revolusi teknologi 4.0, di mana kecerdasan buatan (AI) secara bertahap menjadi bagian tak terpisahkan dari berbagai aspek kehidupan sosial. Media, sebagai jembatan informasi antara publik dan berbagai peristiwa, tidak bisa lepas dari tren tersebut.
Ibu Nguyen Thi Hai Van - Direktur Pusat Pelatihan Jurnalisme, Asosiasi Jurnalis Vietnam, pada Lokakarya Teknologi AI. (Sumber: Asosiasi Jurnalis Vietnam) |
Untuk memanfaatkan keuntungan yang dibawa AI secara maksimal, komunikator perlu membekali diri dengan pengetahuan agar dapat menggunakan AI secara efektif, sekaligus memastikan keandalan dan etika dalam penyampaian informasi.
Dari “panasnya” AI
Jelas bahwa AI (Kecerdasan Buatan) adalah salah satu kata kunci terpopuler saat ini. Pada bulan September 2024, pencarian di Google Search untuk kata kunci "AI" dalam 0,3 detik mencatat 15 miliar 900 juta hasil; dengan kata kunci "alat AI", dalam 0,4 detik tercatat lebih dari 3 miliar 400 juta hasil. Angka yang sangat besar ini menunjukkan cakupan dan minat terhadap AI dan alat berbasis AI secara global.
Saat ini, semakin banyak perangkat AI yang bermunculan untuk berbagai bidang, termasuk industri media. Selain ChatGPT yang sudah dikenal luas, terdapat banyak aplikasi AI yang dikembangkan dalam arah khusus, melayani tugas-tugas khusus. Tidak sulit untuk menyebutkan banyak perangkat di sini, misalnya: Bing AI, Clause, Zapier Central untuk grup tugas Chatbot; Jasper, Copy.ai, Anyword untuk tugas pembuatan konten; Descript, Wondershare, Runway untuk tugas produksi dan penyuntingan video ; DALL-E3, Midjourney, Stable Diffusion untuk tugas pembuatan gambar; Murf, AIVA untuk tugas konten audio, dll. Baru-baru ini, raksasa Amazon juga memperkenalkan perangkat AI yang mereka kembangkan, Video Generator dan Image Generator, dengan tujuan "menginspirasi kreativitas dan memberikan nilai lebih".
Meskipun alat AI sangat bervariasi dalam skala dan tingkat spesialisasi, teknologi ini pada dasarnya memiliki dua kesamaan: Alat AI dikembangkan berdasarkan algoritma dan data untuk "melatih" alat AI.
Kontrol Etis Penggunaan AI di Media
Manfaat yang dibawa oleh perangkat AI tidak dapat disangkal, dan dengan pesatnya perkembangan teknologi, akan semakin banyak perangkat AI yang terspesialisasi di setiap sudut, yang mampu menangani tugas-tugas sederhana hingga kompleks di industri media. Seiring dengan perkembangan yang pesat ini, banyak pertanyaan muncul mengenai isu kontrol etika dalam pengembangan dan penggunaan perangkat AI di industri media? Apa yang akan terjadi jika algoritma dan data perangkat AI tersebut dimanipulasi sedemikian rupa sehingga merugikan masyarakat? Siapa yang menjamin hak kekayaan intelektual atas data input yang digunakan perangkat AI untuk pelatihan? Siapa yang menilai tingkat kerusakan yang ditimbulkannya?
Adakah kesenjangan antara mereka yang memiliki akses dan mereka yang tidak memiliki akses ke perangkat AI untuk tugas yang sama? Bahkan, muncul pertanyaan tentang potensi bahaya tak terkendali dari perangkat AI, terutama di area sensitif yang dapat memengaruhi banyak orang dalam skala besar, seperti media dan jejaring sosial.
Menyadari kekhawatiran di atas, banyak organisasi, asosiasi, pemerintah, bahkan perusahaan dan korporasi yang mengembangkan perangkat AI telah mengeluarkan rekomendasi, penjelasan, dan bahkan Kode Etik terkait isu pengendalian etika dalam teknologi AI. Deklarasi Etika Kecerdasan Buatan, yang diadopsi oleh 193 negara pada tahun 2021, Rekomendasi UNESCO, Organisasi Pendidikan , Ilmu Pengetahuan, dan Kebudayaan Perserikatan Bangsa-Bangsa, dengan jelas menyatakan bahwa "Perkembangan pesat kecerdasan buatan (AI) telah menciptakan banyak peluang secara global, mulai dari membantu diagnosis layanan kesehatan hingga memungkinkan koneksi manusia melalui media sosial dan menciptakan efisiensi tenaga kerja melalui tugas-tugas otomatis."
Namun, perubahan cepat ini juga menimbulkan kekhawatiran etika yang mendalam. Risiko-risiko yang terkait dengan AI tersebut telah mulai memperparah ketimpangan yang ada, yang menyebabkan kerugian lebih lanjut bagi kelompok-kelompok yang sudah dirugikan…”. Dan dari sana, “meminta UNESCO untuk mengembangkan perangkat untuk mendukung Negara-negara Anggota, termasuk Metodologi Penilaian Kesiapan, sebuah perangkat bagi pemerintah untuk membangun gambaran komprehensif tentang kesiapan mereka dalam menerapkan AI secara etis dan bertanggung jawab bagi seluruh warga negaranya.
Dalam pendekatan globalnya, UNESCO telah meluncurkan Observatorium Etika dan Tata Kelola AI Global, yang disebutnya "memberikan informasi tentang kesiapan negara-negara untuk mengadopsi AI secara etis dan bertanggung jawab. Observatorium ini juga menjadi tuan rumah Lab Etika dan Tata Kelola AI, yang menyatukan kontribusi, riset yang berdampak, perangkat, dan praktik positif terkait berbagai isu etika AI..."
Selain organisasi global seperti UNESCO, banyak asosiasi profesional juga berupaya mengembangkan kode etik mereka sendiri. Misalnya, IABC - Asosiasi Komunikasi Bisnis Internasional, sebuah asosiasi dengan ribuan anggota dari seluruh dunia, telah mengembangkan serangkaian prinsip yang memandu penggunaan AI secara etis oleh para profesional komunikasi. Prinsip ini bertujuan untuk memandu anggota IABC mengenai relevansi Kode Etik IABC dengan AI. Pedoman ini dapat diperbarui dan ditambah seiring perkembangan teknologi AI. Dalam rangkaian prinsip ini, terdapat banyak poin spesifik yang harus diikuti oleh seorang profesional komunikasi, seperti:
Sumber daya AI yang digunakan harus digerakkan oleh manusia untuk menciptakan pengalaman positif dan transparan yang menumbuhkan rasa hormat dan kepercayaan dalam profesi media. Penting untuk selalu mendapatkan informasi tentang peluang dan risiko profesional yang dihadirkan oleh perangkat AI. Penting untuk mengomunikasikan informasi secara akurat, objektif, dan adil. Perangkat AI dapat rentan terhadap banyak kesalahan, inkonsistensi, dan masalah teknis lainnya. Hal ini membutuhkan penilaian manusia untuk memverifikasi secara independen bahwa konten yang dihasilkan AI saya akurat, transparan, dan plagiarisme.
Melindungi informasi pribadi dan/atau rahasia orang lain dan tidak akan menggunakan informasi ini tanpa izin mereka. Mengevaluasi keluaran AI berdasarkan keterlibatan manusia dan pemahaman komunitas yang ingin dilayani. Menghilangkan bias semaksimal mungkin dan peka terhadap nilai-nilai budaya dan keyakinan orang lain.
Harus secara independen memeriksa fakta dan memverifikasi keluaran mereka sendiri dengan ketelitian profesional yang diperlukan untuk memastikan keakuratan dokumentasi, informasi, atau referensi pihak ketiga, memiliki atribusi dan verifikasi yang diperlukan, serta berlisensi atau berwenang untuk menggunakannya. Jangan mencoba menyembunyikan atau menyamarkan penggunaan AI dalam keluaran profesional mereka. Akui sifat sumber terbuka AI dan masalah terkait kerahasiaan, termasuk masuknya informasi palsu, menyesatkan, atau menipu...
Bagi perusahaan dan korporasi yang memiliki, mengembangkan, dan memperdagangkan perangkat AI, merekalah yang paling memahami seluk-beluk perangkat AI, mereka mengetahui algoritma dasar yang mendasari pengoperasian perangkat AI, dan data yang digunakan untuk melatih perangkat AI. Oleh karena itu, perusahaan-perusahaan ini juga perlu memberikan informasi terkait prinsip-prinsip Etika dalam pengembangan AI. Faktanya, ada perusahaan yang tertarik dengan isu ini.
Google berkomitmen untuk tidak mengembangkan perangkat AI di area yang berisiko tinggi menimbulkan bahaya, dan kami hanya akan melakukannya jika kami yakin manfaatnya jauh lebih besar daripada risikonya dan telah menerapkan perlindungan yang memadai. Senjata atau teknologi lain yang tujuan atau penggunaannya utama adalah untuk menyebabkan atau secara langsung memfasilitasi cedera manusia. Teknologi yang mengumpulkan atau menggunakan informasi untuk pengawasan yang melanggar norma-norma yang berlaku secara internasional. Teknologi yang tujuannya melanggar prinsip-prinsip hukum internasional dan hak asasi manusia yang berlaku umum.
Terkait keamanan dan keselamatan, Google berjanji: “Kami akan terus mengembangkan dan menerapkan langkah-langkah keamanan dan keselamatan yang kuat untuk menghindari hasil yang tidak diinginkan yang menimbulkan risiko bahaya. Kami akan merancang sistem AI kami agar cukup hati-hati dan berupaya mengembangkannya sesuai dengan praktik terbaik dalam penelitian keselamatan AI. Kami akan mengintegrasikan prinsip-prinsip privasi kami ke dalam pengembangan dan penggunaan teknologi AI kami. Kami akan menyediakan kesempatan untuk pemberitahuan dan persetujuan, mendorong arsitektur yang melindungi privasi, dan menyediakan transparansi serta kontrol yang sesuai atas penggunaan data.”
Serupa dengan Google, Microsoft juga mengeluarkan pernyataan tentang Prinsip dan Pendekatan AI, yang menekankan: "Kami berkomitmen untuk memastikan bahwa sistem AI dikembangkan secara bertanggung jawab dan dengan cara yang menjamin kepercayaan masyarakat...". Selain itu, dengan satu atau lain cara, perusahaan teknologi besar yang berinvestasi besar dalam pengembangan perangkat AI seperti Amazon dan OpenAI juga telah membuat komitmen mereka sendiri.
Banyak contoh dalam sejarah telah membuktikan dualitas teknologi, dengan faktor positif dan negatifnya. Bagaimanapun, meskipun merupakan platform teknologi yang sangat "berteknologi tinggi", AI tetap didasarkan pada algoritma dan data yang dikembangkan dan dikumpulkan oleh manusia; pada saat yang sama, sebagian besar produk AI merupakan bagian dari rencana bisnis perusahaan pemiliknya.
Oleh karena itu, selalu ada potensi risiko dari sisi teknis maupun dari tim pengembangan dan manajemen produk. Masalahnya di sini adalah skala dampak yang dapat ditimbulkan oleh perangkat AI terhadap mayoritas masyarakat, bahkan pada tingkat sosial-ekonomi suatu komunitas. Perhatian yang tepat waktu terhadap pengendalian etika dalam penggunaan teknologi AI merupakan pertanda baik, dengan partisipasi organisasi internasional berskala besar seperti Perserikatan Bangsa-Bangsa, pemerintah, asosiasi industri, dan yang terpenting, langsung di unit pengembangan teknologi.
Akan tetapi, seperti halnya daftar alat AI yang terus-menerus merilis versi baru, yang masing-masing lebih canggih dan kompleks daripada versi sebelumnya, Kode, Prinsip, atau Pedoman juga perlu diperbarui dan ditambah secara tepat waktu, dan terlebih lagi, perlu bersifat proaktif untuk mencegah, membatasi, dan mengendalikan unit pengembangan produk dan pengguna dalam suatu kerangka kerja di mana kemampuan untuk mematuhi Kontrol Etis dalam teknologi AI secara umum dan pekerja media secara khusus dapat mencapai efisiensi tertinggi.
[iklan_2]
Sumber
Komentar (0)