Kecerdasan buatan (AI) telah menjadi topik diskusi terbesar di industri teknologi sejak OpenAI mengumumkan ChatGPT pada November 2022. Tak lama kemudian, perusahaan seperti Google, Meta, Microsoft… juga berinvestasi besar dalam upaya AI mereka sendiri.
Big Tech telah terbuka tentang ambisinya di bidang AI, tetapi belakangan ini diam-diam membahas risiko yang ditimbulkan teknologi tersebut terhadap bisnisnya. Dalam laporan tahunan 2023, Alphabet, perusahaan induk Google, menyatakan bahwa produk dan layanan AI menimbulkan tantangan etika, teknologi, hukum, regulasi, dan tantangan lainnya yang dapat berdampak negatif pada merek dan permintaannya.

Meta, Microsoft, dan Oracle juga menyebutkan kekhawatiran tentang AI dalam pengajuan mereka kepada Komisi Sekuritas dan Bursa AS (SEC), yang seringkali berada di bagian "faktor risiko", menurut Bloomberg. Misalnya, Microsoft menyatakan bahwa fitur AI generatif dapat rentan terhadap ancaman keamanan yang tak terduga.
Dalam laporan tahunan Meta tahun 2023, perusahaan induk Facebook menekankan bahwa "terdapat risiko signifikan yang terkait dengan pengembangan dan penerapan AI," dan bahwa "tidak ada jaminan bahwa penggunaan AI akan meningkatkan layanan, produk, atau bisnis." Meta mencantumkan skenario AI yang dapat merugikan pengguna dan membuat mereka rentan terhadap litigasi, seperti disinformasi (seperti dalam pemilu), konten berbahaya, pelanggaran hak kekayaan intelektual, dan privasi data.
Sementara itu, publik juga mengungkapkan kekhawatiran tentang AI yang membuat beberapa pekerjaan menjadi usang atau hilang, atau model bahasa besar yang dilatih pada data pribadi menyebarkan informasi yang salah.
Pada tanggal 4 Juni, sekelompok mantan dan karyawan OpenAI yang masih bekerja mengirimkan "surat pernyataan" yang meminta perusahaan teknologi untuk berbuat lebih banyak guna mengurangi risiko AI. Mereka khawatir bahwa AI akan meningkatkan kesenjangan, manipulasi, misinformasi, dan bahwa sistem AI otomatis yang tidak terkendali akan mengancam kelangsungan hidup umat manusia.
Sumber
Komentar (0)