Kecerdasan buatan (AI) telah menjadi topik perbincangan terbesar dalam industri teknologi sejak OpenAI mengumumkan ChatGPT pada November 2022. Tidak lama kemudian, syarikat seperti Google, Meta, Microsoft… turut melabur banyak dalam usaha AI mereka sendiri.
Big Tech tidak segan silu tentang cita-cita AInya, tetapi sejak kebelakangan ini ia secara senyap-senyap menangani risiko yang ditimbulkan oleh teknologi kepada perniagaannya. Dalam laporan tahunan 2023nya, Alphabet, syarikat induk Google, berkata produk dan perkhidmatan AI menimbulkan cabaran etika, teknologi, undang-undang, kawal selia dan lain-lain yang boleh memberi kesan negatif kepada jenama dan permintaannya.

Menurut Bloomberg, Meta, Microsoft dan Oracle juga menyebut kebimbangan mengenai AI dalam pemfailan mereka dengan Suruhanjaya Sekuriti dan Bursa AS (SEC), selalunya di bawah bahagian "faktor risiko". Sebagai contoh, Microsoft berkata bahawa ciri AI generatif boleh terdedah kepada ancaman keselamatan yang tidak dijangka.
Dalam laporan tahunan Meta 2023, syarikat induk Facebook menegaskan bahawa "terdapat risiko besar yang berkaitan dengan pembangunan dan penggunaan AI," dan bahawa "tiada jaminan bahawa penggunaan AI akan meningkatkan perkhidmatan, produk atau operasi perniagaan." Meta menyenaraikan senario AI yang boleh membahayakan pengguna dan mendedahkan mereka kepada litigasi, seperti maklumat salah (seperti dalam pilihan raya), kandungan berbahaya, pelanggaran harta intelek dan privasi data.
Sementara itu, orang ramai juga menyatakan kebimbangan mengenai AI menjadikan beberapa pekerjaan usang atau hilang, atau model bahasa besar yang dilatih mengenai data peribadi yang menyebarkan maklumat salah.
Pada 4 Jun, sekumpulan bekas dan pekerja OpenAI semasa menghantar "surat niat" meminta syarikat teknologi melakukan lebih banyak untuk meminimumkan risiko AI. Mereka bimbang AI meningkatkan ketidaksamaan, manipulasi, maklumat salah dan sistem AI automatik yang tidak terkawal mengancam kelangsungan hidup manusia.
Sumber
Komen (0)