Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Memantau "rantai pemikiran" kecerdasan buatan

(Dan Tri) - Lebih dari 40 ilmuwan dari OpenAI, Google DeepMind, Anthropic dan Meta secara kolektif menyerukan penelitian lebih lanjut tentang teknik pemantauan "rantai pemikiran" model AI.

Báo Dân tríBáo Dân trí31/07/2025

Hal ini dianggap sebagai peluang yang rapuh namun penting untuk memastikan keamanan penerapan AI di masa mendatang. Hal ini terutama berarti mengingat Vietnam baru saja mengesahkan Undang-Undang Industri Teknologi Digital dengan regulasi terperinci tentang manajemen kecerdasan buatan (AI).

“Jendela kesempatan” semakin menyempit

Peneliti OpenAI Bowen Baker menyampaikan bahwa dalam makalah bersama baru-baru ini, para peneliti memperingatkan bahwa kemampuan AI untuk memantau "pikiran" dapat hilang tanpa upaya penelitian yang terfokus.

Hal ini terutama penting karena model AI menjadi semakin canggih dan berpotensi memberi dampak serius pada masyarakat.

Fitur utama dari model penalaran AI seperti o-3 milik OpenAI dan R1 milik DeepSeek adalah “rantai pemikiran” ( CoT) — proses di mana AI mengekspresikan langkah-langkah penalarannya dalam bahasa alami, mirip dengan cara manusia menuliskan setiap langkah soal matematika di kertas coretan.

Kemampuan ini memberi kita pandangan langka tentang bagaimana AI membuat keputusan.

Ini menandai momen persatuan yang langka di antara banyak pemimpin industri AI untuk memajukan penelitian tentang keamanan AI.

Hal ini khususnya relevan mengingat persaingan yang ketat antar perusahaan teknologi dalam mengembangkan AI. Para penandatangan terkemuka dalam makalah ini antara lain Mark Chen, Direktur Riset OpenAI, Ilya Sutskever, CEO Safe Superintelligence, pemenang Hadiah Nobel Geoffrey Hinton, salah satu pendiri Google DeepMind, Shane Legg, dan penasihat keamanan xAI, Dan Hendrycks.

Keterlibatan nama-nama besar ini menunjukkan pentingnya isu ini.

Menurut penilaian Bapak Bowen Baker, "Kita berada di momen kritis ketika muncul apa yang disebut 'rantai pemikiran' baru yang mungkin akan hilang dalam beberapa tahun mendatang jika orang-orang tidak benar-benar memperhatikannya."

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 1

Mengapa pemantauan “pemikiran AI” penting?

Sistem AI saat ini sering dilihat sebagai “kotak hitam” – kita mengetahui masukan dan keluarannya tetapi tidak memahami proses pengambilan keputusan di dalamnya.

Ini akan menjadi berbahaya ketika AI diterapkan di bidang-bidang penting seperti Kesehatan , Keuangan, dan Keamanan Nasional.

Pemantauan CoT adalah sistem otomatis yang membaca rantai penalaran model mental dan informasi relevan lainnya untuk menandai interaksi yang mencurigakan atau berpotensi membahayakan. Ini bukanlah solusi yang lengkap, tetapi dapat menjadi lapisan perlindungan keamanan yang berharga.

Penelitian dari OpenAI menunjukkan bahwa model AI cenderung sangat eksplisit tentang maksud mereka dalam urutan pemikiran mereka.

Misalnya, mereka sering kali sangat eksplisit tentang rencana mereka untuk menyabotase sebuah misi ketika mereka berpikir, "Ayo kita retas." Hal ini menunjukkan kemampuan AI untuk memantau dan mendeteksi perilaku buruk.

“Ayo retas” adalah frasa yang sering “dipikirkan” oleh model AI ketika “mereka” bermaksud menyabotase atau menghindari aturan selama pelaksanaan suatu tugas.

Fakta bahwa AI menunjukkan niat "meretas" dalam proses berpikirnya menunjukkan bahwa kita dapat mendeteksi perilaku buruk AI sebelum terjadi. Inilah mengapa memantau proses berpikir itu penting.

Dengan kata lain, “ayo retas” bagaikan “sinyal peringatan” bagi manusia bahwa AI akan melakukan kesalahan.

Vietnam dan peraturan hukum tentang AI

Faktanya, Vietnam telah membuat langkah penting dalam membangun kerangka hukum untuk AI.

Pada tanggal 14 Juni, Majelis Nasional Vietnam mengesahkan Undang-Undang tentang Industri Teknologi Digital, yang Bab IV-nya berisi peraturan terperinci tentang kecerdasan buatan - salah satu kerangka hukum terlengkap tentang AI di Asia Tenggara saat ini.

Pasal 41 Undang-Undang tersebut menetapkan prinsip-prinsip dasar untuk pengembangan, penyediaan dan penyebaran AI di Vietnam.

Khususnya pada poin b, klausul 1 menyatakan: “Pastikan adanya transparansi, akuntabilitas, dan penjelasan; pastikan tidak melampaui kendali manusia”.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 2

Majelis Nasional mengesahkan Undang-Undang tentang Industri Teknologi Digital (Foto: Nhat Bac).

Inilah prinsip-prinsip yang diminta oleh para ilmuwan internasional saat membahas pengawasan berantai AI.

Selain itu, Poin d, Klausul 1, Pasal 41 menetapkan: “Memastikan kemampuan untuk mengendalikan algoritma dan model kecerdasan buatan”. Hal ini sepenuhnya konsisten dengan semangat pengawasan CoT yang diusulkan oleh para ahli internasional.

Yang lebih penting lagi, Pasal 41, Klausul 1, Poin a juga menetapkan standar etika yang tinggi ketika menetapkan bahwa AI harus “melayani kesejahteraan dan kebahagiaan manusia, dengan manusia sebagai pusatnya”.

Artinya, pemantauan rantai pemikiran AI bukan sekadar persyaratan teknis, melainkan kewajiban etis – memastikan AI selalu diarahkan untuk kemanfaatan manusia, bukan untuk tujuan mesin itu sendiri.

Klasifikasikan dan kelola AI berdasarkan tingkat risiko

Hukum Industri Teknologi Digital Vietnam telah melangkah lebih jauh dengan mengklasifikasikan AI ke dalam berbagai kelompok risiko dengan definisi yang jelas dan ilmiah.

Pasal 43 mendefinisikan “sistem kecerdasan buatan berisiko tinggi” sebagai sistem yang mungkin menimbulkan risiko serius atau membahayakan kesehatan manusia, hak asasi manusia, dan ketertiban umum.

Menariknya, Undang-Undang tersebut memberikan pengecualian khusus untuk AI berisiko tinggi, termasuk sistem yang “dimaksudkan untuk membantu manusia dalam mengoptimalkan hasil kerja” dan “tidak dimaksudkan untuk menggantikan pengambilan keputusan manusia.”

Hal ini menunjukkan pola pikir yang seimbang antara mendorong inovasi dan memastikan keselamatan.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 3

Mengklasifikasikan AI berdasarkan tingkat risiko akan membantu menciptakan sistem pemantauan berlapis-lapis (Ilustrasi: LinkedIn).

Secara khusus, membedakan antara “AI berisiko tinggi” dan “AI berdampak tinggi” (sistem yang digunakan untuk berbagai tujuan, dengan jumlah pengguna yang besar) menunjukkan pendekatan yang halus.

Ini adalah klasifikasi yang lebih progresif daripada Undang-Undang Kecerdasan Buatan Uni Eropa (UE), yang tidak hanya mempertimbangkan tingkat risiko tetapi juga skala dan cakupan dampak.

Klasifikasi ini akan membantu menciptakan sistem pengawasan berlapis-lapis, di mana pengawasan rantai kesadaran akan sangat penting untuk sistem AI berisiko tinggi dan berdampak tinggi.

Platform untuk Pengawasan AI

Salah satu hal yang menonjol dan menjadi ciri perintis Undang-Undang Industri dan Teknologi Digital Vietnam adalah persyaratan mengenai transparansi dan tanda pengenal.

Pasal 44 menetapkan bahwa sistem AI yang berinteraksi langsung dengan manusia harus memberi tahu pengguna bahwa mereka sedang berinteraksi dengan sistem AI. Sementara itu, produk yang dibuat dengan AI harus memiliki tanda pengenal.

Hal ini memiliki implikasi penting bagi implementasi pengawasan CoT. Ketika pengguna tahu bahwa mereka berinteraksi dengan AI, mereka berhak menuntut penjelasan tentang proses pengambilan keputusan, menciptakan tekanan positif bagi pengembang AI untuk tetap dapat memantau proses berpikir AI.

Khususnya, fakta bahwa Kementerian Sains dan Teknologi diberi tanggung jawab untuk "menerbitkan Daftar produk teknologi digital yang dihasilkan oleh kecerdasan buatan" menunjukkan manajemen proaktif.

Ini adalah perbedaan penting dari banyak negara lain, di mana regulasi AI seringkali lebih umum.

Lebih jauh lagi, persyaratan pengenal “untuk pengenalan manusia atau mesin” merupakan gambaran ekosistem AI yang dapat mengawasi dirinya sendiri—yang sangat sesuai dengan gagasan pengawasan rantai pikiran otomatis.

Model manajemen yang komprehensif

Pasal 45 Undang-Undang di atas menunjukkan filosofi manajemen progresif ketika secara jelas mendefinisikan tanggung jawab 3 kelompok subjek menurut siklus hidup produk AI: Subjek yang mengembangkan, subjek yang menyediakan, dan subjek yang menyebarkan dan menggunakan sistem AI.

Hal ini menciptakan sistem akuntabilitas menyeluruh yang lancar, memastikan bahwa pengawasan AI bukan hanya menjadi tanggung jawab satu pihak.

Perlu dicatat, terdapat perbedaan tipis antara “pengembangan” dan “penyediaan” AI; pengembang adalah mereka yang “meneliti dan mengembangkan”, sementara penyedia adalah mereka yang memasarkannya dengan nama merek.

Artinya, meskipun sebuah perusahaan hanya mengubah citra model AI yang sudah ada, mereka tetap bertanggung jawab atas transparansi dan kemudahan menjelaskan.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 4

Yang menarik di sini adalah bagaimana hukum mengalokasikan tanggung jawab yang berbeda pada setiap subjek.

Pengembang harus mematuhi semua prinsip, penyedia harus mengambil tanggung jawab tambahan untuk identifikasi dan manajemen risiko tinggi, dan pengguna “dikecualikan” dari sebagian tanggung jawab tetapi tetap harus memastikan transparansi dan pengendalian risiko.

Model ini menciptakan “rantai tanggung jawab” di mana setiap tautan memiliki insentif untuk mempertahankan pengawasan terhadap rantai pemikiran AI, karena semuanya bertanggung jawab kepada pengguna akhir.

Tantangan dalam mempertahankan kemampuan pengawasan

Namun, kemampuan untuk memantau rantai pemikiran AI mungkin masih rapuh dan rentan. Arsitektur AI baru juga dapat menimbulkan ancaman lain.

Banyak peneliti yang mengembangkan sistem penalaran dalam ruang matematika yang berkesinambungan, alih-alih kata-kata diskret, yang dapat sepenuhnya menghilangkan kebutuhan untuk menggunakan bahasa dalam berpikir.

Lebih jauh lagi, AI bisa menjadi “tersaring” — yaitu, ia hanya menunjukkan pikiran-pikiran positif kepada manusia untuk dihargai, sementara dengan sengaja menyembunyikan niat sebenarnya.

Bahayanya di sini adalah begitu AI menyadari ia tengah dipantau, ia dapat belajar menyembunyikan alur pemikirannya yang sebenarnya.

Dalam konteks ini, ketentuan tentang "pengendalian risiko sepanjang siklus hidup sistem kecerdasan buatan" dalam Poin e, Klausul 1, Pasal 41 Undang-Undang Vietnam menjadi sangat penting. Hal ini membutuhkan mekanisme pemantauan yang berkelanjutan, tidak hanya pada saat penerapan.

Dampak terhadap masa depan pengembangan AI

Memantau rantai pemikiran dapat menjadi alat penting untuk memastikan AI beroperasi dengan cara yang menguntungkan manusia.

Jika model terus bernalar dalam bahasa alami dan jika perilaku yang menimbulkan risiko paling serius memerlukan penalaran yang ekstensif, praktik ini dapat memungkinkan deteksi pelanggaran serius yang andal.

Bagi Vietnam, penerapan teknik pemantauan CoT akan membantu penerapan ketentuan hukum secara efektif.

Misalnya, persyaratan "dapat dijelaskan" dalam Pasal 41 akan lebih mudah dipenuhi jika proses berpikir AI dapat diakses. Demikian pula, "kendali algoritma, model kecerdasan buatan" akan menjadi lebih layak.

Implementasi pemantauan rantai AI di Vietnam akan menghadapi sejumlah tantangan. Pertama, masalah sumber daya manusia—kekurangan pakar AI yang mampu mengembangkan dan mengoperasikan sistem pemantauan.

Hal ini memerlukan investasi besar dalam pelatihan dan daya tarik bakat.

Arah untuk masa depan

Para peneliti mendesak para pengembang model AI terkemuka untuk meneliti faktor-faktor apa yang membuat CoT “dapat dipantau” dan faktor-faktor apa yang dapat meningkatkan atau menurunkan transparansi tentang cara kerja model AI, serta segera menemukan jawabannya.

Kesempatan untuk memantau "pemikiran" AI mungkin merupakan jendela terakhir kita untuk mempertahankan kendali atas sistem kecerdasan buatan yang semakin canggih saat ini.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 5

Bagi Vietnam, memiliki kerangka hukum yang komprehensif tentang AI melalui Undang-Undang Industri Teknologi Digital merupakan keuntungan besar. Peraturan tentang transparansi, kontrol algoritmik, dan klasifikasi risiko telah menciptakan landasan hukum yang kuat untuk menerapkan teknik pemantauan rantai pemikiran AI.

Menggabungkan penelitian internasional mutakhir dan kerangka hukum domestik yang progresif akan membantu Vietnam tidak hanya mengembangkan AI dengan aman tetapi juga menjadi model bagi negara-negara lain di kawasan tersebut.

Hal ini sejalan dengan tujuan menjadikan Vietnam sebagai “pusat teknologi digital regional dan global” sebagaimana tercantum dalam strategi pembangunan nasional.

Dengan landasan hukum yang ada, Vietnam perlu segera menerapkan riset dan aplikasi praktis dalam pemantauan rantai pemikiran AI. Hanya dengan demikian, kita dapat memastikan bahwa AI akan melayani "kemakmuran dan kebahagiaan manusia" sebagaimana diarahkan oleh semangat Undang-Undang Industri Teknologi Digital.

Sumber: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm


Komentar (0)

No data
No data

Dalam topik yang sama

Dalam kategori yang sama

Jet tempur Su-30-MK2 jatuhkan peluru pengacau, helikopter mengibarkan bendera di langit ibu kota
Puaskan mata Anda dengan jet tempur Su-30MK2 yang menjatuhkan perangkap panas yang bersinar di langit ibu kota
(Langsung) Gladi bersih perayaan, pawai, dan pawai Hari Nasional 2 September
Duong Hoang Yen menyanyikan "Tanah Air di Bawah Sinar Matahari" secara a cappella yang menimbulkan emosi yang kuat

Dari penulis yang sama

Warisan

Angka

Bisnis

No videos available

Berita

Sistem Politik

Lokal

Produk