JAKARTA - Artificial Intelligence (AI) semakin memasuki ruang-ruang kehidupan masyarakat Indonesia—dari ruang kelas, kantor, hingga media sosial. Namun, di balik antusiasme terhadap kemajuan teknologi ini, suara publik yang sarat kekhawatiran terus menggema. Hasil survei nasional dari Sharing Vision terhadap lebih dari 5.000 responden memperlihatkan bahwa 71 persen masyarakat merasa cemas akan potensi ketergantungan berlebihan pada AI. Kekhawatiran ini menandakan bahwa masyarakat belum sepenuhnya siap menyambut kehadiran AI sebagai bagian dari kehidupan sehari-hari.
Bagaimana kita bisa merespons kecemasan ini dengan tepat? Salah satu jalan keluarnya adalah memperkuat kemampuan reflektif dan kognitif individu sebelum menerima rekomendasi dari sistem AI. Studi dari Zana Buçinca dan koleganya menggarisbawahi pentingnya cognitive forcing functions—seperti penggunaan checklist, jeda kognitif, dan intervensi yang disengaja—yang terbukti secara signifikan menurunkan kecenderungan ketergantungan terhadap AI. Meski beberapa pengguna merasa pengalaman menjadi kurang nyaman, metode ini justru mendorong pengguna untuk berpikir lebih hati-hati dan tidak langsung menerima begitu saja hasil dari sistem otomatis.
Dalam konteks pengambilan keputusan yang kompleks, pendekatan trust adaptive interventions yang dikembangkan oleh Tejas Srinivasan dan Jesse Thomason memperlihatkan hasil menjanjikan. Dengan menambahkan jeda otomatis atau menyajikan kontra-alternatif ketika tingkat kepercayaan pengguna terlalu tinggi atau rendah, pendekatan ini mampu mengurangi kesalahan hingga 38 persen dan meningkatkan akurasi keputusan sebanyak 20 persen.
- Baca Juga Wisata Seru Dekat Stasiun Wonogiri
Kekhawatiran akan dampak negatif AI juga terasa kuat dalam dunia pendidikan. Studi dari Chunpeng Zhai, Santoso Wibowo, dan Lily D. Li menunjukkan bahwa penggunaan AI yang berlebihan dalam sistem pembelajaran menyebabkan penurunan kemampuan berpikir kritis dan meningkatnya fenomena learned helplessness. Oleh karena itu, mereka mendorong pentingnya strategi pendidikan yang menumbuhkan literasi data, refleksi kritis, dan keterampilan metakognitif agar AI dapat menjadi fasilitator pembelajaran, bukan pengganti guru.
Sementara itu, dalam ranah klinis, studi oleh Min Hun Lee dan Chong Jun Chew mengemukakan bahwa pemberian counterfactual explanations—penjelasan yang menggambarkan bagaimana hasil akan berbeda jika kondisi berubah—dapat mengurangi ketergantungan pada sistem AI hingga 21 persen, jauh lebih efektif dibandingkan dengan hanya menyajikan penjelasan fitur. Ini menunjukkan pentingnya memberikan informasi alternatif dan ketidakpastian untuk meningkatkan kemampuan pengguna dalam mengkritisi keputusan AI.
Panduan-panduan global seperti yang disampaikan oleh World Economic Forum dan MIT Sloan pun menegaskan pentingnya literasi AI sebagai bagian dari budaya digital masyarakat. Individu perlu dibekali kemampuan mengenali bias, mengevaluasi kredibilitas sumber, dan memperlakukan AI sebagai mitra berpikir, bukan sebagai penentu akhir. Pendekatan skeptis juga disarankan, salah satunya dengan prinsip "distrust and verify": anggap bahwa semua output AI berpotensi salah sampai terbukti benar. Tokoh seperti Meredith Broussard dan Simon Willison menyebut pendekatan ini sebagai kunci untuk menghindari efek automation bias.
Namun, ketergantungan bukan satu-satunya kekhawatiran publik Indonesia terhadap AI. Survei Sharing Vision mencatat berbagai kecemasan lain: 66 persen takut pada potensi kebocoran dan penyalahgunaan data pribadi, sementara 51 persen khawatir terhadap penyebaran informasi palsu oleh AI, seperti deepfake dan hoaks. Sebanyak 43 persen merasa AI dapat mengurangi kreativitas manusia, 39 persen menyoroti potensi penyalahgunaan AI untuk tujuan merugikan, dan 36 persen mengungkapkan ketakutan kehilangan pekerjaan karena otomatisasi. Kekhawatiran lainnya termasuk sulitnya membedakan konten buatan AI dan manusia (31 persen), ketidakadilan dalam keputusan berbasis AI (21 persen), serta kurangnya transparansi sistem AI (17 persen).
Tingginya angka kekhawatiran ini menunjukkan bahwa kesiapan masyarakat dan institusi Indonesia belum sejalan dengan cepatnya laju adopsi teknologi AI. Meski sudah ada UU Perlindungan Data Pribadi (PDP), implementasinya masih menemui kendala, termasuk terbatasnya kapasitas lembaga pengawas, rendahnya kepatuhan sektor swasta, serta ketiadaan kerangka hukum khusus yang mengatur AI secara menyeluruh dan etis.
Belum adanya standar nasional terkait AI, serta lambatnya proses legislasi, membuat berbagai risiko seperti diskriminasi algoritmik, penyalahgunaan data, dan ketidakadilan dalam keputusan berbasis AI, masih sulit diatasi secara sistemik. Sementara itu, sebagian besar lembaga di Indonesia belum mengadopsi standar internasional seperti NIST AI Risk Management Framework atau ISO/IEC 42001. Padahal, standar tersebut penting agar sistem AI tidak hanya aman, tetapi juga transparan, bisa diaudit, dan dapat dijelaskan.
Di tengah tantangan regulasi dan pengawasan, tantangan yang paling krusial justru berasal dari kesiapan manusia. AI yang terlalu mudah digunakan bisa melemahkan kreativitas dan kemampuan berpikir mendalam. Di sinilah pentingnya transformasi pendidikan nasional yang tidak hanya mengajarkan cara memakai teknologi, tetapi juga mengembangkan kemampuan etis, reflektif, dan kritis dalam penggunaannya. Pendidikan harus memastikan bahwa AI bukan menggantikan guru atau dosen, melainkan menjadi "copilot" yang mempercepat proses pembelajaran dan memperkaya pengalaman intelektual.
Hal yang sama berlaku di dunia kerja. Perusahaan perlu menyelenggarakan pelatihan berkelanjutan yang membekali karyawan dengan pemahaman tentang AI, etika penggunaannya, dan dampaknya pada pengambilan keputusan strategis. AI harus ditempatkan sebagai alat bantu, bukan sebagai pengambil keputusan utama.
Sudah waktunya mengubah pandangan bahwa AI adalah kotak hitam yang misterius. Banyak sistem AI saat ini telah dilengkapi fitur explainability dan alat audit untuk menelusuri logika di balik keputusan yang dihasilkan. Namun, fitur tersebut hanya bermanfaat jika pengguna aktif dalam proses evaluasi dan pengujian. Uji bias, uji fairness, serta simulasi terhadap kemungkinan penyalahgunaan harus menjadi bagian dari prosedur standar setiap kali AI diterapkan, baik di sektor publik maupun swasta.
Dalam menghadapi gelombang AI, Indonesia perlu membangun strategi yang tidak hanya reaktif, tetapi juga reflektif dan proaktif. Regulasi harus diperkuat, pengawasan harus ditingkatkan, tata kelola AI perlu diterapkan secara menyeluruh, dan pendidikan harus membentuk generasi yang bijak, cakap, dan sadar akan tanggung jawabnya. AI adalah alat—dan kebermanfaatannya akan sangat tergantung pada cara manusia menggunakannya.