Perkembangan kecerdasan buatan generatif atau Gen-AI berlangsung sangat cepat dalam beberapa tahun terakhir. Teknologi ini masuk ke ruang kuliah, pemerintahan, perusahaan, hingga gawai pribadi. Banyak pihak melihat AI sebagai solusi baru untuk meningkatkan efisiensi dan menekan biaya. Namun di balik manfaatnya, terdapat persoalan mendasar yang perlu dipahami terutama dari sisi lingkungan, sosial, dan tata kelola publik. Kajian MIT Generative AI Impact Consortium menyebutkan bahwa Gen-AI bukan sekadar alat digital yang netral. Teknologi ini memiliki jejak energi, dampak ekologis, serta implikasi kebijakan yang nyata. Tanpa tata kelola yang jelas, pertumbuhan AI dapat menciptakan risiko yang lebih besar daripada manfaat yang ingin dicapai.
Pelaku industri digital, startup, hingga sebagian pembuat kebijakan menganggap bahwa penggunaan AI adalah aktivitas digital yang ringan tanpa dampak fisik. Narasi bahwa “semua ada di cloud” menimbulkan persepsi keliru seolah-olah penggunaan AI tidak memiliki biaya energi. Faktanya, setiap permintaan ke AI diproses oleh ribuan GPU di data center. Proses ini memerlukan energi besar dan pendinginan berbasis air. MIT mencatat bahwa konsumsi energi terbesar justru berasal dari penggunaan harian (inference), bukan dari pelatihan model. Jika penggunaan terus meningkat, tekanan terhadap sistem kelistrikan dan target transisi energi menjadi persoalan penting.
Gen-AI memang mempermudah pekerjaan manusia, namun kemudahan ini justru mendorong penggunaan yang semakin luas, bahkan untuk tugas sederhana seperti menulis email, membuat catatan rapat, atau menyusun paragraf. Fenomena ini dikenal sebagai efek rebound. Jika tidak disertai kesadaran pengguna, AI dapat melemahkan kemampuan berpikir kritis dan analitis. Pengguna menjadi terlalu bergantung pada AI, sehingga proses verifikasi manual menjadi jarang dilakukan. Ketika terjadi kesalahan sistemik, dampaknya bisa luas karena manusia tidak lagi terbiasa melakukan pengecekan secara mandiri. Pun demikian, AI juga sering digambarkan sebagai alat yang objektif. Padahal model bahasa besar dibangun dari data internet yang sarat bias. Proses penyaringan bias yang dilakukan perusahaan pun tidak sepenuhnya netral. Apa yang dianggap “bias”, “harmful”, atau “kurang layak” sering kali dipengaruhi preferensi sosial, ekonomi, dan politik dari pihak yang mengembangkan model.
MIT menegaskan bahwa AI tidak pernah benar-benar netral. Dalam konteks kebijakan publik, ketidaktransparanan model dapat menghasilkan keputusan yang tidak adil. Tanpa standar yang jelas, AI berpotensi memperkuat ketimpangan atau menimbulkan bias baru.
Produktivitas atau Beban Kerja Baru?
Di sisi yang lain, AI sering dipromosikan sebagai alat yang meningkatkan produktivitas. Namun di banyak institusi, kenyataan tidak selalu seideal itu. AI memang menghasilkan jawaban cepat, tetapi tidak selalu akurat. Kesalahan-kesalahan ini kemudian harus diperbaiki oleh manusia. MIT menyebut fenomena ini sebagai “degradasi kerja”: manusia justru menghabiskan waktu untuk memperbaiki output mesin. Alih-alih menambah waktu untuk berpikir strategis, beban kerja berubah menjadi proses verifikasi dan koreksi. Jika penggunaan AI diwajibkan tanpa pelatihan yang memadai, kualitas kerja dapat menurun.
AI Dalam Konteks Pengambilan Kebijakan Publik
Dengan percepatan adopsi AI, banyak negara mulai menggunakan teknologi ini dalam berbagai fungsi pemerintahan: pelayanan publik, manajemen risiko, distribusi bantuan sosial, hingga pengawasan administrasi. Namun penggunaan ini juga memunculkan kritik karena sebagian instansi belum memiliki pedoman etika yang jelas.
Di Inggris, misalnya, beberapa instansi publik menggunakan AI dalam proses triase, prediksi permintaan layanan, hingga otomasi administrasi. Dalam administrasi perpajakan misalnya, HM Revenue & Customs (HMRC), otoritas perpajakan di Inggris menggunakan sistem HMRC Connect, sebuah platform analitik besar yang menggabungkan berbagai sumber data seperti: data perbankan, kepemilikan properti, transaksi marketplace, data internal HMRC, dan catatan publik dan komersial lainnya. Connect dirancang untuk mendeteksi ketidakpatuhan dan potensi fraud PPN. Dalam beberapa tahun terakhir, HMRC mulai mengintegrasikan machine learning untuk melakukan risk scoring dan mengirimkan nudges kepada wajib pajak yang diprediksi rawan melakukan kesalahan. Model ini meningkatkan efektivitas pengawasan. Laporan publik bahkan menunjukkan bahwa data yang diproses Connect berkontribusi pada peningkatan penerimaan pajak miliaran pound setiap tahun. Namun isu besar muncul: transparansi algoritma. Banyak wajib pajak tidak mengetahui bagaimana skor risiko mereka dihasilkan atau data apa yang memengaruhi penilaian. Ketidakjelasan ini menimbulkan kekhawatiran bahwa model dapat menghasilkan false positives, terutama terhadap usaha kecil atau individu dengan pola transaksi yang tidak standar.
Selain Inggris, beberapa negara maju lain juga mulai mengadopsi teknologi serupa. Australian Taxation Office (ATO) menggunakan analisis data dan model machine learning untuk mendeteksi pola klaim pengurang pajak yang tidak wajar serta mengidentifikasi pengajuan refund individu yang berpotensi manipulatif. Sementara itu, Canada Revenue Agency (CRA) memakai prediktif analytics untuk menandai klaim manfaat sosial dan kredit pajak berisiko tinggi, sehingga proses verifikasi dapat diprioritaskan secara lebih efisien. Meskipun tidak melakukan otomasi penuh, kedua negara ini menekankan pentingnya human review dan mekanisme koreksi untuk mencegah salah sasaran.
Pelajaran Penting bagi Indonesia
Dari pengalaman beberapa negara maju di atas, terdapat sejumlah pelajaran strategis antara lain:
- AI dapat memperluas kapasitas pengawasan pajak, tetapi tidak boleh menggantikan pengawasan manusia
- Transparansi algoritma harus menjadi standar, agar wajib pajak mengetahui dasar keputusan.
- Bias algoritmik harus diuji secara berkala, terutama untuk melindungi UMKM dan kelompok rentan.
- Mekanisme keberatan wajib diperkuat, agar kesalahan model tidak merugikan wajib pajak.
- Penggunaan AI di perpajakan menyangkut legitimasi dan kepercayaan publik, bukan sekadar efisiensi teknis.
Menumbuhkan Gen-AI yang Bertanggung Jawab
Untuk memastikan adopsi AI yang aman dan berkelanjutan, Indonesia memerlukan kerangka evaluasi benefit–cost yang jelas. Kerangka ini harus menilai dampak energi dan lingkungan, kebutuhan regulasi baru, implikasi sosial, dan mengetahui apa manfaat ekonomi jangka panjang.
Kembali lagi ke kajian yang dibuat oleh MIT yang menyebut pentingnya pendekatan slow urgency, bergerak cepat tetapi tetap berhati-hati. Semakin awal praktik bertanggung jawab diterapkan, semakin kecil biaya perbaikan di masa depan.
Indonesia berada pada fase kunci dalam adopsi AI. Namun hingga kini belum tersedia kerangka komprehensif yang mengatur: jejak energi data center, standar akuntabilitas algoritma, perlindungan data pribadi, mekanisme keberatan, serta penggunaan AI di sektor publik. Negara lain mulai menerapkan prinsip human-in-the-loop dan standar “Green AI”. Indonesia dapat mengambil langkah serupa agar perkembangan AI tetap selaras dengan tujuan pembangunan nasional. Gen-AI membawa peluang besar, tetapi juga risiko yang nyata. Kita perlu memahami beban energi, ketergantungan teknologi, bias algoritmik, serta implikasinya bagi tata kelola publik. Pengalaman negara maju menunjukkan bahwa AI dapat memberikan manfaat besar, tetapi hanya jika digunakan dengan kehati-hatian dan pengawasan yang kuat.
Dengan kebijakan yang tepat, AI dapat memperkuat tata kelola publik dan mendukung pembangunan nasional. Tanpa tata kelola yang memadai, teknologi ini berpotensi menciptakan beban baru bagi masyarakat. Pilihan kebijakan hari ini akan menentukan arah perkembangan AI Indonesia ke depan, apakah menjadi alat kemajuan atau sumber masalah baru.