Yayasan Tifa Desak Pengaturan Safeguard AI di Sektor Publik: Risiko Nyata, Regulasi Belum Siap

27/02/2026
Caption: Sesi Diskusi Panel: Perwakilan Himpunan Wanita Disabilitas Indonesia (HWDI) tengah memberikan tanggapan kepada panelis. bertajuk “Pengendalian dan Pengawasan AI di Sektor Publik: Regulasi, Risiko, dan Mitigasi” yang diselenggarakan Yayasan Tifa di Jakarta (19/2). Kredit Foto: Yayasan Tifa

Jakarta, – Pemanfaatan kecerdasan artifisial (Artificial Intelligence/AI) di sektor publik Indonesia berkembang pesat, namun belum diimbangi dengan mekanisme pengawasan dan pelindungan yang memadai. Yayasan Tifa menilai bahwa tanpa regulasi yang jelas dan sistem akuntabilitas yang kuat, penggunaan AI berpotensi menimbulkan risiko serius terhadap hak warga negara—terutama kelompok rentan.

Hal tersebut mengemuka dalam diskusi multipihak bertajuk “Pengendalian dan Pengawasan AI di Sektor Publik: Regulasi, Risiko, dan Mitigasi” yang diselenggarakan Yayasan Tifa di Jakarta (19/2). Diskusi terbatas ini menghadirkan perwakilan Kementerian Komunikasi dan Digital (Komdigi), Gugus Tugas Pokja Etika AI, akademisi hukum, serta organisasi masyarakat sipil untuk membahas rekomendasi pengaturan pelindungan (safeguard) yang dirumuskan Yayasan Tifa.

Caption: Sesi Diskusi Panel multipihak bertajuk “Pengendalian dan Pengawasan AI di Sektor Publik: Regulasi, Risiko, dan Mitigasi” yang diselenggarakan Yayasan Tifa di Jakarta (19/2). Diskusi terbatas ini menghadirkan perwakilan Kementerian Komunikasi dan Digital (Komdigi), Gugus Tugas Pokja Etika AI, akademisi hukum, serta organisasi masyarakat sipil untuk membahas rekomendasi pengaturan pelindungan (safeguard) yang dirumuskan Yayasan Tifa.

Risiko AI dan Kelompok Rentan

Tren penerapan AI di sektor publik—mulai dari kesehatan, pendidikan, penegakan hukum, ketenagakerjaan, hingga tata kelola birokrasi—memang menjanjikan efisiensi dan peningkatan kualitas layanan. Namun, penggunaan AI dalam pengambilan keputusan publik juga menyimpan risiko tinggi.

Risiko tersebut terutama berdampak pada kelompok rentan yang tidak terwakili secara proporsional dalam dataset atau yang masih menghadapi hambatan akses terhadap teknologi digital.

“Untuk mengendalikan risiko tersebut, Yayasan Tifa merekomendasikan pengaturan pelindungan yang berfokus pada tiga hal: pertama, pengetatan tanggung jawab pemerintah sebagai pengguna AI di layanan publik; kedua, penggunaan mekanisme penilaian dampak dan risiko berbasis hak asasi manusia; dan ketiga, penyediaan saluran aduan serta prosedur pemulihan yang aksesibel dan responsif,” ujar Debora I.C., Project Manager Data Policy and Governance Yayasan Tifa.

Foto Bersama Panelis (dari kiri): Indriyatno Banyumurti, Sekretaris Pokja Etika, Gugus Tugas AI; Direktur Eksekutif, ICT Watch – Moderator; Dr. iur. Sih Yuliana Wahyuningtyas, S.H., M.Hum, Universitas Katolik Atma Jaya; Siti R.A. Desyana, Project Coordinator Digital Rights untuk Indonesia, EngageMedia; Irma Handayani, Ketua Tim Regulasi Peta Jalan, Etika, Tata Kelola dan Pengawasan Kecerdasan Artifisial, Direktorat Kecerdasan Artifisial dan Ekosistem Teknologi Baru, Komdigi; Henke Yunkins, B.S.E.E., Ketua Pokja Etika, Gugus Tugas AI; Direktur Regulasi dan Etika, Indonesia Artificial Intelligence Society

Mekanisme Safeguard dan Kebutuhan Badan Pengawas

Menanggapi rekomendasi tersebut, Irma Handayani, Ketua Tim Regulasi Peta Jalan, Etika, Tata Kelola dan Pengawasan AI Komdigi, menyatakan bahwa pengaturan teknis mengenai mekanisme safeguard diserahkan kepada kementerian dan lembaga sektoral.

“Kementerian dan lembaga perlu menindaklanjuti pedoman etika AI, termasuk soal mekanisme pemulihan untuk meminimalisir risiko dan memantau pelaksanaan,” ujarnya.

Namun, Henke Yunkins, Ketua Pokja Etika Gugus Tugas AI, menekankan perlunya satu badan khusus yang menjadi titik aduan masyarakat atas dampak penggunaan AI di sektor publik. Badan ini harus memiliki kapasitas untuk menyediakan saluran aduan yang mudah diakses serta terintegrasi dengan investigasi cepat dan mekanisme pemulihan yang komprehensif.

Insiden AI dan Dampak Nyata

Kebutuhan akan safeguard menjadi semakin mendesak mengingat sejumlah insiden telah terjadi. Hasil pemantauan EngageMedia mencatat lonjakan 88 kasus insiden AI sejak diterbitkannya Surat Edaran Etika AI pada 2023.

Beberapa insiden yang menonjol antara lain penilangan ETLE terhadap layanan darurat medis dan penonaktifan kepesertaan BPJS PBI yang diduga dilakukan melalui sistem otomatis yang tidak transparan. Akibatnya, warga mengalami hambatan dalam mengakses layanan kesehatan.

“Ini menunjukkan bahwa penggunaan AI tanpa mekanisme pengawasan yang jelas dapat berdampak langsung pada hak dasar warga,” ujar Siti R. Desyana, Project Coordinator Digital Rights untuk Indonesia, EngageMedia.

 Model Regulasi dan Pendekatan Penta-Helix

Dr. jur. Sih Yuliana Wahyuningtyas dari Unika Atma Jaya mengusulkan beberapa model regulasi, termasuk pendekatan berbasis risiko dan kerugian, pemisahan regulasi umum dan sektoral, serta penekanan pada aspek kemanusiaan melalui pendekatan penta-helix.

“Dalam proses pemantauan dan evaluasi, perlu indikator seperti kinerja, tata kelola, dampak operasional dan keuangan, serta tingkat kepercayaan publik,” tambahnya.

Caption: Cover Policy Brief 2025 berjudul “Safeguard Kecerdasan Artifisial di Sektor Publik: Dari Perlindungan Hak hingga Mekanisme Pemulihan.” Kredit foto: Yayasan Tifa

Dokumen Rekomendasi dan Studi Baseline

Diskusi ini selaras dengan dua dokumen penting yang dirilis Yayasan Tifa:

Risalah Kebijakan berjudul “Safeguard Kecerdasan Artifisial di Sektor Publik: Dari Perlindungan Hak hingga Mekanisme Pemulihan.”
Dokumen ini merekomendasikan pemisahan tanggung jawab antaraktor, kewajiban asesmen dampak HAM dan dampak algoritma, standar transparansi, audit pihak ketiga, penyediaan mekanisme aduan dan pemulihan, serta konsultasi publik yang bermakna.

Studi Baseline berjudul “Automasi Tanpa Regulasi: Dampak Pemanfaatan Kecerdasan Artifisial di Sektor Publik Bagi Kelompok Rentan di Indonesia.”

Studi ini memetakan penggunaan AI di sektor publik Indonesia, termasuk praktik algorithmic regulation, serta mengkaji dampaknya terhadap kelompok rentan seperti masyarakat miskin, perempuan, penyandang disabilitas, dan komunitas LGBTQI.

Caption: Cover Studi Baseline AI berjudul “Automasi Tanpa Regulasi: Dampak Pemanfaatan Kecerdasan Artifisial di Sektor Publik Bagi Kelompok Rentan di Indonesia.” Kredit foto: Yayasan Tifa

Studi tersebut menunjukkan bahwa meskipun AI telah digunakan di berbagai sektor layanan publik, kerangka regulasi, parameter tata kelola, dan kapasitas kelembagaan belum memadai untuk memastikan akuntabilitas dan perlindungan hak.

Sebagai perbandingan, studi ini juga merujuk pada pengalaman internasional—seperti kasus sistem distribusi bantuan sosial Samagra Vedika di India, sistem rekrutmen berbasis AI di Korea Selatan, serta seleksi pendidikan tinggi berbasis algoritma di Prancis—yang memunculkan persoalan diskriminasi, kurangnya transparansi, dan lemahnya akuntabilitas.

Partisipasi Publik sebagai Fondasi

Yayasan Tifa menegaskan bahwa pemanfaatan AI di sektor publik harus berlandaskan hak asasi manusia dan partisipasi publik yang bermakna. Publik—terutama kelompok yang terdampak—memiliki hak untuk terlibat dalam perumusan kebijakan yang akan memengaruhi akses mereka terhadap layanan dasar.

Tanpa kerangka safeguard yang jelas, penggunaan AI dalam pelayanan publik berisiko memperluas ketimpangan dan menciptakan bentuk baru diskriminasi berbasis algoritma.

Yayasan Tifa percaya bahwa pengaturan AI bukan sekadar soal efisiensi teknologi, tetapi soal perlindungan hak warga dan masa depan tata kelola publik yang adil, transparan, dan dapat dipertanggungjawabkan.

Foto Bersama Panelis dan Tim Penulis (dari kiri): Debora I.C., Project Manager, Data Policy and Governance, Yayasan Tifa; Indriyatno Banyumurti, Sekretaris Pokja Etika, Gugus Tugas AI; Direktur Eksekutif, ICT Watch – Moderator; Dr. iur. Sih Yuliana Wahyuningtyas, S.H., M.Hum, Universitas Katolik Atma Jaya; Siti R.A. Desyana, Project Coordinator Digital Rights untuk Indonesia, EngageMedia; Irma Handayani, Ketua Tim Regulasi Peta Jalan, Etika, Tata Kelola dan Pengawasan Kecerdasan Artifisial, Direktorat Kecerdasan Artifisial dan Ekosistem Teknologi Baru, Komdigi; Shevierra Danmadiyah, Tim Penulis Studi Baseline; Alia Yofira Karunian, Tim Penulis Studi Baseline dan Henke Yunkins, B.S.E.E., Ketua Pokja Etika, Gugus Tugas AI; Direktur Regulasi dan Etika, Indonesia Artificial Intelligence Society
error: Content is protected !!