Bias dalam Algoritma: Memastikan Keadilan Akses Pembelajaran STEM Berbasis AI
s2dikdas.fip.unesa.ac.id, Surabaya — Apakah semua
siswa SD memiliki kesempatan yang sama untuk cerdas dalam STEM ketika algoritma
AI yang digunakan di kelas sering kali memiliki bias tersembunyi terhadap latar
belakang tertentu? Di tengah euforia digitalisasi tahun 2025, muncul
kekhawatiran etis mengenai "bias algoritma" dalam aplikasi
pembelajaran STEM yang dapat memperlebar kesenjangan prestasi siswa berdasarkan
jenis kelamin, kondisi ekonomi, atau akses teknologi. Isu keadilan akses ini
menjadi sorotan utama dalam perencanaan integrasi AI di sekolah dasar, menuntut
para pemangku kebijakan untuk memastikan bahwa teknologi yang digunakan
benar-benar inklusif dan tidak mendiskriminasi potensi unik setiap anak.
Secara
teoretis, AI dilatih menggunakan data historis yang sering kali mengandung bias
manusia, seperti stereotip bahwa bidang teknik lebih cocok untuk laki-laki.
Jika aplikasi STEM di SD memberikan rekomendasi yang berbeda secara halus
berdasarkan gender, maka kita sedang melakukan "pengkotakan potensi"
secara digital sejak usia dini. Data kependidikan menunjukkan bahwa bias dalam
konten digital dapat menurunkan minat siswi perempuan terhadap sains hingga 20
persen jika tidak ada intervensi pedagogis yang tepat. Inilah tantangan etika
besar: memastikan bahwa AI bertindak sebagai mesin kesetaraan yang memberikan
tantangan yang sama berat dan peluang yang sama luas bagi seluruh siswa tanpa
terkecuali.
Analisis
terhadap infrastruktur digital menunjukkan bahwa tantangan keadilan ini juga
berkaitan erat dengan kecepatan konektivitas dan kualitas perangkat. Sekolah di
daerah urban mungkin memiliki akses ke AI tingkat lanjut, sementara SD di
pelosok terjebak dengan versi lite atau tanpa akses sama sekali. S2 Pendidikan
Dasar Unesa mendorong penerapan "AI Inklusif", di mana konten STEM
dirancang agar ringan dikonsumsi dan tetap memiliki kualitas pedagogi yang
standar meski dioperasikan secara luring. Keadilan akses bukan hanya soal
kepemilikan gawai, tetapi soal jaminan bahwa kurikulum STEM yang canggih ini
menjangkau setiap anak di penjuru nusantara dengan kualitas yang setara.
Peran
guru sangat vital dalam melakukan "audit manual" terhadap materi yang
dihasilkan AI sebelum diberikan kepada siswa. Guru harus jeli melihat apakah
ada konten yang kurang sensitif terhadap keragaman budaya atau yang
meminggirkan kelompok tertentu. Keteladanan guru dalam menyikapi output AI
secara kritis akan mengajarkan siswa untuk juga bersikap inklusif dalam
kehidupan sehari-hari. Sekolah dasar harus menjadi laboratorium keadilan di
mana teknologi digunakan untuk meruntuhkan tembok-tembok pembatas, bukan justru
membangun sekat baru melalui algoritma yang eksklusif. Teknologi harus melayani
kemanusiaan dalam segala keberagamannya.
Selain
itu, transparansi data pribadi siswa dalam aplikasi AI STEM menjadi isu etis
yang tidak bisa ditawar. Perlindungan privasi adalah hak asasi anak yang harus
dijaga agar data progres belajar mereka tidak disalahgunakan untuk kepentingan
komersial pihak ketiga. Sekolah wajib menjalin kerjasama hanya dengan penyedia
teknologi yang mematuhi standar etika perlindungan anak yang ketat. Kesadaran
akan keamanan data ini harus diajarkan kepada siswa sebagai bagian dari
literasi kewarganegaraan digital. Dengan keamanan yang terjamin, orang tua dan
masyarakat akan memiliki kepercayaan penuh terhadap integrasi AI dalam
pendidikan dasar.
Sebagai
penutup, memastikan keadilan dalam integrasi AI di kelas STEM adalah langkah
krusial menuju Indonesia Emas 2045 yang inklusif. Kita harus menyadari bahwa
teknologi yang hebat adalah teknologi yang mampu merangkul semua orang tanpa
memandang latar belakang mereka. Mari kita bangun ekosistem pendidikan STEM
yang adil dan demokratis, demi melahirkan generasi emas yang cerdas secara
merata dan peduli terhadap sesama. Keadilan digital adalah fondasi bagi
persatuan bangsa di masa depan, dan itu dimulai dari setiap algoritma yang kita
izinkan masuk ke dalam ruang kelas anak-anak kita.
###
Penulis: Nur Santika
Rokhmah