Disrupsi Era 5.0: Bagaimana Algoritma, bias gender
mengubah represntasi Perempuan di Social Media
Oleh : Rizki Damar
Kita hidup sekarang sabagai generasi muda yang hidup di era pesatnya
perkembangan teknologi yang sudah hamper
mancapai pucak di era 5.0.
Dan tentunya dinamaka masalah yang kita hadapi saat ini, juga semakin
berkembang khususnya di platform media social. Jika Kita membahas Media Social
tentunya tak bisa lepas dari Algoritma, Seperti yang dapat kita rasakan
bahwasanya pada social media banyak sekali paparan informasi yang muncul dan
tentunya dari ittu masih banyak sekali terjadinya bias dan perubahan perubahan
yang semakin mengkhawatirkan dengan dalih bahwa Social media Adalah platform
bebas berpendapat dan dalih dalih lainya.
Social media tentunya Adalah alat yang dibuat untuk platform komunikasi dan
social interaction di internet, hal in imerupakan bukti perkembangan teknologi,
akan tetapi dengan adanya social media timbul juga masalah masalah.kali ini hal
yang ingin saya highlight ialah masalah algoritma, dan bias gender dan
perubahan reprentasi perempuan. Masalah pada algoritma ialah terjadinya ketidak
netralan dan mereka akan mengikuti bias data, enggament dan berimplikasi
ketidak setaraan social. (Ho dkk., 2025) dan dari experiment di anat negara
bahwasanya algoritma jauh dari demokrasi, berimplikasi dengan peng
stereotype-an gender,ma adari hal ini dibutuhkan tranparansi,inclusivitas,
serta kesadaran dalam penggunaan media social.
Algoritma media sosial seperti yang digunakan Instagram, TikTok, dan Google
tidaklah netral. Mereka dilatih oleh data yang dihasilkan manusia, dan data itu
sendiri telah mengandung stereotip gender. Ho dkk. (2025) menjelaskan bahwa ada
tiga sumber utama bias dalam algoritma: bias representasi (data
tidak mewakili semua kelompok), bias anotasi (pelabel data
yang memiliki prasangka pribadi), dan bias historis (ketimpangan
masa lalu yang terekam dalam data). Akibatnya, ketika kita mencari kata
“pemimpin” di Google, yang muncul lebih banyak adalah gambar laki-laki. Ketika
algoritma belajar dari konten yang ramai (viral), ia akan terus memperbanyak
konten yang sesuai stereotip – misalnya perempuan yang tampil seksi atau
feminin mendapatkan lebih banyak tayangan, sementara perempuan yang berbicara
tentang politik atau sains justru kalah popularitas. dalam eksperimen mereka
menemukan bahwa penilai laki-laki cenderung memberikan nilai lebih tinggi
kepada rekan laki-laki untuk konten yang bersifat teknis, tetapi lebih rendah
untuk gaya menulis. Pola ini persis terjadi di media sosial: konten perempuan
yang dianggap “tepat” (misalnya kecantikan, ibu rumah tangga) diunggulkan,
sementara konten perempuan di bidang STEM atau opini politik sering kali tidak
direkomendasikan oleh algoritma.
Systematic review terhadap 18 studi (Asian Journal, 2024) menyimpulkan
bahwa algoritma media sosial secara konsisten memperkuat stereotip gender dan
meminggirkan kelompok minoritas gender. Di Instagram, algoritma mendorong
konten yang menonjolkan tubuh perempuan secara berlebihan (hiperseksualisasi)
karena konten seperti itu mendapat banyak like dan komentar. Akibatnya,
perempuan dipaksa untuk menampilkan diri dengan standar kecantikan yang sempit
hanya agar bisa terlihat. Di TikTok, algoritma belajar jenis kelamin pengguna
dalam hitungan menit: akun perempuan disuguhi dansa, makeup, dan diet; akun
laki-laki mendapat olahraga, game, dan teknologi. Ini bukan hanya tidak adil –
ini membangun kembali tembok pemisah gender yang justru ingin dihancurkan oleh
era digital.
Yang lebih mengkhawatirkan adalah adanya umpan balik Algoritma belajar dari
perilaku kita. Jika kita (tanpa sadar) lebih banyak mengklik konten perempuan
yang seksual atau konten laki-laki yang otoritatif, algoritma akan terus
memperbanyak konten semacam itu. Kemudian, konten itu kembali memengaruhi
persepsi kita. Penelitian Ho dkk. (2025) tentang RLHF (Reinforcement
Learning from Human Feedback) menunjukkan bahwa ketika pengguna
memberi respons positif pada konten bias, algoritma menganggap itu sebagai “pembenaran”
untuk terus menampilkan konten bias. Inilah mengapa chatbot seperti ChatGPT pun
bisa menghasilkan rekomendasi pekerjaan yang bias gender, seperti “perawat
cocok untuk perempuan” dan “insinyur cocok untuk laki-laki”.
Sebagai generasi muda di Era 5.0, kita tidak bisa hanya menjadi penonton
pasif. Ho dkk. (2025) menawarkan beberapa solusi: audit algoritma secara
independen (mirip dengan audit keuangan), diversifikasi tim
pengembang (saat ini >90% pengembang AI adalah laki-laki),
dan regulasi seperti EU AI Act yang mewajibkan transparansi. Di
tingkat pengguna, kita perlu kritis terhadap konten yang muncul, tidak mudah
mengklik hal-hal yang hanya sensasional atau stereotipikal, dan mendukung
konten kreator perempuan yang membawa suara beragam.
Kesimpulan yang bisa saya sampaikan bahwasnya Disrupsi Era 5.0 seharusnya
membawa kebebasan berekspresi dan kesetaraan. Namun algoritma yang bias gender
telah mengubah representasi perempuan di media sosial menjadi sempit,
hiperseksual, dan tidak adil. Dari bukti eksperimen lintas negara hingga
analisis data besar, semua menunjukkan bahwa kita sedang menghadapi siklus bias
yang memperkuat dirinya sendiri. Jika tidak segera diintervensi dengan
transparansi, inklusivitas, dan regulasi yang tegas, media sosial bukan lagi
ruang publik yang demokratis, melainkan mesin pengulang stereotip yang
merugikan perempuan. Maka, saatnya kita – generasi digital – tidak hanya cerdas
menggunakan media sosial, tetapi juga berani menuntut algoritma yang adil.