1. Buka konten
  2. Buka menu utama
  3. Buka situs DW lainnya

Inteligensia Buatan Bisa Rasis

Elizabeth Lehmann
30 Oktober 2021

Inteligensia artifisial jadikan wawancara kerja obyektif. Begitu janji para pengembang "tool". Tapi analisa mengungkap, piranti lunak itu rugikan perempuan dan rasis.

https://p.dw.com/p/424r7
Gambar ilustrasi kecerdasan artifisial
Gambar ilustrasi kecerdasan artifisialFoto: Andrew Ostrovsky/PantherMedia/Imago

Kompetisi kecantikan "beauty.ai" menjanjikan obyektifitas dalam memilih orang berparas paling menawan di bumi. Yaitu dengan bantuan inteligensia buatan atau artificial inteligence, yang biasa disingkat AI.

Lebih dari 6.000 selfi sudah diserahkan, dari berbagai bagian dunia. Tapi, hampir semua pemenang berkulit putih. 

Masalahnya: inteligensia buatan dilatih memberikan penilaian dengan data-data wajah orang dari Eropa Tengah. Sedangkan wajah orang dari kawasan dunia lain tidak dikenali dengan baik. 

Keputusan AI berdampak pada hidup manusia

Salah seorang peneliti inteligensia buatan, Joy Buolamwini, juga mengeluhkan kerugian besar lain akibat inteligensia buatan. "Kita harus semakin menyadari adanya algoritme destruktif misterius yang menyebar luas, dan semakin digunakan untuk mengambil keputusan yang berdampak pada hidup kita.“

Hirarki Superioritas Pada Kecerdasan Buatan

Buolamwini menjelaskan lebih lanjut, misalnya dalam hal siapa yang dapat pekerjaan, siapa yang dipecat. Apa orang ini dapat pinjaman atau tidak, dapat asuransi, atau dapat tempat kuliah yang diinginkan.

Banyak piranti lunak yang digunakan perusahaan untuk memilih pekerja baru menggunakan kecerdasan buatan. Piranti lunak ini menganalisa bahasa tubuh atau kata-kata yang digunakan.

Pembuat piranti lunak seperti HireVue menjanjikan obyektifitas lebih tinggi, sehingga katanya keanekaragaman dan keadilan genderbisa tercapai 

Pakar seperti Lorena Jaume-Palasí meragukan itu. Ia menganalisa 38 piranti lunak untuk proses penerimaan pegawai yang digunakan pemerintah Jerman.

AI mematuhi ide usang Big Five

"Banyak dari piranti lunak ini berlandaskan teori yang dalam berbagai ilmu sosial, sosiologi juga psikologi dianggap kontroversial, atau sudah lama usang,“ kata Jaume-Palasí. Di dalamnya tercakup ide-ide yang disebut Big Five.

Big Five dalam piranti lunak adalah: sikap terbuka, bertanggungjawab, menerima ide baru, punya empati dan keyakinan diri. Inteligensia artifisial menempatkan orang pada ibaratnya laci-laci ini, dan menarik kesimpulan tentang kelayakan seseorang. 

Misalnya, empati tidak termasuk dalam kategori yang dicari untuk posisi pemimpin. Sementara empati diasosiasikan dengan perempuan. Akhirnya piranti lunak berinterpretasi: perempuan tidak cocok jadi pemimpin!  

Masalah lainnya: Big Five adalah nilai-nilai yang berlaku dalam masyarakat Eropa. Jika kita memandang Asia misalnya, bisa dilihat, sikap rajin punya bobot sangat tinggi. Dan itu sama sekali tidak diperhitungkan "tool" yang biasanya digunakan perusahaan besar.

Teknologi yang digunakan untuk evaluasi orang

Uni Eropa juga menggunakan piranti lunak seperti itu untuk proses pencarian pegawai baru. Namanya Cammio. Tapi sekarang fungsi inteligensia buatan yang ada di piranti lunak itu belum mulai digunakan. 

Lorena Jaume-Palasí yang juga jadi penasehat pemerintah dalam hal intelegensia artifisial mengatakan, "Saya rasa, kita harus memikirkan dulu, apakah teknologi seperti ini bisa digunakan dalam berbagai hal, yang tujuannya memberikan nilai dan mengevaluasi orang.“

Penyebabnya, karena teknologi ini sebenarnya tidak etis dan tidak sesuai dengan ilmu pengetahuan, dan tidak layak dilempar ke pasaran. Begitu ditekankan Jaume-Palasí yang juga pendiri organisasi non profit Ethical Tech Society 

Namun demikian, di seluruh dunia, semakin banyak sistem kecerdasan buatan yang digunakan.  

Manusia butuh program yang inklusif

"Kita harus mulai memikirkan bagaimana caranya menciptakan program yang bersifat lebih inklusif dan mengikutsertakan praktik lebih inklusif pula. Ini harus dimulai manusia,“ kata Joy Buolamwini.

Peneliti intelegensia artifisial itu mengemukakan sejumlah hal yang harus dipertimbangkan. Apakah kita menciptakan tim dengan individu beraneka ragam, dan bisa saling melengkapi? Dari segi teknis, apakah kita memperhitungkan keadilan jika mengembangkan sistem?

Kita sekarang punya kesempatan untuk mencapai persamaan dan keadilan, jika kita menjadikan perubahan sosial sebagai prioritas, dan bukan hal sampingan. Demikian ditambahkan Joy Buolamwini.

Menilai orang secara adil, berkaitan dengan tantangan lebih besar. Dan itu menuntut biaya tambahan dari pembuat program inteligensia artifisial. (ml/yp)