Kecerdasan buatan (AI) pernah menjadi bahan fiksi ilmiah. Tapi itu menjadi meluas. Ini digunakan dalam teknologi ponsel dan kendaraan bermotor. Ini mendukung alat untuk pertanian dan perawatan kesehatan.
Namun muncul kekhawatiran tentang akuntabilitas AI dan teknologi terkait seperti pembelajaran mesin. Pada Desember 2020, seorang ilmuwan komputer, Timnit Gebru, dipecat dari tim Ethical AI Google. Dia sebelumnya telah memperingatkan tentang efek sosial dari bias dalam teknologi AI.
Misalnya, dalam makalah tahun 2018 Gebru dan peneliti lain, Joy Buolamwini, telah menunjukkan bagaimana perangkat lunak pengenalan wajah kurang akurat dalam mengidentifikasi wanita dan orang kulit berwarna daripada pria kulit putih. Bias dalam data pelatihan dapat memiliki efek yang luas dan tidak diinginkan.
Sudah ada banyak penelitian tentang etika dalam AI. Ini menyoroti pentingnya prinsip untuk memastikan teknologi tidak hanya memperburuk bias atau bahkan menimbulkan bahaya sosial baru. Sebagai rancangan rekomendasi UNESCO tentang etika AI menyatakan:
Kita membutuhkan kebijakan dan kerangka peraturan internasional dan nasional untuk memastikan bahwa teknologi yang muncul ini bermanfaat bagi umat manusia secara keseluruhan .
Dalam beberapa tahun terakhir, banyak kerangka kerja dan pedoman telah dibuat yang mengidentifikasi tujuan dan prioritas untuk AI etis.
Ini tentu saja merupakan langkah ke arah yang benar. Tetapi juga penting untuk melihat melampaui solusi teknis saat menangani masalah bias atau inklusivitas. Bias dapat masuk pada tingkat siapa yang membingkai tujuan dan menyeimbangkan prioritas.
Dalam makalah baru-baru ini, kami berpendapat bahwa inklusivitas dan keragaman juga perlu berada pada tingkat mengidentifikasi nilai dan mendefinisikan kerangka kerja dari apa yang dianggap sebagai AI etis sejak awal. Ini sangat relevan ketika mempertimbangkan pertumbuhan penelitian AI dan pembelajaran mesin di seluruh benua Afrika.
Konteks kecerdasan buatan di Afrika
Penelitian dan pengembangan teknologi AI dan pembelajaran mesin berkembang di negara-negara Afrika. Program seperti Data Science Africa, Data Science Nigeria, dan Deep Learning Indaba dengan acara satelit IndabaX, yang sejauh ini telah diadakan di 27 negara Afrika yang berbeda, menggambarkan minat dan investasi manusia di bidang tersebut.
Potensi AI dan teknologi terkait untuk mempromosikan peluang pertumbuhan, pembangunan, dan demokratisasi di Afrika adalah pendorong utama penelitian ini.
Namun sangat sedikit suara Afrika yang memilikinya telah terlibat dalam kerangka etika internasional yang bertujuan untuk memandu penelitian. Ini mungkin tidak menjadi masalah jika prinsip-prinsip dan nilai-nilai dalam kerangka tersebut memiliki aplikasi universal. Tapi tidak jelas apakah mereka melakukannya.
Misalnya, kerangka kerja AI4People Eropa menawarkan sintesis dari enam kerangka kerja etis lainnya. Ini mengidentifikasi penghormatan terhadap otonomi sebagai salah satu prinsip utamanya. Prinsip ini telah dikritik dalam bidang etika terapan bioetika. Hal ini dipandang sebagai kegagalan untuk melakukan keadilan terhadap nilai-nilai komunitarian yang umum di seluruh Afrika. Ini kurang fokus pada individu dan lebih pada komunitas, bahkan mengharuskan pengecualian dibuat untuk menegakkan prinsip tersebut untuk memungkinkan intervensi yang efektif.
Tantangan seperti ini—atau bahkan pengakuan bahwa mungkin ada tantangan semacam itu—sebagian besar tidak ada dalam diskusi dan kerangka kerja untuk AI etis.
Sama seperti data pelatihan dapat memperkuat ketidaksetaraan dan ketidakadilan yang ada, demikian juga kegagalan untuk mengenali kemungkinan rangkaian nilai yang beragam yang dapat bervariasi di seluruh konteks sosial, budaya, dan politik.
Hasil yang lebih baik keluar dari sistem AI yang inklusif
Dalam Selain itu, kegagalan untuk mempertimbangkan konteks sosial, budaya, dan politik dapat berarti bahwa solusi teknis etis yang tampaknya sempurna pun dapat menjadi tidak efektif atau salah arah setelah diterapkan.
Agar pembelajaran mesin menjadi efektif dalam membuat prediksi yang berguna, setiap sistem pembelajaran memerlukan akses ke data pelatihan. Ini melibatkan sampel data yang menarik: masukan dalam bentuk beberapa fitur atau pengukuran, dan keluaran yang merupakan label yang ingin diprediksi oleh para ilmuwan. Dalam kebanyakan kasus, baik fitur dan label ini membutuhkan pengetahuan manusia tentang masalah tersebut. Tetapi kegagalan untuk memperhitungkan konteks lokal dengan benar dapat mengakibatkan sistem berkinerja buruk.
Misalnya, catatan panggilan telepon seluler telah digunakan untuk memperkirakan ukuran populasi sebelum dan sesudah bencana. Namun, populasi yang rentan cenderung tidak memiliki akses ke perangkat seluler. Jadi, pendekatan semacam ini dapat menghasilkan hasil yang tidak berguna.
Demikian pula, teknologi visi komputer untuk mengidentifikasi berbagai jenis struktur di suatu area kemungkinan akan berkinerja buruk di mana bahan konstruksi yang berbeda digunakan. Dalam kedua kasus ini, seperti yang kami dan rekan-rekan lain diskusikan dalam makalah lain baru-baru ini, tidak memperhitungkan perbedaan regional mungkin memiliki efek mendalam pada apa pun mulai dari pengiriman bantuan bencana, hingga kinerja sistem otonom.
Ke depan
Teknologi AI tidak boleh hanya memperburuk atau menggabungkan aspek bermasalah dari masyarakat manusia saat ini.
Menjadi peka dan inklusif terhadap konteks yang berbeda sangat penting untuk merancang solusi teknis yang efektif. Sama pentingnya untuk tidak berasumsi bahwa nilai bersifat universal. Mereka yang mengembangkan AI harus mulai memasukkan orang-orang dari latar belakang yang berbeda: tidak hanya dalam aspek teknis merancang kumpulan data dan sejenisnya, tetapi juga dalam mendefinisikan nilai-nilai yang dapat dipanggil untuk membingkai dan menetapkan tujuan dan prioritas.
Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.
Daftar ke Ringkasan Mingguan Afrika Kuarsa di sini untuk berita dan analisis tentang bisnis, teknologi, dan inovasi Afrika di kotak masuk Anda.