Bagaimana Organisasi Dapat Mengurangi Risiko AI

Bagaimana Organisasi Dapat Mengurangi Risiko AI

Apakah AI yang Bertanggung Jawab Memuncak?

Bukan rahasia lagi bahwa pandemi telah mempercepat adopsi dan, yang lebih penting, keinginan organisasi untuk mengadopsi kemampuan kecerdasan buatan (AI). Namun, sangat sulit untuk membuat AI bekerja. Hanya 6% organisasi yang dapat mengoperasionalkan AI, menurut survei AI Bertanggung Jawab global PwC baru-baru ini terhadap lebih dari 1.000 peserta dari organisasi terkemuka di AS, Inggris, Jepang, dan India. Lebih dari separuh perusahaan dalam survei tersebut mengatakan bahwa mereka masih bereksperimen dan tetap tidak berkomitmen pada investasi besar dalam kemampuan AI.

Tetapi perusahaan yang memiliki strategi AI tertanam dapat lebih andal menerapkan aplikasi dalam skala besar, dengan adopsi yang lebih luas di seluruh bisnis, daripada yang tidak. Perusahaan yang lebih besar (lebih dari $1 miliar) khususnya secara signifikan lebih mungkin untuk mengeksplorasi kasus penggunaan baru untuk AI (39%), meningkatkan penggunaan AI mereka (38%), dan melatih karyawan untuk menggunakan AI (35%).

AI yang Bertanggung Jawab

Sementara beberapa tantangan untuk operasionalisasi bersifat teknis atau dibatasi oleh keterampilan set, kesenjangan kepercayaan tetap menjadi penghambat.

Tren utama adalah menggabungkan praktik “AI yang bertanggung jawab” untuk menjembatani kesenjangan kepercayaan ini. AI yang bertanggung jawab terdiri dari alat, proses, dan orang yang diperlukan untuk mengontrol sistem AI dan mengaturnya dengan tepat sesuai dengan lingkungan tempat kami ingin beroperasi dan diimplementasikan menggunakan kemampuan teknis dan prosedural untuk mengatasi bias, kemampuan menjelaskan, ketahanan, keselamatan, dan keamanan kekhawatiran (antara lain). Maksud dari AI yang bertanggung jawab, yang terkadang disebut sebagai atau digabungkan dengan AI tepercaya, etika AI, atau AI yang bermanfaat, adalah untuk mengembangkan AI dan sistem analitik secara metodis, memungkinkan sistem berkualitas tinggi dan terdokumentasi yang mencerminkan keyakinan dan nilai organisasi dan meminimalkan bahaya yang tidak diinginkan

AI yang bertanggung jawab di perusahaan

Apresiasi atas kekhawatiran baru yang dapat ditimbulkan oleh AI pada suatu organisasi telah menyebabkan peningkatan yang signifikan dalam aktivitas mitigasi risiko. Organisasi mengejar strategi untuk mengurangi risiko aplikasi individu serta risiko yang lebih luas yang ditimbulkan pada bisnis atau masyarakat, yang semakin dituntut oleh pelanggan dan regulator (Gambar 1). Risiko ini dialami di tingkat aplikasi, termasuk ketidakstabilan kinerja dan bias dalam pengambilan keputusan AI; tingkat bisnis, seperti risiko perusahaan atau keuangan; dan tingkat nasional, seperti perpindahan pekerjaan dari otomatisasi, dan misinformasi. Untuk mengatasi risiko ini dan lebih banyak lagi, organisasi menggunakan berbagai tindakan mitigasi risiko, dimulai dengan tindakan ad hoc dan maju ke proses tata kelola yang lebih terstruktur. Lebih dari sepertiga perusahaan (37%) memiliki strategi dan kebijakan untuk mengatasi risiko AI, meningkat tajam dari tahun 2019 (18%).

Gambar 1: Taksonomi risiko, PwC

Terlepas dari peningkatan penekanan pada mitigasi risiko, organisasi masih memperdebatkan cara mengatur AI. Hanya 19% perusahaan dalam survei yang memiliki proses terdokumentasi formal yang dilaporkan ke semua pemangku kepentingan; 29% memiliki proses formal hanya untuk menangani acara tertentu; dan keseimbangan hanya memiliki proses informal atau tidak ada proses yang jelas sama sekali.

Sebagian dari perbedaan ini adalah karena kurangnya kejelasan seputar kepemilikan tata kelola AI. Siapa yang memiliki proses ini? Apa tanggung jawab pengembang, fungsi kepatuhan atau manajemen risiko, dan audit internal?

Bank dan organisasi lain yang telah tunduk pada pengawasan peraturan pada algoritme mereka cenderung memiliki fungsi yang kuat (“kedua -line”) yang dapat memvalidasi model secara independen. Namun, yang lain harus bergantung pada tim pengembangan yang terpisah, karena lini kedua tidak memiliki keterampilan yang sesuai untuk meninjau sistem AI. Beberapa dari organisasi ini memilih untuk memperkuat tim lini kedua mereka dengan lebih banyak keahlian teknis, sementara yang lain membuat pedoman yang lebih kuat untuk jaminan kualitas di lini pertama.

Terlepas dari tanggung jawab, organisasi memerlukan metodologi pengembangan standar, lengkap dengan gerbang panggung pada titik-titik tertentu, untuk memungkinkan pengembangan dan pemantauan AI berkualitas tinggi (Gambar 2). Metodologi ini juga meluas ke tim pengadaan, mengingat banyak sistem AI memasuki organisasi melalui vendor atau platform perangkat lunak.

Gambar 2: Gerbang tahap dalam proses pengembangan AI, PwC

Kesadaran akan risiko AI melengkapi tren lain untuk mempertimbangkan etika teknologi—mengadopsi praktik untuk pengembangan, pengadaan, penggunaan, dan pemantauan AI yang didorong oleh “apa yang harus Anda lakukan” daripada “apa dapatkah kamu melakukan”.

Meskipun ada banyak prinsip etika untuk AI, data, dan teknologi, keadilan tetap menjadi prinsip inti. Tiga puluh enam persen responden survei mengidentifikasi bias algoritmik sebagai area fokus risiko utama, dan 56% percaya bahwa mereka dapat mengatasi risiko bias secara memadai. Seiring dengan semakin matangnya perusahaan dalam mengadopsi AI, mereka juga cenderung menggunakan bias algoritmik sebagai fokus utama, mengingat keahlian dalam mengembangkan AI dan kesadaran akan masalah seputar risiko AI. Tingkat keadilan sebagai prinsip terpenting kelima bagi perusahaan yang matang dengan AI versus berada di tempat kedelapan untuk organisasi yang kurang matang. Prinsip-prinsip lain termasuk keselamatan, keamanan, privasi, akuntabilitas, kemampuan menjelaskan, dan agensi manusia. Pendekatan organisasi untuk menerapkan AI dan etika data cenderung berfokus pada inisiatif sempit yang dianggap terpisah dan menggunakan alat sekali pakai seperti penilaian dampak dan kode etik. Perusahaan besar dengan penggunaan AI yang matang secara signifikan lebih mungkin untuk berinvestasi dalam berbagai inisiatif, termasuk melakukan penilaian dampak (62%), membuat dewan etika (60%), dan memberikan pelatihan etika (47%). Dorongan ini menandakan pengakuan bahwa beberapa inisiatif internal akan diperlukan untuk mengoperasionalkan AI yang bertanggung jawab.

Apa yang dapat dilakukan organisasi

  • Tetapkan prinsip untuk memandu: Serangkaian prinsip etika yang diadopsi dan didukung oleh kepemimpinan memberikan bintang utara bagi organisasi. Namun, prinsip saja tidak cukup untuk menanamkan praktik AI yang bertanggung jawab. Pemangku kepentingan perlu mempertimbangkan prinsip-prinsip dalam konteks pekerjaan sehari-hari mereka untuk merancang kebijakan dan praktik yang dapat diterapkan oleh seluruh perusahaan.
  • Pertimbangkan kepemilikan tata kelola: Untungnya, banyak pemimpin dalam organisasi tertarik untuk membangun praktik tata kelola untuk AI dan data. Namun, tanpa menentukan pemilik untuk tata kelola ini, organisasi kemungkinan akan menemukan masalah yang berbeda—praktik terpisah yang mungkin bertentangan satu sama lain. Identifikasi tim mana yang harus merancang pendekatan tata kelola, dan setujui pemilik dan proses untuk mengidentifikasi pembaruan pada kebijakan yang ada.
  • Mengembangkan proses yang terdefinisi dengan baik dan terintegrasi untuk data, model, dan siklus hidup perangkat lunak: Menerapkan proses standar untuk pengembangan dan pemantauan, dengan gerbang tahapan tertentu untuk menunjukkan di mana persetujuan dan tinjauan diperlukan untuk melanjutkan (Gambar 2). Proses ini harus terhubung ke data yang ada dan mekanisme tata kelola privasi serta siklus hidup pengembangan perangkat lunak.
  • Pecah silo: Sejajarkan seluruh kelompok pemangku kepentingan yang diperlukan untuk menghubungkan tim dengan tujuan berbagi ide dan praktik kerja unggulan. Buat inventaris umum untuk AI dan data untuk proses tata kelola, dan gunakan latihan ini sebagai kesempatan untuk mempertimbangkan perubahan struktural atau penyelarasan yang dapat memungkinkan bisnis berjalan lebih baik.
  • Awasi iklim peraturan yang berubah dengan cepat: Bukan hanya pelanggan, investor, dan karyawan yang menuntut praktik yang bertanggung jawab. Regulator memperhatikan dan mengusulkan undang-undang di tingkat negara bagian, regulator, nasional, dan supranasional. Beberapa peraturan berasal dari upaya perlindungan data dan privasi yang diperluas, beberapa dari regulator khusus pada area kasus penggunaan yang sempit (seperti perbankan), dan beberapa dari keinginan yang lebih umum untuk meningkatkan akuntabilitas (seperti Undang-Undang Kecerdasan Buatan Uni Eropa). Mengikuti peraturan ini adalah kunci untuk mengidentifikasi aktivitas kepatuhan di masa mendatang.
  • Dengan tindakan ini, organisasi akan memiliki posisi yang lebih baik untuk mengatasi risiko AI dengan cara yang tangkas.



    Pelajari bagaimana PwC dapat membantu organisasi Anda membangun praktik AI yang bertanggung jawab.

    Baca selengkapnya