Kecerdasan buatan (AI) membuat keputusan penting yang memengaruhi kehidupan kita sehari-hari. Keputusan-keputusan ini diterapkan oleh perusahaan dan institusi atas nama efisiensi. Mereka dapat membantu menentukan siapa yang akan masuk perguruan tinggi, siapa yang mendapatkan pekerjaan, siapa yang menerima perawatan medis, dan siapa yang memenuhi syarat untuk mendapatkan bantuan pemerintah.
Ketika AI mengambil peran ini, ada peningkatan risiko pengambilan keputusan yang tidak adil – atau persepsi orang-orang yang terkena dampak keputusan tersebut. Misalnya, dalam penerimaan mahasiswa atau perekrutan di perguruan tinggi, keputusan otomatis ini dapat secara tidak sengaja menguntungkan kelompok orang tertentu atau mereka yang memiliki latar belakang tertentu, sementara pelamar yang memiliki kualifikasi yang sama namun kurang terwakili akan diabaikan.
Atau, ketika digunakan oleh pemerintah dalam sistem tunjangan, AI dapat mengalokasikan sumber daya dengan cara yang memperburuk kesenjangan sosial, sehingga menyebabkan sebagian orang mendapatkan penghasilan yang kurang dari yang seharusnya mereka dapatkan dan merasa diperlakukan tidak adil.
Bersama dengan tim peneliti internasional, kami mengkaji bagaimana distribusi sumber daya yang tidak adil – baik yang ditangani oleh AI atau manusia – memengaruhi kesediaan masyarakat untuk bertindak melawan ketidakadilan. Hasilnya telah dipublikasikan di jurnal Cognition.
Dengan semakin tertanamnya AI dalam kehidupan sehari-hari, pemerintah mengambil tindakan untuk melindungi warga negaranya dari sistem AI yang bias dan tidak jelas. Contoh dari upaya ini adalah Undang-undang Hak Asasi Manusia (AI) yang dikeluarkan oleh Gedung Putih dan Undang-undang AI yang dikeluarkan oleh parlemen Eropa. Hal ini mencerminkan keprihatinan bersama: masyarakat mungkin merasa dirugikan oleh keputusan AI.
Jadi, bagaimana ketidakadilan yang disebabkan oleh sistem AI memengaruhi cara orang memperlakukan satu sama lain setelahnya?
Ketidakpedulian yang disebabkan oleh AI
Makalah kami di Cognition mengamati kesediaan masyarakat untuk bertindak melawan ketidakadilan setelah mengalami perlakuan tidak adil oleh AI. Perilaku yang kami periksa diterapkan pada interaksi selanjutnya yang tidak berhubungan oleh individu-individu ini. Kesediaan untuk bertindak dalam situasi seperti ini, yang sering disebut “hukuman prososial,” dipandang penting untuk menegakkan norma-norma sosial.
Misalnya, pelapor mungkin melaporkan praktik yang tidak etis meskipun ada risikonya, atau konsumen mungkin memboikot perusahaan yang mereka yakini bertindak dengan cara yang merugikan. Orang-orang yang melakukan tindakan hukuman prososial ini sering kali melakukannya untuk mengatasi ketidakadilan yang berdampak pada orang lain, sehingga membantu memperkuat standar masyarakat.

Anggali Prasetya / Shutterstock
Kami menanyakan pertanyaan ini: apakah ketidakadilan yang disebabkan oleh AI, dan bukan oleh manusia, dapat memengaruhi kesediaan manusia untuk melawan pelaku kejahatan di kemudian hari? Misalnya, jika AI memberikan giliran kerja secara tidak adil atau menolak memberikan tunjangan, apakah AI akan mengurangi kemungkinan orang melaporkan perilaku tidak etis yang dilakukan rekan kerja setelahnya?
Dari serangkaian eksperimen, kami menemukan bahwa orang yang diperlakukan tidak adil oleh AI cenderung tidak akan menghukum pelaku kesalahan setelahnya dibandingkan peserta yang diperlakukan tidak adil oleh manusia. Mereka menunjukkan semacam desensitisasi terhadap perilaku buruk orang lain. Kami menyebut efek ini sebagai ketidakpedulian yang disebabkan oleh AI, untuk menangkap gagasan bahwa perlakuan tidak adil oleh AI dapat melemahkan rasa akuntabilitas seseorang terhadap orang lain. Hal ini membuat kecil kemungkinan mereka untuk mengatasi ketidakadilan di komunitas mereka.
Alasan tidak bertindak
Hal ini mungkin terjadi karena masyarakat tidak terlalu menyalahkan AI atas perlakuan tidak adil, sehingga mereka merasa kurang terdorong untuk bertindak melawan ketidakadilan. Efek ini konsisten bahkan ketika peserta hanya menemui perilaku tidak adil dari orang lain atau perilaku adil dan tidak adil. Untuk melihat apakah hubungan yang kami temukan dipengaruhi oleh pemahaman terhadap AI, kami melakukan eksperimen yang sama lagi, setelah rilis ChatGPT pada tahun 2022. Kami mendapatkan hasil yang sama pada rangkaian pengujian berikutnya seperti yang kami lakukan pada pengujian sebelumnya. .
Hasil ini menunjukkan bahwa respons masyarakat terhadap ketidakadilan tidak hanya bergantung pada apakah mereka diperlakukan secara adil, namun juga pada siapa yang memperlakukan mereka secara tidak adil – AI atau manusia.
Singkatnya, perlakuan tidak adil oleh sistem AI dapat memengaruhi cara orang merespons satu sama lain, sehingga membuat mereka kurang memperhatikan tindakan tidak adil yang dilakukan satu sama lain. Hal ini menyoroti potensi dampak AI pada masyarakat, lebih dari sekedar pengalaman individu dalam mengambil keputusan yang tidak adil.
Ketika sistem AI bertindak tidak adil, konsekuensinya akan meluas ke interaksi di masa depan, memengaruhi cara orang memperlakukan satu sama lain, bahkan dalam situasi yang tidak terkait dengan AI. Kami menyarankan agar pengembang sistem AI harus fokus pada meminimalkan bias dalam data pelatihan AI untuk mencegah dampak limpahan yang penting ini.
Para pembuat kebijakan juga harus menetapkan standar transparansi, yang mewajibkan perusahaan untuk mengungkapkan di mana AI dapat mengambil keputusan yang tidak adil. Hal ini akan membantu pengguna memahami keterbatasan sistem AI, dan cara menentang hasil yang tidak adil. Meningkatnya kesadaran akan dampak ini juga dapat mendorong masyarakat untuk tetap waspada terhadap ketidakadilan, terutama setelah berinteraksi dengan AI.
Perasaan marah dan disalahkan atas perlakuan tidak adil sangat penting untuk mendeteksi ketidakadilan dan meminta pertanggungjawaban pelaku kesalahan. Dengan mengatasi dampak sosial yang tidak diinginkan dari AI, para pemimpin dapat memastikan bahwa AI mendukung dan bukannya melemahkan standar etika dan sosial yang diperlukan untuk masyarakat yang dibangun berdasarkan keadilan.
Chiara Longoni, Associate Professor, Pemasaran dan Ilmu Sosial, Universitas Bocconi; Ellie Kyung, Profesor Madya, Divisi Pemasaran, Babson College, dan Luca Cian, Profesor Seni Administrasi Bisnis Killgallon Ohio, Darden School of Business, Universitas Virginia
Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.