Deepfakes – pada dasarnya menempatkan kata -kata di mulut orang lain dengan cara yang sangat dapat dipercaya – menjadi lebih canggih dari hari ke hari dan semakin sulit dikenali. Contoh -contoh terbaru dari Deepfake termasuk Taylor Swift Nude Images, rekaman audio Presiden Joe Biden mengatakan kepada warga New Hampshire untuk tidak memilih, dan video presiden Ukraina Volodymyr Zelenskyy meminta pasukannya untuk meletakkan lengan mereka.
Meskipun perusahaan telah menciptakan detektor untuk membantu melihat Deepfake, penelitian telah menemukan bahwa bias dalam data yang digunakan untuk melatih alat -alat ini dapat menyebabkan kelompok demografis tertentu ditargetkan secara tidak adil.

Olivier Douliery/AFP Via Getty Images
Tim saya dan saya menemukan metode baru yang meningkatkan keadilan dan keakuratan algoritma yang digunakan untuk mendeteksi Deepfake.
Untuk melakukannya, kami menggunakan set data besar pemalsuan wajah yang memungkinkan para peneliti seperti kami melatih pendekatan pembelajaran mendalam kami. Kami membangun pekerjaan kami di sekitar algoritma deteksi Xception yang canggih, yang merupakan fondasi yang banyak digunakan untuk sistem deteksi Deepfake dan dapat mendeteksi Deepfake dengan akurasi 91,5%.
Kami menciptakan dua metode deteksi Deepfake yang terpisah yang dimaksudkan untuk mendorong keadilan.
Salah satunya fokus pada membuat algoritma lebih sadar akan keragaman demografis dengan memberi label kumpulan data berdasarkan jenis kelamin dan ras untuk meminimalkan kesalahan di antara kelompok -kelompok yang kurang terwakili.
Yang lain bertujuan untuk meningkatkan keadilan tanpa mengandalkan label demografis dengan memfokuskan pada fitur yang tidak terlihat oleh mata manusia.
Ternyata metode pertama bekerja paling baik. Ini meningkatkan tingkat akurasi dari garis dasar 91,5% menjadi 94,17%, yang merupakan peningkatan yang lebih besar dari metode kedua kami serta beberapa lainnya yang kami uji. Selain itu, itu meningkatkan akurasi sambil meningkatkan keadilan, yang merupakan fokus utama kami.
Kami percaya keadilan dan keakuratan sangat penting jika publik ingin menerima teknologi kecerdasan buatan. Ketika model bahasa besar seperti chatgpt “Halucinate,” mereka dapat melanggengkan informasi yang salah. Ini mempengaruhi kepercayaan dan keselamatan publik.
Demikian juga, gambar dan video Deepfake dapat merusak adopsi AI jika tidak dapat dengan cepat dan akurat terdeteksi. Meningkatkan keadilan algoritma deteksi ini sehingga kelompok demografis tertentu tidak dirugikan secara tidak proporsional oleh mereka adalah aspek kunci untuk ini.
Penelitian kami membahas keadilan deteksi deepfake, daripada hanya mencoba menyeimbangkan data. Ini menawarkan pendekatan baru untuk desain algoritma yang menganggap keadilan demografis sebagai aspek inti.
Siwei Lyu, Profesor Ilmu Komputer dan Teknik; Direktur, UB Media Forensic Lab, Universitas di Buffalo dan Yan Ju, Ph.D. Calon dalam Ilmu Komputer dan Teknik, Universitas di Buffalo
Artikel ini diterbitkan ulang dari percakapan di bawah lisensi Creative Commons. Baca artikel asli.