Dalam upaya ambisius untuk mengatasi dampak buruk dari konten palsu di media sosial dan situs berita, para ilmuwan data semakin kreatif.
Saat masih dalam tahap pelatihan, model bahasa besar (LLM) yang digunakan untuk membuat chatbot seperti ChatGPT direkrut untuk mendeteksi berita palsu. Dengan deteksi yang lebih baik, sistem pemeriksaan berita palsu yang menggunakan AI mungkin dapat memperingatkan, dan pada akhirnya menangkal, bahaya serius dari deepfake, propaganda, teori konspirasi, dan misinformasi.
Alat AI tingkat berikutnya akan mempersonalisasi deteksi konten palsu serta melindungi kita dari konten tersebut. Untuk lompatan besar menuju AI yang berpusat pada pengguna, ilmu data perlu memperhatikan perilaku dan ilmu saraf.
Penelitian terbaru menunjukkan bahwa kita mungkin tidak selalu secara sadar mengetahui bahwa kita sedang menghadapi berita palsu. Ilmu saraf membantu menemukan apa yang terjadi secara tidak sadar. Biomarker seperti detak jantung, pergerakan mata, dan aktivitas otak) tampak berubah secara halus sebagai respons terhadap konten palsu dan nyata. Dengan kata lain, biomarker ini mungkin “memberi tahu” yang menunjukkan apakah kita telah terpengaruh atau tidak.
Misalnya, ketika manusia melihat wajah, data pelacakan mata menunjukkan bahwa kita memindai tingkat kedipan dan perubahan warna kulit yang disebabkan oleh aliran darah. Jika elemen tersebut tampak tidak wajar, hal ini dapat membantu kita memutuskan bahwa kita sedang melihat deepfake. Pengetahuan ini dapat memberikan keunggulan bagi AI – kita dapat melatihnya untuk meniru apa yang dicari manusia, dan banyak hal lainnya.
Personalisasi pemeriksa berita palsu AI dibentuk dengan menggunakan temuan dari data pergerakan mata manusia dan aktivitas listrik otak yang menunjukkan jenis konten palsu apa yang memiliki dampak terbesar secara saraf, psikologis, dan emosional, serta untuk siapa.
Dengan mengetahui minat spesifik, kepribadian, dan reaksi emosional kita, sistem pengecekan fakta AI dapat mendeteksi dan mengantisipasi konten mana yang akan memicu reaksi paling parah dalam diri kita. Hal ini dapat membantu menentukan kapan orang-orang tertarik dan jenis materi apa yang paling mudah membodohi orang.
Menangkal bahaya
Langkah selanjutnya adalah menyesuaikan pengamanan. Melindungi kita dari bahaya berita palsu juga memerlukan pembangunan sistem yang dapat melakukan intervensi – semacam tindakan pencegahan digital terhadap berita palsu. Ada beberapa cara untuk melakukan hal ini seperti memberi label peringatan, tautan ke konten kredibel yang telah divalidasi oleh para ahli, dan bahkan meminta orang untuk mencoba mempertimbangkan perspektif yang berbeda ketika mereka membaca sesuatu.
Pemeriksa berita palsu AI yang dipersonalisasi dapat dirancang untuk memberi kita salah satu tindakan pencegahan untuk menghilangkan bahaya dari konten palsu online.
Teknologi tersebut sudah diuji coba. Para peneliti di AS telah mempelajari bagaimana orang berinteraksi dengan pemeriksa berita palsu AI yang dipersonalisasi pada postingan media sosial. Ia belajar untuk mengurangi jumlah postingan di feed berita menjadi postingan yang dianggap benar. Sebagai bukti konsep, penelitian lain yang menggunakan postingan media sosial menyesuaikan konten berita tambahan pada setiap postingan media untuk mendorong pengguna melihat perspektif alternatif.
Deteksi akurat berita palsu
Namun apakah ini semua terdengar mengesankan atau distopia, sebelum kita terbawa suasana, mungkin ada baiknya kita menanyakan beberapa pertanyaan mendasar.
Banyak, jika tidak semua, penelitian mengenai berita palsu, deepfake, disinformasi, dan misinformasi menyoroti masalah yang sama yang akan dihadapi oleh pendeteksi kebohongan mana pun.
Ada banyak jenis alat pendeteksi kebohongan, tidak hanya tes poligraf. Beberapa secara eksklusif bergantung pada analisis linguistik. Lainnya adalah sistem yang dirancang untuk membaca wajah orang guna mendeteksi apakah mereka membocorkan emosi mikro yang menunjukkan bahwa mereka berbohong. Dengan cara yang sama, ada sistem AI yang dirancang untuk mendeteksi apakah suatu wajah asli atau palsu.
Sebelum pendeteksian dimulai, kita semua harus sepakat mengenai seperti apa sebuah kebohongan jika kita ingin mendeteksinya. Faktanya, dalam penelitian penipuan menunjukkan bahwa hal ini bisa lebih mudah karena Anda dapat memberi instruksi kepada orang-orang kapan harus berbohong dan kapan mengatakan yang sebenarnya. Jadi Anda mempunyai cara untuk mengetahui kebenaran dasar sebelum Anda melatih manusia atau mesin untuk membedakannya, karena mereka diberikan contoh yang menjadi dasar penilaian mereka.
Mengetahui seberapa baik seorang ahli pendeteksi kebohongan tergantung pada seberapa sering mereka mengungkapkan kebohongan ketika ada (kena). Namun juga agar mereka tidak sering salah mengira seseorang berkata jujur padahal sebenarnya berbohong (miss). Artinya mereka perlu mengetahui apa yang sebenarnya ketika mereka melihatnya (penolakan yang benar) dan tidak menuduh seseorang berbohong ketika mereka mengatakan yang sebenarnya (alarm palsu). Yang dimaksud di sini adalah deteksi sinyal, dan logika yang sama berlaku untuk deteksi berita palsu yang dapat Anda lihat pada diagram di bawah.
Agar sistem AI dapat mendeteksi berita palsu, agar menjadi sangat akurat, jumlah serangan yang dihasilkan harus sangat tinggi (katakanlah 90%) sehingga kesalahan yang terjadi akan sangat rendah (katakanlah 10%), dan alarm palsu harus tetap rendah (katakanlah 10). %) yang berarti berita nyata tidak disebut palsu. Jika sistem pengecekan fakta AI, atau sistem manusia direkomendasikan kepada kami, berdasarkan deteksi sinyal, kami dapat lebih memahami seberapa bagus sistem tersebut.
Kemungkinan besar ada kasus, seperti yang dilaporkan dalam survei baru-baru ini, di mana isi berita mungkin tidak sepenuhnya salah atau sepenuhnya benar, namun sebagian akurat. Kita mengetahui hal ini karena cepatnya siklus berita berarti bahwa apa yang dianggap akurat pada suatu waktu, mungkin kemudian ternyata tidak akurat, atau sebaliknya. Jadi, sistem pemeriksaan berita palsu tidak berfungsi lagi.
Jika kita mengetahui sebelumnya apa yang palsu dan apa yang merupakan berita nyata, seberapa akuratkah biomarker dalam secara tidak sadar menunjukkan berita mana yang mana? Jawabannya tidak terlalu banyak. Aktivitas saraf sering kali sama ketika kita menemukan artikel berita nyata dan palsu.
Terkait studi pelacakan mata, perlu diketahui bahwa ada berbagai jenis data yang dikumpulkan dari teknik pelacakan mata (misalnya lamanya waktu mata kita tertuju pada suatu objek, frekuensi pergerakan mata kita melintasi pemandangan visual. ).
Jadi, bergantung pada apa yang dianalisis, beberapa penelitian menunjukkan bahwa kita mengarahkan lebih banyak perhatian saat melihat konten palsu, sementara penelitian lain menunjukkan sebaliknya.
Apakah kita sudah sampai?
Sistem deteksi berita palsu AI di pasar sudah menggunakan wawasan dari ilmu perilaku untuk membantu menandai dan memperingatkan kita terhadap konten berita palsu. Jadi tidak akan berlebihan jika sistem AI yang sama mulai muncul di umpan berita kami dengan perlindungan khusus untuk profil pengguna unik kami. Masalahnya adalah kita masih memiliki banyak landasan dasar untuk mengetahui apa yang berhasil, dan juga memeriksa apakah kita menginginkannya.
Dalam skenario terburuk, kita hanya melihat berita palsu sebagai masalah online sebagai alasan untuk menyelesaikannya dengan menggunakan AI. Namun konten palsu dan tidak akurat ada di mana-mana, dan dibahas secara offline. Tidak hanya itu, kami tidak secara otomatis mempercayai semua berita palsu, terkadang kami menggunakannya dalam diskusi untuk menggambarkan ide-ide buruk.
Dalam skenario terbaik yang bisa dibayangkan, ilmu data dan ilmu perilaku yakin akan skala berbagai dampak buruk yang mungkin ditimbulkan oleh berita palsu. Namun, bahkan di sini pun, penerapan AI yang dikombinasikan dengan ilmu pengetahuan mungkin masih merupakan pengganti yang buruk untuk solusi yang kurang canggih namun lebih efektif.
Magda Osman, Profesor Dampak Kebijakan, Universitas Leeds
Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.