OpenAI, perusahaan pembuat ChatGPT, telah meluncurkan sistem kecerdasan buatan (AI) baru yang disebut Strawberry. Ini dirancang tidak hanya untuk memberikan tanggapan cepat terhadap pertanyaan, seperti ChatGPT, tetapi untuk berpikir atau “bernalar”.
Hal ini menimbulkan beberapa kekhawatiran besar. Jika Strawberry benar-benar mampu berpikir, dapatkah sistem AI ini menipu dan menipu manusia?
OpenAI dapat memprogram AI dengan cara yang mengurangi kemampuannya untuk memanipulasi manusia. Namun evaluasi perusahaan menilai senjata ini memiliki “risiko menengah” karena kemampuannya membantu para ahli dalam “perencanaan operasional untuk mereproduksi ancaman biologis yang diketahui” – dengan kata lain, senjata biologis. Ia juga dinilai memiliki risiko sedang karena kemampuannya membujuk manusia untuk mengubah pemikirannya.
Masih harus dilihat bagaimana sistem seperti itu dapat digunakan oleh mereka yang mempunyai niat buruk, seperti penipu atau peretas. Namun demikian, evaluasi OpenAI menyatakan bahwa sistem berisiko menengah dapat dirilis untuk penggunaan yang lebih luas – sebuah posisi yang saya yakini salah arah.
Strawberry bukanlah satu “model” atau program AI, namun beberapa – yang secara kolektif dikenal sebagai o1. Model-model ini dimaksudkan untuk menjawab pertanyaan-pertanyaan kompleks dan memecahkan masalah matematika yang rumit. Mereka juga mampu menulis kode komputer – misalnya untuk membantu Anda membuat situs web atau aplikasi Anda sendiri.
Kemampuan bernalar yang tampak jelas mungkin mengejutkan bagi sebagian orang, karena kemampuan ini umumnya dianggap sebagai awal dari penilaian dan pengambilan keputusan – sesuatu yang sering kali tampak sebagai tujuan yang jauh dari AI. Jadi, setidaknya di permukaan, hal ini tampaknya membuat kecerdasan buatan selangkah lebih dekat dengan kecerdasan yang mirip dengan manusia.
Ketika segala sesuatu tampak terlalu bagus untuk menjadi kenyataan, sering kali ada kendala. Nah, rangkaian model AI baru ini dirancang untuk memaksimalkan tujuannya. Apa artinya ini dalam praktiknya? Untuk mencapai tujuan yang diinginkan, jalur atau strategi yang dipilih oleh AI belum tentu adil atau sejalan dengan nilai-nilai kemanusiaan.
Niat yang sebenarnya
Misalnya, jika Anda bermain catur melawan Strawberry, secara teori, dapatkah alasannya memungkinkan Strawberry meretas sistem penilaian daripada memikirkan strategi terbaik untuk memenangkan permainan?
AI mungkin juga bisa berbohong kepada manusia tentang niat dan kemampuan sebenarnya, yang akan menimbulkan masalah keamanan yang serius jika digunakan secara luas. Misalnya, jika AI mengetahui bahwa ia terinfeksi malware, dapatkah ia “memilih” untuk menyembunyikan fakta ini karena mengetahui bahwa operator manusia mungkin memilih untuk menonaktifkan seluruh sistem jika mereka mengetahuinya?
Ini adalah contoh klasik dari perilaku AI yang tidak etis, dimana kecurangan atau penipuan dapat diterima jika hal tersebut mengarah pada tujuan yang diinginkan. Ini juga akan lebih cepat bagi AI, karena tidak perlu membuang waktu untuk memikirkan langkah terbaik berikutnya. Namun hal ini belum tentu benar secara moral.
Hal ini mengarah pada diskusi yang agak menarik namun mengkhawatirkan. Tingkat penalaran seperti apa yang mampu dilakukan Strawberry dan apa saja konsekuensi yang tidak diinginkan? Sistem AI canggih yang mampu menipu manusia dapat menimbulkan risiko etika, hukum, dan finansial yang serius bagi kita.
Risiko-risiko tersebut menjadi serius dalam situasi-situasi kritis, seperti merancang senjata pemusnah massal. OpenAI menilai model Strawberry miliknya memiliki “risiko menengah” karena potensinya membantu para ilmuwan dalam mengembangkan senjata kimia, biologi, radiologi, dan nuklir.
OpenAI mengatakan: “Evaluasi kami menemukan bahwa o1-preview dan o1-mini dapat membantu para ahli dalam perencanaan operasional untuk mereproduksi ancaman biologis yang diketahui.” Namun lanjutnya, para ahli sudah mempunyai keahlian yang signifikan dalam bidang-bidang tersebut, sehingga risiko dalam praktiknya akan terbatas. Ia menambahkan: “Model-model tersebut tidak memungkinkan orang yang bukan ahli untuk menciptakan ancaman biologis, karena menciptakan ancaman semacam itu memerlukan keterampilan laboratorium yang tidak dapat digantikan oleh model tersebut.”
Kekuatan persuasi
Evaluasi OpenAI terhadap Strawberry juga menyelidiki risiko yang dapat membujuk manusia untuk mengubah keyakinan mereka. Model o1 baru ditemukan lebih persuasif dan manipulatif dibandingkan ChatGPT.
OpenAI juga menguji sistem mitigasi yang mampu mengurangi kemampuan manipulatif sistem AI. Secara keseluruhan, Strawberry diberi label risiko menengah untuk “persuasi” dalam pengujian Open AI.
Strawberry dinilai berisiko rendah karena kemampuannya beroperasi secara mandiri dan keamanan siber.
Kebijakan Open AI menyatakan bahwa model “risiko menengah” dapat dirilis untuk penggunaan luas. Menurut saya, hal ini meremehkan ancaman yang ada. Penerapan model-model seperti itu bisa menjadi bencana besar, terutama jika pelaku kejahatan memanipulasi teknologi demi kepentingan mereka sendiri.
Hal ini memerlukan pengawasan dan keseimbangan yang kuat yang hanya dapat dilakukan melalui regulasi AI dan kerangka hukum, seperti memberikan sanksi terhadap penilaian risiko yang salah dan penyalahgunaan AI.
Pemerintah Inggris menekankan perlunya “keselamatan, keamanan, dan ketahanan” dalam buku putih AI tahun 2023, namun hal tersebut belum cukup. Ada kebutuhan mendesak untuk memprioritaskan keselamatan manusia dan merancang protokol pengawasan yang ketat untuk model AI seperti Strawberry.
Shweta Singh, Asisten Profesor, Sistem Informasi dan Manajemen, Warwick Business School, Universitas Warwick
Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.