Bagaimana Tiongkok dan Rusia berharap AI akan membantu memanipulasi informasi
Staf FORUM
Aktor jahat di Republik Rakyat Tiongkok (RRT), Rusia, dan di tempat lain telah menggunakan kecerdasan buatan (artificial intelligence – AI) — meskipun dampaknya dapat diabaikan — untuk meningkatkan skema informasi yang dimanipulasi, demikian menurut para peneliti.
OpenAI, pengembang chatbot AI ChatGPT yang berkantor pusat di Amerika Serikat, melaporkan pada pertengahan tahun 2024 bahwa pihaknya telah mendeteksi dan mengacaukan setidaknya lima operasi pengaruh terselubung yang menggunakan model AI-nya. Di antaranya adalah jaringan RRT yang dikenal sebagai Spamouflage, yang dikenal untuk pesan-pesannya yang pro-Beijing serta gangguan terhadap para pembangkang di luar negeri, dan operasi Doppelganger Rusia, yang biasanya berupaya merongrong dukungan terhadap Ukraina ketika Moskow melancarkan perang terhadap negara tetangganya yang memiliki pemerintahan demokratis itu.
Agen yang menyebarkan informasi palsu dan menyesatkan menggunakan alat bantu OpenAI untuk menghasilkan teks dalam jumlah besar, termasuk untuk komentar online, dalam berbagai bahasa, demikian menurut pengembangnya. Para analis mengatakan sasarannya adalah untuk menciptakan kesan palsu seolah-olah pesan yang dimanipulasi itu berasal dari audiens organik dalam jumlah besar, dan bukannya dari kelompok yang disponsori negara dan bertanggung jawab atas operasi itu.
Dalam kasus lain, Spamouflage meminta bantuan ChatGPT dalam pengodean komputer di situs web, yang menampung berbagai artikel yang menyerang anggota diaspora Tiongkok yang mengkritik pelanggaran hak asasi manusia RRT, demikian menurut OpenAI.
Pembuat informasi palsu dan menyesatkan juga meminta ChatGPT untuk membuat teks dengan lebih sedikit kesalahan tata bahasa dan kesalahan bahasa lainnya. Jika AI dapat membuat propaganda tampak berasal dari bahasa asli target, pembaca lebih cenderung berasumsi bahwa propaganda itu sah.
Manipulator informasi yang dideteksi OpenAI belum mampu mencapai kecanggihan semacam itu.
“Kampanye pengaruh menghadapi batas-batas AI generatif, yang tidak dapat diandalkan untuk menghasilkan teks atau kode yang baik,” demikian yang dilaporkan majalah Wired. “OpenAI mengalami kesulitan dengan ungkapan — yang membuat bahasa terdengar lebih manusiawi dan personal — dan terkadang juga mengalami kesulitan dengan tata bahasa dasar (sedemikian rupa sehingga OpenAI menamai salah satu jaringan itu sebagai ‘Bad Grammar (Tata Bahasa Buruk).’)”
Operasi Bad Grammar Rusia, yang mengandalkan AI dan bukannya kemampuan bahasa Inggris, secara tidak sengaja memposting beberapa komentar ke Telegram yang dimulai dengan “Sebagai model bahasa AI, saya berada di sini untuk membantu dan menyediakan …”
Tak satu pun dari kampanye manipulasi informasi yang dideteksi OpenAI di platformnya mengalami peningkatan signifikan dalam keterlibatan atau jangkauan audiens oleh karena penggunaan AI.
“AI generatif mengurangi biaya menjalankan kampanye propaganda, sehingga memproduksi konten dan menjalankan akun otomatis interaktif menjadi jauh lebih murah,” tulis peneliti Josh Goldstein, dari Center for Security and Emerging Technology di Georgetown University, dan Renee DiReste, dari Stanford Internet Observatory.
“Tapi ini bukanlah solusi ajaib, dan dalam kasus operasi yang diungkapkan OpenAI, apa yang dihasilkan terkadang tampak seperti spam. Audiens tidak terpancing.”
Audiens online dapat memerangi konten yang bersifat menipu dengan mempertimbangkan kebenaran sumber, menghadapi informasi digital dengan skeptisisme, serta membantu teman dan keluarga memahami prevalensi konten AI.
Para peneliti berbagi informasi dan mengungkap penyalahgunaan AI dengan alat bantu seperti AI Incident Database dan Political Deepfakes Incident Database.
Sementara itu, AI juga dimanfaatkan untuk menganalisis konten guna mendeteksi manipulasi informasi yang tidak akurat dan berpotensi membahayakan dengan lebih baik, demikian tulis Josh Goldstein dan Renee DiReste untuk Massachusetts Institute of Technology Review.
Dalam laporan mengenai penggunaan merugikan terhadap teknologinya, OpenAI menyerukan kerja sama untuk mengamankan lingkungan informasi digital. “Kita tidak akan mampu menghentikan setiap peristiwa [manipulasi informasi],” ungkapnya. “Tetapi dengan terus berinovasi, menyelidiki, berkolaborasi, dan berbagi, kita mempersulit pelaku ancaman untuk tetap tidak terdeteksi di seluruh ekosistem digital.”