Recorded Future Identifikasi 4 Kasus Penggunaan AI yang Berbahaya

Ilustrasi deepfake (Sumber: freepik)

Techverse.asia - Perusahaan intelijen ancaman Recorded Future hari ini merilis laporan terbaru dari divisi penelitian ancamannya, Insikt Group, yang mengungkapkan kasus penggunaan kecerdasan buatan (AI) yang berbahaya kemungkinan besar akan muncul dari operasi deepfake dan pengaruh yang ditargetkan.

Laporan tersebut menemukan bahwa kasus penggunaan yang lebih canggih seperti pengembangan dan pengintaian malware akan mendapat manfaat dari kemajuan AI generatif.

Analis intelijen ancaman dan engineer dari penelitian dan pengembangan atau research and development (R&D) Recorded Future berkolaborasi untuk menguji empat kasus penggunaan AI yang berbahaya untuk menggambarkan 'seni dari kemungkinan' untuk penggunaan aktor ancaman.

Baca Juga: ADVANCE.AI Umumkan Pemimpin Baru, Akselerasi Transformasi Digital di Indonesia

Mereka menguji keterbatasan dan kemampuan model AI saat ini, mulai dari model bahasa besar (LLM) hingga model gambar multimodal dan text-to-speech (TTS). Semua pengujian dilakukan menggunakan gabungan model siap pakai dan model sumber terbuka (open source) untuk menyimulasikan akses pelaku ancaman yang realistis.

Temuan utama dari laporan berjudul Adversarial Intelligence: Red Teaming Malicious Use Cases for AI adalah:

Kasus penggunaan deepfake untuk menyamar sebagai eksekutif

Kemampuan sumber terbuka saat ini memungkinkan pembuatan deepfake yang direkam sebelumnya menggunakan rekaman video atau klip audio yang tersedia untuk umum, seperti wawancara dan presentasi.

Pelaku ancaman dapat menggunakan klip pendek (kurang dari satu menit) untuk melatih model ini. Namun demikian, memperoleh dan melakukan pra-pemrosesan klip audio untuk mendapatkan kualitas optimal masih memerlukan campur tangan manusia.

Baca Juga: Youtube Menambahkan Alat Pelabelan Konten Baru yang Dihasilkan oleh AI Generatif

Dalam kasus penggunaan yang lebih canggih, seperti kloning langsung, hampir pasti mengharuskan pelaku ancaman untuk melewati mekanisme persetujuan pada solusi komersial, karena masalah latensi pada model sumber terbuka kemungkinan membatasi efektivitasnya dalam streaming audio dan video.

Kasus mempengaruhi operasi yang meniru situs web yang sah

AI dapat digunakan untuk secara efektif menghasilkan disinformasi dalam skala besar, menyasar khalayak tertentu, dan dapat menghasilkan narasi kompleks dalam mencapai tujuan disinformasi.

Kecerdasan buatan dapat digunakan untuk secara otomatis menyusun konten yang kaya (seperti gambar nyata) berdasarkan teks yang dihasilkan, selain membantu manusia dalam mengkloning berita sah dan situs web pemerintah.

Biaya produksi konten untuk operasi pengaruh kemungkinan akan turun 100 kali lipat dibandingkan dengan para pembuat akun-akun lelucon dan penulis konten manusia. Namun, membuat template untuk meniru situs web yang sah adalah tugas penting yang memerlukan campur tangan manusia untuk menghasilkan spoof yang dapat dipercaya.

Baca Juga: Yellow.ai Hadirkan Email Automation Bertenaga AI Generatif

Kasus penggunaan malware yang membesar sendiri menghindari YARA

AI generatif dapat digunakan untuk menghindari aturan YARA berbasis string (alat yang bertujuan membantu peneliti malware mengidentifikasi dan mengklasifikasikan sampel malware) dengan menambah kode sumber varian dan skrip malware kecil, sehingga secara efektif menurunkan tingkat deteksi.

Akan tetapi model AI generatif saat ini menghadapi beberapa tantangan dalam membuat kode yang benar secara sintaksis dan mengatasi masalah linting kode serta kesulitan mempertahankan fungsionalitas setelah mengaburkan kode sumber.

Kasus penggunaan ICS dan pengintaian citra udara

AI multimodal dapat digunakan untuk memproses citra dan video publik untuk melakukan geolokasi fasilitas dan mengidentifikasi peralatan sistem kendali industri (ICS) - mulai dari perangkat, jaringan, kontrol, dan sistem yang digunakan untuk mengoperasikan dan/atau mengotomatisasi proses industri - dan bagaimana peralatan tersebut diintegrasikan ke dalam sistem lain yang diamati.

Menerjemahkan informasi ini menjadi data penargetan yang dapat ditindaklanjuti dalam skala besar masih merupakan tantangan, karena analisis manusia masih diperlukan untuk memproses informasi yang diekstraksi untuk digunakan dalam operasi ancaman fisik atau siber.

Baca Juga: 7 Masalah yang Timbul dari Mesin Pencari dengan Kecerdasan Buatan Bawaan

Tags :
BERITA TERKAIT
BERITA TERKINI