AI Bisa Jadi Malaikat atau Iblis: Tergantung Siapa yang Mengendalikannya

Ilustrasi hacker hantu.
Sumber :
  • Dok. Kaspersky

Jakarta, VIVA – Bersiaplah menghadapi serangan yang lebih canggih dan tersembunyi yang didorong oleh kebangkitan kecerdasan buatan (AI) gelap (Dark AI) di Asia Pasifik.

Hal ini merupakan salah satu temuan utama yang dibagikan oleh perusahaan keamanan siber global dan privasi digital Kaspersky.

Perusahaan memaparkan bagaimana penyerang menggunakan teknologi AI untuk melancarkan ancaman digital di seluruh dunia – mulai dari serangan phishing sederhana hingga spionase siber yang didukung negara.

“Sejak ChatGPT mendapatkan popularitas global pada tahun 2023, kami telah mengamati beberapa adopsi AI yang bermanfaat, mulai dari tugas-tugas sederhana seperti pembuatan video hingga deteksi dan analisis ancaman teknis. Di saat yang sama, pelaku kejahatan siber menggunakannya untuk meningkatkan kemampuan serangan mereka. Kita memasuki era keamanan siber dan masyarakat di mana AI adalah perisai dan Dark AI adalah pedangnya,” kata Sergey Lozhkin, Kepala Tim Riset & Analisis Global (GReAT) untuk META dan APAC Kaspersky, Selasa, 12 Agustus 2025.

AI gelap mengacu pada penerapan model bahasa besar (LLM) lokal atau jarak jauh yang tidak dibatasi dalam kerangka kerja penuh atau sistem chatbot yang digunakan untuk tujuan berbahaya, tidak etis, atau tidak sah.

Sistem ini beroperasi di luar kendali keamanan, kepatuhan, atau tata kelola standar, yang seringkali memungkinkan kemampuan seperti penipuan, manipulasi, serangan siber, atau penyalahgunaan data tanpa pengawasan.

Dark AI Beraksi

Lozhkin menjelaskan bahwa penggunaan AI berbahaya yang paling umum dan terkenal saat ini adalah dalam bentuk Black Hat GPT, yang muncul sejak pertengahan 2023.

Ini adalah model AI yang sengaja dibuat, dimodifikasi, atau digunakan untuk melakukan aktivitas yang tidak etis, ilegal, atau berbahaya seperti menghasilkan kode berbahaya, merancang email phishing yang lancar dan persuasif untuk serangan massal maupun tertarget, membuat deepfake suara dan video, dan bahkan mendukung operasi Red Team.

Black Hat GPT dapat berupa model AI privat atau semi-privat. Contoh yang diketahui antara lain WormGPT, DarkBard, FraudGPT, dan Xanthorox, yang dirancang atau diadaptasi untuk mendukung kejahatan siber, penipuan, dan otomatisasi berbahaya.

Selain penggunaan Dark AI yang umum, Lozhkin mengungkapkan bahwa para ahli Kaspersky kini mengamati tren yang lebih gelap – aktor negara-bangsa memanfaatkan LLM dalam kampanye mereka.

OpenAI baru-baru ini mengungkapkan telah menggagalkan lebih dari 20 operasi siber terselubung yang mencoba menyalahgunakan perangkat AI-nya.

"Kita dapat memperkirakan para pelaku ancaman akan menciptakan cara yang lebih cerdas untuk mempersenjatai AI generatif yang beroperasi di ekosistem ancaman publik dan privat. Kita harus bersiap menghadapinya,” jelasnya.

Laporan OpenAI mengungkapkan bahwa para pelaku kejahatan siber telah menggunakan LLM untuk menciptakan persona palsu yang meyakinkan, merespons target secara real-time, dan menghasilkan konten multibahasa yang dirancang untuk menipu korban dan menerobos filter keamanan tradisional.

“AI tidak secara inheren dapat membedakan yang benar dan yang salah, melainkan alat yang mengikuti perintah. Bahkan ketika perlindungan telah diterapkan, kita tahu APT adalah penyerang yang gigih. Seiring dengan semakin mudah diakses dan mumpuninya perangkat dark AI, penting bagi organisasi dan individu di Asia Pasifik untuk memperkuat higiene keamanan siber, berinvestasi dalam deteksi ancaman yang didukung oleh AI itu sendiri, dan terus mempelajari bagaimana teknologi ini dapat dieksploitasi,” tutur Lozhkin.