Advertisement

FBI Ungkap Penipuan AI Deepfake Berkedok Penculikan

Jumali
Minggu, 21 Desember 2025 - 13:07 WIB
Jumali
FBI Ungkap Penipuan AI Deepfake Berkedok Penculikan Ilustrasi penculikan anak. - Pixabay

Advertisement

Harianjogja.com, JOGJA—Teknologi kecerdasan buatan (AI) kini dimanfaatkan pelaku kejahatan siber untuk membuat video deepfake yang menampilkan penculikan palsu demi memeras korban.

Biro Investigasi Federal Amerika Serikat (FBI) baru-baru ini mengungkap modus baru yang memanfaatkan teknologi deepfake dan AI generatif untuk menyamar sebagai anggota keluarga korban yang diklaim "diculik".

Advertisement

Dalam skema kejahatan ini, pelaku mengumpulkan foto dan video target dari media sosial atau sumber terbuka lainnya di internet. Materi tersebut kemudian diolah menggunakan teknologi deepfake untuk menciptakan rekaman video palsu yang sangat meyakinkan. Video tersebut memperlihatkan seolah-olah orang terdekat korban tengah dalam kondisi disandera.

Melansir dari Tech Radar, video deepfake tersebut digunakan sebagai alat intimidasi. Pelaku biasanya menyertakan permintaan uang tebusan dengan ancaman akan membahayakan nyawa "sandera" jika keinginan mereka tidak dituruti. Meskipun praktik serupa pernah dilaporkan beberapa tahun lalu, laporan The Guardian menyebut bahwa kemajuan teknologi AI saat ini membuat metode ini jauh lebih berbahaya dan sulit dibedakan dari kenyataan.

Walaupun rekaman deepfake terkadang masih memiliki kelemahan teknis—seperti piksel yang tidak natural atau gerakan wajah yang kaku—pelaku memiliki strategi licik untuk menutupinya. Mereka sering mengirimkan foto atau video melalui fitur "pesan terbatas waktu" (disappearing messages) yang akan terhapus otomatis setelah dibuka.

"Terkadang pelaku sengaja mengirimkan foto dengan fitur pesan terbatas waktu untuk membatasi kesempatan korban dalam menganalisis detail gambar," jelas pihak FBI dalam pengumuman resminya.

Teknik ini sengaja dirancang untuk menciptakan tekanan psikologis yang hebat. Dengan adanya batas waktu, korban dipaksa untuk tidak berpikir jernih dan kehilangan kesempatan untuk memverifikasi keaslian rekaman tersebut.

Langkah Perlindungan Diri dari Penipuan AI

Sebagai langkah antisipasi, FBI membagikan sejumlah tips kunci untuk melindungi diri dari ancaman penipuan deepfake:

- Tingkatkan Kewaspadaan Digital: Batasi informasi pribadi yang dibagikan secara publik. Perketat pengaturan privasi pada akun media sosial guna mencegah pelaku mengambil materi foto atau video dengan mudah.

- Verifikasi Sebelum Bereaksi: Jika menerima pesan mendesak terkait tebusan, segera hubungi langsung anggota keluarga yang dimaksud melalui jalur komunikasi resmi (seperti panggilan telepon biasa). Jangan pernah menggunakan kontak yang diberikan oleh pengirim pesan tersebut.

- Jangan Terburu-buru: Inti dari penipuan ini adalah menciptakan kepanikan. Ambil waktu untuk bernapas dan memverifikasi situasi meskipun pelaku memberikan tenggat waktu yang singkat.

- Laporkan Kejadian: Segera laporkan upaya penipuan ini kepada pihak kepolisian atau otoritas berwenang serta platform media sosial tempat pesan tersebut diterima.

Penipuan deepfake dengan modus "penculikan palsu" mengeksploitasi emosi terdalam manusia melalui teknologi mutakhir. Kunci utama menghadapinya adalah tetap tenang dan selalu melakukan verifikasi independen sebelum melakukan tindakan apa pun, terutama yang melibatkan transfer uang. Kehati-hatian dalam membagikan kehidupan pribadi di ranah digital menjadi benteng pertahanan utama di era AI.

Cek Berita dan Artikel yang lain di Google News

Advertisement

Harian Jogja

Video Terbaru

Berita Lainnya

Advertisement

Harian Jogja

Advertisement

Tak Kenal Usia, 31 Santri Lansia Ponpes Sabilun Najah Diwisuda

Tak Kenal Usia, 31 Santri Lansia Ponpes Sabilun Najah Diwisuda

Sleman
| Minggu, 21 Desember 2025, 15:37 WIB

Advertisement

Sate Klathak Mbah Sukarjo Hadirkan Kuliner Khas di Pusat Kota

Sate Klathak Mbah Sukarjo Hadirkan Kuliner Khas di Pusat Kota

Wisata
| Sabtu, 20 Desember 2025, 15:47 WIB

Advertisement

Advertisement

Advertisement