AI Kini Jadi Social Engineering, Bisa Tiru Suara Orang Terdekat

Fitur Teknologi AI Audio Deepfake
Fitur Teknologi AI Audio Deepfake
Sumber :
  • Karspersky

VIVATechno – Bayangkan menerima panggilan telepon dari ibumu yang meminta uang karena sedang dalam bahaya.

Suaranya persis, intonasinya sama, bahkan gaya bicaranya tidak asing. Tapi ternyata, itu bukan dia.

Inilah ancaman nyata dari deepfake voice—teknologi berbasis kecerdasan buatan yang kini digunakan untuk social engineering, teknik penipuan yang mengandalkan manipulasi psikologis.

Dari laporan VIDA, terdapat 67 persen penipuan peniruan identitas dan 42 persen serangan rekayasa sosial atau social engineering tindakan memanipulasi seseorang dengan memanfaatkan kesalahan mereka untuk memberikan data atau informasi yang bersifat rahasia.

Saat ini di tahun 2025, serangan jenis ini meningkat pesat, khususnya dalam modus penipuan keuangan dan manipulasi informasi.

Apa itu deepfake voice?

Deepfake voice adalah hasil dari teknologi voice cloning berbasis AI yang mampu meniru suara seseorang hanya dengan rekaman singkat (3–5 detik).

Teknologi ini awalnya dikembangkan untuk film, asisten virtual, atau alat bantu tunanetra. Namun kini banyak orang yang menyalahgunakan. 

Bagaimana modus penipuannya?

  1. Mengumpulkan Sampel Suara: Pelaku mengambil cuplikan suara target dari media sosial, video YouTube, atau rekaman WhatsApp.
  2. Voice Cloning: Menggunakan tools berbasis AI seperti ElevenLabs atau Descript, pelaku membuat rekonstruksi suara yang nyaris sempurna.
  3. Panggilan Manipulatif: Pelaku kemudian menelepon korban, berpura-pura menjadi orang terdekat, meminta uang, data penting, atau melakukan perintah tertentu.

Untuk melindungi diri dari serangan ini, ada beberapa langkah pencegahan yang bisa dilakukan oleh siapa pun:

  1. Selalu verifikasi ulang permintaan penting lewat saluran lain, seperti chat pribadi atau pertemuan langsung.
  2. Batasi unggahan suara di internet, terutama untuk keperluan publik.
  3. Aktifkan pengamanan dua lapis untuk transaksi keuangan dan komunikasi sensitif.
  4. Gunakan fitur "kode rahasia keluarga" dalam keluarga atau tim kerja, hanya diketahui oleh pihak terpercaya.
  5. Edukasi orang sekitar tentang potensi penipuan berbasis suara, terutama mereka yang belum familier dengan teknologi AI.

Demikian antisipasi yang dapat dilakukan untuk mencegah terjadinya penipuan. ****