AI Kini Jadi Social Engineering, Bisa Tiru Suara Orang Terdekat

Fitur Teknologi AI Audio Deepfake
Fitur Teknologi AI Audio Deepfake
Sumber :
  • Karspersky

Teknologi ini awalnya dikembangkan untuk film, asisten virtual, atau alat bantu tunanetra. Namun kini banyak orang yang menyalahgunakan. 

Bagaimana modus penipuannya?

  1. Mengumpulkan Sampel Suara: Pelaku mengambil cuplikan suara target dari media sosial, video YouTube, atau rekaman WhatsApp.
  2. Voice Cloning: Menggunakan tools berbasis AI seperti ElevenLabs atau Descript, pelaku membuat rekonstruksi suara yang nyaris sempurna.
  3. Panggilan Manipulatif: Pelaku kemudian menelepon korban, berpura-pura menjadi orang terdekat, meminta uang, data penting, atau melakukan perintah tertentu.

Untuk melindungi diri dari serangan ini, ada beberapa langkah pencegahan yang bisa dilakukan oleh siapa pun:

  1. Selalu verifikasi ulang permintaan penting lewat saluran lain, seperti chat pribadi atau pertemuan langsung.
  2. Batasi unggahan suara di internet, terutama untuk keperluan publik.
  3. Aktifkan pengamanan dua lapis untuk transaksi keuangan dan komunikasi sensitif.
  4. Gunakan fitur "kode rahasia keluarga" dalam keluarga atau tim kerja, hanya diketahui oleh pihak terpercaya.
  5. Edukasi orang sekitar tentang potensi penipuan berbasis suara, terutama mereka yang belum familier dengan teknologi AI.

Demikian antisipasi yang dapat dilakukan untuk mencegah terjadinya penipuan. *