AI Kini Jadi Social Engineering, Bisa Tiru Suara Orang Terdekat
Kamis, 17 April 2025 - 18:00 WIB

Sumber :
- Karspersky
Teknologi ini awalnya dikembangkan untuk film, asisten virtual, atau alat bantu tunanetra. Namun kini banyak orang yang menyalahgunakan.
Bagaimana modus penipuannya?
- Mengumpulkan Sampel Suara: Pelaku mengambil cuplikan suara target dari media sosial, video YouTube, atau rekaman WhatsApp.
- Voice Cloning: Menggunakan tools berbasis AI seperti ElevenLabs atau Descript, pelaku membuat rekonstruksi suara yang nyaris sempurna.
- Panggilan Manipulatif: Pelaku kemudian menelepon korban, berpura-pura menjadi orang terdekat, meminta uang, data penting, atau melakukan perintah tertentu.
Untuk melindungi diri dari serangan ini, ada beberapa langkah pencegahan yang bisa dilakukan oleh siapa pun:
- Selalu verifikasi ulang permintaan penting lewat saluran lain, seperti chat pribadi atau pertemuan langsung.
- Batasi unggahan suara di internet, terutama untuk keperluan publik.
- Aktifkan pengamanan dua lapis untuk transaksi keuangan dan komunikasi sensitif.
- Gunakan fitur "kode rahasia keluarga" dalam keluarga atau tim kerja, hanya diketahui oleh pihak terpercaya.
- Edukasi orang sekitar tentang potensi penipuan berbasis suara, terutama mereka yang belum familier dengan teknologi AI.
Demikian antisipasi yang dapat dilakukan untuk mencegah terjadinya penipuan. *