Ancaman Baru! Waspada Penipuan Menggunakan Teknologi AI

Minggu 01 Des 2024, 23:07 WIB
Ilustrasi penipuan berkedok teknologi AI. (Freepik)

Ilustrasi penipuan berkedok teknologi AI. (Freepik)

Misalnya, video yang menampilkan potongan-potongan klip artis terkenal yang suaranya telah diedit menggunakan teknologi AI untuk tujuan tertentu. 

Tak jarang, video-video seperti ini digunakan untuk mengiklankan situs judi online atau produk ilegal lainnya. 

Hal ini membuat banyak orang, terutama yang tidak mengetahui teknologi ini, percaya dengan apa yang mereka lihat.

Contoh yang lebih mencengangkan adalah pemanfaatan video dari tokoh publik seperti Rhoma Irama atau Ustaz Denis Slim, yang dimanipulasi untuk mengiklankan situs judi. 

Tentu saja ini adalah fitnah besar yang merusak reputasi mereka. Oleh karena itu, kita harus sangat berhati-hati dalam menerima informasi di media sosial.

2. Penipuan dengan Suara Palsu

Penipuan selanjutnya yang memanfaatkan teknologi AI adalah voice cloning atau peniruan suara. 

Teknologi ini memungkinkan penipu untuk meniru suara seseorang dengan tingkat keakuratan yang sangat tinggi. 

Biasanya, penipuan ini dilakukan melalui panggilan telepon atau pesan suara, di mana suara yang digunakan mirip sekali dengan suara orang yang kita kenal.

Salah satu modus yang banyak digunakan adalah dengan mengaku sebagai artis atau tokoh terkenal, lalu meminta korban untuk mengirimkan uang dengan alasan tertentu. 

Meskipun suara yang terdengar sangat mirip, kita tetap harus waspada, terutama jika percakapan mulai meminta informasi pribadi atau uang.

Contohnya, penipu sering menggunakan suara yang mirip dengan artis tertentu dan menghubungi korban melalui telepon untuk mengikuti konten giveaway. 

Namun, lama-kelamaan, pembicaraan akan beralih kepada permintaan uang dengan alasan yang tidak jelas. 

Berita Terkait

News Update