halopadang.id – Beberapa dari kita mungkin sudah familiar dengan suara kecerdasan buatan (AI) melalui asisten digital sepertiSiri atau Alexa.
Suara yang disampaikan dengan nada datar dan cara penyampaian yang kaku membuatnya mudah dikenali sebagai suara mesin.
Namun, sebuah penelitian terbaru yang dilakukan oleh Nadine Lavan menunjukkan bahwa batas antara suara manusia dan suara buatan AI kini semakin tidak jelas.
Penelitian yang diterbitkan pada 24 September 2025 di jurnal PLOS Onemengungkap, rata-rata pendengar kini mengalami kesulitan membedakan suara manusia asli dengan suara “deepfake” yang dihasilkan AI.
Kemudian, apa saja topik yang dibahas dalam penelitian tersebut?
Manusia kini kesulitan membedakan suara asli dengan suara yang dihasilkan secara buatan.
Dilansir dari PLOS One, Lavan dan rekan timnya memanfaatkan dua jenis suara AI untuk menguji dampak hiperrealisme, yaitu sejauh mana AI mampu menghasilkan replika yang hampir sama persis dengan manusia.
Suara pertama berasal dari model AI umum yang biasa digunakan dalam iklan, video konten, atau buku audio.
Sementara suara kedua berasal dari klon suara manusia, yang dibuat berdasarkan rekaman suara seseorang.
Di dalam penelitian ini, peneliti menyediakan 80 sampel suara yang terdiri dari 40 suara asli manusia dan 40 suara hasil pembuatan AI.
Mereka kemudian memainkannya kepada 50 peserta berusia 18 hingga 65 tahun yang tidak mengalami gangguan pendengaran.
Tujuan dari hal tersebut adalah untuk menguji sejauh mana suara tersebut mirip atau mendekati suara manusia asli.
“Kami menduga bahwa efek hiperrealisme ini kemungkinan besar akan terlihat pada suara klon. Mengingat mereka meniru identitas suara manusia tertentu, sehingga mungkin terdengar seperti manusia asli,” ujar Lavan.
Akibatnya, 41 persen peserta menganggap suara AI umum sebagai suara manusia, sedangkan 58 persen salah mengira suara AI yang diklon sebagai suara asli manusia.
Dengan kata lain, sebagian besar orang kini kesulitan membedakan suara yang dihasilkan oleh AI dengan suara manusia asli.
Risiko etika dan keamanan
Dikutip dari Live Science, Sabtu (4/10/2025), Lavan menganggap hasil penelitian ini menimbulkan kekhawatiran yang sangat serius dalam hal etika, keamanan, dan hak cipta.
“Jika suara Anda dapat direplikasi, pelaku kejahatan bisa menipu sistem verifikasi suara di bank atau bahkan menipu keluarga Anda agar mentransfer uang,” katanya.
Peristiwa semacam ini pernah terjadi. Pada bulan Juli, Sharon Brightwell menjadi korban penipuan senilai 15.000 dolar AS setelah menerima panggilan dari seseorang yang suaranya mirip sekali dengan putrinya.
“Tidak ada yang dapat meyakinkan saya bahwa itu bukan dia,” kata Brightwell.
Selain itu, suara yang dihasilkan oleh kecerdasan buatan juga bisa digunakan untuk menyebarkan informasi palsu.
Baru-baru ini, para penipu di Australia meniru suara Perdana Menteri Queensland, Steven Miles, dalam upaya mempromosikan penipuan investasi Bitcoin.
Yang lebih mengejutkan lagi, para ilmuwan menyatakan bahwa klon suara dalam penelitian ini dibuat tanpa menggunakan teknologi yang rumit.
Hanya dengan menggunakan perangkat lunak komersial dan empat menit rekaman suara manusia, sistem AI mampu meniru suara seseorang secara sangat nyata.
“Prosesnya sederhana, terjangkau, dan hampir tidak memerlukan keterampilan khusus,” kata Lavan.
“Ini menunjukkan betapa pesatnya perkembangan teknologi suara AI dan betapa mudahnya diakses oleh siapa saja,” katanya.
Meskipun memiliki risiko penyalahgunaan, Lavan menekankan bahwa teknologi suara berbasis AI juga mampu memberikan manfaat yang signifikan.
“Suara yang dihasilkan secara sintetis dengan kualitas baik dapat meningkatkan kemudahan akses, mendukung proses belajar, serta memperluas cara berkomunikasi,” katanya.
“Jika digunakan dengan benar, kecerdasan buatan tidak dimaksudkan untuk menipu manusia, melainkan untuk membantu mereka,” katanya.
