Jakarta, Prohealth.id – Kini marak muncul konten manipulasi foto atau video dengan AI (Artificial Intellegence) yang merugikan pihak tertentu di media sosial.
Seperti dalam aplikasi X, tidak sedikit orang yang mengakui pernah menjadi korban manipulasi foto, dari foto berbusana menjadi tak berbusana. Teknik memanipulasi gambar atau video dengan AI menghasilkan konten baru yang terlihat asli dan menyakinkan yaitu Deepfake. Bagaimana cara kerja dan bahayanya?
Dosen Fakultas Teknologi Maju dan Multidisiplin (FTMM) Universitas Airlangga (UNAIR) Aziz Fajar SKom, MKom menjabarkan bahwa deepfake adalah model AI untuk mengubah piksel pada gambar.
“Dengan mengubah nilai piksel pada gambar, maka gambar hasil modifikasi akan berbeda dengan gambar aslinya,” katanya melalui siaran pers yang diterima Prohealth.id, Senin (26/2/2024).
Dosen program studi sains data itu menyampaikan, aplikasi AI tersebut pun mampu mengubah tampilan wajah. Metode ini kerap menyebabkan penyalahgunaan dari oknum yang tidak bertanggung jawab.
“Deepfake bisa mengubah wajah seseorang. Sehingga dapat dimungkinkan pembuatan video atau gambar hoaks. Padahal, orang yang menjadi korban tidak pernah melakukannya,” tuturnya.
Cara Kenali Gambar Hasil Deepfake
Fenomena gambar dan video palsu melalui AI tentu menjadi kekhawatiran publik, khususnya bagi mereka yang aktif bersosial media. Tidak jarang, korbannya mengalami stres karena mendapatkan reputasi buruk di lingkungan sosialnya. Terlebih, kini masih banyak masyarakat yang mudah menerima informasi secara ‘mentah’ meski melalui sumber yang tidak kredibel.
Aziz selaku dosen pengampu mata kuliah Machine Learning menyampaikan bahwa kini telah tersedia aplikasi yang dapat mendeteksi deepfake. Salah satunya ialah Microsoft’s Video Authenticator Tools. Aplikasi keluaran Microsoft itu dapat membantu kita untuk mendeteksi foto dan video palsu yang tersebar. Maka dengan menggunakan software anti deepfake ini, dapat mengetahui foto atau video tersebut hasil deepfake atau bukan.
“Walaupun, ada kemungkinan software gagal mendeteksi adanya deepfake,” tambahnya.
Meski demikian, Aziz menyampaikan perlunya pengembangan AI detector yang lebih baik setiap hari. Hal ini mengingat, deepfake pasti bakal terus berkembang ke depannya. Bukan hanya itu, suatu konten di masyarakat akan bernilai berbeda-beda. Oleh karena itu, semuanya tetap bergantung pada para pengguna.
“Pada akhirnya, tergantung pada konsumen media yang ada untuk mau dan mampu berpikir kritis, mencari tau sumbernya atau langsung percaya begitu saja,” pungkasnya.
Editor: Gloria Fransisca Katharina Lawi
Discussion about this post