Waspada! Risiko Tren Foto Al yang Mengakibatkan Penyalahgunaan Data Pribadi
Tren foto AI memang menawarkan kreativitas dan kemudahan yang menggiurkan, namun juga memiliki resiko penyalahgunaan data pribadi yang tak dapat dihindari.
Dalam beberapa tahun terakhir, teknologi generative AI (AI penghasil konten visual) makin meluas penggunaannya. Orang bisa membuat foto profil formal, gaya vintage, hingga hasil editan kreatif hanya berdasarkan instruksi teks (prompt) dan beberapa gambar awal.
Di Indonesia, fenomena ini makin viral, di mana foto-foto ala polaroid dengan idol K‑Pop atau bahkan editan yang tampak “personal” dengan figur publik menjadi sangat populer di media sosial.
Dilansir dari Tirto.id, meskipun pembuatan visual yang dihasilkan oleh AI berupa foto yang menarik, namun dibalik itu terdapat sejumlah resiko nyata yang perlu diperhatikan, sebagaimana berikut ini:
Baca Juga: Jangan Ikut Fomo! Bahaya Edit Foto Menggunakan AI
1. Pelanggaran Etika dan Reputasi
Foto yang diolah tanpa izin bisa memunculkan kesan yang salah, fitnah, atau tuduhan yang merugikan. Misalnya, warginet bisa saja diframing sedang melakukan hal-hal yang tidak warginet lakukan.
2. Penyalahgunaan Data Biometrik
Wajah, suara, ekspresi, gerakan, di mana itu semua termasuk data biometrik. Bila diambil tanpa izin, dapat disimpan, dianalisis, atau bahkan dijual ke pihak ketiga dengan tujuan komersial atau kriminal.
3. Hoaks dan Misleading
Foto yang dihasilkan AI bisa terlihat sangat realistis sehingga sulit dibedakan dari foto asli. Ini bisa dipakai untuk menyebarkan berita bohong, memfitnah seseorang, atau manipulasi publik secara lebih luas.
4. Kesalahan Identifikasi / False Positive
Teknologi pengenalan wajah yang melibatkan AI kadang keliru. Salah tangkap atau tuduhan berdasarkan analisis AI yang salah bisa sangat merusak reputasi dan kehidupan seseorang. Contoh kasus: Porcha Woodruff di AS, yang sempat ditangkap berdasarkan analisis wajah oleh sistem AI.
5. Kekurangan Regulasi yang Tegas di Indonesia
Meskipun sudah ada regulasi seperti UU ITE, UU Pornografi, dan peraturan tentang Penyelenggaraan Sistem Elektronik, ada celah hukum dalam hal persetujuan penggunaan data pribadi, pengolahan data biometrik, dan bagaimana data tersebut bisa disalahgunakan.
Terdapat pihak-pihak yang menanggapi serius terkait permasalah itu, seperti halnya yang terjadi pada beberapa atlet Tim Nasional Indonesia menyatakan ketidaknyamanan karena foto mereka diedit menggunakan AI, seperti tampak dipeluk atau dicium oleh idol SNS yang bukan asli kenalannya.
Baca Juga: Catat! 4 Rekomendasi AI yang Bisa Bantu Mudahkan Kerjakan Skripsi
Regulasi dan Tindakan yang Diperlukan
-
Peraturan Khusus Data Biometrik: Negara-negara seperti Denmark sudah memiliki undang-undang yang jelas mengenai penggunaan data biometrik seperti wajah, suara, properti tubuh tanpa izin.
-
Pedoman Privasi Internasional: OECD dalam laporannya menyebut bahwa pengumpulan data untuk melatih model AI harus sah, transparan, diketahui oleh pemilik data, dan tujuan penggunaannya konsisten.
-
Regulasi Deepfake dan Privasi: Penelitian dari Indonesia seperti pada jurnal Causa memperingatkan bahwa regulasi saat ini belum cukup adaptif untuk menangani penyalahgunaan deepfake dan tren manipulasi visual lainnya.
Cara Melindungi Diri
Berikut beberapa langkah praktis yang bisa dilakukan:
-
Jangan mengunggah foto pribadi ke aplikasi atau platform AI tanpa membaca syarat dan ketentuan mereka, khususnya bagian penggunaan data biometrik dan penyimpanan.
-
Gunakan fitur privasi, seperti pengaturan privasi foto di media sosial.
-
Tinjau apakah platform memberi opsi untuk menghapus data pribadi atau citra setelah digunakan.
-
Edukasi diri tentang cara membedakan foto asli dan hasil AI dan perlu skeptis terhadap konten visual yang terlalu sempurna.
-
Jika memungkinkan, gunakan teknik privasi seperti mempertimbangkan watermark digital atau teknik adversarial example yang dapat mempersulit pengenalan wajah otomatis. Terdapat penelitian yang sudah menyelidiki metode untuk mengaburkan data identitas agar tidak mudah dikenali oleh sistem AI.
0 Komentar
Anda belum bisa berkomentar, Harap masuk terlebih dahulu.