HOLOPIS.COM, JAKARTA – AI (Artificial Intelligence) atau kecerdasan buatan mulai banyak bermunculan, untuk membuat segala urusan jadi lebih mudah dan simpel. Bahkan, mulai banyak perusahaan yang menggunakan AI untuk menggantikan pekerjaan yang biasanya dikerjakan oleh orang.
Namun, penggunaan AI ternyata punya sisi lain yang berpotensi menimbulkan pelanggaran. Apalagi basis AI adalah data yang beberapa diantaranya bersifat privasi.
“Sering menjadi perdebatan karena AI kan dikembangkan berdasarkan data. Namun banyak data ini kan sifatnya privasi ya,” ujar Peneliti Ahli Utama dari Pusat Riset Kecerdasan Artifisial dan Keamanan Siber BRIN, Hilman F. Pardede dalam sebuah diskusi yang dikutip Holopis.com, Jumat (2/6).
“Misalnya kalau kita mengembangkan sistem untuk terkait di bidang kesehatan, kemungkinan termasuk data yang dipakai itu adalah data rekam medis yang sifatnya private,” sambungnya.
Hilman juga mencontohkan, seperti sistem keamanan dalam pengenalan wajah yang dipakai untuk menangkap teroris. Sistem tersebut, membutuhkan data masyarakat umum sehingga AI bisa mengenali wajah pelaku terorisme.
Data yang digunakan dalam sistem AI juga bisa bias, apalagi data yang digunakan dari berbagai golongan maupun ras masyarakat sehingga komentar yang diberikan AI bisa jadi rasis.
“Ini terkait kebiasaan, contoh kasus misalnya di Amerika. Itu kan isu yang sensitif ya terutama terkait kulit hitam dan kulit putih. Nah ada sistem yang dilatih itu menggunakan terkait identifikasi ras. Ada image dan caption. Ketika dikasih gambar yang kulit hitam dia itu agak rasis komentarnya karena data yang dipakai untuk melatih sistem itu juga bias,” katanya.
“Ketika dia dilatih dengan data bias, model datanya juga bisa jadi bias. Kalau dilatih dengan data rasis ya jadi rasis. Jadi, ada pola dari data. Dia cuman tahu menghubungkan itu aja,” pungkas Hilman.