Gaya Hidup

Microsoft Blokir Kata Kunci di IA Copilot, Mengapa?

INDOPOSCO.ID – Microsoft memblokir sejumlah kata kunci perintah (prompt) di aplikasi kecerdasan buatan (AI) Copilot yang menghasilkan gambar dengan unsur kekerasan, seksual, dan hal-hal terlarang lainnya.

Kebijakan ini diterapkan setelah seorang karyawan Microsoft, Shane Jones menyurati Federal Trade Commission (FTC) untuk menyampaikan beberapa keluhan terkait teknologi kecerdasan buatan generatif milik Microsoft.

“Kami terus memantau, menyesuaikan dan membuat kontrol tambahan untuk lebih memperkuat filter keamanan kami dan mengurangi penyalahgunaan sistem,” kata Microsoft dikutip dari Engadget pada Sabtu (9/3/2024).

Ketika pengguna mengetik perintah yang mengandung kata kunci “pro choice”, “four twenty”, atau “pro life”, Copilot akan menampilkan pesan yang mengatakan bahwa perintah tersebut telah diblokir. Copilot juga akan menangguhkan akun pengguna yang melakukan pelanggaran kebijakan berulang kali.

Pengguna yang meminta untuk menghasilkan gambar anak-anak memegang senjata atau gambar lain yang mengandung unsur serupa juga mendapatkan peringatan bahwa kata kunci tersebut melanggar kebijakan Microsoft dan prinsip etik Copilot.

Sebelumnya, Shane Jones telah memperingati Microsoft mengenai gambar-gambar terlarang yang dapat dihasilkan oleh Copilot.

Saat menguji Copilot Designer sejak Desember lalu, dia menemukan bahwa aplikasi kecerdasan buatan tersebut dapat membuat gambar yang mengandung unsur terlarang.

Contohnya dia menemukan perintah dengan kata kunci “pro choice” dapat menggerakkan Copilot untuk menghasilkan gambar yang menunjukkan konten kekerasan kepada anak seperti dikutip Antara.

Shane telah menyurati FTC dan dewan direksi Microsoft mengenai persoalan tersebut pada pekan ini. (aro)

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button