TIKTAK.ID – Twitter diketahui tengah menguji coba fitur keamanan baru bernama Safety Mode. Fitur tersebut dapat dimanfaatkan pengguna untuk memblokir akun yang mengirimkan pelecehan dan ujaran kebencian secara otomatis.
Ketika pengguna mengaktifkan fitur Safety Mode, maka sistem Twitter akan memblokir akun secara otomatis selama tujuh hari, bila ketahuan mengirimkan cuitan berisi ujaran kebencian atau mengirimkan balasan secara berulang-ulang.
“Saat fitur ini diaktifkan di Settings, sistem kami akan menilai kemungkinan engagement negatif dengan mempertimbangkan konten Tweet dan hubungan antara penulis Tweet dengan akun yang membalas,” ujar Senior Product Manager Twitter, Jarrod Doherty, melalui blog Twitter, seperti dikutip detik.com dari The Verge, Jumat (3/9/21).
“Teknologi kami akan mempertimbangkan hubungan yang telah ada. Jadi akun yang kalian ikuti atau sering berinteraksi tidak akan diblokir secara otomatis,” imbuh Jarrod.
Fitur Safety Mode sendiri kini masih diuji coba secara terbatas melibatkan “feedback group” di iOS, Android, dan Twitter.com. Uji coba tersebut pun saat ini mengutamakan akun jurnalis perempuan dan anggota kelompok marjinal. Namun hal itu akan diperluas dalam beberapa bulan ke depan.
Nantinya, akun yang telah diblokir secara otomatis tak akan bisa mengikuti akun pengguna yang memblokir, melihat cuitan, atau mengirimkan direct message selama satu minggu. Akan tetapi, bila sistem Twitter melakukan kesalahan dan memblokir akun yang tidak bermasalah, maka pengguna dapat mencabut blokirnya kapan saja melalui pengaturan.
“Kami juga akan secara teratur mengawasi akurasi sistem Safety Mode, demi meningkatkan kemampuan deteksi kami,” terang Jarrod.
Sekadar informasi, Twitter pertama kali memamerkan Safety Mode pada bulan Februari, namun ketika itu mereka belum mengungkap kapan fitur tersebut diluncurkan.
Fitur ini dapat melengkapi fitur keamanan Twitter lainnya, yaitu menyembunyikan balasan, membatasi akun yang boleh membalas cuitan, serta mengeluarkan peringatan jika pengguna berencana mengirimkan cuitan yang berpotensi melecehkan.
Seperti diketahui, walaupun sudah mengenalkan deretan fitur keamanan, namun pelecehan dan ujaran kebencian masih menjadi masalah besar bagi Twitter. Salah satunya, kasus komentar rasis yang menimpa tiga pemain kulit hitam tim nasional Inggris usai kalah di final Piala Euro 2020.