slot jepang Pay4d

Peneliti Sebut Bot Media Sosial Jadi Masalah Baru yang Bisa Memecah Belah

Republika.co.id, Jakarta – Apakah Anda ingat bahwa ancaman terbesar bagi Cyberspazio adalah virus komputer? Ini adalah waktu yang lebih sederhana. Sekarang kami menghadapi bahaya digital yang jauh lebih berbahaya: untuk mendukung robot media sosial.

Sebuah studi yang dilakukan oleh para peneliti dari University of Washington dan University of Xi’an Jiaotong mengungkapkan potensi besar dan risiko penggunaan model bahasa skala besar (LLM), seperti chatgpt, dalam deteksi dan penciptaan profil palsu yang menipu ini.

Robot media sosial (akun otomatis yang dapat meniru perilaku manusia) telah lama menjadi duri untuk platform bagi operator dan pengguna. Laporan buatan ini dapat menyebarkan informasi palsu, menghentikan pemilihan umum dan bahkan mempromosikan ideologi ekstremis.

Sampai sekarang, perang dengan robot telah menjadi permainan kucing konstan. Para peneliti sedang mengembangkan metode deteksi yang semakin canggih dan hanya produsen bot yang menemukan cara baru untuk menghindarinya.

Sebuah tim peneliti yang dipimpin oleh Shangbin Feng menguraikan harapan dan persepsi masa depan integritas media sosial.

“Selalu ada persaingan teknis antara operator bot dan peneliti yang mencoba menghentikan mereka. Semua kemajuan dalam deteksi bot sering seimbang dengan peningkatan peningkatan bot, dan karenanya mengeksplorasi peluang dan risiko yang disajikan oleh model bahasa skala besar dalam jumlah ini.”

Dari sudut pandang deteksi, para peneliti menggunakan LLM untuk mengembangkan pendekatan baru untuk analisis berbagai aspek akun pengguna, seperti metadata (seperti pengikut dan usia akun), koneksi postext dan jaringan antara pengguna. Dengan menggabungkan berbagai aliran informasi ini, sistem berbasis LLM dapat berkeringat metode deteksi bot yang ada dan melebihi perbedaan 9,1% yang mengesankan dalam set data standar.

Namun, semua hasil penelitian ini tidak positif. Para peneliti juga akan mengeksplorasi bagaimana produsen bot itu sendiri dapat digunakan oleh bagian yang berlawanan. Menggunakan kemampuan untuk membuat bahasa dari model AI, dimungkinkan untuk mengembangkan strategi untuk memanipulasi akun bot untuk menghindari deteksi.

Taktik penghindaran yang dipimpin oleh ALM telah menunjukkan bahwa mereka sangat efektif. Aplikasi ke akun bot yang terkenal akan mengurangi tingkat deteksi algoritma pencarian bot hingga 29,6%. Operasi ini membuat bot paling manusiawi untuk perubahan strategis pada akun yang tidak dilacak atau dibaca, dengan penulisan ulang teks yang dibuat dengan tipis oleh bot.

Mungkin yang paling mengkhawatirkan adalah kemungkinan bahwa LLM tidak hanya tidak bisa menghindarinya, tetapi juga untuk menciptakan bot yang benar -benar persuasif. Studi ini menunjukkan bahwa LLM menghasilkan profil pengguna dan membuat posting yang sangat menangkap perilaku manusia, membuatnya jauh lebih sulit untuk membedakannya dari akun asli.

Potensi penggunaan penggunaan ganda di kerajaan integritas media sosial menempatkan tantangan bagi operator platform, peneliti dan manajer politik. Di sisi lain, alat kecerdasan buatan yang kuat ini dapat merevolusi kemampuan untuk mengidentifikasi dan menghilangkan akun bot berbahaya dalam skala. Di sisi lain, mereka berisiko menjadi teknologi “senjata” yang dapat memanipulasi pidato online.

“Analisis jika pengguna adalah bot?

Untuk alasan ini, para peneliti menggarisbawahi kebutuhan akan inovasi berkelanjutan yang dapat mengkompensasi metode deteksi bot, khususnya yang meningkatkan penghindaran di LLM. Mereka juga meminta transparansi yang lebih besar dari platform media sosial dan pendekatan kolaboratif antara peneliti, perusahaan teknologi dan politik untuk mengatasi tantangan yang muncul.