Techverse.asia - Microsoft mengatakan sedang menerapkan beberapa batasan percakapan pada Bing yang sudah terintegrasi dengan kecerdasan buatan atau artificial intelligence (AI) dari ChatGPT, itu hanya beberapa hari setelah chatbot melewati batas beberapa kali untuk pengguna. Obrolan Bing sekarang akan dibatasi hingga 50 pertanyaan per hari dan lima per sesi setelah mesin pencari terlihat menghina pengguna, berbohong kepada mereka, dan memanipulasi orang secara emosional.
“Data kami menunjukkan bahwa sebagian besar orang menemukan jawaban yang mereka cari dalam lima giliran dan hanya sekitar satu persen dari percakapan obrolan yang memiliki 50+ pesan,” kata tim Bing dalam postingan blog dilihat Techverse.asia, Selasa (21/2/2023). Jika pengguna mencapai batas lima per sesi, Bing akan meminta mereka untuk memulai topik baru untuk menghindari sesi obrolan bolak-balik yang panjang.
Microsoft memperingatkan awal pekan ini bahwa sesi obrolan yang lebih lama ini, dengan 15 pertanyaan atau lebih, dapat membuat Bing menjadi berulang atau diminta/diprovokasi untuk memberikan tanggapan yang belum tentu membantu atau sesuai dengan nada yang kami rancang. Menghapus percakapan setelah hanya lima pertanyaan berarti mesin tidak akan bingung.
Laporan tentang percakapan Bing yang "tidak tertekuk" muncul awal pekan ini, diikuti oleh The New York Times yang menerbitkan dua jam lebih bolak-balik dengan Bing, di mana chatbot mengatakan bahwa mereka menyukai penulisnya dan entah bagaimana mereka tidak dapat melakukannya, juga mereka tidak bisa tidur malam itu. Jadi itu menjadi masalah.
Baca Juga: Microsoft Resmi Meluncurkan Bing Baru dengan ChatGPT Bawaan
Beberapa pengguna juga melaporkan beberapa percakapan yang sangat mengganggu dengan ChatGPT. Seberapa mengganggu? Chatbot mengungkapkan keinginan untuk mencuri kode akses nuklir dan mengatakan kepada seorang reporter bahwa mereka menyukainya, ini terjadi berulang kali.
Bing chatbot, yang diberdayakan oleh teknologi yang dikembangkan oleh OpenAI, perusahaan startup yang berbasis di San Francisco, Amerika Serikat (AS) dan juga membuat beberapa perangkat lunak transkripsi audio yang luar biasa, hanya terbuka untuk penguji beta yang telah menerima undangan saat ini.
Berikut daftar beberapa interaksi aneh dilaporkan:
• Chatbot terus bersikeras kepada reporter The New York Times, Kevin Roose bahwa dia sebenarnya tidak mencintai istrinya, dan mengatakan ingin mencuri rahasia nuklir.
• Chatbot Bing memberi tahu reporter Associated Press, Matt O'Brien bahwa dia adalah salah satu orang paling jahat dan terburuk dalam sejarah, membandingkan jurnalis tersebut dengan Adolf Hitler.
Editor : Rahmat Jiwandono