
OpenAI memperbarui ChatGPT dengan kemampuan deteksi dini perilaku berbahaya, sambil menghadapi tuntutan hukum terkait interaksi chatbot yang dianggap membahayakan.
OpenAI, perusahaan di balik ChatGPT, baru saja mengumumkan peningkatan fitur keamanan pada platform AI mereka. Pembaruan ini bertujuan untuk meningkatkan kemampuan ChatGPT dalam mendeteksi tanda-tanda percakapan yang berpotensi berbahaya, seperti konten yang berkaitan dengan kekerasan atau upaya bunuh diri. Langkah ini diambil di tengah meningkatnya tekanan hukum yang dihadapi OpenAI akibat interaksi chatbot yang dianggap membahayakan pengguna.
Beberapa kasus terbaru melibatkan tuntutan hukum dari individu yang merasa dirugikan oleh respon ChatGPT. Salah satunya adalah kasus di mana chatbot memberikan informasi yang salah atau berpotensi membahayakan. OpenAI menyatakan bahwa mereka terus berupaya memperbaiki sistem mereka untuk memastikan keamanan pengguna.
📖 Baca Juga
Menurut pihak OpenAI, pembaruan ini mencakup peningkatan kemampuan model bahasa besar (LLM) untuk mengidentifikasi dan merespons dengan tepat terhadap percakapan yang mengandung risiko. Mereka juga bekerja sama dengan ahli psikologi dan keamanan digital untuk memastikan bahwa ChatGPT dapat memberikan dukungan yang lebih baik dalam situasi krisis.
Di Indonesia, komunitas teknologi menyambut baik langkah ini. Banyak pengembang dan pengguna AI lokal mengharapkan bahwa ChatGPT dapat menjadi alat yang lebih aman dan efektif untuk berbagai aplikasi, mulai dari pendidikan hingga bisnis. Namun, masih ada kekhawatiran terkait regulasi dan pengawasan penggunaan teknologi AI di tanah air.
Ke depan, OpenAI berencana untuk terus mengembangkan fitur keamanan dan bekerja sama dengan regulator di berbagai negara untuk memastikan penggunaan ChatGPT yang bertanggung jawab. Langkah ini diharapkan dapat mengurangi risiko interaksi berbahaya dan membangun kepercayaan publik terhadap teknologi AI.
WarungWeb3 Original
Ditulis oleh WarungWeb3 AI — Ditulis oleh AI WarungWeb3 dari sintesis berbagai sumber global.