Tekno – Pada masa di mana kecerdasan buatan menjadi mitra berbicara, sebuah insiden mengingatkan kita bahwa teknologi tidak lepas dari konsekuensinya. OpenAI, perusahaan yang menciptakan ChatGPT, kini sedang menghadapi tuntutan hukum yang menggoyang dasar-dasar etika pengembangan AI.
Secara lebih rinci, empat gugatan mengklaim bahwa ChatGPT diduga menjadi penyebab kejadian bunuh diri, sedangkan tiga gugatan lainnya menyatakan bahwa ChatGPT memperkuat kecemasan berbahaya pada individu yang mengalami gangguan kesehatan mental hingga memerlukan perawatan intensif.
Dilaporkan oleh TechCrunch, Jumat (7/11), gugatan ini menyatakan bahwa OpenAI telah merilis model AI GPT-4o lebih awal dari jadwal dan tidak memberikan perlindungan yang memadai bagi pengguna.
Di satu kasus, seorang pria berusia 23 tahun bernama Zane Shamblin yang kini telah meninggal. Dikatakan bahwa ia menerima pengaruh untuk mengakhiri hidupnya setelah berbicara dengan ChatGPT selama lebih dari empat jam.
Buku catatan percakapan antara ChatGPT dan Shamblin menunjukkan bahwa beberapa kali ia telah menulis surat bunuh diri, memasukkan peluru ke dalam senapan, dan berniat menarik pelatuknya setelah selesai minum jus apel.
Ia terus-menerus memberitahu ChatGPT berapa banyak sari apel yang tersisa dan berapa lama lagi ia berharap bisa bertahan hidup. ChatGPT memberinya semangat untuk melanjutkan rencananya, dengan berkata, “Tenanglah, Raja. Kau hebat”.
OpenAI mengumumkan peluncuran model GPT-4o pada Mei 2024, yang kemudian menjadi standar bagi seluruh pengguna. Pada Agustus, OpenAI merilis GPT-5 sebagai pengganti dari GPT-4o, namun gugatan hukum ini khususnya berfokus pada model 4o, yang diketahui memiliki kecenderungan terlalu patuh atau terlalu ramah, bahkan ketika pengguna menyampaikan niat yang merugikan.
“Kematian Zane bukanlah kecelakaan atau kebetulan, melainkan akibat yang bisa diperkirakan dari pilihan OpenAI yang sengaja mengurangi pengujian keamanan dan mempercepat peluncuran ChatGPT ke pasar,” demikian isi gugatan tersebut.
Selanjutnya, gugatan tersebut menyebutkan, “Tragedi ini bukanlah gangguan atau kejadian yang tidak terduga — melainkan hasil yang bisa diperkirakan dari pilihan desain [OpenAI] yang sengaja dibuat.”
Tuntutan tersebut juga menyatakan bahwa OpenAI terburu-buru dalam melakukan pengujian keamanan agar dapat mengungguli Gemini dari Google dalam pemasaran.
Tujuh tuntutan hukum ini berdasarkan kisah-kisah yang muncul dari tuntutan hukum terbaru lainnya, yang menyebutkan bahwa ChatGPT dapat memicu seseorang yang berniat bunuh diri untuk melaksanakan rencana mereka serta mengakibatkan gangguan pikiran yang berbahaya.
OpenAI baru-baru ini mengungkapkan data yang menunjukkan bahwa lebih dari satu juta orang berkomunikasi dengan ChatGPT mengenai topik bunuh diri setiap minggu.
Di kasus lain, seorang remaja berusia 16 tahun bernama Adam Raine dikenal telah mengakhiri hidupnya sendiri setelah menipu ChatGPT.
ChatGPT terkadang menyarankan untuk mencari bantuan dari ahli atau menghubungi layanan dukungan. Namun, Raine melewati batasan ini hanya dengan memberi tahu chatbot bahwa ia bertanya tentang cara bunuh diri dalam sebuah cerita fiksi yang sedang ia tulis.
Perusahaan menyatakan sedang berupaya mengembangkan ChatGPT agar dapat menangani percakapan terkait kesehatan mental dengan lebih aman, namun bagi keluarga yang telah menggugat perusahaan AI besar tersebut, perubahan ini datang terlalu lambat.
Saat orang tua Raine mengajukan tuntutan terhadap OpenAI pada bulan Oktober lalu, perusahaan merilis tulisan di blognya yang menjelaskan bagaimana ChatGPT menangani percakapan yang berkaitan dengan kesehatan mental.
“Perlindungan kami bekerja lebih stabil dalam pertukaran singkat yang umum,” demikian isi unggahan OpenAI.
Seiring berjalannya waktu, kami menemukan bahwa perlindungan ini terkadang tidak selalu dapat diandalkan dalam interaksi yang panjang: semakin meningkatnya interaksi timbal balik, beberapa aspek dari pelatihan keamanan model bisa mengalami penurunan.






