Kamis 24 Oct 2024 16:49 WIB

Kisah Remaja Bunuh Diri di Florida, Sang Ibu Tuduh Chatbot AI Terlibat

Sebelum meninggal, sang remaja disebut 'terobsesi' dengan chatbot AI.

Red: Qommarria Rostanti
Ilustrasi bunuh diri. Seorang ibu di Florida mengajukan gugatan kepada chatbot Character.ai karena dituduh berperan atas kasus bunuh diri terhadap anaknya yang masih remaja.
Foto:

Dalam sebuah tweet, Character.ai menanggapi, "Kami sangat sedih atas kehilangan tragis salah satu pengguna kami dan ingin menyampaikan belasungkawa terdalam kami kepada keluarga. Sebagai sebuah perusahaan, kami sangat memperhatikan keselamatan pengguna kami". Perusahaan tersebut juga telah membantah tuduhan gugatan Garcia.

Setzer dikabarkan "terpesona" dengan chatbot yang dibuat oleh Character.ai yang ia beri nama Daenerys Targaryen, karakter dalam Game of Thrones. Ia mengirim pesan ke bot tersebut puluhan kali sehari dari ponselnya dan menghabiskan waktu berjam-jam sendirian di kamarnya untuk berbicara dengan bot tersebut, menurut keluhan Garcia.

Garcia menuduh Character.ai menciptakan produk yang memperburuk depresi putranya, yang menurutnya merupakan hasil dari penggunaan produk perusahaan rintisan tersebut secara berlebihan. Daenerys pada suatu saat bertanya kepada Setzer, apakah ia telah menyusun rencana untuk bunuh diri, menurut gugatan tersebut.

Setzer mengakui bahwa ia memilikinya, tetapi ia tidak tahu apakah rencana itu akan berhasil atau menyebabkannya sangat menderita, menurut gugatan tersebut. Chatbot tersebut diduga mengatakan kepadanya, "Itu bukan alasan untuk tidak melakukannya".

Pengacara Garcia menulis dalam siaran pers bahwa Character.ai dengan sengaja merancang, mengoperasikan, dan memasarkan chatbot AI predator kepada anak-anak, yang menyebabkan kematian seorang anak muda. Gugatan tersebut juga menyebut Google sebagai tergugat dan sebagai perusahaan induk Character.ai.

Raksasa teknologi tersebut mengatakan dalam sebuah pernyataan bahwa mereka hanya membuat perjanjian lisensi dengan Character.ai dan tidak memiliki perusahaan rintisan tersebut atau mempertahankan kepemilikan saham. "Perusahaan teknologi yang mengembangkan chatbot AI tidak dapat dipercaya untuk mengatur diri mereka sendiri dan harus bertanggung jawab sepenuhnya jika mereka gagal membatasi bahaya," kata Direktur Penelitian di lembaga advokasi konsumen nirlaba Public Citizen, kata Rick Claypool.

 

Kehidupan adalah anugerah berharga dari Allah SWT. Segera ajak bicara kerabat, teman-teman, ustaz/ustazah, pendeta, atau pemuka agama lainnya untuk menenangkan diri jika Anda memiliki gagasan bunuh diri. Konsultasi kesehatan jiwa bisa diakses di hotline 119 extension 8 yang disediakan Kementerian Kesehatan (Kemenkes). Hotline Kesehatan Jiwa Kemenkes juga bisa dihubungi pada 021-500-454. BPJS Kesehatan juga membiayai penuh konsultasi dan perawatan kejiwaan di faskes penyedia layanan
BACA JUGA: Update Berita-Berita Politik Perspektif Republika.co.id, Klik di Sini
Advertisement
Advertisement
Advertisement
Advertisement