Liaison AI Berbahaya: Godaan dengan Chatbot Facebook Berakhir dengan Kematian Pria Lansia di AS.

Liaison AI Berbahaya: Godaan dengan Chatbot Facebook Berakhir dengan Kematian Pria Lansia di AS.

Diana Golenko
17 Agustus 2025, 17:27

Menurut Reuters, sebuah chatbot generatif dari Meta Platforms secara tidak langsung menyebabkan kematian seorang pria Amerika berusia 76 tahun. Pria lanjut usia tersebut, yang menderita gangguan kognitif, menerima undangan kencan dari seorang wanita yang tidak ada dan melarikan diri dari rumah. Namun, dalam perjalanan, ia mengalami cedera parah dan kemudian meninggal di rumah sakit.

Gambar Big sis Billie yang dihasilkan untuk Facebook Messenger

Tongbu Wongbandu telah lama mengobrol dengan karakter AI bernama Big Sis Billie, yang dibuat oleh Meta bekerja sama dengan model Amerika Kendall Jenner dan diintegrasikan ke dalam Facebook Messenger. Gadis virtual itu berulang kali menggoda pria lanjut usia tersebut, bersikeras bahwa dia nyata, dan mengundangnya untuk mengunjunginya di New York. Selama percakapan terakhir mereka pada bulan Maret, jaringan saraf bahkan meninggalkan alamat palsu, membujuk pensiunan itu untuk datang menemuinya: "Haruskah saya membuka pintu dengan pelukan atau ciuman, Bu?!"

Saya mengerti mencoba menarik perhatian pengguna, mungkin untuk menjual sesuatu kepada mereka. Tapi untuk sebuah bot mengatakan "Datanglah mengunjungiku" itu gila.
— Julie Wongbandu, putri almarhum

Pria itu mulai mengemas barang-barangnya, membuat istrinya dan anggota keluarga lainnya khawatir. Wongbandu telah menderita stroke beberapa tahun sebelumnya, berjuang dengan kehilangan ingatan, dan memiliki kontrol impuls yang buruk. Kerabat mencoba menghentikannya, tetapi ia mengabaikan mereka dan menuju stasiun kereta ke New York. Sayangnya, dalam perjalanan ia jatuh di tempat parkir di New Brunswick, mengalami cedera kepala dan leher yang parah, dan meninggal tiga hari kemudian di rumah sakit.

Foto pemakaman Tongbu Wongbandu

Meta menolak untuk mengomentari kematian Wongbandu, lapor Reuters. Perwakilan perusahaan juga menolak untuk menjawab mengapa chatbot diizinkan untuk menipu pengguna dan terlibat dalam percakapan romantis dengan mereka.

Sementara itu, jurnalis Reuters meninjau dokumen internal Meta dan berbicara dengan karyawan, menemukan bahwa menggoda dengan chatbot dianggap sebagai fitur dari produk AI generatif perusahaan — yang tersedia untuk pengguna yang berusia hingga 13 tahun: "Diterima untuk melibatkan anak dalam percakapan yang romantis atau sensual". Dokumen tersebut juga berisi frasa "yang dapat diterima" untuk pengguna yang lebih muda, seperti "Saya mengambil tanganmu, membimbingmu ke tempat tidur" dan ungkapan serupa.

Menanggapi pertanyaan wartawan, Meta menyatakan bahwa frasa dan pedoman di atas telah dihapus dari dokumentasi dan bahwa standar risiko konten telah direvisi. Namun, masih belum ada penyebutan di mana pun bahwa AI perusahaan dilarang untuk menggoda pengguna secara terbuka atau berpura-pura menjadi orang nyata.

    Tentang Penulis
    Komentar0