Mengatasi Bunuh Diri Oleh Remaja Dengan Bantuan AI

Dalam literatur pencegahan bunuh diri, “gatekeepers” adalah anggota masyarakat yang mungkin dapat menawarkan bantuan ketika seseorang mengekspresikan pemikiran bunuh diri. Itu penunjukan yang longgar, tetapi umumnya mencakup guru, orang tua, pelatih, dan rekan kerja yang lebih tua — orang dengan beberapa bentuk otoritas dan kemampuan untuk campur tangan ketika mereka melihat sesuatu yang mengganggu.

 

Mungkinkah itu juga termasuk Google? Ketika pengguna mencari frasa kunci tertentu yang terkait dengan metode bunuh diri, hasil Google secara jelas menampilkan nomor untuk National Suicide Prevention Lifeline. Tetapi sistem ini tidak mudah. Google tidak dapat mengedit halaman web, hanya hasil pencarian, yang berarti pengguna internet yang mencari informasi tentang cara bunuh diri dengan mudah dapat menemukannya melalui halaman yang ditautkan atau di forum, tidak pernah menggunakan mesin pencarian sama sekali. Pada saat yang sama, di internet 2019, “run me over” lebih cenderung menjadi ekspresi fandom yang mengerikan daripada seruan tulus untuk meminta bantuan — nuansa yang mungkin tidak dimengerti oleh mesin. Kecerdasan buatan Google juga jauh kurang efektif dalam mendeteksi ide bunuh diri ketika orang mencari dalam bahasa lain selain bahasa Inggris.

 

Pada akhirnya, hasil pencarian adalah area yang berguna, tetapi sangat luas, untuk menerapkan strategi pencegahan. Lagipula, siapa pun bisa mencari apa saja untuk alasan apa pun. Peluncuran terbaru Google dalam pencegahan bunuh diri algoritmik lebih bertarget, untuk orang-orang yang sudah meminta bantuan. Pada bulan Mei, raksasa teknologi itu memberikan $ 1,5 juta kepada Trevor Project, sebuah organisasi nirlaba yang berbasis di California yang menawarkan konseling krisis kepada remaja LGBTQ melalui saluran telepon (TrevorLifeline), layanan SMS (TrevorText), dan platform pesan instan (TrevorChat) . Para pemimpin proyek ingin meningkatkan TrevorText dan TrevorChat dengan menggunakan pembelajaran mesin untuk secara otomatis menilai risiko bunuh diri. Semuanya berpusat pada pertanyaan awal yang memulai setiap sesi dengan penasihat Trevor: “Apa yang terjadi?”

“Kami ingin memastikan bahwa, dengan cara yang tidak menghakimi, kami akan berbicara bunuh diri dengan mereka jika itu adalah sesuatu yang ada di pikiran mereka,” kata Sam Dorison, kepala staf Proyek Trevor. “Dan biarkan mereka membimbing pembicaraan. Apakah [mereka] ingin berbicara tentang keluar [atau] sumber daya oleh komunitas LGBT dalam komunitas mereka? Kami benar-benar membiarkan mereka membimbing percakapan melalui apa yang akan paling bermanfaat bagi mereka. ”

 

Saat ini, mereka yang menjangkau memasukkan antrian pertama datang, dilayani pertama. Rata-rata waktu tunggurevor kurang dari lima menit, tetapi dalam beberapa kasus, setiap detik diperhitungkan. Kepemimpinan Trevor berharap bahwa pada akhirnya, AI akan dapat mengidentifikasi penelepon berisiko tinggi melalui respons mereka terhadap pertanyaan pertama itu, dan menghubungkan mereka dengan penasihat manusia segera.

 

Google AI akan dilatih menggunakan dua titik data: awal percakapan anak muda dengan konselor, dan konselor penilaian risiko selesai setelah mereka berbicara dengan mereka. Idenya adalah bahwa dengan melihat bagaimana tanggapan awal dibandingkan dengan risiko pamungkas, AI dapat dilatih untuk memprediksi risiko bunuh diri berdasarkan respons paling awal.

 

“Kami berpikir bahwa jika kami dapat melatih model berdasarkan pada beberapa pesan pertama dan penilaian risiko, bahwa ada lebih banyak hal yang Anda tidak melihat bahwa mesin dapat mengambil dan berpotensi membantu kami belajar lebih banyak tentang, ”kata John Callery, direktur teknologi untuk Proyek Trevor. Konselor akan terus membuat penilaian sendiri, tambah Callery, mencatat bahwa tingkat dekorasinya Trevor adalah 90 persen.

 

Algoritma memiliki potensi luar biasa untuk mengenali pola yang tidak terlihat, tetapi yang penting untuk menjadi penjaga gerbang yang baik adalah agensi — melangkah maju dan mengintervensi jika ada sesuatu yang salah. Itu mungkin atau mungkin bukan hal yang kita inginkan untuk menanamkan teknologi, meskipun dalam beberapa hal kita sudah memiliki. Inisiatif kesehatan masyarakat di Kanada dan AS menambang data media sosial untuk memprediksi risiko bunuh diri. Facebook menggunakan AI untuk segera menandai video langsung ke polisi jika algoritme mendeteksi bahaya atau kekerasan diri.

 

Kami meminta Google dalam segala hal mulai dari obat mabuk hingga saran medis hingga cara mengatasi putus cinta. Hasilnya dapat dicampur, atau bahkan menyesatkan, tetapi bilah pencarian tidak memberikan penilaian.

 

“[Siswa] pulang, mereka online, dan mereka dapat mengungkapkan semua hal ini kepada siapa pun di seluruh dunia,” kata Stephen Russell, ketua pengembangan manusia dan ilmu keluarga di University of Texas di Austin. Russell telah melakukan penelitian perintis tentang pemuda LGBTQ selama beberapa dekade dan mengatakan bahwa sementara siswa bermasalah “tidak harus pergi ke Google” untuk mengatasi masalah ini, melatih penjaga gerbang kehidupan nyata untuk menjadi terbuka dan melibatkan sekutu tidak selalu berhasil, karena dari beberapa dekade stigma dan bias terhadap komunitas aneh. “Bahkan hari ini saya mendengar [administrator] berkata, ‘Ya, kami tidak punya anak seperti itu di sini.’ Itu merupakan dilema yang berkelanjutan,” katanya.

 

Di situlah Proyek Trevor masuk. Akhirnya, para pemimpin organisasi nirlaba menginginkan sistem AI yang akan memprediksi sumber daya apa yang dibutuhkan kaum muda — perumahan, bantuan yang akan datang, terapi — semua dengan memindai beberapa pesan pertama dalam sebuah obrolan. Jangka panjang, mereka berharap untuk mengembangkan AI sehingga dapat mengenali pola dalam metadata lebih dari sekadar memindai pesan awal. Misalnya, jika AI dapat menentukan tingkat membaca atau pendidikan dari pesan, dapatkah ia membuat kesimpulan tentang bagaimana faktor struktural mempengaruhi risiko bunuh diri? Tampaknya mustahil bahwa mengikuti bidang kusut pernyataan “jika, maka” dapat menyelamatkan hidup seseorang, tetapi segera, itu bisa.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *