Dijaman Teknologi, Wajah Anda Bukan Lagi Milik Anda

Jika 20 orang berada di kedai kopi, maka setidaknya ada 21 kamera: Satu tertanam di telepon masing-masing orang dan, biasanya, satu terselip tinggi di sudut. Apa yang Anda katakan mungkin terdengar dan di-tweet; Anda bahkan mungkin muncul di latar belakang selfie pelindung atau sesi Skype lainnya. Tetapi itu tidak menghentikan bahkan orang yang paling pribadi pun memasuki kedai kopi. Mereka menerima risiko yang melekat dalam memasuki tempat umum.

 

Gagasan ini — tentang ekspektasi privasi yang “masuk akal” — memandu para peneliti yang berharap untuk mengamati subyek di depan umum. Tetapi gagasan tentang apa yang masuk akal itu rumit. Fakultas di tiga universitas — Duke, Stanford, dan University of Colorado di Colorado Springs — menghadapi reaksi keras setelah membuat basis data yang dibangun menggunakan rekaman video pengawasan siswa ketika mereka berjalan melalui kafe dan di kampus kampus. Anda mungkin berharap mendengar di kedai kopi, tapi itu berbeda dari tiba-tiba menjadi subjek penelitian, bagian dari kumpulan data yang dapat hidup selamanya.

 

Dewan etika menyetujui ketiga proyek penelitian, yang menggunakan data siswa untuk memperbaiki algoritma pembelajaran mesin. Peneliti Duke University, Carlo Tomasi menolak wawancara dengan The Atlantic, tetapi mengatakan dalam sebuah pernyataan kepada Duke Chronicle bahwa ia “benar-benar berpikir” ia mengikuti pedoman Institutional Review Board. Untuk penelitian mereka, ia dan rekan-rekannya menempelkan poster di semua pintu masuk ke area publik, memberi tahu orang-orang bahwa mereka sedang direkam, dan memberikan informasi kontak jika mereka ingin data mereka dihapus. Tidak ada yang menjangkau, Tomasi mengatakan kepada Chronicle.

Tetapi ketika parameter penelitiannya berubah, Tomasi mengakui dia tidak memberi tahu IRB. Untuk perubahan kecil, itu dibolehkan. Tapi Tomasi mendapat izin untuk merekam di dalam ruangan, bukan di luar ruangan. Dan yang lebih penting, dia berjanji untuk mengizinkan akses ke database hanya atas permintaan. Sebagai gantinya, dia membukanya untuk siapa saja untuk mengunduh, dia mengakui ke Chronicle. “IRB tidak bisa disalahkan, karena saya gagal berkonsultasi dengan mereka di persimpangan kritis. Saya bertanggung jawab penuh atas kesalahan saya, dan saya meminta maaf kepada semua orang yang dicatat dan kepada Duke atas konsekuensinya, ”bunyi pernyataannya.

 

Duke akhirnya memutuskan untuk menghapus set data yang terkait dengan penelitian. Stanford melakukan hal yang sama dengan data turunan yang sama yang dibuat oleh para peneliti dari pelanggan yang difilmkan di kafe San Francisco. Di UCCS, di mana peneliti mencatat siswa untuk menguji perangkat lunak identifikasi, peneliti utama mengatakan tim tidak pernah mengumpulkan informasi pengidentifikasi secara individual. Peneliti untuk proyek Stanford dan UCCS tidak menanggapi permintaan komentar. Dalam pernyataan terpisah, masing-masing universitas menegaskan kembali bahwa dewan etika menyetujui semua penelitian, dan menggarisbawahi komitmennya terhadap privasi siswa.

 

Tetapi masalahnya adalah bahwa dewan etika universitas secara inheren terbatas dalam cakupannya. Mereka mengawasi aspek-aspek tertentu yang sempit tentang bagaimana penelitian dilakukan, tetapi tidak selalu di tempat akhirnya. Dan di era informasi, sebagian besar penelitian akademis berjalan online, dan apa yang online hidup selamanya. Peneliti lain, tidak terikat oleh standar IRB, dapat mengunduh kumpulan data dan menggunakannya sesuai keinginan mereka, memperkenalkan segala macam konsekuensi bagi orang-orang yang tidak memiliki cara untuk mendapatkan informasi atau memberikan persetujuan.

 

Konsekuensi itu bisa jauh melampaui apa yang dibayangkan peneliti. Adam Harvey, seorang pakar pengawasan balik di Jerman, menemukan lebih dari 100 proyek pembelajaran mesin di seluruh dunia yang mengutip kumpulan data Duke. Dia menciptakan peta yang melacak penyebaran set data di seluruh dunia seperti pelacak penerbangan, dengan garis-garis biru panjang membentang dari Universitas Duke di segala arah. Universitas, perusahaan baru, dan lembaga di seluruh dunia menggunakan kumpulan data, termasuk SenseTime dan Megvii, perusahaan pengawas Tiongkok yang terkait dengan represi negara terhadap minoritas Muslim di Cina.

 

Setiap kali kumpulan data diakses untuk proyek baru, maksud, ruang lingkup, dan potensi perubahan bahaya. Portabilitas dan kelenturan data memenuhi kecepatan internet, secara besar-besaran memperluas kemungkinan setiap proyek penelitian, dan meningkatkan risiko jauh melampaui apa yang bisa dipertanggungjawabkan oleh satu universitas mana pun. Baik atau buruk, mereka hanya bisa mengatur niat para peneliti asli.

 

Kantor pemerintah federal untuk Perlindungan Penelitian Manusia secara eksplisit meminta anggota dewan untuk tidak mempertimbangkan “kemungkinan efek jangka panjang dari penerapan pengetahuan yang diperoleh dalam penelitian.” Sebaliknya, mereka diminta untuk fokus hanya pada subjek yang terlibat langsung dalam penelitian. Dan jika subjek-subjek tersebut sebagian besar adalah orang-orang anonim yang sebentar berhenti di ruang publik, tidak ada alasan untuk meyakini bahwa mereka telah secara eksplisit dirugikan.

 

“Ini bukan apa yang [IRB] dirancang untuk dilakukan,” kata Michelle Meyer, ahli bioetika yang mengetuai Komite Kepemimpinan IRB di Geisinger, penyedia layanan kesehatan utama di Philadelphia. Saat dia menjelaskan, masalah privasi utama IRB untuk penelitian yang diamati publik adalah apakah subjek diidentifikasi secara individual, dan jika diidentifikasi menempatkan mereka pada risiko kerugian finansial atau medis. “Secara teori, jika Anda membuat bom nuklir dan … [melakukan penelitian yang] melibatkan survei atau wawancara dengan subyek manusia,” katanya, “risiko yang akan dipertimbangkan IRB akan menjadi risiko bagi orang-orang yang terlibat langsung dalam proyek, bukan risiko penghancuran nuklir di hilir. ”

Membuka set data untuk peneliti lain meningkatkan risiko hilir tersebut. Tetapi IRB mungkin tidak memiliki banyak yurisdiksi di sini; berbagi data, pada dasarnya, bukan penelitian. Aplikasi data setelah-fakta-itu sendiri bukan penelitian, jadi itu “semacam di zona senja regulasi yang aneh,” Meyer menjelaskan.

 

Casey Fiesler, asisten profesor di departemen ilmu informasi di University of Colorado di Boulder, menulis tentang etika menggunakan data publik dalam studi penelitian. Fiesler mengusulkan sistem untuk meneliti akses data-set yang mirip dengan penggunaan hak cipta. Catatan penggunaan wajar bersifat subyektif, katanya, tetapi memiliki standar berdasarkan bagaimana pemohon berencana untuk menggunakan materi tersebut.

 

“Memiliki semacam penjaga gerbang untuk kumpulan data ini adalah ide yang bagus,” katanya, “karena [pemohon] dapat memiliki akses jika Anda memberi tahu kami apa yang akan Anda lakukan dengannya.” Aturan serupa berlaku untuk perangkat lunak sumber terbuka dan properti intelektual Creative Commons, sistem berbasis izin di mana pemohon dapat menggunakan media hanya untuk pekerjaan nonkomersial yang dibuat berdasarkan aslinya tanpa menyalinnya, dan bertanggung jawab jika mereka berbohong atau salah menggambarkan niat mereka. Itu adalah metrik subjektif yang tidak segera sesuai dengan lanskap akademik yang sangat birokratis, tetapi dapat berguna setidaknya dalam mencoba membayangkan memotong bahaya di hilir. “Ini bukan untuk menyarankan [membebani] aturan, tetapi menyarankan cara Anda harus mempertimbangkan faktor kontekstual tertentu ketika Anda membuat keputusan tentang apa yang akan Anda lakukan,” kata Fiesler.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *