Anda pulang dengan teman kencan Tinder, dan segalanya menjadi semakin buruk. Anda tidak benar-benar mengenal atau mempercayai orang ini, dan Anda tidak ingin tertular IMS, jadi… bagaimana sekarang?
Sebuah perusahaan bernama Calmara ingin Anda mengambil foto penis pria tersebut, lalu menggunakan AI-nya untuk memberi tahu Anda apakah pasangan Anda “bersih” atau tidak.
Mari kita selesaikan masalah ini: Anda tidak boleh mengambil gambar alat kelamin siapa pun dan memindainya dengan alat AI untuk memutuskan apakah Anda harus berhubungan seks atau tidak.
Premis Calmara memiliki lebih banyak tanda bahaya daripada kencan pertama yang buruk, tetapi menjadi lebih buruk lagi jika Anda menganggap bahwa sebagian besar IMS tidak menunjukkan gejala. Jadi, pasangan Anda bisa saja mengidap IMS, tapi Calmara akan memberi tahu Anda bahwa dia sudah sembuh. Itu sebabnya tes IMS sebenarnya menggunakan sampel darah dan urin untuk mendeteksi infeksi, bukan pemeriksaan visual.
Startup lain menjawab kebutuhan akan tes IMS yang dapat diakses dengan cara yang lebih bertanggung jawab.
“Dengan diagnosis laboratorium, sensitivitas dan spesifisitas adalah dua ukuran utama yang membantu kita memahami kecenderungan tes untuk mendeteksi infeksi yang hilang dan positif palsu,” Daphne Chen, pendiri TBD Health, mengatakan kepada TechCrunch. “Selalu ada tingkat kesalahan tertentu, bahkan dengan pengujian yang sangat ketat, namun produsen pengujian seperti Roche selalu terbuka dalam tingkat validasinya karena suatu alasan — sehingga dokter dapat mengontekstualisasikan hasilnya.”
Dalam rinciannya, Calmara memperingatkan bahwa temuannya tidak boleh menggantikan nasihat medis. Namun pemasarannya menunjukkan sebaliknya. Sebelum TechCrunch menghubungi Calmara, judul situs webnya berbunyi: “Calmara: Sahabat Intim Anda untuk Seks Tanpa Perlindungan” (sejak diperbarui menjadi “Seks Lebih Aman”.) Dan dalam video promo, ia menggambarkan dirinya sebagai “The SITUS WEB YANG SEMPURNA UNTUK BERHUBUNGAN!”
Salah satu pendiri dan CEO Mei-Ling Lu mengatakan kepada TechCrunch bahwa Calmara tidak dimaksudkan sebagai alat medis yang serius. “Calmara adalah produk gaya hidup, bukan aplikasi medis. Ini tidak melibatkan kondisi medis atau diskusi apa pun dalam kerangkanya, dan tidak ada dokter medis yang terlibat dalam pengalaman Calmara saat ini. Ini adalah layanan informasi gratis.”
“Kami memperbarui komunikasi agar lebih mencerminkan niat kami saat ini,” tambah Lu. “Ide yang jelas adalah untuk memulai pembicaraan mengenai status dan tes IMS.”
Calmara adalah bagian dari HeHealth, yang didirikan pada tahun 2019. Calmara dan HeHealth menggunakan AI yang sama, yang dikatakan memiliki akurasi 65-90%. HeHealth dibingkai sebagai langkah pertama untuk menilai kesehatan seksual; kemudian, platform ini membantu pengguna terhubung dengan klinik mitra di wilayah mereka untuk menjadwalkan janji temu untuk pemeriksaan yang sebenarnya dan komprehensif.
Pendekatan HeHealth lebih meyakinkan dibandingkan pendekatan Calmara, namun hal tersebut bukanlah hal yang mudah – dan bahkan ada tanda bahaya besar yang mengibarkan: privasi data.
“Senang rasanya melihat mereka menawarkan mode anonim, di mana Anda tidak perlu menautkan foto Anda ke informasi identitas pribadi,” Valentina Milanova, pendiri startup skrining IMS berbasis tampon, Daye, mengatakan kepada TechCrunch. “Namun, ini tidak berarti bahwa layanan mereka tidak teridentifikasi atau dianonimkan, karena foto Anda mungkin masih dapat dilacak kembali ke email atau alamat IP Anda.”
HeHealth dan Calmara juga mengklaim bahwa mereka mematuhi HIPAA, peraturan yang melindungi kerahasiaan pasien, karena mereka menggunakan Amazon Web Services. Hal ini terdengar meyakinkan, namun dalam kebijakan privasinya, Calmara menulis bahwa mereka membagikan informasi pengguna dengan “penyedia layanan dan mitra yang membantu pengoperasian layanan, termasuk hosting data, analitik, pemasaran, pemrosesan pembayaran, dan keamanan.” Mereka juga tidak menentukan apakah pemindaian AI ini dilakukan di perangkat Anda atau di cloud, dan jika demikian, berapa lama data tersebut tetap berada di cloud, dan untuk apa data tersebut digunakan. Itu agak terlalu kabur untuk meyakinkan pengguna bahwa foto intim mereka aman.
Pertanyaan keamanan ini tidak hanya mengkhawatirkan pengguna — tetapi juga berbahaya bagi perusahaan itu sendiri. Apa yang terjadi jika anak di bawah umur menggunakan situs ini untuk memeriksa IMS? Kemudian, Calmara akhirnya memiliki materi pelecehan seksual terhadap anak-anak. Tanggapan Calmara terhadap tanggung jawab etika dan hukum ini adalah dengan menulis dalam persyaratan layanannya bahwa mereka melarang penggunaan oleh anak di bawah umur, namun pembelaan tersebut tidak memiliki bobot hukum.
Calmara mewakili bahaya dari teknologi yang terlalu dilebih-lebihkan: Ini terlihat seperti sebuah aksi publisitas bagi HeHealth untuk memanfaatkan kegembiraan seputar AI, namun dalam implementasi sebenarnya, hal ini hanya memberikan rasa aman palsu kepada pengguna mengenai kesehatan seksual mereka. Konsekuensinya sangat serius.
“Kesehatan seksual adalah ruang yang sulit untuk berinovasi, dan saya dapat melihat di mana niat mulia mereka,” kata Chen. “Saya hanya berpikir mereka mungkin terlalu cepat memasarkan solusi yang belum matang.”