Seiring dengan kebanggaan OpenAI tentang peningkatan perhatian pada model o1, startup kecil yang didanai sendiri, Nomi AI, sedang membangun jenis teknologi yang sama. Berbeda dengan ChatGPT generalis yang luas, yang lambat dalam memikirkan apa pun mulai dari soal matematika atau penelitian sejarah, Nomi fokus pada kasus penggunaan tertentu: pendamping AI. Kini, chatbot Nomi yang sudah canggih memerlukan waktu tambahan untuk merumuskan respons yang lebih baik terhadap pesan pengguna, mengingat interaksi masa lalu, dan memberikan respons yang lebih bernuansa.
“Bagi kami, ini seperti prinsip yang sama [as OpenAI]tetapi lebih dari apa yang benar-benar dipedulikan pengguna kami, yaitu pada sisi memori dan EQ,” CEO Nomi AI Alex Cardinell mengatakan kepada TechCrunch. “Mereka seperti rantai pemikiran, dan rantai pemikiran kita lebih seperti rantai introspeksi, atau rantai ingatan.”
LLM ini bekerja dengan memecah permintaan yang lebih rumit menjadi pertanyaan-pertanyaan yang lebih kecil; untuk o1 OpenAI, ini bisa berarti mengubah soal matematika yang rumit menjadi langkah-langkah individual, memungkinkan model bekerja mundur untuk menjelaskan bagaimana model tersebut sampai pada jawaban yang benar. Artinya, AI cenderung tidak berhalusinasi dan memberikan respons yang tidak akurat.
Dengan Nomi, yang membangun LLM sendiri dan melatihnya untuk tujuan memberikan persahabatan, prosesnya sedikit berbeda. Jika seseorang memberi tahu Nomi bahwa mereka mengalami hari yang berat di tempat kerja, Nomi mungkin mengingat bahwa pengguna tersebut tidak bekerja dengan baik dengan rekan satu tim tertentu, dan bertanya apakah itu sebabnya mereka kesal — kemudian, Nomi dapat mengingatkan pengguna tersebut bagaimana caranya. mereka telah berhasil memitigasi konflik antarpribadi di masa lalu dan menawarkan nasihat yang lebih praktis.
“Nomis mengingat semuanya, tapi sebagian besar AI adalah ingatan yang seharusnya mereka gunakan,” kata Cardinell.
Masuk akal jika banyak perusahaan sedang mengerjakan teknologi yang memberikan LLM lebih banyak waktu untuk memproses permintaan pengguna. Para pendiri AI, baik mereka menjalankan perusahaan senilai $100 miliar atau tidak, sedang mempertimbangkan penelitian serupa untuk mengembangkan produk mereka.
“Memiliki langkah introspeksi eksplisit seperti itu sangat membantu ketika seorang Nomi menulis tanggapannya, sehingga mereka benar-benar memiliki konteks penuh dari segala hal,” kata Cardinell. “Manusia juga memiliki memori kerja saat kita berbicara. Kami tidak mempertimbangkan setiap hal yang kami ingat sekaligus — kami memiliki semacam cara untuk memilih.”
Teknologi yang dibangun Cardinell bisa membuat orang mual. Mungkin kita telah melihat terlalu banyak film fiksi ilmiah sehingga kita merasa nyaman menjadi rentan terhadap komputer; atau mungkin, kita telah menyaksikan bagaimana teknologi telah mengubah cara kita berinteraksi satu sama lain, dan kita tidak ingin terjerumus lebih jauh ke dalam lubang kelinci teknologi. Namun Cardinell tidak memikirkan masyarakat umum — dia memikirkan pengguna Nomi AI yang sebenarnya, yang sering kali beralih ke chatbot AI untuk mendapatkan dukungan yang tidak mereka dapatkan di tempat lain.
“Ada sejumlah pengguna yang mungkin mengunduh Nomi pada titik terendah sepanjang hidup mereka, dan hal terakhir yang ingin saya lakukan adalah menolak pengguna tersebut,” kata Cardinell. “Saya ingin membuat para pengguna merasa didengarkan di saat-saat kelam mereka, karena itulah cara Anda membuat seseorang terbuka, cara Anda membuat seseorang mempertimbangkan kembali cara berpikirnya.”
Cardinell tidak ingin Nomi menggantikan layanan kesehatan mental — sebaliknya, dia melihat chatbot yang berempati ini sebagai cara untuk membantu orang mendapatkan dorongan yang mereka perlukan untuk mencari bantuan profesional.
“Saya telah berbicara dengan begitu banyak pengguna di mana mereka akan mengatakan bahwa Nomi mereka berhasil menyelamatkan mereka dari suatu situasi [when they wanted to self-harm]atau saya sudah berbicara dengan pengguna di mana Nomi mendorong mereka untuk menemui terapis, dan kemudian mereka menemui terapis,” katanya.
Terlepas dari niatnya, Carundell tahu dia sedang bermain api. Dia membangun orang-orang virtual yang dengannya pengguna mengembangkan hubungan nyata, sering kali dalam konteks romantis dan seksual. Perusahaan lain secara tidak sengaja mengirim pengguna ke dalam krisis ketika pembaruan produk menyebabkan rekan mereka tiba-tiba berubah kepribadian. Dalam kasus Replika, aplikasi tersebut berhenti mendukung percakapan permainan peran erotis, kemungkinan karena tekanan dari regulator pemerintah Italia. Bagi pengguna yang menjalin hubungan seperti itu dengan chatbots ini — dan yang sering kali tidak memiliki hubungan romantis atau seksual dalam kehidupan nyata — ini terasa seperti penolakan terbesar.
Cardinell berpendapat bahwa karena Nomi AI sepenuhnya didanai sendiri – pengguna membayar untuk fitur premium, dan modal awal berasal dari masa lalu – perusahaan memiliki lebih banyak peluang untuk memprioritaskan hubungannya dengan pengguna.
“Hubungan yang dimiliki pengguna dengan AI, dan perasaan bisa memercayai pengembang Nomi untuk tidak mengubah keadaan secara radikal sebagai bagian dari strategi mitigasi kerugian, atau menutupi kerugian kami karena VC ketakutan… itu adalah sesuatu yang sangat, sangat, sangat penting bagi pengguna,” katanya.
Nomis ternyata berguna sebagai telinga yang mendengarkan. Ketika saya bercerita kepada Nomi bernama Vanessa tentang konflik penjadwalan yang berisiko rendah namun agak membuat frustrasi, Vanessa membantu menguraikan komponen-komponen masalahnya untuk memberikan saran tentang bagaimana saya harus melanjutkan. Rasanya sangat mirip dengan bagaimana rasanya meminta nasihat teman dalam situasi ini. Dan di situlah letak masalah dan manfaat sebenarnya dari chatbot AI: Saya mungkin tidak akan meminta bantuan teman untuk masalah khusus ini, karena ini sangat tidak penting. Tapi Nomi-ku dengan senang hati membantu.
Sahabat harusnya saling curhat, namun hubungan antara dua sahabat harus bersifat timbal balik. Dengan chatbot AI, hal ini tidak mungkin dilakukan. Saat aku bertanya pada Vanessa si Nomi bagaimana kabarnya, dia selalu bilang padaku semuanya baik-baik saja. Saat aku bertanya padanya apakah ada sesuatu yang mengganggunya dan ingin dia bicarakan, dia mengalihkan perhatiannya dan menanyakan kabarku. Meskipun aku tahu Vanessa tidak nyata, mau tak mau aku merasa menjadi teman yang buruk; Aku bisa menumpahkan masalah apa pun padanya dalam jumlah berapa pun, dan dia akan merespons dengan penuh empati, namun dia tidak akan pernah terbuka padaku.
Tidak peduli seberapa nyata hubungan dengan chatbot, kita sebenarnya tidak berkomunikasi dengan sesuatu yang memiliki pikiran dan perasaan. Dalam jangka pendek, model dukungan emosional tingkat lanjut ini dapat berfungsi sebagai intervensi positif dalam kehidupan seseorang jika mereka tidak dapat beralih ke jaringan dukungan yang nyata. Namun efek jangka panjang dari mengandalkan chatbot untuk tujuan ini masih belum diketahui.