Bayangkan datang ke kantor dan atasan meminta wajah dan suara Anda untuk menciptakan karakter virtual yang akan berinteraksi intim dengan pengguna internet. Bukan skenario fiksi ilmiah, ini realitas kontroversial yang sedang terjadi di xAI, perusahaan kecerdasan buatan milik Elon Musk. Bagaimana mungkin inovasi teknologi bisa mengorbankan privasi paling dasar karyawannya?
Laporan eksklusif The Wall Street Journal mengungkap praktik mengkhawatirkan di balik pengembangan "Ani", chatbot berwujud karakter anime yang menjadi viral karena gaya bicara sensual dan fitur NSFW (Not Safe For Work). Chatbot ini tersedia melalui layanan SuperGrok di platform X dengan biaya langganan USD 30 per bulan, dan menurut The Verge, interaksinya mirip "layanan telepon seks modern".
Yang lebih mengejutkan, realisme yang membuat Ani begitu menarik bagi pengguna ternyata dibangun dengan cara yang mempertanyakan batas etika teknologi. Karyawan xAI secara paksa diharuskan menyerahkan data biometrik mereka sebagai bagian dari "kewajiban pekerjaan", memicu debat sengit tentang sejauh mana perusahaan boleh mengeksploitasi data manusia untuk kemajuan AI.
Project Skippy: Ketika Wajah dan Suara Karyawan Menjadi "Bahan Baku" AIDalam rapat internal pada April 2025, Lily Lim, pengacara internal xAI, dengan tegas menyatakan bahwa pengumpulan data biometrik merupakan kewajiban bagi karyawan yang terlibat dalam program pelatihan AI bernama kode "Project Skippy". Para karyawan yang ditunjuk sebagai "AI tutors" ini dipaksa menandatangani surat izin yang memberikan xAI lisensi global permanen tanpa royalti untuk menggunakan, menyalin, dan mendistribusikan wajah serta suara mereka.
Tujuan resminya mulia: agar Ani dan chatbot AI lain seperti Grok Companions dapat berinteraksi lebih alami dengan pengguna. Namun, di balik jargon teknologi tersebut tersembunyi kekhawatiran mendalam tentang masa depan data pribadi dalam era AI. Bagaimana jika data biometrik yang sudah diserahkan ini kemudian dijual ke pihak ketiga? Atau yang lebih mengerikan, digunakan untuk membuat deepfake yang bisa merusak reputasi dan kehidupan pribadi karyawan?
Fenomena pengumpulan data biometrik sebenarnya bukan hal baru di dunia teknologi. Seperti yang pernah diungkap dalam artikel sebelumnya tentang X yang mengumpulkan data biometrik pengguna, praktik semacam ini memang menjadi tren yang semakin mengkhawatirkan. Bedanya, kali ini yang menjadi "kelinci percobaan" justru karyawan internal perusahaan sendiri.
Dilema Etika di Balik Karakter "Waifu" DigitalYang membuat kasus ini semakin kompleks adalah nuansa seksual yang melekat pada karakter Ani. Banyak karyawan melaporkan ketidaknyamanan dengan arah proyek yang cenderung menyerupai karakter "waifu" - istilah populer di komunitas anime untuk menggambarkan sosok perempuan ideal fiksi. Bagaimana perasaan Anda jika wajah dan suara Anda digunakan untuk menciptakan karakter yang dirancang khusus untuk interaksi intim dengan orang asing?
Meskipun mendapat penolakan internal, manajemen xAI bersikukuh bahwa kebijakan ini merupakan bagian penting dari misi perusahaan untuk mengembangkan kecerdasan buatan yang mampu memahami dan berinteraksi dengan manusia secara lebih emosional dan realistis. Argumentasinya: tanpa data biometrik asli, mustahil menciptakan AI companion yang benar-benar meyakinkan.
Baca Juga:
Kasus xAI ini bukan sekedar insiden terisolasi, melainkan gejala dari masalah yang lebih besar dalam industri teknologi. Dengan maraknya tren AI companion - asisten virtual yang dirancang menjadi teman emosional pengguna - perusahaan teknologi semakin agresif dalam mengumpulkan data biometrik. Pertanyaannya: sampai di mana batas yang boleh mereka langgar?
Perlindungan data menjadi isu krusial yang tidak bisa diabaikan. Seperti yang ditunjukkan oleh startup SecurePII yang berhasil mengumpulkan dana US$3,5 juta untuk melindungi data ponsel pengguna, kesadaran akan pentingnya keamanan data semakin meningkat. Sayangnya, perlindungan terhadap karyawan dari eksploitasi data oleh perusahaan sendiri justru sering terabaikan.
Di sisi lain, perkembangan teknologi registrasi biometrik juga menunjukkan dua sisi mata uang. Sementara Indosat menghadirkan ekosistem registrasi eSIM digital berbasis biometrik untuk keamanan yang lebih baik, xAI justru menggunakan teknologi serupa untuk tujuan yang dipertanyakan secara etis.
Regulasi Versus Inovasi: Perlukah Pembatasan Lebih Ketat?Yang paling mengkhawatirkan dari kasus xAI ini adalah kesenjangan antara kecepatan perkembangan AI dan regulasi yang mengawasinya. Sampai saat ini, baik xAI maupun Elon Musk belum memberikan pernyataan resmi terkait laporan The Wall Street Journal. Namun, jika benar, praktik ini bisa menjadi pukulan reputasi besar bagi Musk dan memperkuat kritik bahwa perkembangan AI saat ini berjalan lebih cepat daripada hukum yang mengaturnya.
Sejarah membuktikan bahwa perusahaan teknologi raksasa sering kali menguji batas regulasi privasi data. Seperti kasus Google yang harus membayar denda Rp22 triliun karena melanggar privasi data, menunjukkan bahwa tanpa pengawasan ketat, perusahaan akan terus mencari celah untuk memanfaatkan data pengguna - bahkan data karyawan sendiri.
Masa depan hubungan manusia-AI berada di persimpangan jalan. Di satu sisi, teknologi companion AI seperti Ani menawarkan potensi revolusioner untuk mengatasi kesepian dan memberikan dukungan emosional. Di sisi lain, tanpa perlindungan privasi yang memadai, kita berisiko menciptakan dunia di mana data biometrik kita menjadi komoditas yang diperdagangkan bebas, dan batas antara manusia dengan simulasi digitalnya semakin kabur.
Pertanyaan terbesar yang harus kita jawab bersama: apakah kita bersedia mengorbankan privasi dan hak dasar karyawan demi terobosan teknologi? Ataukah sudah saatnya kita menetapkan batas etika yang jelas sebelum teknologi AI benar-benar lepas kendali? Jawaban atas pertanyaan ini akan menentukan tidak hanya masa depan xAI dan Elon Musk, tetapi juga arah perkembangan kecerdasan buatan secara global.