Selama bertahun-tahun, itu biaya penggunaan layanan “gratis” dari Google, Facebook, Microsoftdan perusahaan Teknologi Besar lainnya telah menyerahkan data Anda. Mengunggah kehidupan Anda ke cloud dan menggunakan teknologi gratis memberikan kemudahan, namun hal ini memberikan informasi pribadi ke tangan perusahaan-perusahaan raksasa yang sering kali ingin memonetisasinya. Sekarang, itu gelombang AI generatif berikutnya sistem cenderung menginginkan lebih banyak akses ke data Anda dibandingkan sebelumnya.
Selama dua tahun terakhir, alat AI generatif—seperti OpenAI‘S ObrolanGPT dan Google Gemini—telah beralih dari sekadar chatbot teks saja yang awalnya dirilis oleh perusahaan. Sebaliknya, Big AI semakin membangun dan mendorong penerapannya agen dan “asisten” janji itu bahwa mereka dapat mengambil tindakan dan menyelesaikan tugas atas nama Anda. Masalahnya? Untuk mendapatkan manfaat maksimal dari mereka, Anda harus memberi mereka akses ke sistem dan data Anda. Meskipun sebagian besar kontroversi awal mengenai model bahasa besar (LLM) adalah penyalinan data berhak cipta secara online, akses agen AI ke data pribadi Anda kemungkinan akan menyebabkan sejumlah masalah baru.
“Agen AI, agar dapat memiliki fungsionalitas penuh, agar dapat mengakses aplikasi, sering kali perlu mengakses sistem operasi atau tingkat OS perangkat tempat Anda menjalankannya,” kata Harry Farmer, peneliti senior di Ada Lovelace Institute, yang pekerjaannya mencakup mempelajari dampak asisten AI dan menemukan bahwa hal tersebut dapat menyebabkan “ancaman besar” terhadap keamanan siber dan privasi. Untuk personalisasi chatbot atau asisten, kata Farmer, mungkin ada trade-off data. “Semua hal itu, agar bisa berfungsi, memerlukan cukup banyak informasi tentang Anda,” katanya.
Meskipun tidak ada definisi pasti tentang apa sebenarnya agen AI, mereka sering kali dianggap sebagai sistem AI generatif atau LLM yang telah diberikan. beberapa tingkat otonomi. Saat ini, agen atau asisten, termasuk Peramban web AIdapat mengendalikan perangkat Anda dan menjelajahi web untuk Anda, memesan penerbangan, melakukan penelitian, atau menambahkan item ke keranjang belanja. Beberapa dapat menyelesaikan tugas-tugas yang mencakup puluhan langkah individu.
Meskipun agen AI saat ini bermasalah dan sering kali tidak dapat diselesaikan tugas mereka sudah ditetapkan untuk melakukannyaperusahaan teknologi bertaruh bahwa sistem akan melakukan hal tersebut secara fundamental mengubah jutaan orang ketika mereka menjadi lebih mampu. Bagian penting dari kegunaannya kemungkinan besar berasal dari akses terhadap data. Jadi, jika Anda menginginkan sistem yang dapat memberikan jadwal dan tugas Anda, sistem tersebut memerlukan akses ke kalender, pesan, email, dan banyak lagi.
Beberapa produk dan fitur AI yang lebih canggih memberikan gambaran sekilas tentang seberapa banyak agen dan sistem akses yang dapat diberikan. Agen tertentu yang dikembangkan untuk bisnis bisa membaca kodeemail, databasePesan kendur, file yang disimpan di Google Drive, dan banyak lagi. Penarikan kembali Microsoft yang kontroversial produk mengambil tangkapan layar desktop Anda setiap beberapa detik, sehingga Anda dapat mencari semua yang telah Anda lakukan di perangkat Anda. Tinder telah menciptakan fitur AI yang bisa mencari melalui foto di ponsel Anda “untuk lebih memahami” “minat dan kepribadian” pengguna.
Carissa Véliz, seorang penulis dan profesor di Universitas Oxford, mengatakan seringkali konsumen tidak memiliki cara nyata untuk memeriksa apakah AI atau perusahaan teknologi menangani data mereka seperti yang mereka klaim. “Perusahaan-perusahaan ini sangat pilih-pilih dalam menggunakan data,” kata Véliz. “Mereka terbukti tidak terlalu menghormati privasi.”
Industri AI modern tidak pernah benar-benar menghormati hak data. Setelah terobosan pembelajaran mesin dan pembelajaran mendalam di awal tahun 2010-an menunjukkan bahwa sistem dapat memberikan hasil yang lebih baik jika dilatih dengan lebih banyak data, perlombaan untuk mengumpulkan informasi sebanyak mungkin semakin intensif. Perusahaan pengenalan wajah, seperti Clearview, dihapuskan jutaan foto orang dari seluruh web. Google hanya membayar orang $5 untuk pemindaian wajah; resmi diduga lembaga pemerintah menggunakan gambar anak-anak yang dieksploitasi, pemohon visa, dan orang mati untuk menguji sistem mereka.
Beberapa tahun kemudian, perusahaan-perusahaan AI yang haus data menjelajahi web dan menyalin jutaan buku—seringkali tanpa izin atau pembayaran—untuk membangun LLM dan sistem AI generatif yang saat ini mereka kembangkan menjadi agen. Setelah menghabiskan banyak waktu di web, banyak perusahaan menjadikan pelatihan sistem AI pada data pengguna sebagai hal yang biasa, membuat orang memilih keluar daripada ikut serta.
Sementara beberapa sistem AI yang berfokus pada privasi adalah sedang dikembangkan, dan beberapa lainnya perlindungan privasi sudah ada, sebagian besar pemrosesan data oleh agen akan dilakukan di cloud, dan perpindahan data dari satu sistem ke sistem lainnya dapat menimbulkan masalah. Sebuah penelitian yang dilakukan oleh regulator data Eropa, menguraikan sejumlah risiko privasi terkait dengan agen, termasuk: bagaimana data sensitif dapat bocor, disalahgunakan, atau disadap; bagaimana sistem dapat mengirimkan informasi sensitif ke sistem eksternal tanpa adanya perlindungan; dan bagaimana penanganan data dapat melanggar peraturan privasi.
“Bahkan jika, katakanlah, Anda benar-benar menyetujui dan Anda benar-benar diberi tahu tentang bagaimana data Anda digunakan, orang-orang yang berinteraksi dengan Anda mungkin tidak menyetujuinya,” kata Véliz, profesor di Oxford. “Jika sistem memiliki akses ke semua kontak dan email serta kalender Anda dan Anda menelepon saya dan Anda memiliki kontak saya, mereka juga mengakses data saya, dan saya tidak ingin mereka mengaksesnya.”
Perilaku agen juga dapat mengancam praktik keamanan yang ada. Apa yang disebut serangan injeksi cepat, yaitu instruksi berbahaya yang dimasukkan ke LLM dalam bentuk teks yang dibaca atau diserap, dapat menyebabkan kebocoran. Dan jika agen diberi akses mendalam ke perangkat, mereka menimbulkan ancaman terhadap semua data yang ada di dalamnya.
“Masa depan infiltrasi total dan pembatalan privasi melalui agen pada sistem operasi belum tiba, tapi itulah yang didorong oleh perusahaan-perusahaan ini tanpa kemampuan bagi pengembang untuk memilih tidak ikut serta,” Meredith Whittaker, presiden Signal Foundation, yang menjalankan aplikasi perpesanan Signal terenkripsi, mengatakan kepada WIRED awal tahun ini. Agen yang dapat mengakses segala sesuatu di perangkat atau sistem operasi Anda menimbulkan “ancaman nyata” terhadap Signal dan privasi tingkat aplikasi, kata Whittaker. “Apa yang kami serukan adalah penolakan yang sangat jelas di tingkat pengembang untuk mengatakan, ‘Jangan sentuh kami jika Anda seorang agen.’”
Untuk individu, Farmer dari Ada Lovelace Institute mengatakan banyak orang telah membangun hubungan yang intens dengan chatbot yang ada dan mungkin telah berbagi data sensitif dalam jumlah besar dengan mereka selama proses tersebut, menjadikannya berbeda dari sistem lain yang pernah ada sebelumnya. “Berhati-hatilah dengan imbalan (quid pro quo) terkait data pribadi Anda dengan sistem semacam ini,” kata Farmer. “Model bisnis yang dijalankan sistem ini saat ini mungkin bukan model bisnis yang mereka adopsi di masa depan.”






