Peringatan Microsoft: Alat AI Dengan Hak Akses Berlebihan Bisa Berperan Sebagai ‘Agen Ganda

Apakah Anda tahu bahwa alat AI dengan hak akses berlebihan bisa menjadi ‘agen ganda’? Microsoft baru-baru ini menyoroti bahwa alat AI, meski populer di ruang bisnis, bisa menjadi ancaman serius jika tidak dilindungi dengan baik. Dengan hak istimewa yang berlebihan namun tanpa perlindungan yang cukup, alat AI ini dapat menjadi sasaran empuk untuk serangan oleh pelaku jahat, berpotensi merusak data sensitif bisnis Anda.
Microsoft Membahas Risiko Agen Ganda dalam Alat AI dengan Privileges Berlebih
Perusahaan teknologi yang berbasis di Redmond menerbitkan temuan dari telemetri dan risetnya sendiri dalam Laporan Cyber Pulse terbaru. Laporan ini berfokus pada peningkatan adopsi agen AI dan risiko keamanan yang muncul dari hal tersebut. “Data terkini dari Microsoft menunjukkan bahwa tim agen-manusia ini sedang berkembang dan secara luas diterima secara global,” kata perusahaan tersebut dalam sebuah postingan blog.
Selanjutnya, laporan tersebut mengklaim bahwa lebih dari 80 persen perusahaan Fortune 500 saat ini sedang menerapkan agen AI yang dibangun dengan alat low-code atau no-code. Microsoft mengatakan ini adalah tren yang mengkhawatirkan karena agen yang dibangun dengan menggunakan cara coding tersebut akan kekurangan protokol keamanan fundamental yang diperlukan untuk lingkungan perusahaan.
Di sisi lain, dalam laporan tersebut, perusahaan teknologi tersebut menyebutkan bahwa agen AI memerlukan perlindungan dengan meningkatkan observabilitas, tata kelola, dan langkah-langkah keamanan berbasis prinsip Zero Trust. Zero Trust pada dasarnya adalah kerangka kerja keamanan yang dibangun pada prinsip “never trust, always verify,” dengan asumsi bahwa tidak ada pengguna atau perangkat, di dalam atau di luar jaringan, yang dapat dipercaya secara default.
Tren menarik yang disebutkan dalam laporan tersebut adalah konsep agen ganda AI. Microsoft mengatakan bahwa agen AI yang dikembangkan oleh perusahaan saat ini memiliki hak istimewa berlebihan, yang menjadi ancaman keamanan. “Pelaku jahat mungkin akan mengeksploitasi akses dan hak istimewa agen, mengubah mereka menjadi ‘agen ganda’ yang tidak disengaja. Seperti karyawan manusia, agen dengan akses berlebihan—atau instruksi yang salah—dapat menjadi kerentanan,” tambah posting tersebut.
Namun demikian, perusahaan teknologi tersebut menjelaskan bahwa peneliti telah mendokumentasikan bagaimana agen dapat disesatkan oleh elemen antarmuka yang menipu, seperti mengikuti instruksi berbahaya yang ditambahkan ke konten biasa. Risiko lain yang ditemukan oleh peneliti adalah pengalihan agen melalui framing tugas yang dimanipulasi.
Bagian berikutnya, menyebut survei multinasional lebih dari 1.700 profesional keamanan data yang ditugaskan oleh Microsoft dari Hypothesis Groups, laporan tersebut mengklaim bahwa 29 persen karyawan menggunakan agen AI untuk tugas kerja yang tidak disahkan oleh tim IT.
“Inilah inti dilema risiko cyber. Agen AI membawa peluang baru ke tempat kerja dan menjadi bagian dari operasi internal. Tetapi perilaku berisiko agen dapat memperbesar ancaman dari dalam dan menciptakan mode kegagalan baru bagi organisasi yang tidak siap mengelolanya,” kata laporan tersebut.




