Sebuah studi terbaru telah mengungkapkan bahaya tersembunyi dalam kode yang ditulis oleh AI generatif: model sering kali "mengkhayalkan" komponen perangkat lunak yang sebenarnya tidak ada, menciptakan potensi pintu masuk untuk serangan siber. Peneliti dari Universitas Texas di San Antonio menganalisis 576.000 potongan kode yang dihasilkan oleh 16 model AI populer, termasuk GPT-4 dan Claude. Dalam 19,7% kasus, kode tersebut menyertakan referensi ke pustaka palsu — total sekitar 440.000 ketergantungan yang tidak valid.
Peretas dapat memanfaatkan ini dengan mendaftarkan paket dengan nama yang sering kali diciptakan AI secara keliru dan mengisinya dengan kode berbahaya. Jika pengembang menginstal komponen ini tanpa memverifikasi keasliannya, malware akan masuk. Selama eksperimen, paket uji dengan nama yang dibuat-buat diunduh puluhan ribu kali.
- Model sumber terbuka (seperti CodeLlama dan DeepSeek) melakukan kesalahan ini 22% dari waktu — empat kali lebih banyak daripada model komersial (5%). Peneliti percaya ini disebabkan oleh ukuran model, dengan AI komersial biasanya memiliki 10 kali lebih banyak parameter.
- javascript lebih rentan daripada Python: 21% dari kode JS memiliki ketergantungan palsu, dibandingkan dengan 16% di Python. Itu mungkin karena ekosistem JS memiliki 10 kali lebih banyak paket, sehingga lebih sulit bagi AI untuk menyarankan yang akurat.
- Pengulangan adalah masalah besar: 43% dari “khayalan” ini terjadi setidaknya 10 kali. Itu membuat serangan lebih mudah — peretas tidak perlu menebak, cukup melacak kesalahan ketik umum yang dihasilkan AI.
Teknik ini, yang dikenal sebagai Kebingungan Ketergantungan, bekerja dengan mengganti paket yang sah dengan yang berbahaya yang memiliki nama yang sama. Misalnya, seorang peretas menerbitkan paket yang terinfeksi Trojan ke repositori. Jika AI menyarankannya alih-alih versi resmi dan seorang pengembang menginstalnya tanpa memeriksa sumbernya, sistem akan terkompromi.
Dengan Microsoft memprediksi bahwa AI akan menulis 95% dari semua kode pada tahun 2030, temuan ini adalah panggilan untuk waspada. Sampai jaringan saraf dapat secara andal membedakan fiksi dari fakta, beban keamanan tetap sepenuhnya di tangan manusia.
Tentang Penulis
Arkadiy Andrienko
Penulis artikel dan berita
Sebagai jurnalis teknologi di VGTimes, saya dengan senang hati membahas GPU terbaru dan mendalami seluk-beluk RPG klasik. Sejak tahun 2018, saya menulis tentang game dan perangkat keras, pengalaman saya di bidang rekayasa suara memungkinkan saya memahami dengan baik nuansa teknologi audio, dan saya selalu mencari sesuatu yang baru di bidang perangkat keras game. Ketika saya tidak menulis tentang teknologi, kemungkinan besar saya sedang menjelajahi puing-puing pasca-apokaliptik di Fallout, mengelola koloni di RimWorld, atau memimpin pasukan di Hearts of Iron IV. Bagi saya, game lebih dari sekadar hobi — ini adalah hasrat yang memberi energi pada potensi kreatif saya dan menjaga hubungan dengan dunia teknologi yang terus berkembang.