AI Menulis Kode dengan Pintu Belakang — Tanpa Bahkan Menyadarinya

AI Menulis Kode dengan Pintu Belakang — Tanpa Bahkan Menyadarinya

Arkadiy Andrienko

Sebuah studi terbaru telah mengungkapkan bahaya tersembunyi dalam kode yang ditulis oleh AI generatif: model sering kali "mengkhayalkan" komponen perangkat lunak yang sebenarnya tidak ada, menciptakan potensi pintu masuk untuk serangan siber. Peneliti dari Universitas Texas di San Antonio menganalisis 576.000 potongan kode yang dihasilkan oleh 16 model AI populer, termasuk GPT-4 dan Claude. Dalam 19,7% kasus, kode tersebut menyertakan referensi ke pustaka palsu — total sekitar 440.000 ketergantungan yang tidak valid.

Peretas dapat memanfaatkan ini dengan mendaftarkan paket dengan nama yang sering kali diciptakan AI secara keliru dan mengisinya dengan kode berbahaya. Jika pengembang menginstal komponen ini tanpa memverifikasi keasliannya, malware akan masuk. Selama eksperimen, paket uji dengan nama yang dibuat-buat diunduh puluhan ribu kali.

Temuan kunci:

  • Model sumber terbuka (seperti CodeLlama dan DeepSeek) melakukan kesalahan ini 22% dari waktu — empat kali lebih banyak daripada model komersial (5%). Peneliti percaya ini disebabkan oleh ukuran model, dengan AI komersial biasanya memiliki 10 kali lebih banyak parameter.
  • javascript lebih rentan daripada Python: 21% dari kode JS memiliki ketergantungan palsu, dibandingkan dengan 16% di Python. Itu mungkin karena ekosistem JS memiliki 10 kali lebih banyak paket, sehingga lebih sulit bagi AI untuk menyarankan yang akurat.
  • Pengulangan adalah masalah besar: 43% dari “khayalan” ini terjadi setidaknya 10 kali. Itu membuat serangan lebih mudah — peretas tidak perlu menebak, cukup melacak kesalahan ketik umum yang dihasilkan AI.

Teknik ini, yang dikenal sebagai Kebingungan Ketergantungan, bekerja dengan mengganti paket yang sah dengan yang berbahaya yang memiliki nama yang sama. Misalnya, seorang peretas menerbitkan paket yang terinfeksi Trojan ke repositori. Jika AI menyarankannya alih-alih versi resmi dan seorang pengembang menginstalnya tanpa memeriksa sumbernya, sistem akan terkompromi.

Dengan Microsoft memprediksi bahwa AI akan menulis 95% dari semua kode pada tahun 2030, temuan ini adalah panggilan untuk waspada. Sampai jaringan saraf dapat secara andal membedakan fiksi dari fakta, beban keamanan tetap sepenuhnya di tangan manusia.

    Tentang Penulis
    Komentar0