Tetap Selangkah Lebih Maju dari Para Peretas dalam Hal AI

Email phishing dan penipuan lainnya mungkin mendapatkan peningkatan kecerdasan buatan, begitu juga dengan garis pertahanan digital.

Jika Anda sering menjelajahi forum-forum teknologi bawah tanah akhir-akhir ini, Anda mungkin pernah melihat iklan program baru yang disebut WormGPT.

Program ini merupakan alat yang diperlengkapi oleh AI bagi para penjahat siber untuk mengotomatiskan pembuatan email phishing yang dipersonalisasi; meskipun kedengarannya agak mirip dengan ChatGPT, WormGPT bukanlah AI yang bersahabat dengan Anda.

ChatGPT diluncurkan pada November 2022 dan, sejak saat itu, AI generatif telah menggemparkan dunia. Namun, hanya sedikit yang mempertimbangkan bagaimana kemunculannya yang tiba-tiba akan membentuk masa depan keamanan siber.

Pada tahun 2024, AI generatif siap untuk memfasilitasi jenis-jenis kejahatan siber transnasional — dan translingual — yang baru. Misalnya, banyak kejahatan siber yang didalangi oleh para pengangguran dari negara-negara dengan ekonomi teknologi yang belum berkembang. Bahasa Inggris bukan bahasa utama di negara-negara ini telah menggagalkan kemampuan peretas untuk menipu mereka yang berada di negara-negara berbahasa Inggris; sebagian besar penutur asli bahasa Inggris dapat dengan cepat mengidentifikasi email phishing melalui bahasanya yang tidak diidiomatisasi dan tidak bertata bahasa.

Namun, AI generatif akan mengubahnya. Penjahat siber dari seluruh dunia sekarang dapat menggunakan chatbot seperti WormGPT untuk menulis email phishing yang ditulis dengan baik dan dipersonalisasi. Dengan belajar dari para penipu di seluruh web, chatbot dapat membuat penipuan berbasis data yang sangat meyakinkan dan efektif.

Pada tahun 2024, AI generatif akan membuat peretasan biometrik menjadi lebih mudah. Hingga saat ini, metode autentikasi biometrik — sidik jari, pengenalan wajah, pengenalan suara — sulit (dan mahal) untuk ditiru; tidak mudah untuk memalsukan sidik jari, wajah, atau suara.

Namun, AI telah membuat pemalsuan menjadi jauh lebih murah. Tidak bisa meniru suara target Anda? Perintahkan chatbot untuk melakukannya untuk Anda.

Dan, apa yang akan terjadi jika peretas mulai menargetkan chatbot itu sendiri? AI generatif memang seperti itu — generatif; AI menciptakan sesuatu yang tidak ada sebelumnya. Skema dasarnya memungkinkan peluang bagi peretas untuk menyuntikkan malware ke dalam objek yang dihasilkan oleh chatbot. Pada tahun 2024, siapa pun yang menggunakan AI untuk menulis kode harus memastikan bahwa output yang dihasilkan belum dibuat atau dimodifikasi oleh peretas.

Aktor jahat lainnya juga akan mulai mengendalikan chatbot pada tahun 2024. Fitur utama dari gelombang baru AI generatif adalah “tidak dapat dijelaskan”. Algoritma yang dilatih melalui pembelajaran mesin dapat memberikan jawaban yang mengejutkan dan tidak terduga atas pertanyaan kita. Meskipun orang merancang algoritma, kita tidak tahu bagaimana cara kerjanya.

Dengan demikian, tampaknya wajar jika chatbot pada masa depan akan bertindak sebagai peramal yang mencoba menjawab pertanyaan-pertanyaan etis dan religius yang sulit. Di Jesus-ai.com, misalnya, Anda bisa mengajukan pertanyaan kepada Yesus yang memiliki kecerdasan buatan. Ironisnya, tidak sulit untuk membayangkan program-program seperti ini dibuat dengan iktikad buruk. Sebuah aplikasi bernama “Krishna”, misalnya, telah menyarankan untuk membunuh orang-orang yang tidak percaya dan mendukung partai yang berkuasa di India. Apa yang bisa menghentikan para penipu untuk meminta persepuluhan atau mempromosikan tindakan kriminal? Atau, seperti yang telah dilakukan oleh salah satu chatbot, menyuruh pengguna untuk meninggalkan pasangan mereka?

Semua alat keamanan memiliki kegunaan ganda — mereka dapat digunakan untuk menyerang atau bertahan. Jadi, pada tahun 2024, kita harus mengharapkan AI digunakan untuk menyerang dan bertahan. Peretas dapat menggunakan AI untuk menipu sistem pengenalan wajah, tetapi pengembang keamanan siber dapat menggunakan AI untuk membuat sistem mereka menjadi lebih aman. Memang, pembelajaran mesin telah digunakan selama lebih dari satu dekade untuk melindungi sistem digital. Sebelum kita terlalu khawatir tentang serangan AI baru, kita harus ingat bahwa akan ada juga pertahanan AI yang baru pula. (t/Santi)

Sumber:
Nama situs: Wired
URL: https://www.wired.com/story/staying-one-step-ahead-of-hackers-when-it-comes-to-ai/
Judul artikel: Staying One Step Ahead of Hackers When It Comes to AI
Penulis: Scott Shapiro