
Tetap Selangkah Lebih Maju dari Para Peretas dalam Hal AI
2024-02-23 09:00:21
AI Generate Summary
-
Email phishing dan penipuan lainnya kemungkinan akan semakin berkembang dengan peningkatan kecerdasan buatan, di tengah pertahanan digital yang juga semakin maju. Salah satu alat baru yang muncul adalah WormGPT, program AI yang digunakan oleh penjahat siber untuk mengotomatiskan pembuatan email phishing yang dipersonalisasi. Meskipun mirip dengan ChatGPT, WormGPT tidak dirancang untuk tujuan yang baik. Sejak diluncurkan pada November 2022, AI generatif telah memengaruhi banyak aspek, termasuk keamanan siber, dan pada tahun 2024, diperkirakan akan memfasilitasi kejahatan siber transnasional dan translingual. Penjahat siber dari negara-negara dengan ekonomi teknologi yang kurang berkembang kini dapat membuat email phishing yang lebih meyakinkan, mengatasi kendala bahasa yang sebelumnya menghalangi mereka. Selain itu, AI generatif memungkinkan peretasan biometrik yang lebih mudah dengan menurunkan biaya pemalsuan. Ada juga potensi risiko baru jika peretas mulai menargetkan chatbot itu sendiri, yang dapat disuntikkan malware. Dengan kemampuan AI yang tidak dapat dijelaskan, chatbot di masa depan mungkin bisa digunakan untuk menyampaikan ide-ide berbahaya. Di sisi lain, meskipun peretas dapat menggunakan AI untuk serangan, pengembang keamanan siber juga dapat memanfaatkannya untuk melindungi sistem digital. Oleh karena itu, di tahun 2024, kita harus waspada terhadap kedua sisi penggunaan AI ini. (t/Santi)
- Email phishing dan penipuan lainnya mungkin mendapatkan peningkatan kecerdasan buatan.
- WormGPT adalah program baru yang memungkinkan penjahat siber untuk mengotomatiskan pembuatan email phishing yang dipersonalisasi.
- AI generatif seperti ChatGPT muncul pada November 2022 dan memengaruhi masa depan keamanan siber.
- Pada tahun 2024, AI generatif diharapkan memfasilitasi jenis kejahatan siber transnasional dan translingual yang baru.
- AI generatif dapat membantu penjahat siber menulis email phishing yang lebih baik dan lebih meyakinkan.
- AI akan membuat peretasan biometrik menjadi lebih mudah dan murah.
- Pemalsuan suara dan lainnya menjadi lebih mungkin dengan adanya chatbot.
- Peretas dapat menyuntikkan malware ke dalam objek yang dihasilkan oleh chatbot.
- Chatbot juga dapat digunakan untuk tujuan jahat, memberikan jawaban mengejutkan dan tidak terduga.
- Aktor jahat dapat menggunakan chatbot untuk mempromosikan tindakan kriminal atau ideologi berbahaya.
- AI akan digunakan baik untuk menyerang maupun mempertahankan dalam konteks keamanan siber.
- Pembelajaran mesin telah digunakan untuk melindungi sistem digital dan perkembangan baru dalam pertahanan AI juga diharapkan muncul.
- Email phishing
- Penipuan siber
- Kecerdasan buatan (AI)
- WormGPT
- Otomatisasi pembuatan email phishing
- Keamanan siber
- Kejahatan siber transnasional
- Pemalsuan biometrik
- Metode autentikasi biometrik
- Chatbot
- Injeksi malware
- Algoritma
- Pembelajaran mesin
- Pertanyaan etis dan religius
- Alat keamanan
- Serangan dan pertahanan dengan AI
Email phishing dan penipuan lainnya mungkin mendapatkan peningkatan kecerdasan buatan, begitu juga dengan garis pertahanan digital.
Jika Anda sering menjelajahi forum-forum teknologi bawah tanah akhir-akhir ini, Anda mungkin pernah melihat iklan program baru yang disebut WormGPT.
Program ini merupakan alat yang diperlengkapi oleh AI bagi para penjahat siber untuk mengotomatiskan pembuatan email phishing yang dipersonalisasi; meskipun kedengarannya agak mirip dengan ChatGPT, WormGPT bukanlah AI yang bersahabat dengan Anda.
ChatGPT diluncurkan pada November 2022 dan, sejak saat itu, AI generatif telah menggemparkan dunia. Namun, hanya sedikit yang mempertimbangkan bagaimana kemunculannya yang tiba-tiba akan membentuk masa depan keamanan siber.
Pada tahun 2024, AI generatif siap untuk memfasilitasi jenis-jenis kejahatan siber transnasional -- dan translingual -- yang baru. Misalnya, banyak kejahatan siber yang didalangi oleh para pengangguran dari negara-negara dengan ekonomi teknologi yang belum berkembang. Bahasa Inggris bukan bahasa utama di negara-negara ini telah menggagalkan kemampuan peretas untuk menipu mereka yang berada di negara-negara berbahasa Inggris; sebagian besar penutur asli bahasa Inggris dapat dengan cepat mengidentifikasi email phishing melalui bahasanya yang tidak diidiomatisasi dan tidak bertata bahasa.
Namun, AI generatif akan mengubahnya. Penjahat siber dari seluruh dunia sekarang dapat menggunakan chatbot seperti WormGPT untuk menulis email phishing yang ditulis dengan baik dan dipersonalisasi. Dengan belajar dari para penipu di seluruh web, chatbot dapat membuat penipuan berbasis data yang sangat meyakinkan dan efektif.
Pada tahun 2024, AI generatif akan membuat peretasan biometrik menjadi lebih mudah. Hingga saat ini, metode autentikasi biometrik -- sidik jari, pengenalan wajah, pengenalan suara -- sulit (dan mahal) untuk ditiru; tidak mudah untuk memalsukan sidik jari, wajah, atau suara.
Namun, AI telah membuat pemalsuan menjadi jauh lebih murah. Tidak bisa meniru suara target Anda? Perintahkan chatbot untuk melakukannya untuk Anda.
Dan, apa yang akan terjadi jika peretas mulai menargetkan chatbot itu sendiri? AI generatif memang seperti itu -- generatif; AI menciptakan sesuatu yang tidak ada sebelumnya. Skema dasarnya memungkinkan peluang bagi peretas untuk menyuntikkan malware ke dalam objek yang dihasilkan oleh chatbot. Pada tahun 2024, siapa pun yang menggunakan AI untuk menulis kode harus memastikan bahwa output yang dihasilkan belum dibuat atau dimodifikasi oleh peretas.
Aktor jahat lainnya juga akan mulai mengendalikan chatbot pada tahun 2024. Fitur utama dari gelombang baru AI generatif adalah "tidak dapat dijelaskan". Algoritma yang dilatih melalui pembelajaran mesin dapat memberikan jawaban yang mengejutkan dan tidak terduga atas pertanyaan kita. Meskipun orang merancang algoritma, kita tidak tahu bagaimana cara kerjanya.
Dengan demikian, tampaknya wajar jika chatbot pada masa depan akan bertindak sebagai peramal yang mencoba menjawab pertanyaan-pertanyaan etis dan religius yang sulit. Di Jesus-ai.com, misalnya, Anda bisa mengajukan pertanyaan kepada Yesus yang memiliki kecerdasan buatan. Ironisnya, tidak sulit untuk membayangkan program-program seperti ini dibuat dengan iktikad buruk. Sebuah aplikasi bernama "Krishna", misalnya, telah menyarankan untuk membunuh orang-orang yang tidak percaya dan mendukung partai yang berkuasa di India. Apa yang bisa menghentikan para penipu untuk meminta persepuluhan atau mempromosikan tindakan kriminal? Atau, seperti yang telah dilakukan oleh salah satu chatbot, menyuruh pengguna untuk meninggalkan pasangan mereka?
Semua alat keamanan memiliki kegunaan ganda -- mereka dapat digunakan untuk menyerang atau bertahan. Jadi, pada tahun 2024, kita harus mengharapkan AI digunakan untuk menyerang dan bertahan. Peretas dapat menggunakan AI untuk menipu sistem pengenalan wajah, tetapi pengembang keamanan siber dapat menggunakan AI untuk membuat sistem mereka menjadi lebih aman. Memang, pembelajaran mesin telah digunakan selama lebih dari satu dekade untuk melindungi sistem digital. Sebelum kita terlalu khawatir tentang serangan AI baru, kita harus ingat bahwa akan ada juga pertahanan AI yang baru pula. (t/Santi)
Sumber:
Nama situs: Wired
URL: https://www.wired.com/story/staying-one-step-ahead-of-hackers-when-it-comes-to-ai/
Judul artikel: Staying One Step Ahead of Hackers When It Comes to AI
Penulis: Scott Shapiro
Copyright © 2023 - Yayasan Lembaga SABDA (YLSA). All Rights Reserved