Perusahaan teknologi perlu mengambil risiko keamanan siber dengan lebih serius
Pakar keamanan dunia maya terkemuka telah mengemukakan kekhawatiran bahwa peraturan tidak akan cukup untuk menangani risiko serius yang ditimbulkan oleh AI.
Kroll, sebuah firma penilaian risiko keuangan dan keamanan, telah meminta perusahaan teknologi untuk lebih mementingkan perlindungan dunia maya. Komentar tersebut muncul sebagai tanggapan atas proposal baru pemerintah Inggris tentang cara terbaik untuk mengatur AI.
Buku putih pemerintah mengumumkan "kerangka kerja pro-inovasi" yang dirancang untuk mempermudah inovasi yang "bertanggung jawab" dan mendukung Inggris sebagai pemimpin global dalam teknologi AI.
Alih-alih membuat regulator baru, pemerintah meminta regulator yang ada untuk mengambil otoritas penggunaan Kecerdasan Buatan di sektor mereka. Tidak akan ada kewajiban hukum bagi regulator untuk bertindak.
Keith Wojciesezek, Global Head of Threat Intelligence di Kroll, mengatakan tanggung jawab ada pada perusahaan untuk mengambil sikap yang lebih proaktif tentang bagaimana mereka mengelola risiko yang ditimbulkan oleh AI.
"Bisnis perlu memanggang perlindungan dunia maya sejak awal, bukan sebagai latihan mencentang peraturan," katanya.
Alat AI dapat digunakan untuk melakukan serangan siber yang sangat tertarget. Baru-baru ini, ditunjukkan bahwa Chat GPT mampu membuat kampanye phishing yang " meyakinkan" untuk mengelabui orang yang tidak menaruh curiga agar menyerahkan uang mereka.
Dengan versi terbaru dari chatbot yang dikabarkan akan segera hadir, risiko keamanan siber akan meningkat.
Wojciesezek khawatir bahwa perkembangan pesat AI, di mana pembelajaran berbasis algoritmik memungkinkan proses dikembangkan tanpa pengawasan manusia, dapat melampaui upaya regulator untuk mengendalikannya.
"Semakin banyak alat AI dan versi sumber terbuka muncul, peretas kemungkinan akan dapat melewati kontrol yang ditambahkan ke sistem," kata Wojciesezek. Dia lebih lanjut menambahkan: "Mereka bahkan mungkin dapat menggunakan alat AI untuk mengalahkan kontrol atas sistem AI yang ingin mereka langgar."
Secara umum, ada kekhawatiran bahwa perusahaan memprioritaskan pengembangan kecerdasan buatan secepat mungkin tanpa mempertimbangkan keamanan siber dan potensi bahaya yang lebih luas. Wojciesezek menyebutnya sebagai "Perlombaan senjata AI habis-habisan".
Microsoft akan menginvestasikan $10 miliar di OpenAI, pencipta ChatGPT, sementara Google telah menanggapi dengan mempercepat upaya untuk merilis kotak obrolan berorientasi pencariannya sendiri, Bard.
Perkembangan seperti itu mendorong para pemimpin teknologi global, termasuk Elon Musk, untuk menghentikan "eksperimen AI raksasa". Mereka percaya bahwa pemerintah harus siap untuk menegakkan moratorium pengembangan teknologi selama enam bulan sementara penelitian dilakukan untuk memastikan sistem lebih aman dan lebih dapat dipercaya.
Tanggapan Inggris terhadap peraturan AI telah dikritik karena gagal mengatasi risikonya. Simon Elliott, mitra di firma hukum Dentons mengatakan kepada BBC bahwa pendekatan pemerintah adalah "sentuhan ringan" yang membuat Inggris "lebih jauh" dibandingkan dengan tempat lain di dunia.
UE telah mengusulkan tindakan khusus untuk mencakup regulasi AI, sementara bulan lalu, Kamar Dagang AS melawan sikap anti-regulasi umumnya, untuk meminta lebih banyak regulasi.
Proposal Inggris dirancang untuk memperkuat posisi Inggris sebagai pemimpin global dalam AI dan memanfaatkan kemampuan teknologi untuk mendorong pertumbuhan dan kemakmuran. Bangsa menetapkan 5 prinsip utama.
- Keselamatan, keamanan dan ketahanan
- Transparansi dan penjelasan yang tepat
- Keadilan
- Akuntabilitas dan tata kelola
- Contestability dan ganti rugi
Dengan proposal baru ini, sistem AI yang bekerja dengan cara yang aman dan terjamin, dengan penilaian risiko yang dilakukan secara berkelanjutan akan ditegakkan. Informasi tentang bagaimana, kapan dan untuk tujuan apa sistem digunakan harus dikomunikasikan kepada orang yang relevan dengan cara yang mudah dimengerti.
Selain itu, Inggris memprioritaskan bahwa teknologi AI tidak boleh merusak hak hukum individu atau organisasi, mendiskriminasi individu, atau menciptakan hasil pasar yang tidak adil.
Banyak yang setuju bahwa langkah-langkah harus dilakukan untuk memastikan pengawasan yang efektif atas penggunaan sistem AI, dengan garis akuntabilitas yang jelas. Keputusan dan hasil AI harus dapat digugat dan diubah oleh pengguna layanan dan pihak lain yang terkena dampaknya.
© Copyright 2024 IBTimes UK. All rights reserved.