Kecerdasan buatan atau Artificial Intelligence (AI), menurut KBBI, merupakan program komputer dalam meniru kecerdasan manusia, seperti mengambil keputusan, menyediakan dasar penalaran, dan karakteristik manusia lainnya. Penemuan ini diciptakan untuk memudahkan dan meningkatkan kualitas kehidupan manusia terutama di era Masyarakat 5.0. AI memiliki peran sebagai penggerak transformasi digital sekaligus menjadi kekuatan dalam membangun masa depan yang dicita-citakan.
Namun, bagaikan pedang bermata dua, kehadiran AI kemudian menimbulkan dualitas yang dapat menguntungkan sekaligus mengancam kehidupan manusia. Banyak hal yang terjadi maupun berubah semenjak kemunculan AI, banyak pekerjaan yang telah terbantu atas kehadiran AI, tetapi tidak dapat dimungkiri masifnya penggunaan AI juga menimbulkan penyalahgunaan terhadap AI itu sendiri.
Untuk menyeimbangkan dualitas tersebut, AI perlu dilibatkan, hal ini kemudian akan menjadi suatu paradoks saat AI justru terlibat dalam mengatasi penyalahgunaan terhadap dirinya. Dengan demikian, muncul pertanyaan bagaimana cara memaksimalkan manfaat dan meminimalkan risiko penyalahgunaan AI?
Memainkan Peran Krusial
Jika diamati dari sisi positif, sulit untuk menafikan bahwa kemajuan AI telah memainkan peranan krusial. Dikutip dari laman Statista, jumlah data dunia termasuk Indonesia pada 2023 telah mencapai 120 zettabytes, angka ini diperkirakan akan meningkat lebih dari 150% mencapai 181 zettabytes pada 2025. Dengan volume data global yang terus melonjak tersebut, kebutuhan akan sistem penyimpanan yang efisien dan efektif semakin mendesak.
AI menawarkan kemampuan untuk mengelola data dalam jumlah besar dengan cepat, mengoptimalkan proses penyimpanan melalui teknik kompresi, dan manajemen data otomatis. AI telah memungkinkan terciptanya sistem penyimpanan berbasis cloud yang menyediakan kapasitas besar serta kemudahan akses dan pengelolaan. Misalnya, kecerdasan buatan mampu mengkompres data secara efisien dan mengurangi kebutuhan ruang tanpa menurunkan kualitas data.
Dengan kata lain, dampak signifikan AI dalam penyimpanan adalah mengubah pengelolaan dari pendekatan reaktif menjadi proaktif. Berbeda dengan sistem tradisional yang mengandalkan intervensi manual, penyimpanan berbasis AI menggunakan algoritma canggih dan model pembelajaran mesin untuk memprediksi dan mengatasi potensi masalah, mengurangi intervensi manusia, serta meminimalkan waktu henti.
Manfaat dan perkembangan AI ini tidak hanya dirasakan oleh perusahaan besar, tetapi juga oleh individu dan usaha kecil yang sekarang dapat mengakses teknologi penyimpanan data canggih yang sebelumnya di luar jangkauan mereka. Dengan kata lain, AI dapat mengubah lanskap teknologi hingga memperluas aksesibilitas dan kemampuan penyimpanan data bagi semua lapisan masyarakat.
Menghadapi Konsekuensi
Seiring dengan kemudahan yang ditawarkan, AI juga memiliki ancaman terhadap keamanan data yang menuntut kewaspadaan ekstra. Menggunakan AI berarti tidak hanya bersiap terhadap peluang, tetapi juga untuk menghadapi konsekuensi berupa tantangan-tantangan baru yang tidak terduga. Ancaman pada AI sebagai penyimpanan data muncul dari beberapa faktor utama yang saling terkait, seperti kompleksitas distribusi data, potensi kesalahan penafsiran, kelemahan dalam keamanan data, transparansi dan akuntabilitas algoritma, kurangnya pembaruan data, dan penurunan kualitas data seiring waktu.
Sistem AI dapat diibaratkan sebagai wilayah kompleks dan berbahaya di dunia maya, menarik perhatian peretas yang mencari data dan informasi sensitif secara ilegal. Contoh nyata dari ancaman ini terjadi pada 2019 ketika perusahaan layanan keuangan Capital One di Amerika Serikat mengalami pelanggaran data besar-besaran. Para peretas berhasil mencuri data pribadi sekitar 106 juta pelanggan dengan memanfaatkan kesalahan konfigurasi firewall pada server cloud yang digunakan untuk penyimpanan data pelanggan.
Selain itu, kurangnya kontrol akses yang memadai terhadap data yang disimpan di server AWS oleh Capital One memungkinkan para peretas untuk mengakses data yang seharusnya tidak mereka akses. Dampak dari pelanggaran tersebut sangat besar bagi Capital One, termasuk kerugian keuangan yang signifikan,seperti biaya untuk merespons dan mengedukasi pelanggan terdampak, biaya penyelidikan, dan denda yang dikenakan oleh pihak berwenang.
Data yang disimpan dalam sistem AI juga memiliki potensi untuk dijadikan alat yang mengancam privasi dan memanipulasi opini publik. Contoh nyata dari ancaman ini adalah kasus perusahaan analisis data Cambridge Analytica pada 2018. Perusahaan tersebut dituduh menggunakan data pribadi 87 juta pengguna Facebook untuk keperluan kampanye politik. Data yang diperoleh secara ilegal melalui Facebook ini digunakan untuk menargetkan pengguna melalui tampilan iklan politik selama ajang Pemilihan Presiden Amerika Serikat 2016, mereka seolah-olah menjadi pion dalam permainan catur besar.
Kasus tersebut disebabkan salah satunya oleh tidak transparannya algoritma AI yang digunakan oleh CA sehingga sulit untuk memahami bagaimana mereka bekerja dan membedakan terjadinya bias. Algoritma yang begitu kompleks menyebabkan sulitnya memahami bagaimana data diolah dan digunakan serta menimbulkan kekhawatiran terkait keamanan data.
Kebocoran data merupakan ancaman serius di dunia siber; informasi yang seharusnya terlindungi dengan ketat jatuh ke tangan yang tidak bertanggung jawab membahayakan kerahasiaan dan keamanan data. Sistem AI yang mengalami kebocoran data mungkin menjadi lebih rentan terhadap serangan ransomware karena para pelaku ransomware kemungkinan telah memperoleh akses ke data dalam sistem tersebut. Jika hal tersebut terjadi, maka konsekuensinya adalah korban akan kehilangan kemampuan untuk mengakses data mereka dan mungkin terpaksa membayar sejumlah tebusan untuk mendapatkannya kembali.
Pada Mei 2023, Bank Syariah Indonesia (BSI) mengalami serangan siber berupa kebocoran data dan ransomware yang mengakibatkan gangguan layanan perbankan selama beberapa hari. Diduga BSI menjadi target serangan ransomware LockBit 3.0, di mana data dicuri dan dienkripsi, dan pelaku meminta tebusan untuk memulihkan akses. Modus operasinya melibatkan penyusupan ke jaringan BSI, mengenkripsi data, dan menuntut pembayaran tebusan untuk pemulihan akses.
Kurangnya kewaspadaan keamanan siber, lemahnya enkripsi data dan kontrol akses turut mempermudah pelaku dalam membuka akses ke sistem. Kebocoran data tersebut, menyebabkan kerugian finansial yang signifikan, menghadapi tuntutan hukum, dan menurunkan kepercayaan investor terhadap BSI sehingga berpotensi menghambat pertumbuhan dan pendanaan bank.
Urgensi Perlindungan Data
Ancaman terhadap keamanan data dalam sistem AI menjadi kenyataan yang tidak bisa diabaikan. Dari kompleksitas distribusi data hingga kurangnya transparansi algoritma, tantangan-tantangan ini menyoroti urgensi perlindungan data. Contoh nyata seperti pelanggaran data besar-besaran oleh Capital One dan manipulasi data oleh Cambridge Analytica menunjukkan betapa rentannya sistem AI terhadap serangan peretas yang mencari celah untuk mengakses informasi sensitif.
Kebocoran data, seperti yang dialami oleh BSI, juga membuka pintu bagi serangan ransomware yang merugikan, menyoroti perlunya kesadaran akan keamanan siber dan peningkatan kontrol akses. Lantas, akankah AI mengancam kehidupan manusia? Akankah kebocoran data yang semakin meluas oleh AI menandai kelamnya masa depan era digital kita?
Sebagai model bahasa buatan yang dikembangkan oleh OpenAI, saya sendiri tidak memiliki kemampuan untuk menjadi ancaman bagi manusia. Namun, teknologi AI secara umum memang memiliki potensi untuk disalahgunakan jika tidak dikelola dengan baik. Kebocoran data yang semakin meluas akibat penggunaan AI yang tidak tepat bisa memang menciptakan masalah serius, termasuk mengancam privasi dan keamanan individu. (GPT 4.0)
Berdasarkan jawaban oleh AI itu sendiri, kita dapat semakin yakin bahwa esensi AI hanyalah sebagai alat yang diciptakan oleh manusia; manusia masih memiliki optimisme untuk dapat memaksimalkan peluang besar yang ditawarkan oleh AI sekaligus meminimalkan ancaman yang mungkin dibawanya. Oleh karena itu, sangat penting untuk merumuskan solusi yang memungkinkan kita beradaptasi dengan laju perkembangan AI yang begitu pesat. Beberapa poin solusi yang harus menjadi prioritas meliputi upaya preventif, represif, dan evaluatif.
Upaya preventif atau pencegahan dalam penyalahgunaan AI adalah kunci utama untuk menghadapi perkembangan teknologi kecerdasan buatan, salah satu langkah penting saat ini adalah meningkatkan kesadaran dan pengetahuan tentang literasi digital terutama terkait AI. Hal ini dapat dilakukan melalui platform pembelajaran online yang menyediakan kurikulum komprehensif dan interaktif serta melibatkan ahli AI untuk memberikan informasi yang akurat dan relevan.
Selanjutnya, pemberdayaan masyarakat melalui pelatihan keterampilan kreatif, dukungan finansial, promosi kolaborasi, dan pengakuan terhadap keanekaragaman kreativitas menjadi esensial yang bertujuan untuk meningkatkan kreativitas manusia dalam menghadapi perkembangan teknologi AI. Meskipun AI memiliki kemampuan komputasi yang luar biasa, keunggulan unik manusia, seperti emosi, kesadaran, dan intuisi, tetap tidak dapat tergantikan.
Langkah berikutnya adalah mendirikan komunitas AI melalui platform online dan kegiatan offline seperti diskusi, workshop, dan proyek kolaboratif yang bertujuan untuk membangun jejaring sosial dan profesional serta mempromosikan penggunaan AI secara etis dan bertanggung jawab. Pendidikan lanjutan di bidang AI juga harus diperkuat dengan hadirnya program studi AI di perguruan tinggi sekaligus dalam mempersiapkan tenaga kerja masa depan dan mendorong inovasi kerja sama di antara universitas dan industri, seperti melalui kegiatan magang, penelitian, dan transfer teknologi.
Pendirian pusat penelitian dan pengembangan AI juga sangat penting sebagai pusat inovasi dengan dukungan dari pemerintah dan sektor swasta dalam hal pendanaan dan sumber daya untuk memperkuat jaringan antara peneliti, praktisi, dan pembuat kebijakan.
Selain upaya preventif, diperlukan upaya represif atau pengendalian terhadap berbagai permasalahan yang terjadi dari peran AI sebagai penyimpanan data, seperti kasus ransomware. Paradoks AI sebagaimana yang telah dijelaskan di awal menjadi salah satu langkah cerdas yang dapat ditempuh saat ini. Paradoks ini ialah bagaimana manusia dapat berkolaborasi dan melatih AI untuk mampu mendeteksi dan menangani berbagai ancaman yang muncul terhadap keberadaannya, atau singkatnya paradoks ini memungkinkan manusia dapat mewujudkan AI yang mampu melindungi dirinya sendiri.
Paradoks ini berusaha mengubah ancaman menjadi permainan yang meningkatkan level dari AI sebagai teknologi penyimpanan data, langkah ini dapat diwujudkan melalui sejumlah peningkatan dan penambahan fungsi pada AI untuk mawas terhadap keamanan dirinya. Level pertama yang harus dimiliki adalah enkripsi data, AI dapat menerapkan kunci deskripsi kepada user yang bertujuan melindungi keterbacaan data sekalipun akses terhadap data tersebut ditembus oleh penyerang.
Level berikutnya peningkatan audit dan pembaruan keamanan reguler yang dicapai melalui pembaruan patch keamanan reguler untuk memastikan sistem tetap aman. Selanjutnya AI dapat menerapkan pemindaian terhadap data melalui scanning virus secara rutin yang dimaksudkan untuk meningkatkan keamanan penyimpanan data dari ancaman virus sehingga bisa dilakukan penyortiran data terhadap data berisiko tinggi untuk ditangani dan tidak berdampak menginfeksi data lainnya.
Level berikutnya peningkatan respons dan autentikasi AI melalui pemindaian rutin sebelumnya, maka AI dapat merespons ancaman secara real-time sehingga mengurangi dampak serangan dan di sisi lain peningkatan terhadap mekanisme autentikasi juga dapat dilakukan agar respons sistem dan akses data hanya dapat diakses oleh pihak berwenang. Gelombang serangan ransomware atau kejahatan berbasis AI lainnya hanya dapat dilawan melalui peningkatan arsitektur keamanan yang berjenjang dan berketahanan data, dalam hal ini salah satu caranya dengan berinvestasi pada pemanfaatan kemampuan belajar AI.
AI sangat dibutuhkan dalam teknologi penyimpanan data karena peran AI yang dapat dirancang dan dilatih untuk proteksi data yang lebih baik, contohnya banyak teknologi antivirus yang dikembangkan melalui kecerdasan buatan seperti FortiGate's AI-based Malware Detection, Antivirus AI by Protectstar, dan IntelligentAV by WatchGuard. Dengan demikian AI harus dapat diberdayakan untuk melindungi diri terhadap ancaman yang berpotensi muncul akibat perannya, dalam hal ini kolaborasi manusia dengan AI sangat diperlukan sebagaimana paradoks from AI to AI ini dimunculkan.
Evaluasi terhadap Masalah
Pencegahan dan perbaikan saja tidak cukup, diperlukan evaluasi terhadap masalah yang muncul dari penyalahgunaan AI. Pemerintah memiliki mandat dan wewenang untuk mengenali, memprediksi, dan menindaklanjuti permasalahan tersebut di masyarakat. Indonesia telah memiliki beberapa aturan yang mengatur pemanfaatan teknologi digital, termasuk AI, di antaranya Undang-Undang Nomor 11 Tahun 2008 tentang Informasi dan Transaksi Elektronik (UU ITE), UU Nomor 27 Tahun 2022 tentang Perlindungan Data Pribadi, Peraturan Pemerintah (PP) Nomor 71 Tahun 2019 tentang Penyelenggaraan Sistem Elektronik, Permenkominfo Nomor 3 Tahun 2021 tentang Perizinan Usaha Berbasis AI, dan Surat Edaran Menkominfo Nomor 9 Tahun 2023 tentang Etika Kecerdasan Artifisial.
Meskipun aturan ini penting, beberapa aturan tersebut belum cukup untuk menjawab semua tantangan yang muncul dari penggunaan AI. Peraturan yang ada masih bersifat parsial dan sektoral sehingga belum mampu memberikan perlindungan menyeluruh. Misalnya, UU ITE lebih fokus pada penyelenggaraan sistem elektronik secara umum dan tidak memperhatikan risiko spesifik dari AI. Selain itu, Surat Edaran Menkominfo Nomor 9 Tahun 2023 hanya memberikan panduan etika umum tanpa kekuatan hukum mengikat sehingga efektivitasnya terbatas.
Oleh karena itu, Indonesia perlu mengembangkan kebijakan khusus yang mengatur AI dengan mempertimbangkan konteks lokal. Regulasi ini harus mencakup semua aspek penggunaan AI, mulai dari pengembangan, pengujian, hingga implementasi di berbagai sektor. Selain itu, standar keamanan minimal, etika, dan pengujian untuk sistem AI serta mekanisme sertifikasi untuk memastikan kepatuhan juga diperlukan.
Pendekatan multisektoral harus diadopsi dengan regulasi umum untuk semua sektor dan regulasi khusus untuk sektor seperti keuangan, pendidikan, dan kesehatan. Meningkatkan kapasitas pengawasan dan penegakan hukum, termasuk penunjukan lembaga yang bertanggung jawab untuk mengawasi pelaksanaan regulasi AI. Pemerintah dapat memberikan subsidi dan insentif kepada perusahaan yang memenuhi standar keamanan dan etika dalam penggunaan AI untuk mendorong adopsi teknologi yang bertanggung jawab.
Menghadapi dualitas AI, diharapkan pengguna AI menggunakannya secara etis dan bertanggung jawab, masyarakat lebih kritis dan sadar terhadap dampak AI, akademisi terus meneliti untuk memahami serta mengurangi risiko AI, pemerintah menyusun regulasi yang tepat dan mendukung literasi digital, serta perusahaan mengintegrasikan AI dengan memperhatikan aspek etika dan keberlanjutan. Kolaborasi semua pihak ini diharapkan dapat memanfaatkan AI untuk kemajuan bersama sekaligus memitigasi ancaman yang mungkin timbul.
Dengan melibatkan AI dalam pemantauan dan pengaturan penggunaannya, kita dapat menciptakan lingkungan yang lebih aman dan berkelanjutan. Ini menciptakan paradoks unik di mana AI, sebagai subjek yang terlibat, turut berperan dalam menangani masalah yang terkait dengannya. Dengan pendekatan ini, kita dapat memperkuat keamanan dan manfaat yang dibawa oleh kecerdasan buatan dalam membangun masa depan yang lebih baik .
Rani Purba, Olvi Mindari mahasiswa Manajemen Universitas Sumatera Utara dan Anak Agung Made Sri Santi Pratiwi mahasiswa Administrasi Publik Universitas Udayana
(mmu/mmu)