Sobat Pa'e!! Seorang peneliti telah diberi akses oleh perusahaan Meta ke
dalam sebuah Artificial Intelligence atau kecerdasan buatan (AI) yang sangat
hebat. Hasilnya, peneliti menemukan hal tak terduga tentang bagaimana AI akan
berkembang di masa depan.
Temuan ini menjadi masalah penting yang membuat peneliti merasa khawatir, terutama bagi para peneliti yang dulu pernah menjadi bagian tim integritas dan kebijakan kecerdasan buatan di Meta.
Peneliti menjelaskan bagaimana kebocoran (pada AI) ini dapat
mengancam keamanan teknologi kecerdasan buatan serta apa yang dapat kita
lakukan untuk menghadapinya.
Perusahaan Meta telah mengeluarkan pemberitahuan penghapusan agar kode yang bocor tersebut menjadi offline, karena kode tersebut seharusnya hanya dapat diakses untuk penggunaan penelitian, namun setelah kebocoran tersebut.
"Platform yang akan menang adalah yang terbuka," kata kepala ilmuwan AI perusahaan, Yann LeCun, dikutip dari The Guardian.
Menurut LeCun, hal ini menunjukkan bahwa perusahaan Meta
mungkin hanya menggunakan model sumber terbuka sebagai strategi kompetitif.
Perlombaan Mengembangkan AI
Meskipun Meta mengalami pelanggaran akibat kebocoran ini, perusahaan ini tetap keluar sebagai pemenang.
Sebab, hingga saat ini, peneliti dan pengembang independen kini berlomba-lomba untuk memperbaiki atau membangun atas dasar LLaMA (Large Language Model Meta AI - versi merek Meta dari model bahasa besar atau LLM, yang menjadi dasar ChatGPT) dengan banyak dari mereka membagikan hasil kerja mereka secara terbuka dengan dunia.
Hal ini bisa membuat Meta menjadi pemilik pusat platform AI yang dominan, mirip dengan cara Google mengendalikan sistem operasi Android sumber terbuka yang digunakan dan disesuaikan oleh produsen perangkat di seluruh dunia.
Jika Meta berhasil mengamankan posisi sentral ini dalam ekosistem AI, maka mereka akan memiliki pengaruh dalam menentukan arah AI.
Bahkan mereka bisa mengendalikan pengalaman pengguna individu, dan mengatur batasan apa yang bisa dan tidak bisa dilakukan oleh perusahaan lain.
Perbedaan antara AI Open Source dan Close Source
Seperti yang diketahui, Bard dari Google dan ChatGPT dari OpenAI dapat digunakan secara gratis, tetapi mereka bukanlah AI yang open source.
Bard dan ChatGPT bergantung pada tim moderator konten dan analis ancaman yang bekerja untuk mencegah platform mereka digunakan untuk tujuan yang merugikan.
Namun, ada kompetitor lain bernama LLaMA dari Meta dengan model bahasa besar yang dapat diakses oleh siapa saja yang memiliki komputer yang cukup kuat.
Sistem ini akan menjadi saingan bagi ChatGPT karena LLaMA memberikan kesempatan bagi berbagai pihak, termasuk yang tidak memiliki moral, untuk menggunakan kecerdasan buatan tanpa adanya sistem keamanan yang memadai.
Dengan kata lain, teknologi ini bisa digunakan oleh siapa saja tanpa perlindungan yang memadai untuk mencegah penyalahgunaan atau tindakan tidak etis.
Ancaman Terhadap Demokrasi dan Keamanan
Keberadaan AI yang bebas, dapat digunakan untuk membuat konten palsu yang lebih meyakinkan, memproduksi lebih banyak konten palsu, atau bahkan mengubahnya menjadi "klasifikasi" yang memindai platform media sosial untuk konten yang provokatif.
Teknologi ini dapat digunakan untuk membuat video palsu (deepfake) yang memperlihatkan kandidat politik mengatakan sesuatu yang sebenarnya tidak pernah mereka ucapkan.
Ini berarti, seseorang dapat dengan mudah menciptakan video palsu yang membuat seorang politisi terlihat seperti berkata atau melakukan sesuatu yang sebenarnya tidak pernah terjadi.
Selain itu, teknologi ini juga bisa dimanfaatkan untuk tujuan operasi pengaruh di platform-platform yang dimiliki oleh Meta, seperti Facebook, Instagram, dan WhatsApp.
Tujuan ini bisa membuat seseorang bisa menggunakan teknologi untuk memengaruhi atau memanipulasi informasi yang tersebar di platform-platform tersebut, mungkin untuk tujuan politik atau lainnya.
Perlu Menghentikan Perlombaan AI
Dengan banyaknya ancaman yang ada, saat ini para ilmuwan dihadapkan dengan perlombaan untuk mengembangkan teknologi kecerdasan buatan (AI) yang kurang aman atau tidak terkendali.
Dalam konteks ini, "keamanan AI yang rendah" merujuk pada pengembangan AI tanpa memadai kontrol atau perlindungan terhadap penggunaan yang berpotensi berbahaya atau merusak.
Keamanan AI yang rendah dapat mencakup penggunaan AI untuk tujuan yang tidak etis atau bahkan kriminal, seperti penyebaran informasi palsu, peretasan, atau kegiatan subversif lainnya.
Maka dari itu, Gary Marcus, seorang ahli AI, dan Sam Altman, CEO OpenAI, mendirikan sebuah badan pengaturan internasional yang fokus pada pengawasan dan regulasi teknologi AI.
Badan ini akan serupa dengan badan pengaturan yang mengawasi keamanan nuklir, yang bertujuan untuk mencegah penyalahgunaan dan risiko yang terkait dengan teknologi berbahaya.
Di sisi lain, Uni Eropa telah mengambil langkah lebih maju dalam mengatur teknologi AI daripada Amerika Serikat dengan mengusulkan EU Artificial Intelligence Act. Namun, sayangnya, implementasi penuh dari inisiatif ini mungkin akan memakan waktu cukup lama, yaitu pada tahun 2025 atau lebih lambat lagi.
Jadi, menurut ilmuwan untuk saat ini yang diperlukan adalah undang-undang dan badan pengaturan yang efektif untuk mengawasi teknologi AI.
Mereka juga mengatakan, saat ini manusia modern hanya bisa bergantung pada langkah sukarela CEO perusahaan teknologi untuk menghentikan penggunaan AI berbahaya.
Sisanya, para pembuat kebijakan harus bertindak cepat untuk
melindungi masa depan dan demokrasi dari risiko AI tidak terkendali.
Sumber : DetikEdu
No comments:
Post a Comment