Model AI Runtuh Begini Maknanya bagi Masa Depan Teknologi
Teknologi | 2024-08-19 16:00:34Artificial Intelligence (AI) atau ekcerdasan buatan merevolusi segala hal, mulai dari layanan pelanggan hingga pembuatan konten, memberikan kita alat bantu seperti ChatGPT dan Google Gemini yang dapat menghasilkan teks atau gambar yang mirip dengan manusia dengan akurasi yang luar biasa. Namun, ada masalah yang berkembang di depan mata yang dapat merusak semua pencapaian AI-sebuah fenomena yang dikenal sebagai "keruntuhan model."
Keruntuhan model, yang baru-baru ini dirinci dalam artikel Nature oleh tim peneliti, adalah apa yang terjadi ketika model AI dilatih dengan data yang menyertakan konten yang dihasilkan oleh versi sebelumnya. Seiring berjalannya waktu, proses rekursif ini menyebabkan model-model tersebut semakin menjauh dari distribusi data asli, sehingga kehilangan kemampuan untuk merepresentasikan dunia secara akurat sebagaimana adanya.
Alih-alih menjadi lebih baik, AI mulai membuat kesalahan yang bertambah banyak dari generasi ke generasi, sehingga menghasilkan output yang semakin terdistorsi dan tidak dapat diandalkan.Ini bukan hanya masalah teknis yang perlu dikhawatirkan oleh para ilmuwan data. Jika dibiarkan, keruntuhan model dapat berdampak besar pada bisnis, teknologi, dan seluruh ekosistem digital kita.
Keruntuhan Model
Sebagian besar model AI, seperti GPT-4, dilatih dengan data dalam jumlah yang sangat besar-sebagian besar diambil dari internet. Pada awalnya, data ini dihasilkan oleh manusia, yang mencerminkan keragaman dan kompleksitas bahasa, perilaku, dan budaya manusia.
AI mempelajari pola dari data ini dan menggunakannya untuk menghasilkan konten baru, baik itu menulis artikel, membuat gambar, atau bahkan membuat kode. Namun, apa yang terjadi jika model AI generasi berikutnya dilatih tidak hanya dengan data yang dibuat oleh manusia, tetapi juga dengan data yang dihasilkan oleh model AI sebelumnya?
Menurut laporan forbes.com, hasilnya adalah semacam efek ruang gema. AI mulai "belajar" dari keluarannya sendiri, dan karena keluaran ini tidak pernah sempurna, pemahaman model tentang dunia mulai menurun. Ini seperti membuat salinan dari salinan dari salinan-setiap versi kehilangan sedikit detail aslinya, dan hasil akhirnya adalah representasi dunia yang kabur dan kurang akurat.
Sekilas, keruntuhan model mungkin tampak seperti masalah khusus, sesuatu yang perlu dikhawatirkan oleh para peneliti AI di laboratorium mereka. Namun, implikasinya sangat luas. Jika model AI terus berlatih dengan data yang dihasilkan AI, kita dapat melihat penurunan kualitas dalam segala hal, mulai dari layanan pelanggan otomatis hingga konten online dan bahkan prakiraan keuangan.
Bagi bisnis, hal ini dapat berarti bahwa alat bantu berbasis AI menjadi kurang dapat diandalkan dari waktu ke waktu, yang mengarah pada pengambilan keputusan yang buruk, berkurangnya kepuasan pelanggan, dan kesalahan yang berpotensi merugikan. Bayangkan jika Anda mengandalkan model AI untuk memprediksi tren pasar. Namun, ternyata model tersebut telah dilatih dengan data yang tidak lagi secara akurat mencerminkan kondisi dunia nyata.
Konsekuensinya bisa menjadi bencana. Selain itu, keruntuhan model dapat memperburuk masalah bias dan ketidaksetaraan dalam AI. Kejadian dengan probabilitas rendah, yang sering kali melibatkan kelompok-kelompok yang terpinggirkan atau skenario yang unik, sangat rentan untuk "dilupakan" oleh model AI saat mengalami keruntuhan. Hal ini dapat mengarah pada masa depan, bahwa AI kurang mampu memahami dan merespons kebutuhan populasi yang beragam, yang semakin memperkuat bias dan ketidaksetaraan yang ada.
Salah satu solusi utama untuk mencegah keruntuhan model adalah memastikan bahwa AI terus dilatih dengan data berkualitas tinggi yang dibuat oleh manusia. Namun, solusi ini bukannya tanpa tantangan. Seiring dengan semakin meluasnya penggunaan AI, konten yang kita temui di dunia maya semakin banyak dibuat oleh mesin dan bukan oleh manusia.
Hal ini menciptakan sebuah paradoks: AI membutuhkan data manusia agar dapat berfungsi secara efektif, tetapi internet dibanjiri oleh konten yang dihasilkan oleh AI. Situasi ini menyulitkan kita untuk membedakan antara konten yang dihasilkan oleh manusia dan konten yang dihasilkan oleh AI, sehingga menyulitkan tugas untuk mengkurasi data manusia murni untuk melatih model di masa depan.
Ini dikarenakan, semakin banyak konten yang dihasilkan oleh AI yang meniru hasil kerja manusia secara meyakinkan, risiko keruntuhan model meningkat karena data pelatihan terkontaminasi oleh proyeksi AI itu sendiri, yang mengarah ke lingkaran umpan balik dengan kualitas yang menurun. Selain itu, menggunakan data manusia tidak sesederhana mengorek konten dari web.
Ada tantangan etika dan hukum yang signifikan yang terlibat. Siapa yang memiliki data? Apakah setiap orang memiliki hak atas konten yang mereka buat, dan dapatkah mereka menolak penggunaannya dalam pelatihan AI?
Ini adalah pertanyaan-pertanyaan mendesak yang perlu dijawab saat kita menavigasi masa depan pengembangan AI. Keseimbangan antara memanfaatkan data manusia dan menghormati hak-hak individu merupakan hal yang rumit, dan kegagalan dalam mengelola keseimbangan ini dapat menyebabkan risiko hukum dan reputasi yang signifikan bagi perusahaan.
Menariknya, fenomena keruntuhan model juga menyoroti konsep penting dalam dunia AI: keunggulan penggerak pertama. Model awal yang dilatih dengan data yang murni dibuat oleh manusia cenderung menjadi model yang paling akurat dan dapat diandalkan.
Ketika model-model berikutnya semakin mengandalkan konten yang dihasilkan AI untuk pelatihan, model-model tersebut pasti akan menjadi kurang akurat. Hal ini menciptakan peluang unik bagi bisnis dan organisasi yang merupakan pengguna awal teknologi AI.
Mereka yang berinvestasi dalam AI sekarang, ketika model-modelnya masih dilatih terutama dengan data manusia, akan mendapatkan keuntungan dari hasil yang berkualitas tinggi. Mereka dapat membangun sistem dan membuat keputusan berdasarkan AI yang masih selaras dengan kenyataan. Namun, dengan semakin banyaknya konten yang dihasilkan oleh AI yang membanjiri internet, model masa depan akan memiliki risiko yang lebih besar untuk runtuh, dan keuntungan menggunakan AI akan berkurang.***
Disclaimer
Retizen adalah Blog Republika Netizen untuk menyampaikan gagasan, informasi, dan pemikiran terkait berbagai hal. Semua pengisi Blog Retizen atau Retizener bertanggung jawab penuh atas isi, foto, gambar, video, dan grafik yang dibuat dan dipublished di Blog Retizen. Retizener dalam menulis konten harus memenuhi kaidah dan hukum yang berlaku (UU Pers, UU ITE, dan KUHP). Konten yang ditulis juga harus memenuhi prinsip Jurnalistik meliputi faktual, valid, verifikasi, cek dan ricek serta kredibel.