Guide Labs Perkenalkan LLM Baru yang Lebih Mudah Dipahami

Guide Labs Perkenalkan LLM Baru yang Lebih Mudah DipahamiSalah satu tantangan terbesar dalam mengembangkan model deep learning adalah memahami kenapa model tersebut mengambil keputusan tertentu. Kita sudah melihat berbagai contoh: mulai dari upaya xAI yang berulang kali menyempurnakan arah politik Grok, ChatGPT yang sempat dinilai terlalu “menyenangkan” pengguna (sycophancy), hingga kasus halusinasi jawaban yang sering terjadi pada model bahasa besar (LLM).

Baca Juga : OpenAI Rilis Sora App, Saingan Baru TikTok dengan Model Sora 2

Masalahnya sederhana, tapi rumit di praktiknya. Ketika kita berhadapan dengan jaringan saraf yang punya miliaran parameter, menelusuri alasan di balik setiap respons bukan perkara mudah.

Nah, di sinilah Guide Labs hadir membawa pendekatan baru.

Startup asal San Francisco yang didirikan oleh CEO Julius Adebayo dan Chief Science Officer Aya Abdelsalam Ismail ini resmi merilis model open source terbaru mereka: Steerling-8B, sebuah LLM dengan 8 miliar parameter yang dirancang dengan arsitektur baru agar lebih mudah diinterpretasikan.

Apa artinya? Setiap token (kata atau potongan kata) yang dihasilkan model bisa ditelusuri kembali ke sumber data pelatihannya.

Kenapa Interpretabilitas Itu Penting?

Dalam praktiknya, kemampuan melacak asal-usul jawaban model bisa sesederhana mengetahui referensi fakta yang dikutip. Tapi di sisi lain, bisa juga jauh lebih kompleks — misalnya memahami bagaimana model memaknai humor atau konsep gender.

Adebayo memberikan gambaran menarik. Menurutnya, jika sebuah konsep seperti gender bisa direpresentasikan dalam triliunan cara berbeda, dan satu miliar di antaranya benar-benar digunakan dalam model, maka pengembang harus mampu menemukan seluruh representasi itu dan mengontrolnya secara konsisten.

Secara teknis, hal itu memang bisa dilakukan pada model saat ini. Tapi sifatnya sangat rapuh dan sulit dipertahankan dalam skala besar. Bahkan, Adebayo menyebutnya sebagai salah satu “holy grail” dalam dunia AI.

Dari Riset MIT ke Model Baru

Dari Riset MIT ke Model Baru

Perjalanan ini sebenarnya dimulai saat Adebayo menempuh studi doktoral di MIT. Ia turut menulis makalah pada 2018 yang banyak dikutip, yang menunjukkan bahwa metode interpretasi deep learning yang ada saat itu tidak sepenuhnya dapat diandalkan.

Dari situlah lahir pendekatan baru dalam membangun LLM.

Alih-alih menganalisis model yang sudah jadi seperti ilmuwan saraf mempelajari otak, Guide Labs membangun model dari awal dengan menyisipkan lapisan konsep (concept layer). Lapisan ini berfungsi mengelompokkan data ke dalam kategori yang bisa dilacak.

Pendekatan ini memang membutuhkan anotasi data yang lebih banyak di awal. Namun dengan bantuan model AI lain, proses pelatihan tetap bisa dilakukan secara efisien. Steerling-8B menjadi bukti konsep terbesar mereka sejauh ini.

Adebayo menjelaskan pendekatan mereka secara sederhana: jika selama ini interpretabilitas dilakukan seperti “neurosains pada model”, maka mereka membalik pendekatan tersebut. Model direkayasa sejak awal agar tidak memerlukan “pembedahan” setelah jadi.

Apakah Ini Mengurangi Kemampuan Model?

Salah satu kekhawatiran yang muncul adalah: apakah pendekatan yang lebih terstruktur ini akan menghilangkan perilaku “emergent” yang membuat LLM begitu menarik? Kita tahu, salah satu keunggulan model besar adalah kemampuannya melakukan generalisasi terhadap hal-hal baru yang belum pernah dilatih secara eksplisit.

Menurut Adebayo, kemampuan itu tetap ada.

Timnya bahkan melacak apa yang mereka sebut sebagai “discovered concepts”, yaitu konsep yang ditemukan model secara mandiri selama proses pelatihan. Salah satu contohnya adalah komputasi kuantum.

Artinya, meskipun arsitekturnya lebih terkontrol, model tetap mampu mengembangkan pemahaman baru secara mandiri.

Relevansi untuk Industri dan Konsumen

Guide Labs meyakini bahwa arsitektur yang dapat diinterpretasikan seperti ini akan menjadi kebutuhan umum di masa depan.

Untuk model yang digunakan konsumen, teknik ini bisa membantu pengembang membatasi penggunaan materi berhak cipta, atau mengontrol output terkait topik sensitif seperti kekerasan dan penyalahgunaan narkoba.

Di industri yang diatur ketat, seperti keuangan, kebutuhan ini bahkan lebih mendesak. Misalnya, model yang digunakan untuk mengevaluasi pengajuan pinjaman harus mempertimbangkan data finansial, tetapi tidak boleh memasukkan faktor ras atau atribut lain yang tidak relevan.

Selain itu, interpretabilitas juga penting dalam riset ilmiah. Contohnya pada bidang pelipatan protein (protein folding), yang telah menjadi salah satu keberhasilan besar deep learning. Para ilmuwan tidak hanya ingin tahu kombinasi mana yang menjanjikan, tetapi juga alasan ilmiah di baliknya.

Dari Masalah Sains ke Masalah Engineering

Menurut Adebayo, pencapaian ini menunjukkan bahwa pelatihan model yang dapat diinterpretasikan bukan lagi sekadar persoalan sains, melainkan sudah menjadi masalah rekayasa (engineering).

Ia menegaskan bahwa timnya telah memecahkan tantangan ilmiah dasarnya dan kini bisa menskalakan model tersebut. Bahkan, tidak ada alasan model jenis ini tidak dapat menyamai performa model frontier yang memiliki parameter jauh lebih banyak.

Guide Labs mengklaim Steerling-8B mampu mencapai sekitar 90% kapabilitas model-model yang ada saat ini, meski menggunakan data pelatihan yang lebih sedikit. Efisiensi ini dimungkinkan berkat arsitektur barunya.

Baca Juga : Model Gemini Pro Terbaru Cetak Skor Tertinggi di Benchmark

Langkah Selanjutnya Guide Labs

Startup yang lahir dari program Y Combinator ini juga telah mengamankan pendanaan awal sebesar 9 juta dolar AS dari Initialized Capital pada November 2024.

Langkah berikutnya? Mengembangkan model yang lebih besar serta mulai menyediakan akses API dan fitur agentic bagi pengguna.

Adebayo menutup dengan pandangan yang cukup reflektif. Menurutnya, cara kita melatih model saat ini masih sangat primitif. Mendorong interpretabilitas yang melekat dalam arsitektur model akan membawa dampak jangka panjang yang positif bagi peran AI dalam kehidupan manusia.

Apalagi ketika kita mulai membangun model yang semakin cerdas. Kita tentu tidak ingin sistem yang mengambil keputusan atas nama kita tetap menjadi “kotak hitam” yang misterius.

Dengan Steerling-8B, Guide Labs mencoba membuka sedikit demi sedikit isi kotak tersebut — dan mungkin, mengubah cara kita membangun AI di masa depan.

Leave a Reply

Your email address will not be published. Required fields are marked *