Model bahasa besar (LLMs) kini tengah menjembatani kesenjangan bahasa global dengan langkah yang mengejutkan, di mana model-model terkini sudah mampu berfungsi dengan baik di bahasa-bahasa langka yang sempat jadi tantangan besar bagi generasi sebelumnya.
Berdasarkan studi RWS tentang Sintesis Data LLM Multibahasa, Google’s Gemini Pro mencetak skor tinggi di atas 4.5 dari 5 dalam bahasa Kinyarwanda, bahasa yang digunakan oleh sekitar 12 juta orang di Rwanda, Uganda, dan DRC.
Vasagi Kothandapani, CEO TrainAI dari RWS, menyatakan, “Studi ini menunjukkan momen transformasi yang bukan tentang menggantikan keahlian manusia, tetapi mengangkatnya dengan teknologi yang tepat.” Ini adalah langkah yang sangat menarik dalam pengembangan AI yang mampu memahami dan menganalisis berbagai bahasa.
Bagaimana LLM Belajar Bahasa dengan Data Pelatihan Terbatas
Berbeda dengan “Menara Babel” di Alkitab, yang terhenti karena kekacauan bahasa, AI kini melawan batasan bahasa yang dulunya terasa tak teratasi. Tomáš Burkert, Kepala Inovasi di TrainAI, menjelaskan bahwa alat AI sering kali berbagi pola statistik antar bahasa.
Model frontier tidak memerlukan dataset besar untuk setiap bahasa agar dapat menghasilkan keluaran yang andal. Dengan menggunakan transfer antarbahasa, pengetahuan yang dibagikan dapat menggantikan data pelatihan yang terbatas. Selain itu, tim RWS juga mencatat peningkatan efisiensi tokenizer, yang berpengaruh langsung pada seberapa baik model memproses teks dalam bahasa tertentu.
Peningkatan ini, ditambah dengan kemajuan model lainnya, menghasilkan peningkatan kinerja yang signifikan untuk bahasa-bahasa langka dan kurang dikenal. Burkert mencatat fenomena “benchmark drift”, di mana kemampuan LLM bisa tiba-tiba berubah dari satu versi ke versi lainnya. Misalnya, versi terbaru dari GPT mengalami penurunan di beberapa tugas penghasil konten dibandingkan dengan model yang lebih kecil, meski pendahulunya cukup kompetitif.
Efisiensi tokenizer pun sangat bervariasi dari satu generasi model ke generasi lainnya. Bahkan, ada satu model yang terbukti tiga setengah kali lebih efisien dalam biaya dibandingkan model lainnya untuk bahasa tertentu. Ini menunjukkan bahwa perusahaan tidak bisa hanya mengandalkan kinerja masa lalu saat memilih model untuk aplikasi multibahasa.
Sebelumnya, laboratorium AI lebih fokus pada kinerja dalam bahasa Inggris dan sejumlah bahasa besar lainnya. Namun kini, setelah model-model tersebut berbenah, beberapa laboratorium mulai mengalihkan perhatian mereka ke audiens global, dan diperkirakan lebih banyak laboratorium akan mengikuti jejak ini. Strategi AI yang sukses untuk perusahaan membutuhkan validasi berkelanjutan yang didasarkan pada data berkualitas tinggi yang bernuansa budaya, bukannya hanya mengandalkan papan peringkat publik.
Walau begitu, skor 4.5 dari 5 dalam benchmark sintetik tidak menjamin kefasihan di dunia nyata, dan data multibahasa bukanlah fokus utama. Menurut Burkert, laboratorium AI baru mulai menggunakan data multibahasa juga karena bisa saja mereka sudah kehabisan sumber berkualitas tinggi dalam bahasa Inggris. Namun, dengan meruntuhkan batasan bahasa, AI menunjukkan dirinya sebagai “Raja Babel” sejati — bukan yang membangun menara, tetapi yang menghancurkan dinding yang memisahkan komunikasi manusia. Saat ini, mahkota mungkin belum pas, tetapi arah dan ide-ide yang ada sangat jelas.


