KONTAN.CO.ID - BEIJING. Pada 27 Februari 2025, Tencent secara resmi meluncurkan Hunyuan Turbo S, model fast-thinking generasi terbaru yang menandai terobosan signifikan dalam kecepatan respons dan optimasi performa model bahasa besar (LLM). Berbeda dengan model slow-thinking tradisional seperti Deepseek R1 dan Hunyuan T1, Hunyuan Turbo S mampu memberikan "jawaban instan", meningkatkan kecepatan keluaran kata hingga dua kali lipat serta mengurangi latensi kata pertama hingga 44%. Inovasi ini menghadirkan solusi baru bagi kapabilitas respons cepat dalam model bahasa besar.
Teknologi Fast-Thinking dan Kombinasi dengan Slow-Thinking
Mengutip aibase, desain Hunyuan Turbo S terinspirasi dari mode berpikir cepat, yang digunakan manusia dalam 90%-95% keputusan sehari-hari berdasarkan intuisi. Dengan mengombinasikan mode berpikir cepat ini dengan analisis rasional dalam slow-thinking, model ini menghadirkan kemampuan pemecahan masalah yang lebih cerdas dan efisien.Baca Juga: Tekanan AS kepada Tiongkok Meningkat, Ini Imbauan Xi Jinping kepada Pejabat Melalui perpaduan rantai penalaran panjang dan pendek, model ini tidak hanya memberikan pengalaman respons yang cepat dalam masalah humaniora, tetapi juga meningkatkan kapabilitas penalaran ilmiah secara signifikan. Dalam berbagai uji coba benchmark publik yang banyak digunakan, Hunyuan Turbo S menunjukkan performa yang setara dengan model terdepan seperti DeepSeek V3, GPT-4o, dan Claude.
Inovasi Arsitektur: Hybrid-Mamba-Transformer
Secara arsitektural, Hunyuan Turbo S mengadopsi Hybrid-Mamba-Transformer fusion mode, yang secara efektif mengurangi kompleksitas komputasi dan penggunaan cache KV-Cache dari arsitektur Transformer tradisional. Dengan pendekatan ini, biaya pelatihan dan inferensi dapat ditekan secara signifikan. Inovasi utama dari pendekatan hybrid ini meliputi:- Mengatasi tantangan biaya tinggi dalam pelatihan dan inferensi model besar untuk teks panjang.
- Mengoptimalkan keunggulan arsitektur Mamba dalam menangani sekuens panjang.
- Mempertahankan keunggulan Transformer dalam memahami konteks kompleks.
- Menjadi model MoE (Mixture of Experts) ultra-besar pertama yang sukses mengadopsi arsitektur Mamba tanpa kehilangan performa.