DeepSeek, startup asal Tiongkok di bidang kecerdasan buatan, baru-baru ini memperkenalkan DeepSeek-GRM, sebuah model reward generalis yang dirancang untuk mengoptimalkan kinerja dan skalabilitas model bahasa besar (LLM) dalam aplikasi bisnis.
Optimasi Biaya dan Kinerja
Menurut laporan, DeepSeek melatih model DeepSeek-R1 menggunakan 2.048 GPU Nvidia H800, dengan total biaya sekitar 5,6 juta dolar. Hasil ini dicapai berkat penerapan teknik canggih seperti arsitektur Mixture-of-Experts (MoE) dan kuantisasi, yang memungkinkan pengurangan signifikan terhadap sumber daya komputasi tanpa mengorbankan performa model.
Inovasi dalam Model Reward
DeepSeek-GRM memperkenalkan metode Self-Principled Critique Tuning (SPCT), yang memungkinkan model untuk secara mandiri menghasilkan prinsip panduan dan evaluasi kritis. Kemampuan ini meningkatkan adaptabilitas dan efisiensi model selama proses inferensi, menjadikannya sangat cocok untuk tugas-tugas yang kompleks dan dinamis.
Aplikasi dalam Dunia Bisnis
DeepSeek-R1 telah berhasil diimplementasikan di berbagai sektor, termasuk layanan pelanggan, e-commerce, dan layanan kesehatan. Sebagai contoh, sebuah perusahaan e-commerce menggunakan DeepSeek-R1 untuk mengotomatisasi pengelolaan permintaan pelanggan, yang menghasilkan pengurangan biaya operasional hingga 70%.
Kontroversi Mengenai Biaya Sebenarnya
Meskipun terdapat pernyataan resmi, beberapa analisis menyatakan bahwa total biaya pengembangan DeepSeek-R1 bisa jauh lebih tinggi, mengingat pembelian perangkat keras dan pengeluaran operasional lainnya. Beberapa laporan memperkirakan total investasi mencapai hingga 1,6 miliar dolar.
Kesimpulan
DeepSeek-GRM merupakan langkah maju yang signifikan dalam adopsi kecerdasan buatan di lingkungan bisnis, dengan menawarkan solusi yang skalabel dan hemat biaya. Namun, penting untuk mempertimbangkan secara cermat implikasi finansial dan operasional yang terkait dengan penerapan teknologi semacam ini.