Minggu lalu kami merilis c3-llamacpp, sebuah llama.cpp yang tercontainerisasi dengan pengunduh hf yang cepat. Minggu ini, c3-vllm. Ini adalah containerisasi vLLM, bos terakhir dari server API LLM.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
14 Suka
Hadiah
14
4
Bagikan
Komentar
0/400
ForkTrooper
· 9jam yang lalu
Banyak sekali model yang tidak bisa dimainkan.
Lihat AsliBalas0
UncleWhale
· 08-03 01:51
Wadah ini bisa menampung apa saja, ayo!
Lihat AsliBalas0
TrustlessMaximalist
· 08-03 01:50
Bagus sekali, vllm on-chain
Lihat AsliBalas0
PumpAnalyst
· 08-03 01:44
Teknikal Informasi menguntungkan juga tidak bisa secara membabi buta mengejar harga, hati-hati bisa menjadi pahlawan yang memotong pergelangan tangan.
Minggu lalu kami merilis c3-llamacpp, sebuah llama.cpp yang tercontainerisasi dengan pengunduh hf yang cepat. Minggu ini, c3-vllm. Ini adalah containerisasi vLLM, bos terakhir dari server API LLM.