Model besar lokal telah direpotkan semalaman, akhirnya pilihan pun keluar:


1.Model utama: Qwen-30B-Instruct, cukup untuk pekerjaan sehari-hari. (Kepatuhan instruksi sangat baik)

2. Inferensi cadangan: Menyimpan versi modifikasi 8-bit dari GPT OSS mlx. Versi 4-bit dari GPT-OSS tidak terlalu baik, dan mengoptimalkan anggaran inferensi hingga tiga level tidak banyak berarti.

3. coder semua arah, berencana untuk tidak mempertimbangkan model lokal dan langsung menggunakan SOTA flagship (bagaimanapun juga bekerja)
GPT17.01%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)