نموذج كبير محلي تم العمل عليه طوال الليل، وفي النهاية تم اختيار النتائج:
1. النموذج الرئيسي: Qwen-30B-Instruct، يكفي لاستخدامه في الأعمال اليومية. (اتباع التعليمات بشكل ممتاز)
2. استدلال احتياطي: تم الاحتفاظ بإصدار معدل 8 بت من GPT OSS mlx. إصدار 4 بت من GPT-OSS ليس جيدًا، ولا يُعطي استدلال الميزانية في ثلاث مستويات معنى كبير.
3. coder جميع الاتجاهات، يعتزم عدم النظر في النموذج المحلي واستخدام SOTA الرائد مباشرة (فبالنهاية العمل هو الأهم)
1. النموذج الرئيسي: Qwen-30B-Instruct، يكفي لاستخدامه في الأعمال اليومية. (اتباع التعليمات بشكل ممتاز)
2. استدلال احتياطي: تم الاحتفاظ بإصدار معدل 8 بت من GPT OSS mlx. إصدار 4 بت من GPT-OSS ليس جيدًا، ولا يُعطي استدلال الميزانية في ثلاث مستويات معنى كبير.
3. coder جميع الاتجاهات، يعتزم عدم النظر في النموذج المحلي واستخدام SOTA الرائد مباشرة (فبالنهاية العمل هو الأهم)
GPT8.39%