Локальная большая модель мучилась всю ночь, в конечном итоге выбрала результат:
1. Основная модель: Qwen-30B-Instruct, для повседневной работы этого достаточно. (Следование инструкциям очень хорошее)
2. Резервное выведение: оставили 8-битную модифицированную версию GPT OSS mlx. 4-битная версия GPT-OSS не очень хороша, увеличивать бюджет на вывод до трех уровней не имеет большого смысла.
3. coder все направления, планирует не рассматривать локальные модели и сразу использовать SOTA флагман (в конце концов, работа же)
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Локальная большая модель мучилась всю ночь, в конечном итоге выбрала результат:
1. Основная модель: Qwen-30B-Instruct, для повседневной работы этого достаточно. (Следование инструкциям очень хорошее)
2. Резервное выведение: оставили 8-битную модифицированную версию GPT OSS mlx. 4-битная версия GPT-OSS не очень хороша, увеличивать бюджет на вывод до трех уровней не имеет большого смысла.
3. coder все направления, планирует не рассматривать локальные модели и сразу использовать SOTA флагман (в конце концов, работа же)