|
- 草泥马是alpaca还是llama,两者的区别主要是什么? - 知乎
Final复习中 有一门课叫做introduction to livestock 它的final包括三部分 其中part1是breed identification 有Camelids。 Camelids主要包括 双峰驼 单峰驼 原驼 美洲驼 羊驼 小羊驼 骆驼camel包括双峰驼bactrian camel和单峰驼dromedary camel 这个很好理解了 美洲驼llama和羊驼alpaca的区别总的来说还是很大的。llama体型更大 耳朵是
- 为什么都在用ollama而lm studio却更少人使用? - 知乎
3 还有一点,ollama是llama cpp实现模型推理,模型小,速度快。 4 还有,ollama提供11434端口的web服务,重要的是还兼容openai的端点接口,可以和各种前端配合,比如ollama自己open webui,国产的chatbox,连后端带界面,一套搞定
- 如何评价 Meta 刚刚发布的 LLama 4 系列大模型? - 知乎
llama真是吊死在DPO上了 新架构infra,长上下文,Reasoning RL,工程性coding可能还是大家今年的主攻方向。 移步转眼,时间快来到了2025年中旬,Openai,Anthropic,Deepseek的大模型都憋着劲还没发,要一飞冲天,未来几个月想必会非常热闹。
- 为什么同为开源追平 OpenAI,Qwen 没有像 DeepSeek 一样出圈? - 知乎
Qwen靠美金就可以,并不是靠技术创新(看模型结构基本没咋变,和llama比难有优势),而且结果只是打榜,经不住真实用户拷打,R1是能经受美国佬的考验,且把NV股价干掉18%,折合好几个阿里巴巴,都不用吹,另外Deepseek目前160多个国家 appstore top1,且歪果仁在X
- 微调大模型,unsloth和llama factory如何选择? - 知乎
尽管处理的数据量是LLAMA-FACTORY的20倍,UNSLOTH的速度仍快约10倍,极大优化了时间成本,尤其在大规模数据处理中的效率优势显著,但不存在明显算力瓶颈话,而且分布式复杂和信创要求,有存在华为大量国产昇腾NPU卡,建议使用Llama-Factory!
- LM-studio模型加载失败? - 知乎
LM-studio模型加载失败问题的解决方法,提供详细步骤和注意事项,帮助用户顺利加载模型。
- 大模型推理框架,SGLang和vLLM有哪些区别? - 知乎
文章中的TODO有待补充,第一次认真写知乎,有任何问题欢迎大家在评论区指出 官方vllm和sglang均已支持deepseek最新系列模型 (V3,R),对于已经支持vllm和sglang的特定硬件(对vllm和sglang做了相应的修改,并且已经支持deepseek-v2),为了同样支持deekseek最新系列模型,需要根据最新模型所做改进进行对应修改
- 如何看待 Google 最新开源的 Gemma-3 系列大模型? - 知乎
使用世界最佳单设备加速模型进行开发: Gemma 3在LMArena排行榜的初步人类偏好评估中超越了Llama-405B、DeepSeek-V3和o3-mini,能在单个GPU或TPU主机上运行,开发独特的用户体验。
|
|
|