companydirectorylist.com
Global Business Directories and Company Directories
Search Business,Company,Industry :
Business Directories,Company Directories
|
Contact potential dealers,buyers,sellers,suppliers
Country Lists
USA Company Directories
Canada Business Lists
Australia Business Directories
France Company Lists
Italy Company Lists
Spain Company Directories
Switzerland Business Lists
Austria Company Directories
Belgium Business Directories
Hong Kong Company Lists
China Business Lists
Taiwan Company Lists
United Arab Emirates Company Directories
Industry Catalogs
USA Industry Directories
English
Français
Deutsch
Español
日本語
한국의
繁體
简体
Português
Italiano
Русский
हिन्दी
ไทย
Indonesia
Filipino
Nederlands
Dansk
Svenska
Norsk
Ελληνικά
Polska
Türkçe
العربية
OpenAI GPT-5 和 DeepSeek 等 AI 工具均向用户免费,免费后靠什么盈利呢? - 知乎
有人说 DeepSeek 靠 API 盈利,但 API 都已经停止充值了,他们也不做 toB 业务,所以目前来看,DeepSeek 纯纯为爱发电。 至于原因,我们也许可以在梁文锋的采访中找到答案。 去年 DeepSeek 发布 V2 后,梁文锋接受 36Kr 采访时这样说: DeepSeek 不贴钱,也不赚取暴利。
现在这些大模型,哪个在代码编写上表现的最好呀? - 知乎
数据都不太一样,当然清华大学的是2024年11月的榜deepseek还是2 5的版本,但整体的数据还是相差不少。 不过也能说明一个问题就是现阶段全球比较顶尖的AI模型中在编程能力方面比较优秀的就是DeepSeek、Claude、Gemini及Qwen这些了。
Deekseek r1本地部署,14b和32b最小需要多大显存吗? - 知乎
首先是DeepSeek R1 7B模型,在Q4量化条件下这个模型对内存和显存的占用比较低,可以看到独显的性能还是明显优于核显的,RTX4060TI和RTX4060的推理速度都是780M核显的2-3倍。 核显在内存超频后可以得到12 66%的速度提升,但是还是远远落后于独显。
2025年 7月 显卡天梯图(更新RTX 5060)
5060Ti:目前中端最优选,5060Ti有8G和16G两个选择,纯游戏选8G,如果有AI需求,比如AI绘图或者本地部署DeepSeek这种就直接选16G版本,游戏性能二者基本一样。
为了实现大模型的本地部署,应该怎么配置电脑硬件? - 知乎
想要流畅运行,推荐配置: 7b的模型:16GB内存。 13b模型: 32GB内存。 70b模型:64GB内存,32也能跑,太卡。 测试时的显存我的是22GB的2080N卡,CPU就是群普通的i5。不过我没印象是否运行用了显存,内存倒是肉眼可见地飙升。 测试过程以及如何安装一个本地大模型都在这里:
如何评价 DeepSeek 的 DeepSeek-V3 模型? - 知乎
DeepSeek-V3据我所知,是第一个(至少在开源社区内)成功使用FP8混合精度训练得到的大号MoE模型。 众所周知,FP8伴随着数值溢出的风险,而MoE的训练又非常不稳定,这导致实际大模型训练中BF16仍旧是主流选择。
DeepSeek 遭暴力破解,攻击 IP 均来自美国,造成影响有多大?有哪些好的防御措施? - 知乎
DeepSeek 遭暴力破解,攻击 IP 均来自美国,造成影响有多大? 有哪些好的防御措施? [视频] 1月28日,深度求索(DeepSeek)官网显示, 其线上服务受到大规模恶意攻击,谭主向奇安信安全专家咨询并独家了解到,DeepSeek这次… 显示全部 关注者 2,972 被浏览
如何把 deepseek-R1 微调或蒸馏为某领域的一个专家? - 知乎
DeepSeek-R1是一个通过大规模强化学习训练出的强大推理模型,在数学、编程等推理任务上达到了与OpenAI-o1相当的性能水平。 本文将基于DeepSeek团队发布的技术报告,详细解析如何通过知识蒸馏技术,将DeepSeek-R1的推理能力高效地迁移到参数量更小的Qwen系列模型中。 1
Business Directories,Company Directories
|
Business Directories,Company Directories
copyright ©2005-2012
disclaimer