🌟 为什么我劝你别再用线上AI? 线上大模型看似方便,但参数锁死+束搜索=1,生成的文案就像流水线产品,10个人用9个雷同! 💡 本地部署才是自媒体人的终极解法——调参自由、风格可控、成本更低!
🚀 本地部署的6个实战技巧 1️⃣ 线上AI的致命短板 参数固定:无法调整temperature和top_p,文案
3060跑32B?
你要是4卡部署岂不是70b都跑的飞起
用mac mini怎么样呢
[g=leiben] 请问有能部署本地大模型的笔记本吗?还不想太重了
有啊,找个配了3070M 8G的就可以olllama跑量化版了。但是比MAC MINI肯定要重
3060 12g,32g内存共享16g显存,28g显存跑4bit 32b模型足富裕。平均每秒0.4个token
500 块的 v100 加 4090 散热器,800 块拿下,速度更快,16g 显存,不香么?
你要是4卡部署岂不是70b都跑的飞起
用mac mini怎么样呢
[g=leiben] 请问有能部署本地大模型的笔记本吗?还不想太重了
有啊,找个配了3070M 8G的就可以olllama跑量化版了。但是比MAC MINI肯定要重
3060 12g,32g内存共享16g显存,28g显存跑4bit 32b模型足富裕。平均每秒0.4个token
500 块的 v100 加 4090 散热器,800 块拿下,速度更快,16g 显存,不香么?