头像

Happy-仙儿

帅气的我简直无法用语言描述!

Langchain之大模型Cache缓存

模型即服务,尤其高并发低延迟场景下不能每次都调用LLM。响应时间长占用资源多,最后肯定需要LLM-Cache。Langchain也支持集成Cache,而且品类超级多。1.InMemoryCache内存...
头像3小时前
100