搜索一下
注册/
登录
繁
当前位置:
首页
问答社区
人工智能
有没有人试过用xinference在一块卡上部署两个llm?
全部
面试刷题
微服务
数据库
消息队列
搜索引擎
大数据
运维
go语言
人工智能
有没有人试过用xinference在一块卡上部署两个llm?
提问者:
帅平
问题分类:
人工智能
有没有人试过用xinference在一块卡上部署两个llm?
发布于:2个月前 (04-17)
IP属地:四川省
我来回答
举报
2 个回答
美到拖网速
部署不了 单卡单模型的,你可以 xinference 部署一个 ollama部署一个。
发布于:2个月前 (04-17)
IP属地:四川省
有用
0
回复
举报
帅平
提问者
好的
发布于:2个月前 (04-17)
IP属地:四川省
0
回复
举报
我来回答
您需要
登录
后回答此问题!