- 主题:[讨论] C++是怎么做算法工程化的呀?
- 比如sklearn or pytorch实现的算法,怎么用C++部署呢?
 --
 FROM 112.65.12.*
 
- pytorch产出的模型,转成tensorflow模型
 再用tensorflow serving加载起来对外提供服务
 【 在 wakaka1122 的大作中提到: 】
 : 比如sklearn or pytorch实现的算法,怎么用C++部署呢?
 --
 FROM 116.76.169.*
 
- 导出onnx模型,然后使用对应平台的工具转换,然后写cpp程序加载使用
 【 在 wakaka1122 的大作中提到: 】
 : 比如sklearn or pytorch实现的算法,怎么用C++部署呢?
 发自「快看水母 于 iPhone 12」
 --
 FROM 120.245.24.*
 
- 请问性能上和直接python部署差别大吗?
 - 来自 水木社区APP v3.5.7
 【 在 thishome 的大作中提到: 】
 : 导出onnx模型,然后使用对应平台的工具转换,然后写cpp程序加载使用
 --
 FROM 223.104.40.*
 
- 得看python底层和cpp的实现方式;同等条件下,cpp有潜力耗时更少,不过具体得测试一下
 【 在 xiaofeiyun 的大作中提到: 】
 : 请问性能上和直接python部署差别大吗?
 : - 来自 水木社区APP v3.5.7
 发自「快看水母 于 iPhone 12」
 --
 FROM 120.245.24.*
 
- 把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
 
 【 在 overcomeunic 的大作中提到: 】
 : pytorch产出的模型,转成tensorflow模型
 : 再用tensorflow serving加载起来对外提供服务
 --
 FROM 112.65.12.*
 
- 把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
 
 【 在 thishome 的大作中提到: 】
 : 导出onnx模型,然后使用对应平台的工具转换,然后写cpp程序加载使用
 : 发自「快看水母 于 iPhone 12」
 --
 FROM 112.65.12.*
 
- 没用过libtorch部署
 【 在 wakaka1122 的大作中提到: 】
 : 把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
 发自「快看水母 于 iPhone 12」
 --
 FROM 120.245.24.*