最后更新: 2025-05-15
使用模型建议
当电脑配置较低的时候请勿使用对设备性能要求较高的 Large-v2、Large-v3 和 Large-v3-Turbo 模型,否则可能会导致卡顿甚至无响应。
不同场景使用不同的模型,以下是一些建议。
文件转录
- 低性能设备:推荐使用 Whisper 官方模型中的 Tiny 和 Base,这些模型较小,能够在低性能设备上保证转录速度。
- 中等性能设备:推荐使用 Small 和 Medium 模型,能够在速度和准确度之间取得平衡。
- 高性能设备:推荐使用 Large-v2, Large-v3 和 Large-v3-Turbo 模型,以获得最高的转录准确度。
实时转录
- 低性能设备:推荐使用 实时模型,因为它专为实时场景设计,对设备性能要求低。
- 中等性能设备:推荐使用 Whisper 官方模型中的 Small 和 Medium,能够在实时转录中提供较好的效果。
- 高性能设备:推荐使用 Whisper 官方模型中的 Large-v2, Large-v3 和 Large-v3-Turbo,以实现最佳的实时转录准确度。
使用表格总结如下:
使用场景 | 低性能设备 | 中等性能设备 | 高性能设备 |
---|---|---|---|
文件转录 | Tiny, Base | Small, Medium | Large-v2, Large-v3, Large-v3-Turbo |
实时转录 | 实时模型 | Small, Medium | Large-v2, Large-v3, Large-v3-Turbo |
高性能设备的用户建议直接使用Large-v3-Turbo模型,因为它能在保证准确率与Large-v3相差不大的前提下,提升了推理速度。