- 主题:26.1最重要的功能是翻译引入了AI
翻译依然很烂
我说错了
改进的是翻译之中的语音识别
【 在 DFFT (离散快速傅里叶变换) 的大作中提到: 】
: 比kimi豆包翻译的好么?
: 还是只是划字翻译方便?
: 【 在 TimeAndRiver 的大作中提到: 】
: : 现在翻译比以前快多了,而且也准确多了
--
FROM 180.111.66.*
新架构神经网络配合新芯片设计,计算速度可能的确超过原架构算法。
【 在 jackalove 的大作中提到: 】
: 即使是 纯本地翻译 vs 纯本地AI翻译,那也不可能更快啊
--
FROM 222.92.119.*
也有可能吧
【 在 toyarmybin 的大作中提到: 】
: 新架构神经网络配合新芯片设计,计算速度可能的确超过原架构算法。
:
--
FROM 122.227.97.*
我们团队今年6月项目换了架构,比去年10月同类项目快了至少一倍。
【 在 jackalove 的大作中提到: 】
: 也有可能吧
--
FROM 221.224.145.*
我理解现阶段 大模型都是蹦token的,怎么可能比本地的程序翻译程序快
【 在 toyarmybin 的大作中提到: 】
: 我们团队今年6月项目换了架构,比去年10月同类项目快了至少一倍。
:
--
FROM 122.227.97.*
除了相当古早且准确率完全不能打的检索匹配,其它翻译算法都可归类为基于神经网络的生成。
“蹦Token”的生成来自Transformer,Google早期翻译“生成”来自CNN。
模糊匹配(检索)翻译发展了一段时间,到一定准确率后继续提高所需算力远超现行架构。
【 在 jackalove 的大作中提到: 】
: 我理解现阶段 大模型都是蹦token的,怎么可能比本地的程序翻译程序快
--
FROM 221.224.145.*
学习了
谢谢
【 在 toyarmybin 的大作中提到: 】
: 除了相当古早且准确率完全不能打的检索匹配,其它翻译算法都可归类为基于神经网络的生成。
: “蹦Token”的生成来自Transformer,Google早期翻译“生成”来自CNN。
: 模糊匹配(检索)翻译发展了一段时间,到一定准确率后继续提高所需算力远超现行架构。
: ...................
--
FROM 122.227.97.*
貌美如花的同传还是有情绪价值的
【 在 toyarmybin (BinBin) 的大作中提到: 】
: 翻译专业痛哭流涕……我们今年大量会议已经开始上A.I.同传了。
:
: 【 在 TimeAndRiver 的大作中提到: 】
: : 现在翻译比以前快多了,而且也准确多了
--
FROM 119.143.169.*
得专程去会场后台小黑屋去看如花:)
【 在 beaver 的大作中提到: 】
: 貌美如花的同传还是有情绪价值的
--
FROM 125.82.21.*
我就喜欢小黑屋
【 在 toyarmybin (BinBin) 的大作中提到: 】
: 得专程去会场后台小黑屋去看如花:)
:
: 【 在 beaver 的大作中提到: 】
: : 貌美如花的同传还是有情绪价值的
--
FROM 14.155.33.*