为了在2025年之前使用人工智能(AI)实现实时同声传译,日本正在推进研究。
目前,语音识别已经可以完全实现,未来的目标是提高翻译的准确性和速度。
世界上有许多与日语具有相同特征的语言。
如果能够实现日语的同声传译,则有望促进国际流行。
演讲者将用英语发表一分钟的演讲,背面的屏幕显示基于AI的日语同声传译。
这是2020年11月日本信息与通信技术学院(NICT,注意:日语“智能”是指“信息”)举行的新闻发布会的场景。
从演讲者讲话开始,大约需要10秒钟。
翻译的外观,但几乎没有翻译错误。
同声传译一般是对语音内容进行语音识别,然后通过翻译软件使用AI将其转换为其他语言。
现有的大多数服务都在讲话后开始翻译。
因此,很难以快速的语音翻译会话。
当表达相同的内容时,同声传译所需的时间是母语的对话时间的两倍。
在该级别上难以用于商业目的,并且迫切需要能够克服该缺点的技术。
现在,同声传译的翻译准确率有所提高,但存在一定的延迟。
日本信息通信研究院在2019年前的“日本国家研究计划”中已在语音识别方面取得了足够的成绩。
该机构的目标是从2020年开始平衡翻译的准确性和速度。
新闻发布会上有10秒钟的延迟,但是预计将减少到2或3秒,相当于一个同声传译器。
日本信息通信研究所开发了可以在演讲过程中开始翻译的AI。
句子分割的预处理技术是关键。
翻译软件由句子分段的预处理和翻译句子的翻译引擎组成。
为了在现有技术中平滑地翻译,只能以句子为单位分割句子,因此存在延迟。
如果您在结束讲话之前开始翻译,则可以缩短时差。
日本信息通信研究所使用了“块”方法。
(或语义块)进行预处理,比基于句子的细分更准确。
专业的同声传译人员也使用此方法。
这样可以确保翻译的准确性并减少延迟。
日本的信息和通信研究机构将在其开发中使用大量数据。
到2021年底,该机构将从同声传译员和其他人员那里收集有关语义位置及其翻译的数据。
在2022年,将开发AI以根据语义对句子进行分段和翻译。
与英语到日语相比,日语到英语的同声传译更加困难。
因为句子分割的预处理比较困难。
在日语中,表达否定的动词和重要词出现在句子的末尾,因此需要预读然后翻译。
但是,出现在句子前半部分的英语单词(例如动词)可以更好地翻译。
在日语中,很多情况下句子中省略了主题。
AI必须先完成句子,然后再翻译,所以很容易犯错误。
为了防止误解,需要校正技术。
例如,通过预先向AI提供有关语音内容的相关数据并让其学习,它将能够阅读稍后要说的内容并更准确地完成同声传译。
日本信息通信研究所还将改善翻译引擎。
通过日语-英语,英语-日语和所有语言翻译中使用的技术来控制翻译的准确性。
如果此性能不高,则即使预处理速度快且校正功能出色,也无法使用。
除了市售的便携式翻译机外,诸如松下,NTTdocomo和NEC之类的语音翻译服务还采用了日本信息通信研究院的翻译引擎。
该组织的研究员Eiichiro Sumida自信地说:“当转换为TOEIC分数时,英日翻译的准确度相当于大约900点”。
在改善翻译方面