シティ造句
- 提案した言語モデルの能力を,文字を単位としたパープレキシティによって評価する
将我们所提出的语言模型的能力用以字符为单位的困惑度来评测。 - ただし,パープレキシティ,未知語率,言い直し頻度の収束はやや不十分であった.
但是,复杂度、未知词比例以及重说频率的收敛稍微有些不充分。 - 正八面体の大きさは,そのインストゥルメントのベロシティに対応する.
正八面体的大小,与该仪器的速率相对应。 - (1)パープレキシティは,単語間の音響的な類似性を無視している.
(1)复杂度忽视了单词间语音上的相似性。 - このようなモデルをマンハッタン.シティモデルともいう1).
这样的模型也称曼哈顿城区模型(Manhattan city model)1)。 - 表5に,パープレキシティーがほぼ等しい言語モデルの大きさと認識率をあげておいた.
在表5中,给出了概率性几乎等同的语言模型的大小和识别率。 - 言語モデルの評価基準として,エントロピーとパープレキシティを用いる
采用熵和复杂度作为语言模型的评价标准 - 未知語率,パープレキシティの計算では,正解文として言い直しを除いたものを用いた.
在未知词比例、复杂度的计算中,采用了去除了重说的正解句子。 - この研究では,パープレキシティと文の認識率の関係をシミュレーションによって求めている.
该研究中,利用模型试验来求复杂度与句子识别率的关系。 - Trigramでは面種別で学習するより全面種で学習する方がパープレキシティが小さくなる
在trigram中,全版面学习比分版面学习的复杂度小 - It's difficult to see シティ in a sentence. 用シティ造句挺难的
- Bigramでは定型表現を用いることにより,補正パープレキシティも大幅に減少している
bigram中由于采用定型表达,修正复杂度也大幅度减少 - その対策として,あらかじめオリジナルのオンベロシティ値を暗号化しておくことが望ましい.
作为应对方法,最理想的是预先加密原初的关闭模板引擎。 - Bigramでは全面種で学習するより面種別で学習する方が補正パープレキシティが小さくなる
在bigram中,分版面学习比全版面学习修正复杂度小 - 通常パープレキシティを求める式はbigramの場合で,@equation_0@
通常求得复杂度的公式在bigram时为@equation_0@ - また,英語は文末でのパープレキシティが非常に高く,逆に制約が非常に緩いことが分かる.
另外,英语在文章结尾的复杂程度非常高,相反限制却很宽松。 - 補正パープレキシティは@equation_0@で与えられる
修正复杂度用@equation_0@给出 - SAXカラムからの溶出物のベースピークインテンシティークロマトグラムをFig.2に示した。
SAX柱中的洗脱物的基峰强度色谱图如Fig.2所示。 - 強弱はヴェロシティで表現されるが,細かい強弱の変化とは,細かい抑揚をつけることを意味する.
强弱是速率的表现,细微强弱的变化意味给予细小的抑扬。 - パープレキシティは言語モデルに3 gramを用いて求めた.
采用3gram的语言模型计算了复杂度。 - 言い直し頻度とパープレキシティの相関係数は0.06である.
重说频率与复杂度的相关系数为0.06。