基于半監(jiān)督學習的統(tǒng)計機器翻譯研究.pdf_第1頁
已閱讀1頁,還剩121頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、互聯(lián)網(wǎng)的飛速發(fā)展所產(chǎn)生的越來越多的雙語數(shù)據(jù),使得基于統(tǒng)計的機器翻譯( SMT)成為了機器翻譯領域的主流方法。然而相比已標注數(shù)據(jù)(雙語句對,詞對齊結果等),可用于統(tǒng)計機器翻譯的未標注數(shù)據(jù)(單語的句子,未標注對齊的雙語句對等)更容易獲得,其數(shù)量也遠遠大于已標注的數(shù)據(jù)。如何利用未標注數(shù)據(jù)提高統(tǒng)計機器翻譯的質(zhì)量成為一個熱門的研究方向。半監(jiān)督的學習方法,能夠利用未標注數(shù)據(jù)參與模型的訓練和優(yōu)化,提高統(tǒng)計模型的性能,在SMT中的應用也越來越受到重視。

2、本篇博士論文將深入地研究如何將半監(jiān)督的學習方法(包括自學習、互學習和基于圖的學習)應用于統(tǒng)計機器翻譯的各個階段(包括詞匯對齊、規(guī)則抽取,特征權重訓練、翻譯重排序和解碼),提高統(tǒng)計機器翻譯的質(zhì)量。論文組織如下:
  1.針對基于反向轉(zhuǎn)換文法詞匯對齊中的1-1對齊約束,本文通過引入短語對和層次短語對提出了增強的反向轉(zhuǎn)換文法,并使用半監(jiān)督訓練方法來訓練對數(shù)線性模型中的特征值和特征權重,以提高基于反向轉(zhuǎn)換文法的詞匯對齊的性能,從而可以抽取

3、更為準確的翻譯規(guī)則,提高SMT的性能。
  2.針對基于句法的SMT(SSMT)的規(guī)則抽取中詞匯對齊和句法分析不一致的問題,本文提出了基于邊界集的目標化自學習方法和基于強制對齊的重訓練方法,來利用詞對齊信息修正句法分析結果中的錯誤,從而改善了翻譯規(guī)則的質(zhì)量,提高了SSMT的性能。
  3.針對特征權重訓練中的領域適應問題,本文提出了基于最小貝葉斯風險的自學習和互學習方法。為解決自學習和互學習訓練過程中的不穩(wěn)定現(xiàn)象,本文使用了

4、基于最小貝葉斯風險的句子級系統(tǒng)融合方法來選擇合適的翻譯候選參與自學習和互學習的訓練,顯著地提高了目標領域上的翻譯性能。
  4.針對翻譯結果的一致性問題(即相似的輸入句子應該得到相似的翻譯結果),本文使用了基于圖的半監(jiān)督方法,將SMT看做結構學習問題,并針對該問題提出了結構化的標記傳播算法。本文進一步地將結構化標記傳播算法獲得的一致置信度作為特征,應用于常用的對數(shù)線性模型中,將該模型應用于SMT的重排序和解碼,提高了SMT的性能。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論