雷鋒網(wǎng) AI 科技評(píng)論按:如題,雖然 NLP 研究領(lǐng)域已經(jīng)在深度學(xué)習(xí)的幫助下取得了長足的發(fā)展,許多技術(shù)也已經(jīng)商業(yè)化落地,但我們也需要知道,這個(gè)領(lǐng)域還有幾個(gè)開放性問題等待解決 —— 如果它們也能比較好地解決,也許我們能迎來 NLP 科研成果與商業(yè)落地的一個(gè)新的高潮。
下面列舉的 5 個(gè)開放性問題來自自學(xué) NLP 的機(jī)電一體化本科生 Deepak Garasangi 在 Reddit 上的發(fā)帖討論內(nèi)容總結(jié),并且參考了 Sebastian Ruder 曾經(jīng)總結(jié)的 4 個(gè)開放性問題。按重要性從輕到重排序:
5. 評(píng)價(jià)指標(biāo)
這個(gè)問題在領(lǐng)域內(nèi)不算很大的瓶頸,但是經(jīng)常有研究人員覺得有必要重新討論這個(gè)問題,因?yàn)楝F(xiàn)行慣例里往往不問原因就沿用某些固定的架構(gòu)、數(shù)據(jù)集和評(píng)價(jià)指標(biāo)。有人這樣總結(jié):「隨著我們探索越來越高級(jí)的認(rèn)知任務(wù),弄明白為什么某些方法、某些架構(gòu)在某些時(shí)候能起到好的效果,這對(duì)我們非常有幫助?!?/p>
另外一種擔(dān)憂是對(duì)于評(píng)價(jià)指標(biāo)自身的,這些評(píng)價(jià)技巧、這些生成的數(shù)字到底能在多大程度上對(duì)應(yīng)人類語言的多樣性和表達(dá)能力?對(duì)這個(gè)問題的回答也可以幫助我們構(gòu)建出更有趣的自然語言推理數(shù)據(jù)集。
拓展閱讀:EMNLP 2017 論文《Why We Need New Evaluation Metrics for NLG》(https://www.aclweb.org/anthology/D17-1238)
4. 終生學(xué)習(xí)(Life long learning)
NLP 領(lǐng)域遇到的另一個(gè)棘手問題是為這幾個(gè)問題設(shè)計(jì)解決方案:
低階模型用于下游任務(wù)時(shí)的終生適配
遷移學(xué)習(xí)的應(yīng)用
視覺、文本、音頻等等語言相關(guān)模態(tài)的無縫整合
低資源情境中高效的跨任務(wù)遷移
拓展閱讀:Sebastian Ruder 近期寫了一篇文章,總結(jié)了NLP 領(lǐng)域遷移學(xué)習(xí)的現(xiàn)狀,雷鋒網(wǎng) AI 科技評(píng)論也做了編輯,可以點(diǎn)擊閱讀
3. 面向目標(biāo)的對(duì)話系統(tǒng)(Goal oriented dialogue systems)
從 ACL 學(xué)會(huì)出版的論文集來看,近一兩年的 ACL 會(huì)議、EMNLP 會(huì)議中研究面向目標(biāo)的對(duì)話系統(tǒng)的論文都有大幅增加。這就是又一個(gè)開放性問題:如何設(shè)計(jì)具備常識(shí)、能在真實(shí)世界語境中與人類進(jìn)行較長的、面向目標(biāo)的交談的機(jī)器對(duì)話系統(tǒng)。目前的研究思路包括:帶有狀態(tài)追蹤的任務(wù)驅(qū)動(dòng)的對(duì)話系統(tǒng),使用強(qiáng)化學(xué)習(xí)的對(duì)話系統(tǒng),以及很多別的新點(diǎn)子。
拓展閱讀:在 NLP 中應(yīng)用強(qiáng)化學(xué)習(xí)https://www.csie.ntu.edu.tw/~yvchen/doc/KAIST19_Tutorial.pdf
2. 低資源語言
這可以算是最緊迫的問題。目前全世界大約有 7000 種語言,但這些語言中只有很小的一部分,大概 20 種左右,可以算是資源豐富的語言。這個(gè)問題除了很實(shí)際之外,在其中找到靈感、取得進(jìn)展也相對(duì)比較容易。專家們認(rèn)為可行的方向包括:
為低資源語言設(shè)計(jì)收集數(shù)據(jù)、用較小數(shù)據(jù)訓(xùn)練語言模型的方法
可以有效用于低資源語言的跨任務(wù)遷移方法
拓展閱讀:詳細(xì)的說明文章參見http://www.cs.cmu.edu/~ytsvetko/jsalt-part1.pdf
1. 自然語言理解
沒錯(cuò),這就是那個(gè)最開放的問題,它和 NLP 領(lǐng)域中的許多具體問題也都息息相關(guān)。想要解決這個(gè)高階的認(rèn)知問題,可能需要我們從強(qiáng)化學(xué)習(xí)、領(lǐng)域適應(yīng)、小樣本/零樣本學(xué)習(xí)等等領(lǐng)域中借鑒很多思想和方法,也還需要 NLP 研究人員們做出更多創(chuàng)新。
現(xiàn)階段的研究落腳點(diǎn)包括:
共指消歧(Coreference resolution)、多義詞解析(Polysemy)、文本/文檔總結(jié)(Text/Document Summarization)
論證與推理,諷刺與幽默
高效地表征大文本
環(huán)境中的語言學(xué)習(xí)(Grounded language learning),比如聯(lián)合學(xué)習(xí)一個(gè)世界模型和語言模型,并且學(xué)習(xí)如何在語言模型中使用世界模型。
Yoshua Bengio 曾說:「要有野心。不要(因?yàn)樽?NLP 就)僅僅讀 NLP 論文。要讀很多機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)的論文。」我們也希望各位研究者們可以打開眼界,多多參考以前和現(xiàn)在的包括別的領(lǐng)域的有用經(jīng)驗(yàn),才能解決更難的問題、做出更大的成果。
viadeeps.site/blog/2019/09/09/nlp-problems/,雷鋒網(wǎng)(公眾號(hào):雷鋒網(wǎng)) AI 科技評(píng)論編譯
