"); //-->
NLP中的可解釋性
一般來說,高注意力對系統的影響比較大,比如說特殊的符號,對角線的元素。但在閱讀理解問題上,研究者們發現去掉單個符號影響不大,去掉多個特殊的符號在英文上性能下降比較明顯,然而中文上下降不是太明顯,去掉對角的元素反而可以提升閱讀理解的準確率。P2Q和P2P仍然是影響結果重要性的最主要的注意力區域。
探針方法
研究者們使用探針方法,實現對話理解中的可解釋性認證。對話當中蘊含豐富的語言現象,傳統對話系統無法理解對話中的省略和指代等現象,模型產生回復的過程不可解釋。而劉挺教授團隊在人人對話數據中插入QA對,通過對話模型能否正確地回答問題來檢驗模型是否真正理解對話的語義。并由此提出了一個DEQA數據集,通過可解釋的QA方式驗證了主流模型無法正確理解對話中語義的問題。
解釋要素的注入
劉挺教授團隊將符號知識注入神經網絡,實現事件、時間、常識的知識預測。通過邏輯的推理可以擴大神經網絡的訓練集,同時利用邏輯規則在上層約束神經網絡。從文本中無監督抽取的時間常識可能存在報告偏差,常見的情況在文本中并未顯式提及,自然文本中幾乎不會有類似的表達,預訓練等大模型會在文本表達中對非尋?,F象加以強調。劉挺教授介紹的方法通過利用不同維度間的時間常識知識之間的約束關系降低報告誤差。
無監督文本生產解釋
灰盒方法的主要思想是在構建系統的時候嵌入可解釋的要素。劉挺教授首先介紹了基于神經-符號相結合的可解釋性自然語言理解。符號表示有可程序化化可解釋性強等優點,而神經AI表示能力和適應能力強,劉挺教授團隊嘗試將兩者的優點結合在一起,構造了一個名為ExCAR的因果邏輯增強的可解釋因果推理框架,例如從量化寬松到房價上漲找到推理路徑,利用神經邏輯網絡和條件馬爾可夫還原背后的因果決策機制。
基于規則挖掘的知識發現,一般用表示學習、強化學習去進行知識的發現,利用實體的描述文本和結構信息實現知識不全;利用文本模型的輸出稠密化知識圖譜;利用EM和ML兩種方法融合文本模型和結構模型,進而實現基于分層推理的知識發現。
劉挺教授本次報告向大家分享了白盒、黑盒以及灰盒等可解釋性方法,也介紹一些評價的方法和數據集。劉挺教授認為,可解釋人工智能未來的發展趨勢是神經網絡和符號系統相互結合、推理規則與預訓練模型的相互結合以及可解釋規則證據的歸納和可視化。另外,如何設計面向自然語言處理的白盒模型是一項很大的挑戰?,F在多數工作仍然集中于黑盒的事后解釋以及如何利用可解釋要素提出灰盒方法,難點在于多數NLP模型基于神經網絡模型,而神經網絡模型本身的可解釋性仍然是未解難題。除此以外,可解釋性的評價需要更加綜合、全面地進行評估,結合腦科學的學科發展對可解釋性進行進一步的探索也是未來重要的研究方向。
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。
相關推薦
iCAN-4017 AI功能模塊
人工智能是如何幫助阻止造假者的?
基于Microchip MCU的AI/ML培訓教程3
EEPW2018年3月刊(工業物聯網)
Gartner發布三大AI價值實現路徑
CSR8670CSR8675智能語音Alexa藍牙方案開發
邊緣 AI 加速的 Arm? Cortex??M0+ MCU 如何為電子產品注入更強智能
萬家樂JSYZ5-AI燃氣熱水器電路圖
基于VisitionX制造智能眼鏡
WTC-AI型太陽能熱水器電路圖
盡管與亞馬遜達成芯片合作,英偉達股價仍下跌 3%,油價與加息擔憂沖擊 AI 交易
EEPW2018年6月刊(5G)
海聯達(Aigale)Ai-HD1 無線全高清套件拆解
芯片互連初創企業Kandou AI完成2.25億美元融資
英偉達 Groq 3:AI 推理時代已至
PowiGaN for AI Data Centers: Unmatched Power Density and Reliability
AI狂潮 半導體通膨壓力重重
基于Microchip MCU的AI/ML培訓教程2
WTC-AI太陽能熱水器電路圖
電子元件培訓教材
繼上次海聯達Ai-ap100拆機之電源改造
賦能AI與新能源時代的高動態MW級負載平臺
瑞薩電子AI單元解決方案成功提高GE醫療(日本)日野工廠的生產力
AI正在成為美國軍事系統核心
TI 攜手 NVIDIA 推出面向下一代 AI 數據中心的完整 800 VDC 電源架構
釋說芯語16:硬科技:構建企業未來之路(附PPT)
尼吉康的事業介紹
在工業自動化和智能家用電器設計中實現支持邊緣 AI 的電機控制
基于Ai-WB2-12F與Rd-04的雷達檢測系統
基于Microchip MCU的AI/ML培訓教程1