中文字幕 另类精品,亚洲欧美一区二区蜜桃,日本在线精品视频免费,孩交精品乱子片免费

<sup id="3hn2b"></sup>

    1. <sub id="3hn2b"><ol id="3hn2b"></ol></sub><legend id="3hn2b"></legend>

      1. <xmp id="3hn2b"></xmp>

      2. 新聞中心

        EEPW首頁(yè) > 智能計(jì)算 > 設(shè)計(jì)應(yīng)用 > 超強(qiáng)NLP思維導(dǎo)圖,知識(shí)點(diǎn)全面覆蓋:從基礎(chǔ)概念到最佳模型,萌新成長(zhǎng)必備資源

        超強(qiáng)NLP思維導(dǎo)圖,知識(shí)點(diǎn)全面覆蓋:從基礎(chǔ)概念到最佳模型,萌新成長(zhǎng)必備資源

        作者:栗子 時(shí)間:2019-09-29 來(lái)源:量子位 收藏

        本文經(jīng)AI新媒體量子位(公眾號(hào) ID: QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

        本文引用地址:http://www.antipu.com.cn/article/201909/405420.htm

        一只萌新,想把自己修煉成一個(gè)成熟的NLP研究人員,要經(jīng)過(guò)一條怎樣的路?

        有個(gè)名叫Tae-Hwan Jung的韓國(guó)小伙伴,做了一份完整的思維導(dǎo)圖,從基礎(chǔ)概念開(kāi)始,到NLP的常用方法和著名算法,知識(shí)點(diǎn)全面覆蓋。

        可以說(shuō),從0到1,你需要的都在這里了:

        這份精致的資源剛剛上線,不到一天Reddit熱度就超過(guò)400,獲得了連篇的贊美和謝意:

        “肥腸感謝?!薄拔倚枰木褪沁@個(gè)!”“哇,真好?。 ?/p>

        所以,這套豐盛的思維導(dǎo)圖,都包含了哪些內(nèi)容?

        四大版塊

        就算你從前什么都不知道,也可以從第一個(gè)版塊開(kāi)始入門:

        1 概率&統(tǒng)計(jì)

        從中間的灰色方塊,發(fā)散出5個(gè)方面:

        基礎(chǔ) (Basic) ,采樣 (Sampling) 、信息理論 (Information Theory) 、模型 (Model) ,以及貝葉斯 (Baysian) 。

        每個(gè)方面,都有許多知識(shí)點(diǎn)和方法,需要你去掌握。

        畢竟,有了概率統(tǒng)計(jì)的基礎(chǔ),才能昂首挺胸進(jìn)入第二個(gè)板塊。

        2 機(jī)器學(xué)習(xí)

        這個(gè)版塊,一共有7個(gè)分支:

        線性回歸 (Linear Regression) 、邏輯回歸 (Logistic Regression) 、正則化 (Regularization) 、非概率 (Non-Probabilistic) 、聚類 (Clustering) 、降維 (Dimensionality Reduction) ,以及訓(xùn)練 (Training) 。

        掌握了機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和常用方法,再正式向NLP進(jìn)發(fā)。

        3 文本挖掘

        文本挖掘,是用來(lái)從文本里獲得高質(zhì)量信息的方法。

        圖上有6個(gè)分支:

        基本流程 (Basic Procedure) 、圖 (Graph) 、文檔 (Document) 、詞嵌入 (Word Embedding)、序列標(biāo)注 (Sequential Labeling) ,以及NLP基本假設(shè) (NLP Basic Hypothesis)。

        匯集了NLP路上的各種必備工具。

        4 自然語(yǔ)言處理

        裝備齊了,就該實(shí)踐了。這也是最后一張圖的中心思想:

        雖然只有4個(gè)分支,但內(nèi)容豐盛。

        一是基礎(chǔ) (Basic) ,詳細(xì)梳理了NLP常用的幾類網(wǎng)絡(luò):循環(huán)模型、卷積模型和遞歸模型。

        二是語(yǔ)言模型 (Language Model) ,包含了編碼器-解碼器模型,以及詞表征到上下文表征 (Word Representation to Contextual Representation) 這兩部分。許多著名模型,比如BERT和XLNet,都是在這里得到了充分拆解,也是你需要努力學(xué)習(xí)的內(nèi)容。

        三是分布式表征 (Distributed Representation) ,許多常用的詞嵌入方法都在這里,包括GloVe和Word2Vec,它們會(huì)一個(gè)個(gè)變成你的好朋友。

        四是任務(wù) (Task) ,機(jī)器翻譯、問(wèn)答、閱讀理解、情緒分析……你已經(jīng)是合格的NLP研究人員了,有什么需求,就調(diào)教AI做些什么吧。

        看完腦圖,有人問(wèn)了:是不是要把各種技術(shù)都實(shí)現(xiàn)一下?

        韓國(guó)少年說(shuō):“不不,你不用把這些全實(shí)現(xiàn)一遍。找一些感覺(jué)有趣的,實(shí)現(xiàn)一波就好了。”

        △ 作者Tae-Hwan Jung,來(lái)自慶熙大學(xué)

        One More Thing

        Reddit樓下,許多小伙伴對(duì)這套腦圖表示膜拜,并且想知道是用什么做的。

        韓國(guó)少年說(shuō),Balsamiq Mockups。

        GitHub傳送門:https://github.com/graykode/nlp-roadmap

        Reddit傳送門:https://www.reddit.com/r/MachineLearning/comments/d8jheo/p_natural_language_processing_roadmap_and_keyword/



        關(guān)鍵詞:

        評(píng)論


        相關(guān)推薦

        技術(shù)專區(qū)

        關(guān)閉