❶ word2vec是如何得到詞向量的
word2vec也叫word embeddings,中文名「詞向量」,作用就是將自然語言中的字詞轉為計算機可以理解的稠密向量(Dense Vector)。在word2vec出現之前,自然語言處理經常把字詞轉為離散的單獨的符號,也就是One-Hot Encoder。
杭州 [0,0,0,0,0,0,0,1,0,……,0,0,0,0,0,0,0]
上海 [0,0,0,0,1,0,0,0,0,……,0,0,0,0,0,0,0]
寧波 [0,0,0,1,0,0,0,0,0,……,0,0,0,0,0,0,0]
北京 [0,0,0,0,0,0,0,0,0,……,1,0,0,0,0,0,0]
比如上面的這個例子,在語料庫中,杭州、上海、寧波、北京各對應一個向量,向量中只有一個值為1,其餘都為0。但是使用One-Hot Encoder有以下問題。一方面,城市編碼是隨機的,向量之間相互獨立,看不出城市之間可能存在的關聯關系。其次,向量維度的大小取決於語料庫中字詞的多少。如果將世界所有城市名稱對應的向量合為一個矩陣的話,那這個矩陣過於稀疏,並且會造成維度災難。 使用Vector Representations可以有效解決這個問題。Word2Vec可以將One-Hot Encoder轉化為低維度的連續值,也就是稠密向量,並且其中意思相近的詞將被映射到向量空間中相近的位置。 如果將embed後的城市向量通過PCA降維後可視化展示出來,那就是這個樣子。我們可以發現,華盛頓和紐約聚集在一起,北京上海聚集在一起,且北京到上海的距離與華盛頓到紐約的距離相近。也就是說模型學習到了城市的地理位置,也學習到了城市地位的關系。
❷ word2vec有什麼應用
我覺得word2vec在工業上或者是網路上還是有很多應用的。
理解這種學術工具,重要的是搞懂它背後的道理和設計哲學。
很多人對word2vec不是了解,不知道word2vec是什麼,其實word2vec是一個將單詞轉換成向量形式的工具,通過轉換,可以把文本內容的處理簡化為向量空間中的向量運算,計算出向量空間上的相似度,這在實際應用中就有很大的價值。
word2vec在多方面的應用上還是很多的。