# 分詞（Tokenization）

把連續的文本切分成一個個的詞或子詞單位，是 NLP 的第一步

## 完整說明

把連續的文本切分成一個個的詞或子詞單位，是 NLP 的第一步

---

來源：https://aiterms.tw/terms/tokenization
快查頁：https://aiterms.tw/terms/tokenization
深度解說：https://aiterms.tw/learning/what-is-tokenization