“importować Word_Tokenize” Kod odpowiedzi

importować Word_Tokenize

import nltk
from nltk import word_tokenize
Itchy Impala

Word_Tokenize

>>> from nltk.tokenize import word_tokenize
>>> s = '''Good muffins cost $3.88\nin New York.  Please buy me
... two of them.\n\nThanks.'''
>>> word_tokenize(s)
['Good', 'muffins', 'cost', '$', '3.88', 'in', 'New', 'York', '.',
'Please', 'buy', 'me', 'two', 'of', 'them', '.', 'Thanks', '.']
Tired Termite

Odpowiedzi podobne do “importować Word_Tokenize”

Pytania podobne do “importować Word_Tokenize”

Więcej pokrewnych odpowiedzi na “importować Word_Tokenize” w Python

Przeglądaj popularne odpowiedzi na kod według języka

Przeglądaj inne języki kodu