第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

如何使用 Tokenizer 函數(shù)tensorflow 對標(biāo)點符號進(jìn)行標(biāo)記

如何使用 Tokenizer 函數(shù)tensorflow 對標(biāo)點符號進(jìn)行標(biāo)記

紅顏莎娜 2023-09-19 17:03:42
我使用asTokenizer()中的函數(shù)tensorflow.keras.preprocessing.text:from tensorflow.keras.preprocessing.text import Tokenizers = ["The quick brown fox jumped over the lazy dog."]t = Tokenizer()t.fit_on_texts(s)print(t.word_index)輸出 :{'the': 1, 'quick': 2, 'brown': 3, 'fox': 4, 'jumped': 5, 'over': 6, 'lazy': 7, 'dog': 8}Tokenizer 函數(shù)排除標(biāo)點符號。如何標(biāo)記標(biāo)點符號?( .,在此示例中。)
查看完整描述

1 回答

?
12345678_0001

TA貢獻(xiàn)1802條經(jīng)驗 獲得超5個贊

一種可能性是用空格將標(biāo)點符號與單詞分開。我用預(yù)處理函數(shù)來做到這一點pad_punctuation。之后我Tokenizer申請filter=''


import re

import string

from tensorflow.keras.preprocessing.text import Tokenizer


def pad_punctuation(s): return re.sub(f"([{string.punctuation}])", r' \1 ', s)


S = ["The quick brown fox jumped over the lazy dog."]

S = [pad_punctuation(s) for s in S]


t = Tokenizer(filters='')

t.fit_on_texts(S)

print(t.word_index)

結(jié)果:


{'the': 1, 'quick': 2, 'brown': 3, 'fox': 4, 'jumped': 5, 'over': 6, 'lazy': 7, 'dog': 8, '.': 9}

該pad_punctuation功能對所有標(biāo)點符號都有效


查看完整回答
反對 回復(fù) 2023-09-19
  • 1 回答
  • 0 關(guān)注
  • 112 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學(xué)習(xí)伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號