one-hot-encodding1 padding & one-hot-encoding [ padding ] padding 사용하는 이유각 문장마다 사용하는 단어의 개수 다르기 때문에 모든 문장의 길이를 맞추기 위해 사용 padding 방법1. Numpy로 패딩import numpy as npfrom tensorflow.keras.preprocessing.text import Tokenizertokenizer = Tokenizer()tokenizer.fit_on_texts(preprocessed_sentences) #corpas로 단어집합 생성encoded = tokenizer.text_to_sequences(preprocessed_sentences) #corpas의 각 단어를 정수로변환for sentence in encoded: while len(sentence) 2. Keras의.. 2024. 5. 14. 이전 1 다음