# gensim ## gensim LDA LdaModel(corpus=None, num_topics=100, id2word=None, distributed=False, chunksize=2000, # 훈련 덩어리당 문서의 개수 passes=1, # 훈련 동안 말뭉치를 통과하는 횟수 update_every=1, # 업데이트당 반복해 읽는 문서의 개수 alpha='symmetric', eta=None, # 단어 확률에 대한 사전 신뢰도 decay=0.5, # 새로운 문서가 조사될 때 망각하는 람다의 퍼센티지 offset=1.0, # 처음 몇 번 반복 시행의 속도 감소를 통제한다. eval_every=10, # 로그 퍼플렉시티의 추정 빈도수(비용이 든다) iterations=50, # 말뭉치를 읽는 반복시행의 최대수 gamma_threshold=0.001 # 지속하기 위한 감마의 최소 변화 minimum_probability=0.01 # 토픽을 필터하는 최소 확률 random_state=None, ns_conf=None, minimum_phi_value=0.01, # 단어 확률의 하한 per_word_topics=False, # 가장 큰 단어-토픽 확률을 계산 callbacks=None, dtype= )