あああ
Last active
January 29, 2021 17:16
-
-
Save uhfx/7656ed5ae3f9a92ac47661220f08b11e to your computer and use it in GitHub Desktop.
20210130
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
# import IPython | |
from IPython.display import display | |
# lunar1.py header | |
import pandas as pd | |
import glob | |
# lunar1.py | |
text_paths = glob.glob('data/ocu2/*.txt') | |
texts = [] | |
for text_path in text_paths: | |
text = open(text_path, 'r').read() | |
# text = text.split('\n') # modified | |
text = text.split(',') | |
title = text[3] # added | |
# title = text[2] # modified | |
text = ' '.join(text[8:9]) | |
# text = text.strip('\n') | |
text = text.replace( '\n' , '' ) | |
text = text.strip('"') | |
texts.append(text) | |
news_ss = pd.Series(texts) | |
pd.set_option('display.max_rows', None) | |
display(news_ss.head()) | |
# display(news_ss) |
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
# import IPython | |
from IPython.display import display | |
# lunar1.py header | |
import pandas as pd | |
import glob | |
# lunar2.py header | |
import MeCab | |
tagger = MeCab.Tagger("-Ochasen") | |
import mojimoji | |
import os | |
import urllib | |
# lunar1.py | |
text_paths = glob.glob('data/ocu2/*.txt') | |
texts = [] | |
for text_path in text_paths: | |
text = open(text_path, 'r').read() | |
# text = text.split('\n') # modified | |
text = text.split(',') | |
title = text[3] # added | |
# title = text[2] # modified | |
text = ' '.join(text[8:9]) | |
# text = text.strip('\n') | |
text = text.replace( '\n' , '' ) | |
text = text.strip('"') | |
text = text.replace('する', '') | |
text = text.replace('できる', '') | |
texts.append(text) | |
news_ss = pd.Series(texts) | |
# display(news_ss.head()) | |
# display(news_ss) | |
# lunar2.py | |
def load_jp_stopwords(path="data/jp_stop_words.txt"): | |
url = 'http://svn.sourceforge.jp/svnroot/slothlib/CSharp/Version1/SlothLib/NLP/Filter/StopWord/word/Japanese.txt' | |
if os.path.exists(path): | |
print('File already exists.') | |
else: | |
print('Downloading...') | |
urllib.request.urlretrieve(url, path) | |
return pd.read_csv(path, header=None)[0].tolist() | |
def preprocess_jp(series): | |
stop_words = load_jp_stopwords() | |
def tokenizer_func(text): | |
tokens = [] | |
node = tagger.parseToNode(str(text)) | |
while node: | |
features = node.feature.split(',') | |
surface = features[6] | |
if (surface == '*') or (len(surface) < 2) or (surface in stop_words): | |
node = node.next | |
continue | |
noun_flag = (features[0] == '名詞') | |
proper_noun_flag = (features[0] == '名詞') & (features[1] == '固有名詞') | |
verb_flag = (features[0] == '動詞') & (features[1] == '自立') | |
adjective_flag = (features[0] == '形容詞') & (features[1] == '自立') | |
if proper_noun_flag: | |
tokens.append(surface) | |
elif noun_flag: | |
tokens.append(surface) | |
elif verb_flag: | |
tokens.append(surface) | |
elif adjective_flag: | |
tokens.append(surface) | |
node = node.next | |
return " ".join(tokens) | |
series = series.map(tokenizer_func) | |
#---------------Normalization-----------# | |
series = series.map(lambda x: x.lower()) | |
series = series.map(mojimoji.zen_to_han) | |
return series | |
processed_news_ss = preprocess_jp(news_ss) | |
pd.set_option('display.max_rows', None) | |
display(processed_news_ss.head()) | |
# display(processed_news_ss) |
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
# フォントの入手元 https://moji.or.jp/ipafont/ipafontdownload/ | |
# import IPython | |
from IPython.display import display | |
# lunar1.py header | |
import pandas as pd | |
import glob | |
# lunar2.py header | |
import MeCab | |
tagger = MeCab.Tagger("-Ochasen") | |
import mojimoji | |
import os | |
import urllib | |
# lunar3.py header | |
from wordcloud import WordCloud | |
import matplotlib | |
import matplotlib.pyplot as plt | |
import numpy as np | |
#lunar1.py | |
text_paths = glob.glob('data/ocu2/*.txt') | |
texts = [] | |
for text_path in text_paths: | |
text = open(text_path, 'r').read() | |
# text = text.split('\n') # modified | |
text = text.split(',') | |
title = text[3] # added | |
# title = text[2] # modified | |
text = ' '.join(text[8:9]) | |
# text = text.strip('\n') | |
text = text.replace( '\n' , '' ) | |
text = text.strip('"') | |
text = text.replace('する', '') | |
text = text.replace('できる', '') | |
texts.append(text) | |
news_ss = pd.Series(texts) | |
# display(news_ss.head()) | |
# lunar2.py | |
def load_jp_stopwords(path="data/jp_stop_words.txt"): | |
url = 'http://svn.sourceforge.jp/svnroot/slothlib/CSharp/Version1/SlothLib/NLP/Filter/StopWord/word/Japanese.txt' | |
if os.path.exists(path): | |
print('File already exists.') | |
else: | |
print('Downloading...') | |
urllib.request.urlretrieve(url, path) | |
return pd.read_csv(path, header=None)[0].tolist() | |
def preprocess_jp(series): | |
stop_words = load_jp_stopwords() | |
def tokenizer_func(text): | |
tokens = [] | |
node = tagger.parseToNode(str(text)) | |
while node: | |
features = node.feature.split(',') | |
surface = features[6] | |
if (surface == '*') or (len(surface) < 2) or (surface in stop_words): | |
node = node.next | |
continue | |
noun_flag = (features[0] == '名詞') | |
proper_noun_flag = (features[0] == '名詞') & (features[1] == '固有名詞') | |
verb_flag = (features[0] == '動詞') & (features[1] == '自立') | |
adjective_flag = (features[0] == '形容詞') & (features[1] == '自立') | |
if proper_noun_flag: | |
tokens.append(surface) | |
elif noun_flag: | |
tokens.append(surface) | |
elif verb_flag: | |
tokens.append(surface) | |
elif adjective_flag: | |
tokens.append(surface) | |
node = node.next | |
return " ".join(tokens) | |
series = series.map(tokenizer_func) | |
#---------------Normalization-----------# | |
series = series.map(lambda x: x.lower()) | |
series = series.map(mojimoji.zen_to_han) | |
return series | |
processed_news_ss = preprocess_jp(news_ss) | |
# display(processed_news_ss.head()) | |
# lunar3.py | |
font_path="/Library/Fonts/ipaexg.ttf" | |
font_property = matplotlib.font_manager.FontProperties(fname=font_path, size=24) | |
# font_property = matplotlib.font_manager.FontProperties(size=24) | |
def show_wordcloud(series): | |
long_string = ','.join(list(series.values)) | |
# Create a WordCloud object | |
wordcloud = WordCloud(font_path=font_path, background_color="white", max_words=1000, contour_width=3, contour_color='steelblue') | |
# wordcloud = WordCloud( background_color="white", max_words=1000, contour_width=3, contour_color='steelblue') | |
# Generate a word cloud | |
wordcloud.generate(long_string) | |
# Visualize the word cloud | |
plt.imshow(wordcloud) | |
plt.show() | |
show_wordcloud(processed_news_ss) |
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
# import IPython | |
from IPython.display import display | |
# lunar1.py header | |
import pandas as pd | |
import glob | |
# lunar2.py header | |
import MeCab | |
tagger = MeCab.Tagger("-Ochasen") | |
import mojimoji | |
import os | |
import urllib | |
# lunar3.py header | |
from wordcloud import WordCloud | |
import matplotlib | |
import matplotlib.pyplot as plt | |
import numpy as np | |
#lunar4.py header | |
from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer | |
# lunar1.py | |
text_paths = glob.glob('data/ocu2/*.txt') | |
texts = [] | |
for text_path in text_paths: | |
text = open(text_path, 'r').read() | |
# text = text.split('\n') # modified | |
text = text.split(',') | |
title = text[3] # added | |
# title = text[2] # modified | |
text = ' '.join(text[8:9]) | |
# text = text.strip('\n') | |
text = text.replace( '\n' , '' ) | |
text = text.strip('"') | |
text = text.replace('する', '') | |
text = text.replace('できる', '') | |
texts.append(text) | |
news_ss = pd.Series(texts) | |
# display(news_ss.head()) | |
# lunar2.py | |
def load_jp_stopwords(path="data/jp_stop_words.txt"): | |
url = 'http://svn.sourceforge.jp/svnroot/slothlib/CSharp/Version1/SlothLib/NLP/Filter/StopWord/word/Japanese.txt' | |
if os.path.exists(path): | |
print('File already exists.') | |
else: | |
print('Downloading...') | |
urllib.request.urlretrieve(url, path) | |
return pd.read_csv(path, header=None)[0].tolist() | |
def preprocess_jp(series): | |
stop_words = load_jp_stopwords() | |
def tokenizer_func(text): | |
tokens = [] | |
node = tagger.parseToNode(str(text)) | |
while node: | |
features = node.feature.split(',') | |
surface = features[6] | |
if (surface == '*') or (len(surface) < 2) or (surface in stop_words): | |
node = node.next | |
continue | |
noun_flag = (features[0] == '名詞') | |
proper_noun_flag = (features[0] == '名詞') & (features[1] == '固有名詞') | |
verb_flag = (features[0] == '動詞') & (features[1] == '自立') | |
adjective_flag = (features[0] == '形容詞') & (features[1] == '自立') | |
if proper_noun_flag: | |
tokens.append(surface) | |
elif noun_flag: | |
tokens.append(surface) | |
elif verb_flag: | |
tokens.append(surface) | |
elif adjective_flag: | |
tokens.append(surface) | |
node = node.next | |
return " ".join(tokens) | |
series = series.map(tokenizer_func) | |
#---------------Normalization-----------# | |
series = series.map(lambda x: x.lower()) | |
series = series.map(mojimoji.zen_to_han) | |
return series | |
processed_news_ss = preprocess_jp(news_ss) | |
# display(processed_news_ss.head()) | |
# lunar3.py | |
font_path="/Library/Fonts/ipaexg.ttf" | |
font_property = matplotlib.font_manager.FontProperties(fname=font_path, size=24) | |
# font_property = matplotlib.font_manager.FontProperties(size=24) | |
def show_wordcloud(series): | |
long_string = ','.join(list(series.values)) | |
# Create a WordCloud object | |
wordcloud = WordCloud(font_path=font_path, background_color="white", max_words=1000, contour_width=3, contour_color='steelblue') | |
# wordcloud = WordCloud( background_color="white", max_words=1000, contour_width=3, contour_color='steelblue') | |
# Generate a word cloud | |
wordcloud.generate(long_string) | |
# Visualize the word cloud | |
plt.imshow(wordcloud) | |
plt.show() | |
# show_wordcloud(processed_news_ss) | |
# lunar4.py | |
count_vectorizer = CountVectorizer() | |
count_data = count_vectorizer.fit_transform(processed_news_ss) | |
tfidf_vectorizer = TfidfTransformer() | |
tfidf_data = tfidf_vectorizer.fit_transform(count_data) | |
print(tfidf_data.toarray()) | |
print(tfidf_data.shape) |
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
# import IPython | |
from IPython.display import display | |
# lunar1.py header | |
import pandas as pd | |
import glob | |
# lunar2.py header | |
import MeCab | |
tagger = MeCab.Tagger("-Ochasen") | |
import mojimoji | |
import os | |
import urllib | |
# lunar3.py header | |
from wordcloud import WordCloud | |
import matplotlib | |
import matplotlib.pyplot as plt | |
import numpy as np | |
#lunar4.py header | |
from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer | |
# lunar5.py header | |
from sklearn.model_selection import GridSearchCV | |
from sklearn.decomposition import LatentDirichletAllocation as LDA | |
#lunar1.py | |
text_paths = glob.glob('data/ocu2/*.txt') | |
texts = [] | |
for text_path in text_paths: | |
text = open(text_path, 'r').read() | |
# text = text.split('\n') # modified | |
text = text.split(',') | |
title = text[3] # added | |
# title = text[2] # modified | |
text = ' '.join(text[8:9]) | |
# text = text.strip('\n') | |
text = text.replace( '\n' , '' ) | |
text = text.strip('"') | |
text = text.replace('する', '') | |
text = text.replace('できる', '') | |
texts.append(text) | |
news_ss = pd.Series(texts) | |
# display(news_ss.head()) | |
# lunar2.py | |
def load_jp_stopwords(path="data/jp_stop_words.txt"): | |
url = 'http://svn.sourceforge.jp/svnroot/slothlib/CSharp/Version1/SlothLib/NLP/Filter/StopWord/word/Japanese.txt' | |
if os.path.exists(path): | |
print('File already exists.') | |
else: | |
print('Downloading...') | |
urllib.request.urlretrieve(url, path) | |
return pd.read_csv(path, header=None)[0].tolist() | |
def preprocess_jp(series): | |
stop_words = load_jp_stopwords() | |
def tokenizer_func(text): | |
tokens = [] | |
node = tagger.parseToNode(str(text)) | |
while node: | |
features = node.feature.split(',') | |
surface = features[6] | |
if (surface == '*') or (len(surface) < 2) or (surface in stop_words): | |
node = node.next | |
continue | |
noun_flag = (features[0] == '名詞') | |
proper_noun_flag = (features[0] == '名詞') & (features[1] == '固有名詞') | |
verb_flag = (features[0] == '動詞') & (features[1] == '自立') | |
adjective_flag = (features[0] == '形容詞') & (features[1] == '自立') | |
if proper_noun_flag: | |
tokens.append(surface) | |
elif noun_flag: | |
tokens.append(surface) | |
elif verb_flag: | |
tokens.append(surface) | |
elif adjective_flag: | |
tokens.append(surface) | |
node = node.next | |
return " ".join(tokens) | |
series = series.map(tokenizer_func) | |
#---------------Normalization-----------# | |
series = series.map(lambda x: x.lower()) | |
series = series.map(mojimoji.zen_to_han) | |
return series | |
processed_news_ss = preprocess_jp(news_ss) | |
# display(processed_news_ss.head()) | |
# lunar3.py | |
font_path="/Library/Fonts/ipaexg.ttf" | |
font_property = matplotlib.font_manager.FontProperties(fname=font_path, size=24) | |
# font_property = matplotlib.font_manager.FontProperties(size=24) | |
def show_wordcloud(series): | |
long_string = ','.join(list(series.values)) | |
# Create a WordCloud object | |
wordcloud = WordCloud(font_path=font_path, background_color="white", max_words=1000, contour_width=3, contour_color='steelblue') | |
# wordcloud = WordCloud( background_color="white", max_words=1000, contour_width=3, contour_color='steelblue') | |
# Generate a word cloud | |
wordcloud.generate(long_string) | |
# Visualize the word cloud | |
plt.imshow(wordcloud) | |
plt.show() | |
# show_wordcloud(processed_news_ss) | |
# lunar4.py | |
count_vectorizer = CountVectorizer() | |
count_data = count_vectorizer.fit_transform(processed_news_ss) | |
tfidf_vectorizer = TfidfTransformer() | |
tfidf_data = tfidf_vectorizer.fit_transform(count_data) | |
# print(tfidf_data.toarray()) | |
# print(tfidf_data.shape) | |
# lunar5.py | |
from sklearn.model_selection import GridSearchCV | |
from sklearn.decomposition import LatentDirichletAllocation as LDA | |
def gridsearch_best_model(tfidf_data, plot_enabled=True): | |
# Define Search Param | |
n_topics = [4,5,6,7,8,9] | |
# n_topics = [8,9,10,11,12,13] | |
search_params = {'n_components': n_topics} | |
# Init the Model | |
lda = LDA(max_iter=25, # Max learning iterations | |
learning_method='batch', | |
random_state=0, # Random state | |
n_jobs = -1, # Use all available CPUs) | |
) | |
# Init Grid Search Class | |
model = GridSearchCV(lda, param_grid=search_params) | |
# Do the Grid Search | |
model.fit(tfidf_data) | |
# Best Model | |
best_lda_model = model.best_estimator_ | |
# Model Parameters | |
print("Best Model's Params: ", model.best_params_) | |
# Log Likelihood Score | |
print("Best Log Likelihood Score: ", model.best_score_) | |
# Perplexity | |
print("Model Perplexity: ", best_lda_model.perplexity(tfidf_data)) | |
# Get Log Likelyhoods from Grid Search Output | |
log_likelyhoods_score = [round(score) for score in model.cv_results_["mean_test_score"]] | |
if plot_enabled: | |
# Show graph | |
plt.figure(figsize=(12, 8)) | |
plt.plot(n_topics, log_likelyhoods_score) | |
plt.title("Choosing Optimal LDA Model") | |
plt.xlabel("Number of Topics") | |
plt.ylabel("Log Likelyhood Scores") | |
plt.show() | |
return best_lda_model | |
best_lda_model = gridsearch_best_model(tfidf_data) |
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
# import IPython | |
from IPython.display import display | |
# lunar1.py header | |
import pandas as pd | |
import glob | |
# lunar2.py header | |
import MeCab | |
tagger = MeCab.Tagger("-Ochasen") | |
import mojimoji | |
import os | |
import urllib | |
# lunar3.py header | |
from wordcloud import WordCloud | |
import matplotlib | |
import matplotlib.pyplot as plt | |
import numpy as np | |
#lunar4.py header | |
from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer | |
# lunar5.py header | |
from sklearn.model_selection import GridSearchCV | |
from sklearn.decomposition import LatentDirichletAllocation as LDA | |
#lunar1.py | |
text_paths = glob.glob('data/ocu2/*.txt') | |
texts = [] | |
for text_path in text_paths: | |
text = open(text_path, 'r').read() | |
# text = text.split('\n') # modified | |
text = text.split(',') | |
title = text[3] # added | |
# title = text[2] # modified | |
text = ' '.join(text[8:9]) | |
# text = text.strip('\n') | |
text = text.replace( '\n' , '' ) | |
text = text.strip('"') | |
text = text.replace('する', '') | |
text = text.replace('できる', '') | |
texts.append(text) | |
news_ss = pd.Series(texts) | |
# display(news_ss.head()) | |
# lunar2.py | |
def load_jp_stopwords(path="data/jp_stop_words.txt"): | |
url = 'http://svn.sourceforge.jp/svnroot/slothlib/CSharp/Version1/SlothLib/NLP/Filter/StopWord/word/Japanese.txt' | |
if os.path.exists(path): | |
print('File already exists.') | |
else: | |
print('Downloading...') | |
urllib.request.urlretrieve(url, path) | |
return pd.read_csv(path, header=None)[0].tolist() | |
def preprocess_jp(series): | |
stop_words = load_jp_stopwords() | |
def tokenizer_func(text): | |
tokens = [] | |
node = tagger.parseToNode(str(text)) | |
while node: | |
features = node.feature.split(',') | |
surface = features[6] | |
if (surface == '*') or (len(surface) < 2) or (surface in stop_words): | |
node = node.next | |
continue | |
noun_flag = (features[0] == '名詞') | |
proper_noun_flag = (features[0] == '名詞') & (features[1] == '固有名詞') | |
verb_flag = (features[0] == '動詞') & (features[1] == '自立') | |
adjective_flag = (features[0] == '形容詞') & (features[1] == '自立') | |
if proper_noun_flag: | |
tokens.append(surface) | |
elif noun_flag: | |
tokens.append(surface) | |
elif verb_flag: | |
tokens.append(surface) | |
elif adjective_flag: | |
tokens.append(surface) | |
node = node.next | |
return " ".join(tokens) | |
series = series.map(tokenizer_func) | |
#---------------Normalization-----------# | |
series = series.map(lambda x: x.lower()) | |
series = series.map(mojimoji.zen_to_han) | |
return series | |
processed_news_ss = preprocess_jp(news_ss) | |
# display(processed_news_ss.head()) | |
# lunar3.py | |
font_path="/Library/Fonts/ipaexg.ttf" | |
font_property = matplotlib.font_manager.FontProperties(fname=font_path, size=24) | |
# font_property = matplotlib.font_manager.FontProperties(size=24) | |
def show_wordcloud(series): | |
long_string = ','.join(list(series.values)) | |
# Create a WordCloud object | |
wordcloud = WordCloud(font_path=font_path, background_color="white", max_words=1000, contour_width=3, contour_color='steelblue') | |
# wordcloud = WordCloud( background_color="white", max_words=1000, contour_width=3, contour_color='steelblue') | |
# Generate a word cloud | |
wordcloud.generate(long_string) | |
# Visualize the word cloud | |
plt.imshow(wordcloud) | |
plt.show() | |
# show_wordcloud(processed_news_ss) | |
# lunar4.py | |
count_vectorizer = CountVectorizer() | |
count_data = count_vectorizer.fit_transform(processed_news_ss) | |
tfidf_vectorizer = TfidfTransformer() | |
tfidf_data = tfidf_vectorizer.fit_transform(count_data) | |
# print(tfidf_data.toarray()) | |
# print(tfidf_data.shape) | |
# lunar5.py | |
def gridsearch_best_model(tfidf_data, plot_enabled=False): | |
# Define Search Param | |
# n_topics = [8,9,10,11,12,13] | |
n_topics = [4,5,6,7,8,9] | |
search_params = {'n_components': n_topics} | |
# Init the Model | |
lda = LDA(max_iter=25, # Max learning iterations | |
learning_method='batch', | |
random_state=0, # Random state | |
n_jobs = -1, # Use all available CPUs) | |
) | |
# Init Grid Search Class | |
model = GridSearchCV(lda, param_grid=search_params) | |
# Do the Grid Search | |
model.fit(tfidf_data) | |
# Best Model | |
best_lda_model = model.best_estimator_ | |
# Model Parameters | |
print("Best Model's Params: ", model.best_params_) | |
# Log Likelihood Score | |
print("Best Log Likelihood Score: ", model.best_score_) | |
# Perplexity | |
print("Model Perplexity: ", best_lda_model.perplexity(tfidf_data)) | |
# Get Log Likelyhoods from Grid Search Output | |
log_likelyhoods_score = [round(score) for score in model.cv_results_["mean_test_score"]] | |
if plot_enabled: | |
# Show graph | |
plt.figure(figsize=(12, 8)) | |
plt.plot(n_topics, log_likelyhoods_score) | |
plt.title("Choosing Optimal LDA Model") | |
plt.xlabel("Number of Topics") | |
plt.ylabel("Log Likelyhood Scores") | |
plt.show() | |
return best_lda_model | |
best_lda_model = gridsearch_best_model(tfidf_data) | |
# lunar6.py | |
def print_topics(model, count_vectorizer, n_top_words): | |
fig = plt.figure(figsize=(15,8)) | |
words = count_vectorizer.get_feature_names() | |
for topic_idx, topic in enumerate(model.components_): | |
print("\nTopic #", topic_idx, ":") | |
long_string = ','.join([words[i] for i in topic.argsort()[:-n_top_words - 1:-1]]) | |
print(long_string) | |
topic_wordcloud(topic_idx, fig, long_string) | |
# show plots | |
fig.tight_layout() | |
fig.show() | |
def topic_wordcloud(topic_idx, fig, long_string): | |
ax = fig.add_subplot(2, 3, topic_idx + 1) | |
wordcloud = WordCloud(font_path=font_path, background_color="white", max_words=1000, contour_width=3, contour_color='steelblue') | |
wordcloud.generate(long_string) | |
ax.imshow(wordcloud) | |
ax.set_title('Topic '+str(topic_idx)) | |
number_words = 500 | |
print_topics(best_lda_model, count_vectorizer, number_words) |
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
(bachelor) user@MacBook-Pro bachelor % python3 ocu1.py | |
0 研究発表でZOOMを使いたいが、不特定多数が参加できないように事前登録を行いたい。 | |
1 Windows 10にアップデートしたい | |
2 (学生)Adobeのライセンスが欲しい | |
3 MacでWindowsPCのおリモートデスクトップを操作する方法を知りたい. | |
4 事務用共用ファイルサーバーにアクセスできなくなった。フォルダをダブルクリックしても「権限がな... | |
dtype: object | |
(bachelor) user@MacBook-Pro bachelor % python3 ocu12.py | |
File already exists. | |
0 研究 発表 使う 特定 多数 参加 できる 事前 登録 行う | |
1 アップデート する | |
2 学生 ライセンス 欲しい | |
3 リモート デスク トップ 操作 知る | |
4 事務 共用 ファイル サーバー アクセス できる なる ダブル クリック する 権限 ... | |
dtype: object | |
(bachelor) user@MacBook-Pro bachelor % python3 ocu123.py | |
File already exists. | |
(bachelor) user@MacBook-Pro bachelor % python3 ocu1234.py | |
File already exists. | |
[[0. 0. 0. ... 0. 0. 0.] | |
[0. 0. 0. ... 0. 0. 0.] | |
[0. 0. 0. ... 0. 0. 0.] | |
... | |
[0. 0. 0. ... 0. 0. 0.] | |
[0. 0. 0. ... 0. 0. 0.] | |
[0. 0. 0. ... 0. 0. 0.]] | |
(216, 394) | |
(bachelor) user@MacBook-Pro bachelor % python3 ocu12345.py | |
File already exists. | |
Best Model's Params: {'n_components': 4} | |
Best Log Likelihood Score: -981.3021621003936 | |
Model Perplexity: 1116.6786497176963 | |
(bachelor) user@MacBook-Pro bachelor % python3 ocu123456.py | |
File already exists. | |
Best Model's Params: {'n_components': 4} | |
Best Log Likelihood Score: -981.3021621003936 | |
Model Perplexity: 1116.6786497176963 | |
Topic # 0 : | |
出来る,ネットワーク,する,接続,ログイン,なる,認証,仮想,メール,入る,アドレス,継続,アクセス,アカウント,含む,追加,研究,固定,できる,システム,学生,アンケート,サイト,非公開,データベース,入れる,現在,通る,勤務,記事,共同,ページ,削除,切り換える,届く,仕様,回答,大学院,くん,使える,マイニング,テキスト,財務,会計,発生,病院,更新,使う,プリンター,思う,情報,退職,専用,メンバー,計算,宛先,結果,流出,つながる,プリンタ,よい,反映,一覧,短縮,掲載,取得,スパムメール,特定,共有,学内,掲示,最新,配信,端末,迷惑,無い,タイミング,完全,退学,閲覧,操作,職員,お願い,所属,マニュアル,変更,分かる,欲しい,卒業,悪い,調子,買い替える,各種,入力,要求,教員,不調,公式,正常,承認,推進,番号,法科,永井,克明,購入,ある,学外,データ,公開,身分,内線,行う,センター,研究所,数学,お世話,印刷,出る,差出人,エラー,配る,最初,今年度,記載,対応,登録,権限,係長,禁止,向け,経済,解決,ご存じ,ドライブ,不可,藤本,御中,田中,置く,基盤,工学院大学,理学部,支援,受信,兼任,取れる,解釈,今年,河村,学習,恐れ入る,残す,いただける,大阪市立大学,状況,個人,ヘルプ,担当,確認,変わる,問い合わせ,ない,失敗,ダウンロード,使用,申請,切断,発行,停電,デスク,インターネット,求める,利用,教える,繋がる,つなげる,ソフト,メールアドレス,質問,パスワード,ロード,試みる,動画,対策,長い,アップ,リモート,トップ,応答,選ぶ,問題,ウイルス,起動,必要,ライセンス,グローバル,容量,表示,授業,ログアウト,付与,人事,貸し出し,複合,割り当てる,ファイル,見る,全学,動作,可能,グループ,でる,包括,先生,共用,アン,来客,見つける,拝見,展開,指示,添付,割り当て,事前,参加,有償,ホスト,見つかる,送信,調達,一括,機能,アップデート,事務,分類,やる,上限,有線,けんか,飛ぶ,休止,一時,設定,インストール,同期,パソコン,忘れる,学部,居室,いる,レポート,出す,誤る,強制,機器,振る,新しい,初期,メモリ,あがる,バージョン,対象,留学生,遠隔,阿倍野,問合せ,医学部,設置,在宅,名誉,教授,画面,無線,指定,新規,杉本,エリア,マーク,ポケット,あける,常勤,外れる,自動的,サーバー,ケーブル,引く,ポート,繋げる,使い方,ツール,わかる,提供,無効,大学,切れる,引き継ぐ,年度,もつ,チーム,十分,部署,ミーティング,外部,補佐,用途,タブレット,送受信,受ける,のく,手続き,開始,事象,同様,起きる,インターン,自宅,サーバ,グレード,古い,参照,経緯,管理,アプリケーション,サービス,ソフトウエア,フォーム,給与,前期,いう,ノート,大量,かかる,知る,保護,プライバシー,客員,契約,キャンパス,講師,ユーザー,検討,非常勤,証明,雇用,正規,ウィルス,再生,アイコ,書く,学校,ネット,作成,訪問,ホームページ,開設,不明,受付,広瀬,進捗,導入,代理,安否,ダブル,クリック,案内,お忙しい,おりる,その他,学術,替え,伊賀,恐縮,入れ替える,課内,持つ,内容,処理,考える,教示,項目,申し上げる,由紀子,異動,転出,ゲスト,期限,有効,ユーザ,試す,有料,運用,発表,多数 | |
Topic # 1 : | |
有償,する,ネットワーク,印刷,追加,プリンター,ライセンス,できる,有料,機能,利用,差出人,登録,運用,けんか,担当,削除,ログイン,プリンタ,検討,変更,ある,再生,研究,経緯,参照,接続,停電,名誉,教授,ログアウト,動画,複合,取得,証明,分かる,切れる,開設,ホームページ,必要,留学生,思う,エラー,学内,インターネット,番号,職員,出る,異動,転出,表示,ホスト,期限,ゲスト,有効,試す,ユーザ,仮想,無い,見つかる,共同,長い,発表,多数,欲しい,アン,事前,参加,特定,人事,行う,使う,代理,申請,アカウント,先生,更新,データベース,アクセス,使用,システム,出来る,対象,教員,なる,インストール,アドレス,可能,ダウンロード,メール,設定,ソフト,非常勤,起動,大阪市立大学,切断,入る,容量,よい,授業,教える,繋がる,購入,変わる,反映,グローバル,貸し出し,付与,迷惑,権限,メールアドレス,問い合わせ,失敗,見る,記事,包括,今年度,最初,記載,配る,病院,パスワード,状況,割り当てる,ロード,学生,メンバー,デスク,操作,共用,アップ,つなげる,来客,サイト,入れる,グループ,マニュアル,発行,内線,身分,含む,固定,試みる,卒業,対策,いる,認証,調達,一括,情報,現在,マイニング,テキスト,事務,所属,ファイル,ヘルプ,動作,強制,誤る,アップデート,やる,上限,端末,個人,置く,ウイルス,ページ,同期,有線,送信,一時,休止,質問,分類,レポート,出す,確認,求める,居室,対応,初期,忘れる,学部,設置,お願い,いただける,在宅,新しい,メモリ,無線,バージョン,あがる,飛ぶ,遠隔,ポケット,機器,振る,ない,問合せ,杉本,エリア,マーク,チーム,あける,常勤,知る,非公開,画面,新規,指定,くん,繋げる,ポート,引く,ケーブル,使い方,ツール,タブレット,医学部,応答,選ぶ,問題,買い替える,調子,悪い,契約,グレード,古い,わかる,補佐,ミーティング,外部,用途,のく,受ける,拝見,指示,展開,割り当て,添付,見つける,大学,阿倍野,送受信,大量,フォーム,いう,給与,前期,講師,かかる,サーバ,インターン,事象,起きる,同様,開始,手続き,宛先,客員,もつ,引き継ぐ,年度,ユーザー,プライバシー,保護,自宅,パソコン,サーバー,書く,アイコ,雇用,提供,無効,正規,永井,法科,克明,切り換える,自動的,外れる,キャンパス,学校,十分,部署,通る,ノート,サービス,管理,ソフトウエア,アプリケーション,継続,つながる,スパムメール,ネット,不明,流出,結果,受付,広瀬,進捗,一覧,短縮,掲載,リモート,安否,作成,専用,会計,財務,訪問,トップ,でる,届く,掲示,最新,配信,導入,全学,案内,勤務,申し上げる,持つ,替え,入れ替える,伊賀,項目,学術,お忙しい,処理,恐縮,考える,その他,課内,おりる,由紀子,教示,内容,大学院,退学,完全,タイミング,ウィルス,ダブル,クリック,計算,承認,公式,正常,不調,使える,回答,仕様,データ,公開,学外,アンケート,各種,要求,入力,退職,発生,ドライブ,ご存じ,御中,不可,向け,係長,田中,禁止,経済,解決,藤本,共有,閲覧,推進,お世話,理学部,工学院大学,取れる,今年,基盤,解釈,恐れ入る,河村,受信,残す,学習,兼任,支援,数学,センター,研究所 | |
Topic # 2 : | |
する,利用,できる,メール,パスワード,なる,ログイン,システム,申請,設定,ウイルス,全学,変更,認証,接続,わかる,非常勤,教える,講師,繋がる,初期,メールアドレス,インターネット,ダウンロード,対策,アドレス,ソフト,ライセンス,アップデート,可能,ヘルプ,包括,安否,付与,表示,必要,確認,アップ,デスク,対応,容量,上限,アカウント,ネット,送受信,対象,起動,グローバル,権限,問い合わせ,無線,ロード,試みる,動画,送信,不明,端末,切断,居室,情報,ある,やる,大阪市立大学,有線,キャンパス,いる,固定,求める,休止,一時,教員,フォーム,反映,ファイル,忘れる,学部,複合,分類,メモリ,訪問,来客,アイコ,書く,出す,レポート,人事,状況,問合せ,あがる,バージョン,画面,迷惑,貸し出し,マニュアル,職員,授業,見る,研究,かかる,学内,使う,欲しい,手続き,開始,のく,受ける,グレード,古い,番号,医学部,阿倍野,引く,繋げる,ケーブル,ポート,設置,用途,補佐,外部,ミーティング,病院,割り当てる,プライバシー,保護,事前,共用,振る,機器,いう,給与,前期,行う,登録,常勤,あける,広瀬,受付,進捗,長い,グループ,事象,同様,起きる,インターン,マーク,杉本,エリア,割り当て,添付,拝見,指示,展開,見つける,変わる,よい,事務,差出人,入る,学術,由紀子,処理,伊賀,考える,項目,内容,持つ,教示,申し上げる,入れ替える,おりる,その他,替え,恐縮,課内,お忙しい,置く,いただける,内線,身分,調達,一括,所属,お願い,担当,今年度,配る,記載,最初,失敗,使用,出来る,エラー,停電,有償,分かる,発行,ネットワーク,インストール,大学,見つかる,ユーザ,試す,プリンター,購入,買い替える,調子,悪い,出る,不調,正常,承認,公式,プリンタ,削除,共有,リモート,トップ,発生,サイト,アクセス,動作,個人,検討,ログアウト,共同,記事,アン,ツール,使い方,在宅,入れる,操作,現在,思う,先生,取得,特定,ポケット,学生,含む,飛ぶ,メンバー,卒業,印刷,チーム,テキスト,マイニング,ユーザー,データベース,ノート,同期,無い,参加,機能,ページ,つなげる,更新,ない,けんか,ホスト,追加,仮想,パソコン,強制,誤る,切れる,遠隔,新しい,くん,質問,知る,スパムメール,年度,もつ,引き継ぐ,継続,タブレット,宛先,非公開,サーバー,仕様,契約,新規,指定,自宅,サービス,アプリケーション,管理,ソフトウエア,名誉,教授,作成,十分,部署,再生,財務,会計,サーバ,証明,有料,通る,大量,経緯,参照,正規,届く,無効,提供,客員,勤務,雇用,学校,専用,クリック,ダブル,問題,選ぶ,応答,流出,結果,導入,外れる,自動的,切り換える,計算,案内,異動,転出,掲示,配信,最新,解決,経済,係長,向け,ご存じ,藤本,ドライブ,禁止,不可,田中,御中,ホームページ,開設,一覧,短縮,掲載,代理,ウィルス,回答,入力,各種,要求,でる,つながる,推進,法科,克明,永井,アンケート,完全,タイミング,退学,公開,学外,データ,期限,有効,ゲスト,留学生,閲覧,使える,運用,お世話,退職,大学院,多数,発表,恐れ入る,基盤,学習,工学院大学,受信,兼任,支援,解釈,取れる,残す,河村,今年,理学部,センター,数学,研究所 | |
Topic # 3 : | |
する,インストール,使用,発行,ソフト,できる,教える,トップ,リモート,デスク,ライセンス,サーバー,可能,学生,ある,アカウント,ウィルス,接続,分かる,対策,知る,メールアドレス,作成,正規,大学,ダウンロード,共用,自宅,アクセス,研究,同期,客員,利用,ない,学校,質問,ファイル,購入,導入,職員,なる,包括,ページ,ノート,アドレス,表示,動作,卒業,プリンタ,事務,エラー,ログアウト,新しい,パスワード,欲しい,在宅,でる,付与,出る,飛ぶ,つなげる,アン,契約,失敗,チーム,遠隔,権限,大量,使い方,ツール,ポケット,操作,ユーザー,授業,教員,ログイン,サーバ,グローバル,指定,新規,パソコン,先生,登録,無効,提供,タブレット,雇用,貸し出し,よい,変わる,学内,入れる,必要,番号,見つかる,個人,誤る,強制,案内,起動,クリック,ダブル,一括,調達,人事,アプリケーション,サービス,ソフトウエア,管理,ロード,十分,部署,外れる,自動的,アップ,割り当てる,もつ,年度,引き継ぐ,見る,グループ,入る,記事,参加,メンバー,削除,現在,問い合わせ,選ぶ,応答,問題,長い,サイト,容量,大阪市立大学,ネットワーク,共同,ホスト,繋がる,マイニング,テキスト,試みる,ウイルス,配る,今年度,記載,最初,上限,機能,有償,使う,出来る,来客,求める,初期,行う,教授,名誉,異動,転出,置く,マニュアル,対応,ヘルプ,御中,田中,向け,経済,ドライブ,係長,ご存じ,禁止,解決,藤本,不可,インターネット,印刷,お願い,推進,情報,変更,担当,いただける,お世話,状況,確認,今年,工学院大学,兼任,解釈,恐れ入る,取れる,学習,残す,理学部,受信,基盤,河村,支援,センター,数学,研究所,所属,差出人,閲覧,内線,身分,共有,反映,切断,迷惑,思う,取得,届く,回答,その他,恐縮,申し上げる,おりる,入れ替える,お忙しい,学術,項目,内容,考える,替え,処理,由紀子,教示,課内,伊賀,持つ,複合,停電,申請,病院,動画,メール,端末,固定,かかる,無い,システム,含む,事前,認証,プリンター,メモリ,出す,レポート,送信,問合せ,データベース,フォーム,アップデート,更新,特定,やる,退職,追加,仮想,見つける,拝見,添付,指示,展開,割り当て,設定,使える,けんか,有線,分類,休止,一時,勤務,いる,仕様,居室,外部,用途,ミーティング,補佐,忘れる,学部,杉本,エリア,マーク,スパムメール,プライバシー,保護,対象,非公開,無線,機器,振る,あがる,バージョン,受ける,のく,証明,医学部,常勤,あける,画面,設置,検討,ポート,ケーブル,引く,繋げる,阿倍野,くん,講師,古い,グレード,書く,アイコ,給与,いう,前期,非常勤,送受信,起きる,インターン,事象,同様,わかる,参照,経緯,手続き,開始,再生,キャンパス,宛先,切れる,結果,流出,継続,広瀬,受付,進捗,通る,切り換える,悪い,買い替える,調子,ネット,配信,掲示,最新,短縮,一覧,掲載,有効,期限,ゲスト,代理,つながる,退学,完全,タイミング,訪問,安否,有料,ホームページ,開設,不明,不調,公式,正常,承認,会計,財務,専用,全学,公開,学外,データ,克明,永井,法科,試す,ユーザ,計算,要求,各種,入力,アンケート,留学生,発生,大学院,運用,発表,多数 |
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
(bachelor) user@MacBook-Pro bachelor % python3 ocu1.py | |
0 研究発表でZOOMを使いたいが、不特定多数が参加できないように事前登録を行いたい。 | |
1 Windows 10にアップデートしたい | |
2 (学生)Adobeのライセンスが欲しい | |
3 MacでWindowsPCのおリモートデスクトップを操作する方法を知りたい. | |
4 事務用共用ファイルサーバーにアクセスできなくなった。フォルダをダブルクリックしても「権限がな... | |
dtype: object | |
(bachelor) user@MacBook-Pro bachelor % python3 ocu12.py | |
File already exists. | |
0 研究発表 使う 不特定多数 参加 できる 事前登録 行う | |
1 windows 10 アップデート する | |
2 学生 adobe ライセンス 欲しい | |
3 mac windowspc リモートデスクトップ 操作 知る | |
4 事務 共用 ファイルサーバ アクセス できる なる folder ダブルクリック する... | |
dtype: object | |
(bachelor) user@MacBook-Pro bachelor % python3 ocu123.py | |
File already exists. | |
(bachelor) user@MacBook-Pro bachelor % python3 ocu1234.py | |
File already exists. | |
[[0. 0. 0. ... 0. 0. 0. ] | |
[0.58050992 0. 0. ... 0. 0. 0. ] | |
[0. 0. 0. ... 0. 0. 0. ] | |
... | |
[0. 0. 0. ... 0. 0. 0. ] | |
[0. 0. 0. ... 0. 0. 0. ] | |
[0. 0. 0. ... 0. 0. 0. ]] | |
(295, 451) | |
(bachelor) user@MacBook-Pro bachelor % python3 ocu12345.py | |
File already exists. | |
Best Model's Params: {'n_components': 4} | |
Best Log Likelihood Score: -1300.0961617890273 | |
Model Perplexity: 1121.162863610731 | |
(bachelor) user@MacBook-Pro bachelor % python3 ocu123456.py | |
File already exists. | |
Best Model's Params: {'n_components': 4} | |
Best Log Likelihood Score: -1300.0961617890273 | |
Model Perplexity: 1121.162863610731 | |
Topic # 0 : | |
出来る,メール,質問,する,なる,動画,one,変更,転送,ログイン,利用,できる,サーバー,インストール,阿倍野,zoom,キャンパス,運用,担当,使用,アップロード,試みる,削除,ポータルサイト,動作,メーリングリスト,追加,部分,再生,検討,大阪市立大学,停電,全学,outlook,財務会計,付き,検索,引っ越し,使う,pdf,ウェビナー,結果,レルム,介す,遠隔,drive,同期,ak,jp,ac,機能,授業,留学生,事務,ファイルサーバ,見る,onedrive,出る,更新,通知,ウイルス,共用,無線lan,状況,4月1日,付け,特任教授,ssh,受ける,掲示,配信,最新版,アクセス,st,os,割り当てる,固定,端末,2020年,4月,仕様,無効,ファイアーウォール,提供,表示,操作,グローバルipアドレス,マニュアル,エラー,現在,継続,欲しい,メールアドレス,入れる,教える,ネットワーク,サイト,問題,応答時間,選ぶ,つなげる,3v,pn,認証,学内,システム,印刷,対策,ある,研究室,可能,仮想,ウィルス,長い,プリンター,自宅,登録,でる,接続,fi,vpn,wi,ソフト,ダウンロード,繋がる,迷惑メール,無線,容量,研究,コンセント,来客,市大,職員,入る,教員,思う,取得,入力,切断,ファイル,ユーザ名,アカウント,サービス,情報,複合機,有料,共有,失敗,貸し出し,プリンタ,ap,経由,くん,新しい,作成,問い合わせ,unix,付与,利用可能,よい,知る,fiルータ,契約,非常勤,データ,分かる,名誉教授,証明書,pc,先生,ネット,adobe,office,講義,見つかる,人事,常時,android標準ブラウザ,通る,番号,office365,行う,ieee802,タブ,雇用,スパムメール,包括,必要,対応,受信,参加,非公開,ライセンス,使い方,卒業,求める,宛先,届く,特定,リモートデスクトップ,けんか,君について,ftp,ポート,通信,申請,ない,class,差出人,休止,一時,流出,回答,電子ジャーナル,ノート,個人,パスポート,univer,sal,状態,iphone,レポート,出す,thunderbird,学生,オフライン,10,アップデート,学部,わかる,microsoft,閲覧,日経テレコン21,手順,インターネット,再起動,テキストマイニング,分類,グループ,購入,web,切り換える,グローバルip,やる,記事,見つける,割り当て,添付,指示,展開,拝見,ms,大学,初期化,有償,folder,windowspc,上限,調べ,返信,自動,バージョン,送受信,あがる,開設,ホームページ,webページ,メール設定,ログアウト,古い,アップグレード,した,id,xxx,飛ぶ,ping,spss,客員研究員,図書館,macアドレス,desktop,切れる,割当てる,linux,dhcp,発行,パソコン,チーム,在宅,リモート,pc等,常勤,あける,無い,一覧,掲載,短縮url,ウイルス対策,windows,以外,ダブルクリック,url,部署,十分,ゲスト,長居,有効期限,無位,計算機,ipアドレス,保護,プライバシー,パスワード,専用,データベース,学情,home,事象,インターン,起きる,同様,対象者,usbメモリ,アンケート,職種,設定,与える,許可,反映,対象,2013,忘れる,かかる,共同,ホスト,使用可能,サインイン,非正規,sharepoint,ツール,タブレット,powerpoint,ip,グローバル,nas,mac,cc,含む,居室,送信,つながる,zip,問合せ,フォーム,windows10,いう,給与,前期,マーク,エリア,2つ,map,杉本,認証画面,引き継ぐ,もつ,本年度中,可能性,正規,機器,振る,非常勤講師,nw,メンバ,ソフトウエア,アプリケーション,管理者,安否確認システム,アドレス,要求,microsoftアカウント,各種,固定ipアドレス,訪問,所属,外れる,自動的,導入,hp,向け,ドメイン,増やす,初期,のく,自室,権限,開始,手続き,loota,事前,案内,一括,調達,ssid,いくつか,アクセス数,同時,画面,人事異動,転出,ユーザ,試す,使用方法,コミュニティ,アイコン,書く,ページ,ヘルプ,デスク,it,大量,変わる,メンバー,ipad,使える,共同研究,不特定多数,事前登録,研究発表,設置,ios,起動,強制的,誤る,不明,学校,退学,タイミング,完全,退職,補佐,申請可能,外部,用途,ミーティング,講師,医学部,病院,対象外,lan,アンインストール | |
Topic # 1 : | |
する,メール,利用,設定,ソフト,知る,リモートデスクトップ,インストール,アドレス,ログイン,ダウンロード,ライセンス,可能,使用,差出人,ウイルス対策,thunderbird,変更,教える,pc,メーリングリスト,出来る,自宅,なる,表示,ウィルス,office,有償,大学,office365,windows10,アカウント,対策,できる,url,包括,adobe,mac,欲しい,名誉教授,メールアドレス,アクセス,ページ,送信,作成,共用,手順,共有,複合機,状態,zoom,home,folder,エラー,パソコン,ある,ない,継続,グローバルipアドレス,番号,権限,購入,サーバー,入力,nas,導入,対象,グローバル,ip,cc,講義,os,記事,windows,切断,市大,対応,申請,登録,アンケート,ポータルサイト,テキストマイニング,職員,常時,入れる,出る,desktop,受信,調べ,非公開,非常勤,日経テレコン21,閲覧,spss,でる,くん,新しい,onedrive,10,アップデート,チーム,オフライン,有料,xxx,証明書,訪問,長い,macアドレス,windowspc,sharepoint,webページ,ホームページ,開設,容量,先生,回答,流出,割当てる,在宅,リモート,pc等,職種,操作,パスポート,sal,univer,思う,経由,ap,自動,返信,無い,短縮url,一覧,掲載,結果,飛ぶ,ping,かかる,取得,長居,ゲスト,無位,有効期限,よい,研究,ieee802,タブ,無線,pn,つなげる,3v,利用可能,保護,プライバシー,見つかる,powerpoint,タブレット,失敗,貸し出し,対象者,ダブルクリック,求める,一括,調達,案内,通信,ftp,ポート,行う,各種,microsoftアカウント,要求,ファイルサーバ,事務,人事,ソフトウエア,管理者,アプリケーション,した,アップグレード,古い,マニュアル,常勤,あける,以外,ノート,個人,教員,サービス,十分,部署,割り当てる,ファイル,問い合わせ,見る,事象,インターン,同様,起きる,アップロード,入る,ネット,選ぶ,応答時間,問題,サイト,分かる,契約,繋がる,ユーザ名,迷惑メール,スパムメール,ac,ak,jp,提供,ファイアーウォール,無効,ネットワーク,雇用,大阪市立大学,iphone,接続,研究室,学生,認証,質問,必要,web,転送,上限,vpn,わかる,バージョン,送受信,あがる,システム,one,プリンタ,客員研究員,microsoft,id,パスワード,ログアウト,ms,許可,与える,インターネット,追加,データ,非常勤講師,発行,非正規,メンバー,ios,ipad,コンセント,pdf,来客,授業,介す,付与,情報,宛先,届く,特定,使う,ssh,学内,仮想,機能,レルム,休止,一時,class,分類,状況,無線lan,検索,通る,android標準ブラウザ,卒業,留学生,印刷,認証画面,使い方,参加,画面,端末,固定,けんか,君について,学部,受ける,グループ,電子ジャーナル,現在,unix,linux,dhcp,fiルータ,キャンパス,拝見,指示,割り当て,展開,添付,見つける,再起動,前期,いう,給与,メール設定,全学,グローバルip,やる,対象外,講師,医学部,病院,検討,初期化,削除,図書館,反映,fi,wi,切れる,出す,レポート,自室,動作,引っ越し,部分,プリンター,usbメモリ,財務会計,ホスト,使用可能,共同,2013,忘れる,ツール,遠隔,切り換える,nw,zip,サインイン,可能性,正規,引き継ぐ,もつ,本年度中,変わる,固定ipアドレス,居室,含む,データベース,専用,学情,つながる,所属,問合せ,フォーム,機器,振る,設置,再生,停電,大量,計算機,ipアドレス,安否確認システム,hp,向け,ドメイン,増やす,ウイルス,メンバ,のく,学校,使える,loota,事前,初期,試す,ユーザ,手続き,開始,自動的,外れる,4月1日,付け,特任教授,outlook,ssid,共同研究,強制的,起動,誤る,ヘルプ,デスク,転出,人事異動,アクセス数,同時,いくつか,コミュニティ,申請可能,用途,ミーティング,補佐,外部,it,ウェビナー,使用方法,付き,エリア,杉本,map,2つ,マーク,不明,完全,退職,退学,タイミング,研究発表,事前登録,不特定多数,アンインストール,lan,同期,drive,最新版,掲示,配信,st,4月,仕様,2020年,動画,書く,アイコン,試みる,阿倍野,通知,更新,運用,担当 | |
Topic # 2 : | |
接続,できる,ログアウト,教える,vpn,ipad,microsoft,office,インターネット,する,office365,インストール,ある,pc,非常勤講師,使用,iphone,ネットワーク,ログイン,ios,lan,入る,上限,プリンタ,取得,切れる,つながる,ライセンス,付与,学内,学校,アンインストール,zoom,再起動,卒業,メールアドレス,使う,市大,メール設定,サインイン,図書館,含む,必要,ms,有料,削除,共同研究,職員,通る,android標準ブラウザ,切り換える,契約,増やす,使用方法,アカウント,ネット,hp,ドメイン,向け,大量,レルム,人事異動,転出,画面,コンセント,データ,アイコン,書く,バージョン,送受信,あがる,いくつか,アクセス数,同時,計算機,ipアドレス,情報,変わる,使える,繋がる,容量,サイト,端末,固定,研究発表,事前登録,不特定多数,スパムメール,共用,行う,参加,対象外,病院,医学部,講師,退職,完全,退学,タイミング,アップロード,番号,外部,補佐,ミーティング,申請可能,用途,迷惑メール,包括,教員,os,電子ジャーナル,強制的,起動,誤る,研究,表示,思う,サービス,アクセス,入れる,2013,adobe,map,マーク,エリア,杉本,2つ,利用可能,キャンパス,ssh,来客,無線,class,ap,経由,サーバー,pdf,証明書,ダウンロード,入力,メール,fi,wi,仮想,利用,差出人,folder,fiルータ,名誉教授,thunderbird,受信,id,linux,dhcp,マニュアル,拝見,指示,割り当て,見つける,展開,添付,なる,手順,エラー,グループ,出来る,認証,リモートデスクトップ,web,ファイル,知る,印刷,zip,作成,固定ipアドレス,パソコン,分かる,ウイルス対策,ソフト,反映,保護,プライバシー,システム,事象,起きる,同様,インターン,授業,発行,遠隔,訪問,パスワード,大学,ssid,引き継ぐ,本年度中,可能性,正規,もつ,対応,コミュニティ,欲しい,継続,質問,介す,設定,切断,共有,pn,つなげる,3v,ユーザ名,状況,無線lan,出る,変更,貸し出し,失敗,新しい,先生,複合機,グローバルipアドレス,xxx,よい,onedrive,結果,機能,講義,登録,大阪市立大学,非常勤,問い合わせ,可能,常時,ファイルサーバ,事務,タブ,ieee802,人事,操作,見つかる,雇用,求める,選ぶ,応答時間,問題,くん,個人,ノート,使い方,研究室,割り当てる,ポート,ftp,通信,見る,申請,現在,けんか,君について,ポータルサイト,windows10,ない,非正規,追加,url,留学生,メーリングリスト,購入,学生,univer,sal,パスポート,spss,調べ,テキストマイニング,受ける,状態,10,アップデート,非公開,閲覧,日経テレコン21,有償,desktop,プリンター,開設,ホームページ,webページ,やる,グローバルip,分類,わかる,オフライン,初期化,sharepoint,出す,レポート,提供,ファイアーウォール,無効,返信,自動,付き,一時,休止,unix,引っ越し,全学,届く,特定,宛先,jp,ac,ak,客員研究員,流出,回答,在宅,pc等,リモート,古い,アップグレード,した,macアドレス,自宅,割当てる,windowspc,学部,転送,ホスト,使用可能,共同,対象,短縮url,一覧,無い,掲載,チーム,powerpoint,タブレット,windows,対象者,cc,有効期限,長居,無位,ゲスト,home,長い,ツール,与える,許可,mac,ping,飛ぶ,nw,記事,常勤,あける,usbメモリ,職種,かかる,財務会計,外れる,自動的,以外,振る,機器,居室,問合せ,フォーム,nas,学情,専用,データベース,部署,十分,アプリケーション,ソフトウエア,管理者,microsoftアカウント,要求,各種,one,でる,ip,グローバル,アンケート,アドレス,メンバ,送信,忘れる,ダブルクリック,ウィルス,ウイルス,同期,drive,所属,導入,認証画面,安否確認システム,対策,いう,前期,給与,outlook,案内,一括,調達,初期,事前,loota,動作,再生,自室,手続き,開始,ユーザ,試す,メンバー,のく,ウェビナー,ヘルプ,デスク,it,権限,検討,検索,ページ,設置,不明,部分,阿倍野,停電,試みる,st,配信,最新版,掲示,2020年,仕様,4月,4月1日,特任教授,付け,動画,通知,更新,運用,担当 | |
Topic # 3 : | |
ネットワーク,する,パスワード,認証,仮想,発行,システム,web,わかる,wi,学生,分かる,できる,fi,申請,教える,利用,全学,登録,追加,なる,メールアドレス,id,ログイン,印刷,プリンター,プリンタ,初期,非正規,変更,アカウント,安否確認システム,zoom,使い方,出来る,メール,繋がる,コミュニティ,作成,忘れる,デスク,ヘルプ,情報,メンバー,研究室,必要,客員研究員,設置,反映,使用,ssid,nw,不明,グループ,fiルータ,自室,学内,it,アクセス,失敗,君について,けんか,固定ipアドレス,職員,初期化,class,一時,休止,やる,グローバルip,学部,分類,ユーザ名,コンセント,居室,unix,迷惑メール,付与,zip,ツール,出す,レポート,共有,教員,よい,usbメモリ,ファイル,欲しい,授業,来客,貸し出し,雇用,届く,特定,宛先,エラー,所属,フォーム,問合せ,手続き,開始,認証画面,許可,与える,新しい,専用,学情,データベース,サーバー,試す,ユーザ,共同,ホスト,使用可能,linux,dhcp,メンバ,見つかる,機能,のく,loota,事前,問い合わせ,受ける,給与,いう,前期,無線,振る,機器,対応,市大,自動的,外れる,可能性,正規,もつ,引き継ぐ,本年度中,人事,現在,参加,非常勤,研究,表示,卒業,見つける,拝見,割り当て,添付,展開,指示,マニュアル,ある,状況,無線lan,継続,介す,求める,出る,留学生,複合機,取得,ない,先生,つなげる,3v,pn,android標準ブラウザ,通る,ieee802,タブ,知る,通信,ポート,ftp,入れる,思う,入る,pdf,可能,サービス,電子ジャーナル,入力,切断,使う,図書館,引っ越し,大学,microsoft,pc,質問,購入,常時,インターネット,アップグレード,古い,した,接続,adobe,財務会計,レルム,切り換える,切れる,有償,番号,office,グローバルipアドレス,端末,固定,sal,パスポート,univer,ipアドレス,計算機,os,リモートデスクトップ,状態,キャンパス,包括,ios,利用可能,map,杉本,2つ,エリア,マーク,ライセンス,iphone,windows,アイコン,書く,thunderbird,2020年,4月,仕様,ipad,設定,阿倍野,サイト,url,ソフト,windows10,応答時間,問題,選ぶ,アップロード,共用,経由,ap,有料,ak,jp,ac,インストール,ネット,結果,契約,容量,ssh,差出人,スパムメール,名誉教授,つながる,証明書,office365,講義,大阪市立大学,操作,くん,行う,macアドレス,ポータルサイト,受信,見る,ファイルサーバ,事務,対象者,メーリングリスト,長い,ダウンロード,onedrive,でる,割り当てる,ms,ログアウト,folder,オフライン,10,アップデート,非公開,日経テレコン21,閲覧,遠隔,調べ,テキストマイニング,再起動,手順,あける,常勤,かかる,自動,返信,転送,チーム,ホームページ,webページ,開設,nas,対象,spss,メール設定,xxx,流出,回答,増やす,削除,提供,無効,ファイアーウォール,リモート,pc等,在宅,パソコン,desktop,vpn,バージョン,あがる,送受信,one,割当てる,windowspc,ゲスト,有効期限,長居,無位,無い,掲載,短縮url,一覧,プライバシー,保護,home,職種,同様,事象,起きる,インターン,ping,飛ぶ,自宅,2013,記事,タブレット,powerpoint,動作,以外,非常勤講師,ウイルス対策,サインイン,cc,上限,個人,ノート,sharepoint,画面,含む,mac,データ,検討,ウィルス,対策,使える,アドレス,グローバル,ip,共同研究,送信,部署,十分,アンケート,訪問,microsoftアカウント,要求,各種,導入,再生,変わる,hp,向け,ドメイン,人事異動,転出,ダブルクリック,管理者,アプリケーション,ソフトウエア,案内,一括,調達,部分,権限,学校,アクセス数,同時,いくつか,付き,検索,使用方法,申請可能,用途,ミーティング,補佐,外部,lan,outlook,ウェビナー,ページ,停電,事前登録,不特定多数,研究発表,完全,タイミング,退学,退職,同期,drive,大量,起動,強制的,誤る,st,病院,講師,医学部,対象外,アンインストール,更新,通知,特任教授,4月1日,付け,ウイルス,動画,掲示,配信,最新版,試みる,担当,運用 |
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
295



Run ocu123.py
Run ocu12345.py
Run ocu123456.py