├── LICENSE.md
└── LICENSE.md
├── model_eval
├── __init__.py
├── model_eval.py
├── model_test.py
└── stopwords.txt
├── data_process
├── __init__.py
├── new_class.txt
├── data_process_eval.py
├── data_split.py
├── data_process_train.py
├── data_catch.py
└── stopwords.txt
├── model_train
├── __init__.py
├── cnn_model.py
└── cnn_train.py
├── doc
├── 数据说明.txt
└── 训练模型情况截图.docx
├── prediction
├── __init__.py
├── __pycache__
│ ├── __init__.cpython-36.pyc
│ └── predictionapp.cpython-36.pyc
├── predictionapp.py
├── model_app.py
└── stopwords.txt
├── data
└── test_data.csv
└── README.md
/LICENSE.md/LICENSE.md:
--------------------------------------------------------------------------------
1 | fg
2 |
--------------------------------------------------------------------------------
/model_eval/__init__.py:
--------------------------------------------------------------------------------
1 | #!-*-coding:utf-8 -*-
--------------------------------------------------------------------------------
/data_process/__init__.py:
--------------------------------------------------------------------------------
1 | #!-*-coding:utf-8 -*-
--------------------------------------------------------------------------------
/model_train/__init__.py:
--------------------------------------------------------------------------------
1 | #!-*-coding:utf-8 -*-
--------------------------------------------------------------------------------
/doc/数据说明.txt:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/zhangmingnine/Text_CNN_SOUGOU/HEAD/doc/数据说明.txt
--------------------------------------------------------------------------------
/prediction/__init__.py:
--------------------------------------------------------------------------------
1 | #!-*-coding:utf-8 -*-
2 | import pymysql
3 | pymysql.install_as_MySQLdb()
--------------------------------------------------------------------------------
/data/test_data.csv:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/zhangmingnine/Text_CNN_SOUGOU/HEAD/data/test_data.csv
--------------------------------------------------------------------------------
/doc/训练模型情况截图.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/zhangmingnine/Text_CNN_SOUGOU/HEAD/doc/训练模型情况截图.docx
--------------------------------------------------------------------------------
/data_process/new_class.txt:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/zhangmingnine/Text_CNN_SOUGOU/HEAD/data_process/new_class.txt
--------------------------------------------------------------------------------
/prediction/__pycache__/__init__.cpython-36.pyc:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/zhangmingnine/Text_CNN_SOUGOU/HEAD/prediction/__pycache__/__init__.cpython-36.pyc
--------------------------------------------------------------------------------
/prediction/__pycache__/predictionapp.cpython-36.pyc:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/zhangmingnine/Text_CNN_SOUGOU/HEAD/prediction/__pycache__/predictionapp.cpython-36.pyc
--------------------------------------------------------------------------------
/data_process/data_process_eval.py:
--------------------------------------------------------------------------------
1 | #!-*-coding:utf-8 -*-
2 |
3 | from data_process.data_process_train import *
4 |
5 | # 1、用户输入单个新闻文本文件
6 | def data_sigle(inputfile):
7 | with open(inputfile, errors='ignore') as f:
8 | content = f.read()
9 | content = clean_text(content)
10 | content = seg_text(content)
11 | return [content,None]
12 |
13 |
14 | # 2、用户输入含有多条新闻文本的文件,独立输入新闻文本的csv文件。
15 | def data_eval(inputfile):
16 | f = open(inputfile, encoding='gbk')
17 | data = pd.read_csv(f)
18 | text = data['content'].apply(clean_text)
19 | text = text.apply(seg_text)
20 | return text
21 |
22 |
23 |
24 | # 3、测试模型的数据导入,即数据库的数据导入
25 | def data_test(inputfile):
26 | f = open(inputfile, encoding='gbk')
27 | data = pd.read_csv(f)
28 | text1 = data['title'].apply(clean_text)
29 | text2 = data['description'].apply(clean_text)
30 | text3 = data['content'].apply(clean_text)
31 | # title,description,content连接到一起
32 | text = text1 + text2 + text3
33 | text = text.apply(seg_text)
34 | return text
35 |
36 |
--------------------------------------------------------------------------------
/data_process/data_split.py:
--------------------------------------------------------------------------------
1 | #!-*-coding:utf-8 -*-
2 | import re
3 |
4 |
5 | def splits(path):
6 | p = re.compile('',re.S)
7 | end = ''
8 | fileContent = open(path,'r',errors='ignore',encoding='gb18030').read() #读文件内容
9 | print('读入结束!')
10 | paraList = p.split(fileContent) #根据对文本进行切片
11 | print(len(paraList))
12 | fileWriter = open('../data/reduced/0.txt','a',encoding='utf8') #创建一个写文件的句柄
13 | #遍历切片后的文本列表
14 | for paraIndex in range(len(paraList)):
15 | #print(paraList[paraIndex])
16 | fileWriter.write(paraList[paraIndex]) #先将列表中第一个元素写入文件中
17 | if(paraIndex != len(paraList)): #不加if这两行的运行结果是所有的都没有了,除了最后分割的文本
18 | fileWriter.write(end)
19 | if((paraIndex+1)%5000==0): #5000个切片合成一个.txt文本
20 | fileWriter.close()
21 | fileWriter = open('../data/reduced/'+str((paraIndex+1)//5000)+'.txt','a',encoding='utf8')#重新创建一个新的句柄,等待写入下一个切片元素。注意这里文件名的处理技巧。
22 | fileWriter.close() #关闭最后创建的那个写文件句柄
23 | print('finished')
24 |
25 | if __name__ == '__main__':
26 | splits('../data/news_sohusite_xml.dat')
27 |
28 |
29 |
30 |
31 |
32 |
--------------------------------------------------------------------------------
/README.md:
--------------------------------------------------------------------------------
1 | # Text_CNN_SOUGOU
2 |
3 | *简介
4 | 主要利用CNN卷积神经网络和新闻文本的短文本(新闻摘要)进行文本分类。主要步骤如下
5 | 1.利用搜狗新闻语料库数据作为模型训练数据。一共有15个类别。处理为不同的类别进行存储为txt文件。类别字典存储在data/data_process文件夹下!new_class.txt
6 | 2.对取出的新闻文本数据,文本清洗,去停用词、加载新词、分词的顺序进行预处。处理为分好词的数据并且为文本都贴上标签,保存为新的文件descriptions.csv。
7 | 3.加载训练数据,取3000条数据为验证集,剩下的数据为训练集。利用CNN卷积神经网络模型进行训练,在训练的过程中保存好模型。
8 | 4.利用事先准备好的测试集数据,test_data.csv文件对训练好的模型进行性能评估。
9 | 5.对于通过性能评估的模型,进行实际使用,加载训练好的模型和待分类文本数据,进行分类,支持单个文本文件以及包含多个文本内容的文本文件进行分类(csv文件)。
10 | 并且将分类结果保存到prediction.csv文件中。
11 |
12 | 开发环境Python-v3(3.6):
13 | pymysql ==
14 | jieba==0.39
15 | scikit-learn==0.19.1
16 | pandas==0.20.0
17 | numpy==1.14.5+mkl
18 | scipy==0.19.0
19 | tensorflow == 1.80
20 |
21 |
22 | 1、数据和文本处理(data_process)包含三个文件
23 | ①data_catch.py为获取训练数据和测试数据test_data.csv,村联数据这里对搜狗新闻语料库数据做初步处理提取出标签和文本,并且按照类别进行存储。
24 | 存放在data/content文件夹中,test_data.csv测试文件直接存放在data文件夹中。
25 | ②data_process_train.py主要是针对训练数据进行预处理工作,文本处理包括文本清洗、去停用词处理、中文分词、去掉出现次数少的分词。保存为train_texts.csv文件。
26 | 并且提供函数将干净的训练数据对应 处理为分词后的文本和相应的标签数据,并且生成batch数据集。
27 | 文本处理包括文本清洗、去停用词处理、中文分词、去掉出现次数少的分词
28 | ③data_process_eval.py主要是用于测试集数据的处理以及实际使用的数据读入处理。
29 | ④在prediction模块中的predictionapp.py文件提供了从数据库取出数据,并且将分类结果返回给数据库的接口。
30 |
31 | 2、模型训练(model_train)
32 | ①cnn_model.py文件主要是用于定义一个CNN_TEXT类,一个用于模型训练的卷神经网络结构。结构包括词嵌入层、卷积池化层,全连接层以及输出层。
33 | ②cnn_train.py文件主要用作模型训练,包括定义相关的参数,模型的保存,以及summaries的保存。模型训练准确率达到95%以上。训练好的模型保存在
34 | model_train文件下的runs文件夹中
35 |
36 | 3、模型测试(model_eval)
37 | ①model_test.py 文件主要用于模型测试工作,对test.csv文件进行测试,返回测试的准确率。
38 | ②model_app.py 文件是实际应用的文件,对模型进行实际使用,读入待分类数据,加载模型,进行分类,并将分类结果保存为prediction.csv文件中存贮。
39 |
40 | 4、模型应用(prediction)
41 |
42 | *用法
43 | 1、先单独运行data_catch.py文件,得到训练数据,训练数据将会保存到新建的data/contens文件夹中。测试数据也会一并下载。
44 | 2、运行data_process_train.py文件,对训练数据进行预处理,并将处理好的数据保存为train_texts.csv文件。
45 | 3、然后运行cnn_train.py文件,开始训练模型,训练的模型,词表以及summaries豆浆保存在model_train文件夹下面的runs文件夹中。
46 | 4、运行model_test.py文件,对模型进行测试。也可以运行model_eval.py文件导入自己的数据,进行测试。提供多种导入方式。
47 | 5、运行prediction模块中的model_app文件可以应用模型,可以自动从数据库中得到数据,然后加载模型进行分类,并且将分类结果返回给
48 | 数据库,可以知己在原表插入结果,也可以重新建立一张新表存储分类结果。可进行选择,自定义每次取出多少条数据。
49 | 5、定义好需要分类的文本文件目录,运行文件,进行分类,并且自动保存分类结果。
50 |
--------------------------------------------------------------------------------
/prediction/predictionapp.py:
--------------------------------------------------------------------------------
1 | # -*- coding: utf-8 -*-
2 | """
3 | Created on Thu Jul 12 14:53:52 2018
4 |
5 | @author: Administrator
6 | """
7 | import pymysql
8 | import pandas as pd
9 | from sqlalchemy import create_engine
10 | from data_process.data_process_train import seg_text,clean_text
11 |
12 |
13 | '''
14 | #存储数据(试验)
15 | data = pd.read_csv('../data/test/test_data100.csv',encoding = 'gbk')
16 | yconnect = create_engine('mysql+pymysql://root:123456@localhost:3306/test?charset=utf8')
17 | pd.io.sql.to_sql(data,'test_news', yconnect, schema='test', if_exists='replace',index = False)
18 | '''
19 |
20 |
21 | ### 打开数据库连接
22 | def link_sql(user,password,host,port,dbname):
23 | conn = pymysql.connect(host=host,
24 | port=port,
25 | user=user,
26 | passwd=password,
27 | db=dbname,
28 | charset='utf8')
29 | return conn
30 |
31 | # 1、从数据库中取出数据,取出sta+1条记录的n条数据
32 | def get_sql_data1(tabelname,user,password,host,port,dbname,n,sta):
33 | db = link_sql(user,password,host,port,dbname)
34 | sqlcmd = "SELECT * FROM {} limit {} offset {};".format(tabelname,n,sta)
35 | data = pd.read_sql(sqlcmd, db)
36 | text1 = data['title'].apply(clean_text)
37 | text2 = data['description'].apply(clean_text)
38 | text3 = data['content'].apply(clean_text)
39 | # title,description,content连接到一起
40 | text = text1 + text2 + text3
41 | text = text.apply(seg_text)
42 | db.close()
43 | return text,data
44 |
45 |
46 |
47 |
48 | # 2、保存到数据库的一个新表当中,连同原有内容。
49 | def insert_new(data,tablename,user,password,host,port,dbname):
50 | yconnect = create_engine('mysql+pymysql://{}:{}@{}:{}/{}?charset=utf8'.format(user,password,host,port,dbname))
51 | pd.io.sql.to_sql(data,tablename, yconnect, schema=dbname, if_exists='append',index = False)
52 |
53 |
54 |
55 | # 3、插入数据到旧的表中
56 | def insert_raw(prediction,label,savedata,tabelname,user,password,host,port,dbname):
57 | db = link_sql(user,password,host,port,dbname)
58 | sqlmd = "UPDATE {} SET prediction = {},label = '{}' WHERE id = {}"
59 | cursor = db.cursor()
60 | try:
61 | cursor.execute(" alter table {} add column prediction int(10) ,add column label varchar(10);".format(tabelname))
62 | except:
63 | pass
64 | for i in range(len(label)):
65 | cursor.execute(sqlmd.format(tabelname,int(prediction[i]),label[i],int(savedata.iloc[i][0])))
66 | cursor.close()
67 | db.commit()
68 | db.close()
--------------------------------------------------------------------------------
/data_process/data_process_train.py:
--------------------------------------------------------------------------------
1 | # -*- coding: utf-8 -*-
2 | """
3 | Created on Wed Jun 27 09:28:59 2018
4 |
5 | @author: Administrator
6 | """
7 | import re
8 | import os
9 | import jieba
10 | import pandas as pd
11 | import numpy as np
12 | import random
13 |
14 |
15 | # 1 清洗文本,去除标点符号数字以及特殊符号
16 | def clean_text(content):
17 | text = re.sub(r'[+——!,;/·。?、~@#¥%……&*“”《》:()[]【】〔〕]+', '', content)
18 | text = re.sub(r'[▲!"#$%&\'()*+,-./:;<=>\\?@[\\]^_`{|}~]+', '', text)
19 | text = re.sub('\d+', '', text)
20 | text = re.sub('\s+', '', text)
21 | return text
22 |
23 | # 2 利用jieba包进行分词,并并且去掉停词,返回分词后的文本
24 | def seg_text(text):
25 | stop = [line.strip() for line in open('stopwords.txt', encoding='utf8').readlines()]
26 | text_seged = jieba.cut(text.strip())
27 | outstr = ''
28 | for word in text_seged:
29 | if word not in stop:
30 | outstr += word
31 | outstr += " "
32 | return outstr.strip()
33 |
34 |
35 | # 3 批量处理文本数据,清洗,分词,去停用词以及最后保存文本数据和对应标签为csv文件。
36 | def savefile(path, savepath):
37 | listdirs = os.listdir(path)
38 | count = 0
39 | result = pd.DataFrame(columns=['description', 'labels'])
40 | newclass = {} # 数字标签和文本类别
41 | for dirs in listdirs:
42 | print('\n开始处理 {} 文件,一共{}个文件,这是第{}个文件'.format(dirs,len(listdirs),count+1))
43 | newclass[count] = dirs.split('.')[0]
44 | fullname = os.path.join(path, dirs)
45 | f = open(fullname, encoding='utf8')
46 | data = f.read()
47 | contentlists = data.split('\n')
48 | if len(contentlists)>20000:
49 | contentlists = pd.Series(contentlists[:20000])
50 | elif len(contentlists)< 5000:
51 | contentlists = pd.Series(random.choices(contentlists,k = 5000))
52 | else:
53 | contentlists = pd.Series(contentlists)
54 | texts = contentlists.apply(clean_text)
55 | texts = texts.apply(seg_text)
56 | labels = [count] * len(texts)
57 | labels = pd.Series(labels)
58 | tt = pd.concat([texts, labels], axis=1)
59 | tt.columns = ['description', 'labels']
60 | result = result.append(tt)
61 | print('\n已经处理好了 {} 文件,这是第{}个文件'.format(dirs, count+1))
62 | count += 1
63 | with open('new_class.txt', 'w') as f:
64 | f.write(str(newclass))
65 | result.to_csv(savepath, index=False) # 保存分词好的文件
66 |
67 |
68 | # 将数字标签转为one_hot向量
69 | def make_one_hot(data1):
70 | return (np.arange(14) == data1[:, None]).astype(np.int32)
71 |
72 |
73 | # 4 加载为适合的数据类型
74 | def load_data_and_labels(datapath):
75 | """
76 | 将数据分割为文本句子和标签labels两部分,并且格式化为需要的格式,返回数据
77 | """
78 | # Load data from files
79 | data = pd.read_csv(datapath, encoding='gbk')
80 | data = data.dropna(axis=0,how='any')
81 | # Split by words and labels
82 | x_text = data['description']
83 | labels = data['labels']
84 | # Generate one_hot vector
85 | labels = np.asarray(labels)
86 | y = make_one_hot(labels)
87 | return [x_text, y]
88 |
89 |
90 | # 5、生成batch数据集
91 | def batch_iter(data, batch_size, shuffle=True):
92 | """
93 | Generates a batch iterator for a dataset.
94 | """
95 | data = np.array(data)
96 | data_size = len(data)
97 | num_batches_per_epoch = int((len(data) - 1) / batch_size) + 1
98 | if shuffle:
99 | shuffle_indices = np.random.permutation(np.arange(data_size))
100 | shuffled_data = data[shuffle_indices]
101 | else:
102 | shuffled_data = data
103 | for batch_num in range(num_batches_per_epoch):
104 | start_index = batch_num * batch_size
105 | end_index = min((batch_num + 1) * batch_size, data_size)
106 | yield shuffled_data[start_index:end_index]
107 |
108 | if __name__ == '__main__':
109 | raw_datapath = '../data/contents'
110 | save_datapath = '../data/train_texts.csv'
111 | savefile(raw_datapath,save_datapath)
112 |
113 |
114 |
115 |
116 |
117 |
--------------------------------------------------------------------------------
/data_process/data_catch.py:
--------------------------------------------------------------------------------
1 | # -*- coding: utf-8 -*-
2 | """
3 | Created on Wed Jun 27 14:52:53 2018
4 |
5 | @author: Administrator
6 | """
7 |
8 | import re
9 | import os
10 | import pandas as pd
11 | import pymysql
12 |
13 | '''
14 | 1、训练数据的初步清洗以及分类存储
15 | '''
16 | threh = 30 #字符数小于这个数目的content将不被保存
17 | # 对应字典
18 | dicurl = {'auto.sohu.com': '汽车', 'it.sohu.com': '互联网', 'health.sohu.com': '健康',
19 | 'sports.sohu.com': '体育', 'travel.sohu.com': '旅游', 'learning.sohu.com': '教育',
20 | 'career.sohu.com': '招聘', 'cul.sohu.com': '文化', 'mil.news.sohu.com': '军事',
21 | 'house.sohu.com': '房产', 'yule.sohu.com': '娱乐', 'women.sohu.com': '时尚',
22 | 'media.sohu.com': '传媒', 'news.sohu.com': '其他', '2008.sohu.com': '奥运',
23 | 'business.sohu.com': '商业'}
24 |
25 | """全角转半角"""
26 | def strQ2B(ustring):
27 | rstring = ""
28 | for uchar in ustring:
29 | inside_code=ord(uchar)
30 | if inside_code == 12288: #全角空格直接转换
31 | inside_code = 32
32 | elif (inside_code >= 65281 and inside_code <= 65374): #全角字符(除空格)根据关系转化
33 | inside_code -= 65248
34 | rstring += chr(inside_code)
35 | return rstring
36 |
37 | # 对每个语料提取出类别url和内容content以及title
38 | def data_clean(datapath,con_path,title_path):
39 | listdir = os.listdir(datapath)
40 | for path in listdir:
41 | print('正在处理 {} 文件'.format(path))
42 | filename = os.path.join(datapath,path)
43 | file = open(filename, 'r',encoding='gb18030').read()
44 | #正则匹配出url和content
45 | patternURL = re.compile(r'(.*?)', re.S)
46 | patternTitle = re.compile(r'(.*?)', re.S)
47 | patternCtt = re.compile(r'(.*?)', re.S)
48 |
49 | classes = patternURL.findall(file)
50 | titles = patternTitle.findall(file)
51 | contents = patternCtt.findall(file)
52 | # 把所有内容小于30字符的文本全部过滤掉
53 | for i in list(range(contents.__len__()))[::-1]:
54 | if len(contents[i]) < threh or len(titles[i]) == 0:
55 | contents.pop(i)
56 | classes.pop(i)
57 | titles.pop(i)
58 | # 把URL进一步提取出来,只提取出一级url作为类别
59 | for i in range(classes.__len__()):
60 | patternClass = re.compile(r'http://(.*?)/',re.S)
61 | classi = patternClass.findall(classes[i])
62 | classes[i] = classi[0]
63 | # 按照RUL作为类别保存到samples文件夹中
64 | for i in range(classes.__len__()):
65 | #contents[i] = contents[i].replace('\ue40c','')
66 | #contents[i] = strQ2B(contents[i])
67 | titles[i] = titles[i].replace('\ue40c', '')
68 | titles[i] = strQ2B(titles[i])
69 | if classes[i] in dicurl:
70 | #file1 = con_path +'/'+ dicurl[classes[i]] + '.txt'
71 | file2 = title_path +'/'+ dicurl[classes[i]] + '.txt'
72 | #with open(file1,'a+',encoding = 'utf8') as f1:
73 | #f1.write(contents[i]+'\n') #加\n换行显示
74 | with open(file2,'a+',encoding = 'utf8') as f2:
75 | f2.write(titles[i]+'\n') #加\n换行显示
76 |
77 |
78 | '''
79 | 2、测试数据,数据库来源的数据获取
80 |
81 | # 打开数据库连接
82 | db = pymysql.connect(host = '124.202.155.72',
83 | port = 33063,
84 | user = "newsreadonly",
85 | passwd = "newsreadonly",
86 | db = "news_db",
87 | charset = 'utf8')
88 |
89 | # cat = [line.strip() for line in open('类别.txt',encoding = 'utf-8-sig').readlines()]
90 | '''
91 |
92 | def test_data():
93 | sqlcmd = "SELECT url,title,description,content,category FROM t_news_detail limit 10;"
94 | data = pd.read_sql(sqlcmd, db)
95 | if not os.path.exists('../data'):
96 | os.makedirs('../data')
97 | data.to_csv('../data/test/test_data.csv',index=False)
98 |
99 |
100 |
101 | if __name__ == '__main__':
102 | #test_data()
103 | data_clean('../data/reduced','../data/contents','../data/titles')
104 |
105 |
106 |
--------------------------------------------------------------------------------
/model_eval/model_eval.py:
--------------------------------------------------------------------------------
1 | # -*- coding: utf-8 -*-
2 | """
3 | Created on Fri Jun 22 14:49:37 2018
4 |
5 | @author: Administrator
6 | """
7 | import tensorflow as tf
8 | import pandas as pd
9 | import numpy as np
10 | import os
11 | os.environ['TF_CPP_MIN_LOG_LEVEL'] = '3'
12 | from tensorflow.contrib import learn
13 | from data_process import data_process_eval,data_process_train
14 | import csv
15 | print("123")
16 | # Parameters
17 | # ==================================================
18 |
19 | # Data Parameters
20 | tf.flags.DEFINE_string("inputfile", "../data/test/test_data.csv", "需要预测的数据文件名")
21 | tf.flags.DEFINE_string("outputfile", "..", "保存预测文件的位置,直接在上层目录保存")
22 |
23 | # Eval Parameters
24 | tf.flags.DEFINE_integer("batch_size", 256, "Batch Size (default: 256)")
25 | tf.flags.DEFINE_string("checkpoint_dir","../model_train/runs", "Checkpoint directory from training run")
26 | tf.flags.DEFINE_boolean("eval_train", True, "是否计算所有的数据")
27 |
28 | # Misc Parameters
29 | tf.flags.DEFINE_boolean("allow_soft_placement", True, "Allow device soft device placement")
30 | tf.flags.DEFINE_boolean("log_device_placement", False, "Log placement of ops on devices")
31 |
32 | FLAGS = tf.flags.FLAGS
33 | print("\nParameters:")
34 | for attr, value in sorted(FLAGS.flag_values_dict().items()):
35 | print("{}={}".format(attr, value))
36 | print("snlili")
37 |
38 |
39 | # 导入自己的测试数据,可以选择针对整个文件计算还是单独的一个文本
40 | wen = input('输入的是原始文本还是文本文件?如果是原始文本请输入‘True’')
41 | if wen is True:
42 | x_raw = input('输入你的原始文本')
43 | else:
44 | wen1 = input('输入的是单个文本的文件,还是多条文本的txt文件?如果是单条文本,请输入‘True’')
45 | if wen1 is True:
46 | x_raw = data_process_eval.data_sigle(FLAGS.inputfile)
47 | else:
48 | x_raw = data_process_eval.data_eval(FLAGS.inputfile)
49 |
50 |
51 | # 将原始数据映射到词典
52 | vocab_path = os.path.join(FLAGS.checkpoint_dir,"vocab")
53 | vocab_processor = learn.preprocessing.VocabularyProcessor.restore(vocab_path)
54 | x_test = np.array(list(vocab_processor.transform(x_raw)))
55 |
56 | print("\nEvaluating...\n")
57 |
58 | #### ========================= 计算测试 ======================###
59 | # checkpoint_file = tf.train.latest_checkpoint(os.path.join(FLAGS.checkpoint_dir, "checkpoints"))
60 | ckpt = tf.train.get_checkpoint_state(os.path.join(FLAGS.checkpoint_dir, "checkpoints"))
61 | checkpoint_file = ckpt.model_checkpoint_path
62 | graph = tf.Graph()
63 | with graph.as_default():
64 | session_conf = tf.ConfigProto(
65 | allow_soft_placement=FLAGS.allow_soft_placement,
66 | log_device_placement=FLAGS.log_device_placement)
67 | sess = tf.Session(config=session_conf)
68 | with sess.as_default():
69 | # 同时加载计算图以及变量
70 | saver = tf.train.import_meta_graph("{}.meta".format(checkpoint_file))
71 | saver.restore(sess, checkpoint_file)
72 |
73 | # 根据名字从图中找到对应的placeholders,不需要input_y,只需要输入x
74 | input_x = graph.get_operation_by_name("input_x").outputs[0]
75 | # input_y = graph.get_operation_by_name("input_y").outputs[0]
76 | dropout_keep_prob = graph.get_operation_by_name("dropout_keep_prob").outputs[0]
77 | # 找到我们需要进行计算的变量,目标输出变量
78 | predictions = graph.get_operation_by_name("output/predictions").outputs[0]
79 |
80 | # 产生bache只有一个循环一次
81 | batches = data_process_train.batch_iter(list(x_test), FLAGS.batch_size, 1, shuffle=False)
82 |
83 | # 收集所有的预测输出
84 | all_predictions = []
85 | for x_test_batch in batches:
86 | batch_predictions = sess.run(predictions, {input_x: x_test_batch, dropout_keep_prob: 1.0})
87 | all_predictions = np.concatenate([all_predictions, batch_predictions])
88 |
89 | # 对应类别名字典
90 | new_dict = [open('../data_process/new_class.txt').read()]
91 | new_dict = eval(new_dict[0])
92 | labels = []
93 | for i in all_predictions:
94 | labels.append(new_dict[int(i)])
95 |
96 | # 保存结果到一个csv中,读入原来的文件在添加新的一列预测结果
97 | savedata = pd.read_csv(FLAGS.inputfile,encoding='gbk')
98 | '''
99 | predictions_human_readable = np.column_stack((np.array(x_raw), all_predictions, np.array(labels)))
100 | out_path = os.path.join(FLAGS.outputfile, "prediction.csv")
101 | print("Saving evaluation to {0}".format(out_path))
102 | with open(out_path, 'w', newline='') as f:
103 | cf = csv.writer(f)
104 | cf.writerows(predictions_human_readable)
105 | '''
106 | savedata['prediction'] = pd.Series(all_predictions)
107 | savedata['labels'] = pd.Series(labels)
108 | savedata1 = savedata.iloc[:500,:]
109 | savedata1.to_csv(FLAGS.outputfile+'/'+'zmshiyan.csv',index=False)
110 |
111 |
112 |
--------------------------------------------------------------------------------
/model_eval/model_test.py:
--------------------------------------------------------------------------------
1 | # -*- coding: utf-8 -*-
2 | """
3 | Created on Fri Jun 22 14:49:37 2018
4 | dfg
5 | @author: Administrator
6 | """
7 | import tensorflow as tf
8 | import numpy as np
9 | import os
10 | from tensorflow.contrib import learn
11 | from data_process import data_process_eval,data_process_train
12 | import csv
13 |
14 | # Parameters
15 | # ==================================================
16 |
17 | # Data Parameters
18 | tf.flags.DEFINE_string("inputfile", "../data/test_data.csv", "Data source for the data.")
19 | tf.flags.DEFINE_string("outputfile", "..", "保存预测文件的位置,直接在上层目录保存")
20 | # Eval Parameters
21 | tf.flags.DEFINE_integer("batch_size", 256, "Batch Size (default: 256)")
22 | tf.flags.DEFINE_string("checkpoint_dir", "../model_train/runs", "Checkpoint directory from training run")
23 | tf.flags.DEFINE_boolean("eval_train", True, "是否计算所有的数据")
24 |
25 | # Misc Parameters
26 | tf.flags.DEFINE_boolean("allow_soft_placement", True, "Allow device soft device placement")
27 | tf.flags.DEFINE_boolean("log_device_placement", False, "Log placement of ops on devices")
28 |
29 | FLAGS = tf.flags.FLAGS
30 | print("\nParameters:")
31 | for attr, value in sorted(FLAGS.flag_values_dict().items()):
32 | print("{}={}".format(attr, value))
33 | print("")
34 |
35 | # 导入自己的测试数据,可以选择针对整个文件计算还是单独的一个文本
36 | if FLAGS.eval_train:
37 | x_raw = data_process_eval.data_test(FLAGS.inputfile)
38 | y_test = None
39 | else:
40 | x_raw = [
41 | "日前 数据 显示 道口 贷 平台 累计 成交额 正式 突破 亿元 服务 实体 企业 超过 家 企业 融资 成本 之间 项目 零 逾期 年 道口 贷 单个 月度 撮合 成交额 超过 亿元 去年 同期相比 增长 呈 高 增长 态势 截止 月 日 道口 贷已 家 核心 ",
42 | "三个 月 激烈 角逐 月 日 京东 集团 发起 举办 中国 新闻出版 研究院 豆瓣 协办 首届 京东 文学奖 在京举行 颁奖典礼 揭晓 获奖 名单 春风 乡村 生活 图景 六部 文学 佳作 最终 胜出 摘得 年度 京东 文学奖 百万 奖金 莫言 周国平 蒋方舟 史航 方文山 到场 当晚 颁奖典礼 "]
43 | y_test = [0, 1]
44 |
45 | # 将原始数据映射到词典
46 | vocab_path = os.path.join(FLAGS.checkpoint_dir, "vocab")
47 | vocab_processor = learn.preprocessing.VocabularyProcessor.restore(vocab_path)
48 | x_test = np.array(list(vocab_processor.transform(x_raw)))
49 |
50 | print("\nEvaluating...\n")
51 |
52 | #### ========================= 计算测试 ======================###
53 | # checkpoint_file = tf.train.latest_checkpoint(os.path.join(FLAGS.checkpoint_dir, "checkpoints"))
54 | ckpt = tf.train.get_checkpoint_state(os.path.join(FLAGS.checkpoint_dir, "checkpoints"))
55 | checkpoint_file = ckpt.model_checkpoint_path
56 | graph = tf.Graph()
57 | with graph.as_default():
58 | session_conf = tf.ConfigProto(
59 | allow_soft_placement=FLAGS.allow_soft_placement,
60 | log_device_placement=FLAGS.log_device_placement)
61 | sess = tf.Session(config=session_conf)
62 | with sess.as_default():
63 | # 同时加载计算图以及变量
64 | saver = tf.train.import_meta_graph("{}.meta".format(checkpoint_file))
65 | saver.restore(sess, checkpoint_file)
66 |
67 | # 根据名字从图中找到对应的placeholders,不需要input_y,只需要输入x
68 | input_x = graph.get_operation_by_name("input_x").outputs[0]
69 | # input_y = graph.get_operation_by_name("input_y").outputs[0]
70 | dropout_keep_prob = graph.get_operation_by_name("dropout_keep_prob").outputs[0]
71 | # 找到我们需要进行计算的变量,目标输出变量
72 | predictions = graph.get_operation_by_name("output/predictions").outputs[0]
73 |
74 | # 产生bache只有一个循环一次
75 | batches = data_process_train.batch_iter(list(x_test), FLAGS.batch_size, 1, shuffle=False)
76 |
77 | # 收集所有的预测输出
78 | all_predictions = []
79 | for x_test_batch in batches:
80 | batch_predictions = sess.run(predictions, {input_x: x_test_batch, dropout_keep_prob: 1.0})
81 | all_predictions = np.concatenate([all_predictions, batch_predictions])
82 |
83 | # 如果知道真实标签,让我们来看一看对比的结果如何吧
84 | if y_test is not None:
85 | correct_predictions = float(sum(all_predictions == y_test))
86 | print("Total number of test examples: {}".format(len(y_test)))
87 | print("Accuracy: {:g}%".format(correct_predictions / float(len(y_test)) * 100))
88 |
89 |
90 | # 对应类别名字典
91 | new_dict = [open('../data_process/new_class.txt').read()]
92 | new_dict = eval(new_dict[0])
93 | labels = []
94 | for i in all_predictions:
95 | labels.append(new_dict[int(i)])
96 |
97 | # 保存结果到一个csv中,文本,类别,标签(三个)
98 | predictions_human_readable = np.column_stack((np.array(x_raw), all_predictions, np.array(labels)))
99 |
100 | out_path = os.path.join(FLAGS.outputfile, "prediction.csv")
101 | print("Saving evaluation to {0}".format(out_path))
102 | with open(out_path, 'w', newline='') as f:
103 | cf = csv.writer(f)
104 | cf.writerows(predictions_human_readable)
105 |
106 |
--------------------------------------------------------------------------------
/model_train/cnn_model.py:
--------------------------------------------------------------------------------
1 | # -*- coding: utf-8 -*-
2 | """
3 | Created on Fri Jun 22 09:42:16 2018
4 |
5 | @author: Administrator
6 | """
7 | import tensorflow as tf
8 |
9 |
10 | class CNN_TEXT(object):
11 | def __init__(
12 | self, sequence_length, num_classes, vocab_size,
13 | embedding_size, filter_sizes, num_filters, l2_reg_lambda=0.0):
14 | # Placeholders of input, output and dropout
15 | self.input_x = tf.placeholder(tf.int32, [None, sequence_length], name="input_x")
16 | self.input_y = tf.placeholder(tf.float32, [None, num_classes], name="input_y")
17 | self.dropout_keep_prob = tf.placeholder(tf.float32, name="dropout_keep_prob")
18 |
19 | # Keeping track of l2 regularization loss (optional)
20 | l2_loss = tf.constant(0.0)
21 |
22 | # 词嵌入层
23 | with tf.name_scope("embedding"):
24 | self.W = tf.Variable(
25 | tf.random_uniform([vocab_size, embedding_size], -1.0, 1.0),
26 | name="W")
27 | self.embedded_chars = tf.nn.embedding_lookup(self.W, self.input_x)
28 | self.embedded_chars_expanded = tf.expand_dims(self.embedded_chars, -1)
29 |
30 | # 不同的卷积核创造不同的卷积池化层
31 | pooled_outputs = []
32 | for i, filter_size in enumerate(filter_sizes):
33 | with tf.name_scope("conv_pool-{}".format(filter_size)):
34 | # Convolution Layer
35 | filter_shape = [filter_size, embedding_size, 1, num_filters]
36 | W = tf.Variable(tf.truncated_normal(filter_shape, stddev=0.1), name="W")
37 | b = tf.Variable(tf.constant(0.1, shape=[num_filters]), name="b")
38 | conv = tf.nn.conv2d(self.embedded_chars_expanded,
39 | W,
40 | strides=[1, 1, 1, 1],
41 | padding="VALID",
42 | name="conv")
43 |
44 | # Apply nonlinearity
45 | h = tf.nn.relu(tf.nn.bias_add(conv, b), name="relu")
46 |
47 | # Maxpooling over the outputs
48 | pooled = tf.nn.max_pool(h,
49 | ksize=[1, sequence_length - filter_size + 1, 1, 1],
50 | strides=[1, 1, 1, 1],
51 | padding='VALID',
52 | name="pool")
53 | pooled_outputs.append(pooled)
54 |
55 | # Combine all the pooled features
56 | num_filters_total = num_filters * len(filter_sizes)
57 | self.a_pool = tf.concat(pooled_outputs, 3)
58 | self.a_pool_shape = tf.reshape(self.a_pool, [-1, num_filters_total])
59 |
60 | # Add dropout
61 | with tf.name_scope("dropout"):
62 | self.a_drop = tf.nn.dropout(self.a_pool_shape, self.dropout_keep_prob)
63 |
64 | '''
65 | # 添加三个隐层
66 | num_filters_up = num_filters_total
67 | fc_input = self.a_drop
68 | for i,fc_size in enumerate([1000,500,128]):
69 | with tf.name_scope('FC-{}'.format(fc_size)):
70 | W_fc = tf.Variable(tf.truncated_normal([num_filters_up,fc_size],stddev=0.1,name = 'W_fc'))
71 | b_fc = tf.Variable(tf.constant(0.1, shape=[fc_size]), name="b_fc")
72 | l2_loss += tf.nn.l2_loss(W_fc)
73 | l2_loss += tf.nn.l2_loss(b_fc)
74 | fc_out = tf.nn.relu(tf.nn.xw_plus_b(fc_input, W_fc, b_fc, name="fc_out"))
75 | fc_input = fc_out
76 | num_filters_up = fc_size
77 | self.fc_out = fc_out
78 | num_filters_fc = num_filters_up
79 | '''
80 |
81 | # output and predictions
82 | with tf.name_scope("output"):
83 | W = tf.get_variable(
84 | "W",
85 | shape=[num_filters_total, num_classes],
86 | initializer=tf.contrib.layers.xavier_initializer())
87 | b = tf.Variable(tf.constant(0.1, shape=[num_classes]), name="b")
88 | l2_loss += tf.nn.l2_loss(W)
89 | l2_loss += tf.nn.l2_loss(b)
90 | self.scores = tf.nn.xw_plus_b(self.a_drop, W, b, name="scores")
91 | self.predictions = tf.argmax(self.scores, 1, name="predictions")
92 |
93 | # Calculate mean cross-entropy loss
94 | with tf.name_scope("loss"):
95 | losses = tf.nn.softmax_cross_entropy_with_logits(logits=self.scores, labels=self.input_y)
96 | self.loss = tf.reduce_mean(losses) + l2_reg_lambda * l2_loss
97 |
98 | # Accuracy
99 | with tf.name_scope("accuracy"):
100 | correct = tf.equal(self.predictions, tf.argmax(self.input_y, 1))
101 | self.accuracy = tf.reduce_mean(tf.cast(correct, tf.float32), name='accurancy')
102 |
103 |
--------------------------------------------------------------------------------
/prediction/model_app.py:
--------------------------------------------------------------------------------
1 | # -*- coding: utf-8 -*-
2 | """
3 | Created on Fri Jun 22 14:49:37 2018
4 |
5 | @author: Administrator
6 | """
7 | import tensorflow as tf
8 | import pandas as pd
9 | import numpy as np
10 | import os
11 | os.environ['TF_CPP_MIN_LOG_LEVEL'] = '3'
12 | from tensorflow.contrib import learn
13 | from data_process import data_process_train
14 | from prediction import predictionapp
15 |
16 |
17 |
18 | # ==================================== Parameters ============================== #
19 | # SQL Parameters
20 | tf.flags.DEFINE_string("user", "root", "数据库密码")
21 | tf.flags.DEFINE_string("passwd", "123456", "数据库密码")
22 | tf.flags.DEFINE_integer("port", 3306, "数据库端口")
23 | tf.flags.DEFINE_string("host", "localhost", "数据库地址")
24 | tf.flags.DEFINE_string("dbname", 'test', "数据库名称")
25 | tf.flags.DEFINE_string("input_table","test_news", "导入的数据库表")
26 | tf.flags.DEFINE_string("output_table","test_news_predict", "新的数据库表")
27 | tf.flags.DEFINE_integer("start", 0, "取出数据的记录开始行")
28 | tf.flags.DEFINE_integer("nums", 50, "一共取出多少条记录")
29 |
30 | # Eval Parameters
31 | tf.flags.DEFINE_integer("batch_size", 256, "Batch Size (default: 256)")
32 | tf.flags.DEFINE_string("checkpoint_dir","../model_train/runs128", "训练的模型存储路径")
33 | tf.flags.DEFINE_boolean("save_bool", False, "是否存入新表")
34 |
35 | # Misc Parameters
36 | tf.flags.DEFINE_boolean("allow_soft_placement", True, "Allow device soft device placement")
37 | tf.flags.DEFINE_boolean("log_device_placement", False, "Log placement of ops on devices")
38 |
39 | FLAGS = tf.flags.FLAGS
40 | print("\nParameters:")
41 | for attr, value in sorted(FLAGS.flag_values_dict().items()):
42 | print("{}={}".format(attr, value))
43 | print("全部参数打印完成!\n")
44 |
45 |
46 | # ========================================== 导入自己的测试数据 =============================#
47 | x_raw,save_data = predictionapp.get_sql_data1(FLAGS.input_table,FLAGS.user,FLAGS.passwd,
48 | FLAGS.host,FLAGS.port,FLAGS.dbname,FLAGS.nums,FLAGS.start)
49 |
50 | # 将原始数据映射到词典
51 | vocab_path = os.path.join(FLAGS.checkpoint_dir,"vocab")
52 | vocab_processor = learn.preprocessing.VocabularyProcessor.restore(vocab_path)
53 | x_test = np.array(list(vocab_processor.transform(x_raw)))
54 | print("\nEvaluating...\n")
55 |
56 |
57 | #### ======================================== 计算测试 ===================================###
58 | # checkpoint_file = tf.train.latest_checkpoint(os.path.join(FLAGS.checkpoint_dir, "checkpoints"))
59 | graph = tf.Graph()
60 | with graph.as_default():
61 | session_conf = tf.ConfigProto(
62 | allow_soft_placement=FLAGS.allow_soft_placement,
63 | log_device_placement=FLAGS.log_device_placement)
64 | sess = tf.Session(config=session_conf)
65 | with sess.as_default():
66 | # 同时加载计算图以及变量
67 | ckpt = tf.train.get_checkpoint_state(os.path.join(FLAGS.checkpoint_dir, "checkpoints"))
68 | if ckpt and ckpt.model_checkpoint_path:
69 | checkpoint_file = ckpt.model_checkpoint_path
70 | saver = tf.train.import_meta_graph("{}.meta".format(checkpoint_file))
71 | saver.restore(sess, checkpoint_file)
72 | input_x = graph.get_operation_by_name("input_x").outputs[0]
73 | dropout_keep_prob = graph.get_operation_by_name("dropout_keep_prob").outputs[0]
74 | # 找到我们需要进行计算的变量,目标输出变量
75 | predictions = graph.get_operation_by_name("output/predictions").outputs[0]
76 | # 开始收集预测结果
77 | if FLAGS.nums <= 2000:# 一次性处理记录不多时,直接处理
78 | all_predictions = sess.run(predictions, {input_x: x_test, dropout_keep_prob: 1.0})
79 | else:# 数据量过多,用bache分解数据
80 | batches = data_process_train.batch_iter(list(x_test), FLAGS.batch_size, 1, shuffle=False)
81 | # 收集所有的预测输出
82 | all_predictions = []
83 | for x_test_batch in batches:
84 | batch_predictions = sess.run(predictions, {input_x: x_test_batch, dropout_keep_prob: 1.0})
85 | all_predictions = np.concatenate([all_predictions, batch_predictions])
86 | else:
87 | print('模型不存在,请检查模型路径或者训练模型!\n')
88 |
89 | # 对应类别名字典,prediction转化为标签
90 | new_dict = [open('../data_process/new_class.txt').read()]
91 | new_dict = eval(new_dict[0])
92 | labels = []
93 | for i in all_predictions:
94 | labels.append(new_dict[int(i)])
95 |
96 | # 粘合数据
97 | save_data['prediction'] = pd.Series(all_predictions)
98 | save_data['label'] = pd.Series(labels)
99 | print('开始存入数据库!')
100 | if FLAGS.save_bool:
101 | '''存入一张新表中,包含原始的信息'''
102 | predictionapp.insert_new(save_data,FLAGS.output_table,FLAGS.user,FLAGS.passwd,FLAGS.host,FLAGS.port,FLAGS.dbname)
103 | else:
104 | '''存入旧表中'''
105 | predictionapp.insert_raw(all_predictions,labels,save_data,FLAGS.input_table,FLAGS.user,FLAGS.passwd,FLAGS.host,FLAGS.port,FLAGS.dbname)
106 |
107 |
108 |
109 |
110 |
--------------------------------------------------------------------------------
/model_train/cnn_train.py:
--------------------------------------------------------------------------------
1 | # -*- coding: utf-8 -*-
2 | """
3 | Created on Fri Jun 22 11:02:03 2018
4 |
5 | @author: Administrator
6 | """
7 | import os
8 | os.environ['TF_CPP_MIN_LOG_LEVEL'] = '3'
9 |
10 | import tensorflow as tf
11 | import numpy as np
12 | import datetime
13 | from tensorflow.contrib import learn
14 | from data_process import data_process_train
15 | from model_train.cnn_model import CNN_TEXT
16 |
17 | # Parameters
18 | #### ==================================================####
19 |
20 | # data parameters
21 | tf.flags.DEFINE_float("dev_sample_percentage", 0.025, "验证集大小")
22 | tf.flags.DEFINE_string("datapath", "../data/train_texts.csv", "数据路径")
23 |
24 | # model hyper parameters
25 | tf.flags.DEFINE_integer("embedding_dim", 200, "词向量维度")
26 | tf.flags.DEFINE_string("filter_sizes", "3,4,5", "滤波器的大小")
27 | tf.flags.DEFINE_integer("num_filters", 128, "信道数量")
28 | tf.flags.DEFINE_float("dropout_keep_prob", 0.5, "Dropout keep probability (default: 0.5)")
29 | tf.flags.DEFINE_float("l2_reg_lambda", 0.0, "L2 regularization lambda (default: 0.0)")
30 |
31 | # Training parameters
32 | tf.flags.DEFINE_integer("batch_size", 256, "Batch Size (default: 256)")
33 | tf.flags.DEFINE_integer("num_epochs", 20, "Number of training epochs (default: 10)")
34 | tf.flags.DEFINE_integer("evaluate_every", 100, "每训练多少步以后在验证集上进行训练")
35 | tf.flags.DEFINE_integer("checkpoint_every", 100, "每次训多少步以后断电存储模型")
36 | tf.flags.DEFINE_integer("num_checkpoints", 5, "所能容纳的最多的模型数量")
37 |
38 | # Misc Parameters
39 | tf.flags.DEFINE_boolean("allow_soft_placement", True, "Allow device soft device placement")
40 | tf.flags.DEFINE_boolean("log_device_placement", False, "Log placement of ops on devices")
41 |
42 | FLAGS = tf.flags.FLAGS
43 | print("\nParameters:")
44 | for attr, value in sorted(FLAGS.flag_values_dict().items()):
45 | print("{}={}".format(attr, value))
46 | print("")
47 |
48 | ###===========================1 Data_process===============###
49 | # 导入数据
50 | print('loaing data:\n')
51 | x_text, y = data_process_train.load_data_and_labels(FLAGS.datapath)
52 | x_text = x_text.astype(np.str_)
53 | print('训练数据的大小为{}\n'.format(len(y)))
54 |
55 | # 建立词表,将词数字化
56 | def f1(x):
57 | return len(x)
58 | # 取文档平均词个数的25%为文档训练所截取的词个数
59 | max_document_len = int(x_text.apply(f1).mean()/4)
60 | print('文档取词个数为:{}\n'.format(max_document_len))
61 | vocab_process = learn.preprocessing.VocabularyProcessor(max_document_len)
62 | x = vocab_process.fit_transform(x_text)
63 | x = np.array(list(x))
64 | print('词表建立,数字化结束!\n')
65 |
66 | # shuffle data
67 | np.random.seed(123)
68 | shuffle_index = np.random.permutation(np.arange(len(y)))
69 | x_shuffled = x[shuffle_index]
70 | y_shuffled = y[shuffle_index]
71 |
72 | # split train/dev set
73 | from sklearn.cross_validation import train_test_split
74 | x_train, x_dev, y_train, y_dev = train_test_split(x_shuffled, y_shuffled,
75 | test_size=FLAGS.dev_sample_percentage, random_state=0)
76 |
77 | # 释放内存
78 | del x_shuffled, y_shuffled, x, y, x_text, attr, value
79 |
80 | print("Vocabulary Size: {:d}".format(len(vocab_process.vocabulary_)))
81 | print("Train/Dev split: {:d}/{:d}".format(len(y_train), len(y_dev)))
82 |
83 | print('一切准备就绪,我要就开始训练了!!!')
84 | ### =========================2 train ========================###
85 | with tf.Graph().as_default():
86 | session_conf = tf.ConfigProto(
87 | allow_soft_placement=FLAGS.allow_soft_placement,
88 | log_device_placement=FLAGS.log_device_placement)
89 | sess = tf.Session(config=session_conf)
90 | with sess.as_default():
91 | cnn = CNN_TEXT(
92 | sequence_length=max_document_len,
93 | num_classes=y_train.shape[1],
94 | vocab_size=len(vocab_process.vocabulary_),
95 | embedding_size=FLAGS.embedding_dim,
96 | filter_sizes=list(map(int, FLAGS.filter_sizes.split(","))),
97 | num_filters=FLAGS.num_filters,
98 | l2_reg_lambda=FLAGS.l2_reg_lambda)
99 |
100 | # 训练(优化器)
101 | global_step = tf.Variable(0, name='global_step', trainable=False)
102 | optimizer = tf.train.AdamOptimizer(learning_rate=0.001)
103 | grads_vars = optimizer.compute_gradients(cnn.loss)
104 | train_op = optimizer.apply_gradients(grads_vars, global_step=global_step)
105 |
106 | # 跟踪梯度值的变化并且保存
107 | grad_summaries = []
108 | for g, v in grads_vars:
109 | if g is not None:
110 | grad_hist = tf.summary.histogram("{}/grad/hist".format(v.name), g)
111 | sparsity_scalar = tf.summary.scalar("{}/grad/sparsity".format(v.name), tf.nn.zero_fraction(g))
112 | grad_summaries.append(grad_hist)
113 | grad_summaries.append(sparsity_scalar)
114 | grad_summaries_merged = tf.summary.merge(grad_summaries)
115 |
116 | # 输出路径创建
117 | out_dir = os.path.abspath(os.path.join(os.path.curdir, "runs"))
118 | print("Writing to {}\n".format(out_dir))
119 |
120 | # 跟踪loss以及accuaacy的变化
121 | loss_sum = tf.summary.scalar('loss', cnn.loss)
122 | accuracy_sum = tf.summary.scalar('accuracy', cnn.accuracy)
123 |
124 | # train_summaries
125 | train_op_sum = tf.summary.merge([loss_sum, accuracy_sum, grad_summaries_merged])
126 | train_sum_dir = os.path.join(out_dir, 'summaries', 'train')
127 | train_summary_writer = tf.summary.FileWriter(train_sum_dir, sess.graph)
128 |
129 | # dev_summarier
130 | dev_op_sum = tf.summary.merge([loss_sum, accuracy_sum])
131 | dev_sum_dir = os.path.join(out_dir, 'summaries', 'dev')
132 | dev_summary_writer = tf.summary.FileWriter(dev_sum_dir, sess.graph)
133 |
134 | # Checkpoint directory creat.
135 | checkpoint_dir = os.path.abspath(os.path.join(out_dir, 'checkpoints'))
136 | checkpoint_prefix = os.path.join(checkpoint_dir, "model")
137 | if not os.path.exists(checkpoint_dir):
138 | os.makedirs(checkpoint_dir)
139 | saver = tf.train.Saver(tf.global_variables(), max_to_keep=FLAGS.num_checkpoints)
140 |
141 | # 保存词表
142 | vocab_process.save(os.path.join(out_dir, 'vocab'))
143 |
144 | # 初始化
145 | sess.run(tf.global_variables_initializer())
146 |
147 |
148 | # 一次训练
149 | def train_step(x_batch, y_batch):
150 | feed_dict = {
151 | cnn.input_x: x_batch,
152 | cnn.input_y: y_batch,
153 | cnn.dropout_keep_prob: FLAGS.dropout_keep_prob}
154 | _, step, summaries, loss, accuracy = sess.run(
155 | [train_op, global_step, train_op_sum, cnn.loss, cnn.accuracy],
156 | feed_dict=feed_dict)
157 | time_str = datetime.datetime.now().isoformat().replace('T', '-').split('.')[0]
158 | print("{}: step {}, loss {:g}, acc {:g}\n".format(time_str, step, loss, accuracy))
159 | train_summary_writer.add_summary(summaries, step)
160 |
161 |
162 | # 一次验证
163 | def dev_step(x_batch, y_batch, writer=None):
164 | feed_dict = {
165 | cnn.input_x: x_batch,
166 | cnn.input_y: y_batch,
167 | cnn.dropout_keep_prob: 1.0}
168 | _, step, summaries, loss, accuracy = sess.run(
169 | [train_op, global_step, dev_op_sum, cnn.loss, cnn.accuracy],
170 | feed_dict=feed_dict)
171 | time_str = datetime.datetime.now().isoformat().replace('T', '-').split('.')[0]
172 | print("{}: step {}, loss {:g}, acc {:g}\n".format(time_str, step, loss, accuracy))
173 | if writer:
174 | writer.add_summary(summaries, step)
175 |
176 | # 恢复保存的神经网络结构,实现断点续训
177 | ckpt = tf.train.get_checkpoint_state(os.path.join(out_dir, 'checkpoints'))
178 | if ckpt and ckpt.model_checkpoint_path:
179 | saver.restore(sess, ckpt.model_checkpoint_path)
180 | print('之前的模型导入成功!')
181 |
182 | # 循环进行训练多个epoch
183 | for epoch in range(FLAGS.num_epochs):
184 | print('正在进行第 {} 次循环!'.format(epoch+1))
185 | # 产生bache数据集
186 | batches = data_process_train.batch_iter(
187 | list(zip(x_train, y_train)), FLAGS.batch_size)
188 | for batche in batches:
189 | x_batch, y_batch = zip(*batche)
190 | train_step(x_batch, y_batch)
191 | current_step = tf.train.global_step(sess, global_step)
192 | if current_step % FLAGS.evaluate_every == 0:
193 | print("\n=========Evaluation=========:")
194 | dev_step(x_dev, y_dev, writer=dev_summary_writer)
195 | print("\n")
196 | if current_step % FLAGS.checkpoint_every == 0:
197 | path = saver.save(sess, checkpoint_prefix, global_step=current_step)
198 | print("Saved model checkpoint to {}\n".format(path))
199 | print('第 {} 次循环结束!'.format(epoch + 1))
200 |
--------------------------------------------------------------------------------
/model_eval/stopwords.txt:
--------------------------------------------------------------------------------
1 | ①
2 | ②
3 | ②
4 | ③
5 | ③
6 | ④
7 | ⑤
8 | ⑥
9 | ⑦
10 | ⑧
11 | ⑨
12 | ⑩
13 | 今日
14 | 每日
15 | 昨日
16 | 此前
17 | 转载
18 | 这位
19 | 新闻
20 | 证券网
21 | 发稿
22 | 正
23 | 登载
24 | 此文
25 | 如需
26 | 文章内容
27 | 仅供参考
28 | 报社
29 | 镜像
30 | 违者必究
31 | 刊发
32 | ———
33 | 》),
34 | )÷(1-
35 | ”,
36 | )、
37 | =(
38 | :
39 | →
40 | ℃
41 | &
42 | *
43 | 一一
44 | ~~~~
45 | ’
46 | .
47 | 『
48 | .一
49 | ./
50 | --
51 | 』
52 | =″
53 | 【
54 | [*]
55 | }>
56 | [⑤]]
57 | [①D]
58 | c]
59 | ng昉
60 | *
61 | //
62 | [
63 | ]
64 | [②e]
65 | [②g]
66 | ={
67 | }
68 | ,也
69 | ‘
70 | A
71 | [①⑥]
72 | [②B]
73 | [①a]
74 | [④a]
75 | [①③]
76 | [③h]
77 | ③]
78 | 1.
79 | --
80 | [②b]
81 | ’‘
82 | ×××
83 | [①⑧]
84 | 0:2
85 | =[
86 | [⑤b]
87 | [②c]
88 | [④b]
89 | [②③]
90 | [③a]
91 | [④c]
92 | [①⑤]
93 | [①⑦]
94 | [①g]
95 | ∈[
96 | [①⑨]
97 | [①④]
98 | [①c]
99 | [②f]
100 | [②⑧]
101 | [②①]
102 | [①C]
103 | [③c]
104 | [③g]
105 | [②⑤]
106 | [②②]
107 | 一.
108 | [①h]
109 | .数
110 | []
111 | [①B]
112 | 数/
113 | [①i]
114 | [③e]
115 | [①①]
116 | [④d]
117 | [④e]
118 | [③b]
119 | [⑤a]
120 | [①A]
121 | [②⑧]
122 | [②⑦]
123 | [①d]
124 | [②j]
125 | 〕〔
126 | ][
127 | ://
128 | ′∈
129 | [②④
130 | [⑤e]
131 | 12%
132 | b]
133 | ...
134 | ...................
135 | …………………………………………………③
136 | ZXFITL
137 | [③F]
138 | 」
139 | [①o]
140 | ]∧′=[
141 | ∪φ∈
142 | ′|
143 | {-
144 | ②c
145 | }
146 | [③①]
147 | R.L.
148 | [①E]
149 | Ψ
150 | -[*]-
151 | ↑
152 | .日
153 | [②d]
154 | [②
155 | [②⑦]
156 | [②②]
157 | [③e]
158 | [①i]
159 | [①B]
160 | [①h]
161 | [①d]
162 | [①g]
163 | [①②]
164 | [②a]
165 | f]
166 | [⑩]
167 | a]
168 | [①e]
169 | [②h]
170 | [②⑥]
171 | [③d]
172 | [②⑩]
173 | e]
174 | 〉
175 | 】
176 | 元/吨
177 | [②⑩]
178 | 2.3%
179 | 5:0
180 | [①]
181 | ::
182 | [②]
183 | [③]
184 | [④]
185 | [⑤]
186 | [⑥]
187 | [⑦]
188 | [⑧]
189 | [⑨]
190 | ……
191 | ——
192 | ?
193 | 、
194 | 。
195 | “
196 | ”
197 | 《
198 | 》
199 | !
200 | ,
201 | :
202 | ;
203 | ?
204 | .
205 | ,
206 | .
207 | '
208 | ?
209 | ·
210 | ———
211 | ──
212 | ?
213 | —
214 | <
215 | >
216 | (
217 | )
218 | 〔
219 | 〕
220 | [
221 | ]
222 | (
223 | )
224 | -
225 | +
226 | ~
227 | ×
228 | /
229 | /
230 | ①
231 | ②
232 | ③
233 | ④
234 | ⑤
235 | ⑥
236 | ⑦
237 | ⑧
238 | ⑨
239 | ⑩
240 | Ⅲ
241 | В
242 | "
243 | ;
244 | #
245 | @
246 | γ
247 | μ
248 | φ
249 | φ.
250 | ×
251 | Δ
252 | ■
253 | ▲
254 | sub
255 | exp
256 | sup
257 | sub
258 | Lex
259 | #
260 | %
261 | &
262 | '
263 | +
264 | +ξ
265 | ++
266 | -
267 | -β
268 | <
269 | <±
270 | <Δ
271 | <λ
272 | <φ
273 | <<
274 | =
275 | =
276 | =☆
277 | =-
278 | >
279 | >λ
280 | _
281 | ~±
282 | ~+
283 | [⑤f]
284 | [⑤d]
285 | [②i]
286 | ≈
287 | [②G]
288 | [①f]
289 | LI
290 | ㈧
291 | [-
292 | ......
293 | 〉
294 | 啊
295 | 阿
296 | 哎
297 | 哎呀
298 | 哎哟
299 | 唉
300 | 俺
301 | 俺们
302 | 按
303 | 按照
304 | 吧
305 | 吧哒
306 | 把
307 | 罢了
308 | 被
309 | 本
310 | 本着
311 | 比
312 | 比方
313 | 比如
314 | 鄙人
315 | 彼
316 | 彼此
317 | 边
318 | 别
319 | 别的
320 | 别说
321 | 并
322 | 并且
323 | 不比
324 | 不成
325 | 不单
326 | 不但
327 | 不独
328 | 不管
329 | 不光
330 | 不过
331 | 不仅
332 | 不拘
333 | 不论
334 | 不怕
335 | 不然
336 | 不如
337 | 不特
338 | 不惟
339 | 不问
340 | 不只
341 | 朝
342 | 朝着
343 | 趁
344 | 趁着
345 | 乘
346 | 冲
347 | 除
348 | 除此之外
349 | 除非
350 | 除了
351 | 此
352 | 此间
353 | 此外
354 | 从
355 | 从而
356 | 打
357 | 待
358 | 但
359 | 但是
360 | 当
361 | 当着
362 | 到
363 | 得
364 | 的
365 | 的话
366 | 等
367 | 等等
368 | 地
369 | 第
370 | 叮咚
371 | 对
372 | 对于
373 | 多
374 | 多少
375 | 而
376 | 而况
377 | 而且
378 | 而是
379 | 而外
380 | 而言
381 | 而已
382 | 尔后
383 | 反过来
384 | 反过来说
385 | 反之
386 | 非但
387 | 非徒
388 | 否则
389 | 嘎
390 | 嘎登
391 | 该
392 | 赶
393 | 个
394 | 各
395 | 各个
396 | 各位
397 | 各种
398 | 各自
399 | 给
400 | 根据
401 | 跟
402 | 故
403 | 故此
404 | 固然
405 | 关于
406 | 管
407 | 归
408 | 果然
409 | 果真
410 | 过
411 | 哈
412 | 哈哈
413 | 呵
414 | 和
415 | 何
416 | 何处
417 | 何况
418 | 何时
419 | 嘿
420 | 哼
421 | 哼唷
422 | 呼哧
423 | 乎
424 | 哗
425 | 还是
426 | 还有
427 | 换句话说
428 | 换言之
429 | 或
430 | 或是
431 | 或者
432 | 极了
433 | 及
434 | 及其
435 | 及至
436 | 即
437 | 即便
438 | 即或
439 | 即令
440 | 即若
441 | 即使
442 | 几
443 | 几时
444 | 己
445 | 既
446 | 既然
447 | 既是
448 | 继而
449 | 加之
450 | 假如
451 | 假若
452 | 假使
453 | 鉴于
454 | 将
455 | 较
456 | 较之
457 | 叫
458 | 接着
459 | 结果
460 | 借
461 | 紧接着
462 | 进而
463 | 尽
464 | 尽管
465 | 经
466 | 经过
467 | 就
468 | 就是
469 | 就是说
470 | 据
471 | 具体地说
472 | 具体说来
473 | 开始
474 | 开外
475 | 靠
476 | 咳
477 | 可
478 | 可见
479 | 可是
480 | 可以
481 | 况且
482 | 啦
483 | 来
484 | 来着
485 | 离
486 | 例如
487 | 哩
488 | 连
489 | 连同
490 | 两者
491 | 了
492 | 临
493 | 另
494 | 另外
495 | 另一方面
496 | 论
497 | 嘛
498 | 吗
499 | 慢说
500 | 漫说
501 | 冒
502 | 么
503 | 每
504 | 每当
505 | 们
506 | 莫若
507 | 某
508 | 某个
509 | 某些
510 | 拿
511 | 哪
512 | 哪边
513 | 哪儿
514 | 哪个
515 | 哪里
516 | 哪年
517 | 哪怕
518 | 哪天
519 | 哪些
520 | 哪样
521 | 那
522 | 那边
523 | 那儿
524 | 那个
525 | 那会儿
526 | 那里
527 | 那么
528 | 那么些
529 | 那么样
530 | 那时
531 | 那些
532 | 那样
533 | 乃
534 | 乃至
535 | 呢
536 | 能
537 | 你
538 | 你们
539 | 您
540 | 宁
541 | 宁可
542 | 宁肯
543 | 宁愿
544 | 哦
545 | 呕
546 | 啪达
547 | 旁人
548 | 呸
549 | 凭
550 | 凭借
551 | 其
552 | 其次
553 | 其二
554 | 其他
555 | 其它
556 | 其一
557 | 其余
558 | 其中
559 | 起
560 | 起见
561 | 岂但
562 | 恰恰相反
563 | 前后
564 | 前者
565 | 且
566 | 然而
567 | 然后
568 | 然则
569 | 让
570 | 人家
571 | 任
572 | 任何
573 | 任凭
574 | 如
575 | 如此
576 | 如果
577 | 如何
578 | 如其
579 | 如若
580 | 如上所述
581 | 若
582 | 若非
583 | 若是
584 | 啥
585 | 上下
586 | 尚且
587 | 设若
588 | 设使
589 | 甚而
590 | 甚么
591 | 甚至
592 | 省得
593 | 时候
594 | 什么
595 | 什么样
596 | 使得
597 | 是
598 | 是的
599 | 首先
600 | 谁
601 | 谁知
602 | 顺
603 | 顺着
604 | 似的
605 | 虽
606 | 虽然
607 | 虽说
608 | 虽则
609 | 随
610 | 随着
611 | 所
612 | 所以
613 | 他
614 | 他们
615 | 他人
616 | 它
617 | 它们
618 | 她
619 | 她们
620 | 倘
621 | 倘或
622 | 倘然
623 | 倘若
624 | 倘使
625 | 腾
626 | 替
627 | 通过
628 | 同
629 | 同时
630 | 哇
631 | 万一
632 | 往
633 | 望
634 | 为
635 | 为何
636 | 为了
637 | 为什么
638 | 为着
639 | 喂
640 | 嗡嗡
641 | 我
642 | 我们
643 | 呜
644 | 呜呼
645 | 乌乎
646 | 无论
647 | 无宁
648 | 毋宁
649 | 嘻
650 | 吓
651 | 相对而言
652 | 像
653 | 向
654 | 向着
655 | 嘘
656 | 呀
657 | 焉
658 | 沿
659 | 沿着
660 | 要
661 | 要不
662 | 要不然
663 | 要不是
664 | 要么
665 | 要是
666 | 也
667 | 也罢
668 | 也好
669 | 一
670 | 一般
671 | 一旦
672 | 一方面
673 | 一来
674 | 一切
675 | 一样
676 | 一则
677 | 依
678 | 依照
679 | 矣
680 | 以
681 | 以便
682 | 以及
683 | 以免
684 | 以至
685 | 以至于
686 | 以致
687 | 抑或
688 | 因
689 | 因此
690 | 因而
691 | 因为
692 | 哟
693 | 用
694 | 由
695 | 由此可见
696 | 由于
697 | 有
698 | 有的
699 | 有关
700 | 有些
701 | 又
702 | 于
703 | 于是
704 | 于是乎
705 | 与
706 | 与此同时
707 | 与否
708 | 与其
709 | 越是
710 | 云云
711 | 哉
712 | 再说
713 | 再者
714 | 在
715 | 在下
716 | 咱
717 | 咱们
718 | 则
719 | 怎
720 | 怎么
721 | 怎么办
722 | 怎么样
723 | 怎样
724 | 咋
725 | 照
726 | 照着
727 | 者
728 | 这
729 | 这边
730 | 这儿
731 | 这个
732 | 这会儿
733 | 这就是说
734 | 这里
735 | 这么
736 | 这么点儿
737 | 这么些
738 | 这么样
739 | 这时
740 | 这些
741 | 这样
742 | 正如
743 | 吱
744 | 之
745 | 之类
746 | 之所以
747 | 之一
748 | 只是
749 | 只限
750 | 只要
751 | 只有
752 | 至
753 | 至于
754 | 诸位
755 | 着
756 | 着呢
757 | 自
758 | 自从
759 | 自个儿
760 | 自各儿
761 | 自己
762 | 自家
763 | 自身
764 | 综上所述
765 | 总的来看
766 | 总的来说
767 | 总的说来
768 | 总而言之
769 | 总之
770 | 纵
771 | 纵令
772 | 纵然
773 | 纵使
774 | 遵照
775 | 作为
776 | 兮
777 | 呃
778 | 呗
779 | 咚
780 | 咦
781 | 喏
782 | 啐
783 | 喔唷
784 | 嗬
785 | 嗯
786 | 嗳
787 | 啊哈
788 | 啊呀
789 | 啊哟
790 | 挨次
791 | 挨个
792 | 挨家挨户
793 | 挨门挨户
794 | 挨门逐户
795 | 挨着
796 | 按理
797 | 按期
798 | 按时
799 | 按说
800 | 暗地里
801 | 暗中
802 | 暗自
803 | 昂然
804 | 八成
805 | 白白
806 | 半
807 | 梆
808 | 保管
809 | 保险
810 | 饱
811 | 背地里
812 | 背靠背
813 | 倍感
814 | 倍加
815 | 本人
816 | 本身
817 | 甭
818 | 比起
819 | 比如说
820 | 比照
821 | 毕竟
822 | 必
823 | 必定
824 | 必将
825 | 必须
826 | 便
827 | 别人
828 | 并非
829 | 并肩
830 | 并没
831 | 并没有
832 | 并排
833 | 并无
834 | 勃然
835 | 不
836 | 不必
837 | 不常
838 | 不大
839 | 不得
840 | 不得不
841 | 不得了
842 | 不得已
843 | 不迭
844 | 不定
845 | 不对
846 | 不妨
847 | 不管怎样
848 | 不会
849 | 不仅仅
850 | 不仅仅是
851 | 不经意
852 | 不可开交
853 | 不可抗拒
854 | 不力
855 | 不了
856 | 不料
857 | 不满
858 | 不免
859 | 不能不
860 | 不起
861 | 不巧
862 | 不然的话
863 | 不日
864 | 不少
865 | 不胜
866 | 不时
867 | 不是
868 | 不同
869 | 不能
870 | 不要
871 | 不外
872 | 不外乎
873 | 不下
874 | 不限
875 | 不消
876 | 不已
877 | 不亦乐乎
878 | 不由得
879 | 不再
880 | 不择手段
881 | 不怎么
882 | 不曾
883 | 不知不觉
884 | 不止
885 | 不止一次
886 | 不至于
887 | 才
888 | 才能
889 | 策略地
890 | 差不多
891 | 差一点
892 | 常
893 | 常常
894 | 常言道
895 | 常言说
896 | 常言说得好
897 | 长此下去
898 | 长话短说
899 | 长期以来
900 | 长线
901 | 敞开儿
902 | 彻夜
903 | 陈年
904 | 趁便
905 | 趁机
906 | 趁热
907 | 趁势
908 | 趁早
909 | 成年
910 | 成年累月
911 | 成心
912 | 乘机
913 | 乘胜
914 | 乘势
915 | 乘隙
916 | 乘虚
917 | 诚然
918 | 迟早
919 | 充分
920 | 充其极
921 | 充其量
922 | 抽冷子
923 | 臭
924 | 初
925 | 出
926 | 出来
927 | 出去
928 | 除此
929 | 除此而外
930 | 除此以外
931 | 除开
932 | 除去
933 | 除却
934 | 除外
935 | 处处
936 | 川流不息
937 | 传
938 | 传说
939 | 传闻
940 | 串行
941 | 纯
942 | 纯粹
943 | 此后
944 | 此中
945 | 次第
946 | 匆匆
947 | 从不
948 | 从此
949 | 从此以后
950 | 从古到今
951 | 从古至今
952 | 从今以后
953 | 从宽
954 | 从来
955 | 从轻
956 | 从速
957 | 从头
958 | 从未
959 | 从无到有
960 | 从小
961 | 从新
962 | 从严
963 | 从优
964 | 从早到晚
965 | 从中
966 | 从重
967 | 凑巧
968 | 粗
969 | 存心
970 | 达旦
971 | 打从
972 | 打开天窗说亮话
973 | 大
974 | 大不了
975 | 大大
976 | 大抵
977 | 大都
978 | 大多
979 | 大凡
980 | 大概
981 | 大家
982 | 大举
983 | 大略
984 | 大面儿上
985 | 大事
986 | 大体
987 | 大体上
988 | 大约
989 | 大张旗鼓
990 | 大致
991 | 呆呆地
992 | 带
993 | 殆
994 | 待到
995 | 单
996 | 单纯
997 | 单单
998 | 但愿
999 | 弹指之间
1000 | 当场
1001 | 当儿
1002 | 当即
1003 | 当口儿
1004 | 当然
1005 | 当庭
1006 | 当头
1007 | 当下
1008 | 当真
1009 | 当中
1010 | 倒不如
1011 | 倒不如说
1012 | 倒是
1013 | 到处
1014 | 到底
1015 | 到了儿
1016 | 到目前为止
1017 | 到头
1018 | 到头来
1019 | 得起
1020 | 得天独厚
1021 | 的确
1022 | 等到
1023 | 叮当
1024 | 顶多
1025 | 定
1026 | 动不动
1027 | 动辄
1028 | 陡然
1029 | 都
1030 | 独
1031 | 独自
1032 | 断然
1033 | 顿时
1034 | 多次
1035 | 多多
1036 | 多多少少
1037 | 多多益善
1038 | 多亏
1039 | 多年来
1040 | 多年前
1041 | 而后
1042 | 而论
1043 | 而又
1044 | 尔等
1045 | 二话不说
1046 | 二话没说
1047 | 反倒
1048 | 反倒是
1049 | 反而
1050 | 反手
1051 | 反之亦然
1052 | 反之则
1053 | 方
1054 | 方才
1055 | 方能
1056 | 放量
1057 | 非常
1058 | 非得
1059 | 分期
1060 | 分期分批
1061 | 分头
1062 | 奋勇
1063 | 愤然
1064 | 风雨无阻
1065 | 逢
1066 | 弗
1067 | 甫
1068 | 嘎嘎
1069 | 该当
1070 | 概
1071 | 赶快
1072 | 赶早不赶晚
1073 | 敢
1074 | 敢情
1075 | 敢于
1076 | 刚
1077 | 刚才
1078 | 刚好
1079 | 刚巧
1080 | 高低
1081 | 格外
1082 | 隔日
1083 | 隔夜
1084 | 个人
1085 | 各式
1086 | 更
1087 | 更加
1088 | 更进一步
1089 | 更为
1090 | 公然
1091 | 共
1092 | 共总
1093 | 够瞧的
1094 | 姑且
1095 | 古来
1096 | 故而
1097 | 故意
1098 | 固
1099 | 怪
1100 | 怪不得
1101 | 惯常
1102 | 光
1103 | 光是
1104 | 归根到底
1105 | 归根结底
1106 | 过于
1107 | 毫不
1108 | 毫无
1109 | 毫无保留地
1110 | 毫无例外
1111 | 好在
1112 | 何必
1113 | 何尝
1114 | 何妨
1115 | 何苦
1116 | 何乐而不为
1117 | 何须
1118 | 何止
1119 | 很
1120 | 很多
1121 | 很少
1122 | 轰然
1123 | 后来
1124 | 呼啦
1125 | 忽地
1126 | 忽然
1127 | 互
1128 | 互相
1129 | 哗啦
1130 | 话说
1131 | 还
1132 | 恍然
1133 | 会
1134 | 豁然
1135 | 活
1136 | 伙同
1137 | 或多或少
1138 | 或许
1139 | 基本
1140 | 基本上
1141 | 基于
1142 | 极
1143 | 极大
1144 | 极度
1145 | 极端
1146 | 极力
1147 | 极其
1148 | 极为
1149 | 急匆匆
1150 | 即将
1151 | 即刻
1152 | 即是说
1153 | 几度
1154 | 几番
1155 | 几乎
1156 | 几经
1157 | 既…又
1158 | 继之
1159 | 加上
1160 | 加以
1161 | 间或
1162 | 简而言之
1163 | 简言之
1164 | 简直
1165 | 见
1166 | 将才
1167 | 将近
1168 | 将要
1169 | 交口
1170 | 较比
1171 | 较为
1172 | 接连不断
1173 | 接下来
1174 | 皆可
1175 | 截然
1176 | 截至
1177 | 藉以
1178 | 借此
1179 | 借以
1180 | 届时
1181 | 仅
1182 | 仅仅
1183 | 谨
1184 | 进来
1185 | 进去
1186 | 近
1187 | 近几年来
1188 | 近来
1189 | 近年来
1190 | 尽管如此
1191 | 尽可能
1192 | 尽快
1193 | 尽量
1194 | 尽然
1195 | 尽如人意
1196 | 尽心竭力
1197 | 尽心尽力
1198 | 尽早
1199 | 精光
1200 | 经常
1201 | 竟
1202 | 竟然
1203 | 究竟
1204 | 就此
1205 | 就地
1206 | 就算
1207 | 居然
1208 | 局外
1209 | 举凡
1210 | 据称
1211 | 据此
1212 | 据实
1213 | 据说
1214 | 据我所知
1215 | 据悉
1216 | 具体来说
1217 | 决不
1218 | 决非
1219 | 绝
1220 | 绝不
1221 | 绝顶
1222 | 绝对
1223 | 绝非
1224 | 均
1225 | 喀
1226 | 看
1227 | 看来
1228 | 看起来
1229 | 看上去
1230 | 看样子
1231 | 可好
1232 | 可能
1233 | 恐怕
1234 | 快
1235 | 快要
1236 | 来不及
1237 | 来得及
1238 | 来讲
1239 | 来看
1240 | 拦腰
1241 | 牢牢
1242 | 老
1243 | 老大
1244 | 老老实实
1245 | 老是
1246 | 累次
1247 | 累年
1248 | 理当
1249 | 理该
1250 | 理应
1251 | 历
1252 | 立
1253 | 立地
1254 | 立刻
1255 | 立马
1256 | 立时
1257 | 联袂
1258 | 连连
1259 | 连日
1260 | 连日来
1261 | 连声
1262 | 连袂
1263 | 临到
1264 | 另方面
1265 | 另行
1266 | 另一个
1267 | 路经
1268 | 屡
1269 | 屡次
1270 | 屡次三番
1271 | 屡屡
1272 | 缕缕
1273 | 率尔
1274 | 率然
1275 | 略
1276 | 略加
1277 | 略微
1278 | 略为
1279 | 论说
1280 | 马上
1281 | 蛮
1282 | 满
1283 | 没
1284 | 没有
1285 | 每逢
1286 | 每每
1287 | 每时每刻
1288 | 猛然
1289 | 猛然间
1290 | 莫
1291 | 莫不
1292 | 莫非
1293 | 莫如
1294 | 默默地
1295 | 默然
1296 | 呐
1297 | 那末
1298 | 奈
1299 | 难道
1300 | 难得
1301 | 难怪
1302 | 难说
1303 | 内
1304 | 年复一年
1305 | 凝神
1306 | 偶而
1307 | 偶尔
1308 | 怕
1309 | 砰
1310 | 碰巧
1311 | 譬如
1312 | 偏偏
1313 | 乒
1314 | 平素
1315 | 颇
1316 | 迫于
1317 | 扑通
1318 | 其后
1319 | 其实
1320 | 奇
1321 | 齐
1322 | 起初
1323 | 起来
1324 | 起首
1325 | 起头
1326 | 起先
1327 | 岂
1328 | 岂非
1329 | 岂止
1330 | 迄
1331 | 恰逢
1332 | 恰好
1333 | 恰恰
1334 | 恰巧
1335 | 恰如
1336 | 恰似
1337 | 千
1338 | 万
1339 | 千万
1340 | 千万千万
1341 | 切
1342 | 切不可
1343 | 切莫
1344 | 切切
1345 | 切勿
1346 | 窃
1347 | 亲口
1348 | 亲身
1349 | 亲手
1350 | 亲眼
1351 | 亲自
1352 | 顷
1353 | 顷刻
1354 | 顷刻间
1355 | 顷刻之间
1356 | 请勿
1357 | 穷年累月
1358 | 取道
1359 | 去
1360 | 权时
1361 | 全都
1362 | 全力
1363 | 全年
1364 | 全然
1365 | 全身心
1366 | 然
1367 | 人人
1368 | 仍
1369 | 仍旧
1370 | 仍然
1371 | 日复一日
1372 | 日见
1373 | 日渐
1374 | 日益
1375 | 日臻
1376 | 如常
1377 | 如此等等
1378 | 如次
1379 | 如今
1380 | 如期
1381 | 如前所述
1382 | 如上
1383 | 如下
1384 | 汝
1385 | 三番两次
1386 | 三番五次
1387 | 三天两头
1388 | 瑟瑟
1389 | 沙沙
1390 | 上
1391 | 上来
1392 | 上去
1393 | 一.
1394 | 一一
1395 | 一下
1396 | 一个
1397 | 一些
1398 | 一何
1399 | 一则通过
1400 | 一天
1401 | 一定
1402 | 一时
1403 | 一次
1404 | 一片
1405 | 一番
1406 | 一直
1407 | 一致
1408 | 一起
1409 | 一转眼
1410 | 一边
1411 | 一面
1412 | 上升
1413 | 上述
1414 | 上面
1415 | 下
1416 | 下列
1417 | 下去
1418 | 下来
1419 | 下面
1420 | 不一
1421 | 不久
1422 | 不变
1423 | 不可
1424 | 不够
1425 | 不尽
1426 | 不尽然
1427 | 不敢
1428 | 不断
1429 | 不若
1430 | 不足
1431 | 与其说
1432 | 专门
1433 | 且不说
1434 | 且说
1435 | 严格
1436 | 严重
1437 | 个别
1438 | 中小
1439 | 中间
1440 | 丰富
1441 | 为主
1442 | 为什麽
1443 | 为止
1444 | 为此
1445 | 主张
1446 | 主要
1447 | 举行
1448 | 乃至于
1449 | 之前
1450 | 之后
1451 | 之後
1452 | 也就是说
1453 | 也是
1454 | 了解
1455 | 争取
1456 | 二来
1457 | 云尔
1458 | 些
1459 | 亦
1460 | 产生
1461 | 人
1462 | 人们
1463 | 什麽
1464 | 今
1465 | 今后
1466 | 今天
1467 | 今年
1468 | 今後
1469 | 介于
1470 | 从事
1471 | 他是
1472 | 他的
1473 | 代替
1474 | 以上
1475 | 以下
1476 | 以为
1477 | 以前
1478 | 以后
1479 | 以外
1480 | 以後
1481 | 以故
1482 | 以期
1483 | 以来
1484 | 任务
1485 | 企图
1486 | 伟大
1487 | 似乎
1488 | 但凡
1489 | 何以
1490 | 余外
1491 | 你是
1492 | 你的
1493 | 使
1494 | 使用
1495 | 依据
1496 | 依靠
1497 | 便于
1498 | 促进
1499 | 保持
1500 | 做到
1501 | 傥然
1502 | 儿
1503 | 允许
1504 | 元/吨
1505 | 先不先
1506 | 先后
1507 | 先後
1508 | 先生
1509 | 全体
1510 | 全部
1511 | 全面
1512 | 共同
1513 | 具体
1514 | 具有
1515 | 兼之
1516 | 再
1517 | 再其次
1518 | 再则
1519 | 再有
1520 | 再次
1521 | 再者说
1522 | 决定
1523 | 准备
1524 | 凡
1525 | 凡是
1526 | 出于
1527 | 出现
1528 | 分别
1529 | 则甚
1530 | 别处
1531 | 别是
1532 | 别管
1533 | 前此
1534 | 前进
1535 | 前面
1536 | 加入
1537 | 加强
1538 | 十分
1539 | 即如
1540 | 却
1541 | 却不
1542 | 原来
1543 | 又及
1544 | 及时
1545 | 双方
1546 | 反应
1547 | 反映
1548 | 取得
1549 | 受到
1550 | 变成
1551 | 另悉
1552 | 只
1553 | 只当
1554 | 只怕
1555 | 只消
1556 | 叫做
1557 | 召开
1558 | 各人
1559 | 各地
1560 | 各级
1561 | 合理
1562 | 同一
1563 | 同样
1564 | 后
1565 | 后者
1566 | 后面
1567 | 向使
1568 | 周围
1569 | 呵呵
1570 | 咧
1571 | 唯有
1572 | 啷当
1573 | 喽
1574 | 嗡
1575 | 嘿嘿
1576 | 因了
1577 | 因着
1578 | 在于
1579 | 坚决
1580 | 坚持
1581 | 处在
1582 | 处理
1583 | 复杂
1584 | 多么
1585 | 多数
1586 | 大力
1587 | 大多数
1588 | 大批
1589 | 大量
1590 | 失去
1591 | 她是
1592 | 她的
1593 | 好
1594 | 好的
1595 | 好象
1596 | 如同
1597 | 如是
1598 | 始而
1599 | 存在
1600 | 孰料
1601 | 孰知
1602 | 它们的
1603 | 它是
1604 | 它的
1605 | 安全
1606 | 完全
1607 | 完成
1608 | 实现
1609 | 实际
1610 | 宣布
1611 | 容易
1612 | 密切
1613 | 对应
1614 | 对待
1615 | 对方
1616 | 对比
1617 | 小
1618 | 少数
1619 | 尔
1620 | 尔尔
1621 | 尤其
1622 | 就是了
1623 | 就要
1624 | 属于
1625 | 左右
1626 | 巨大
1627 | 巩固
1628 | 已
1629 | 已矣
1630 | 已经
1631 | 巴
1632 | 巴巴
1633 | 帮助
1634 | 并不
1635 | 并不是
1636 | 广大
1637 | 广泛
1638 | 应当
1639 | 应用
1640 | 应该
1641 | 庶乎
1642 | 庶几
1643 | 开展
1644 | 引起
1645 | 强烈
1646 | 强调
1647 | 归齐
1648 | 当前
1649 | 当地
1650 | 当时
1651 | 形成
1652 | 彻底
1653 | 彼时
1654 | 往往
1655 | 後来
1656 | 後面
1657 | 得了
1658 | 得出
1659 | 得到
1660 | 心里
1661 | 必然
1662 | 必要
1663 | 怎奈
1664 | 怎麽
1665 | 总是
1666 | 总结
1667 | 您们
1668 | 您是
1669 | 惟其
1670 | 意思
1671 | 愿意
1672 | 成为
1673 | 我是
1674 | 我的
1675 | 或则
1676 | 或曰
1677 | 战斗
1678 | 所在
1679 | 所幸
1680 | 所有
1681 | 所谓
1682 | 扩大
1683 | 掌握
1684 | 接著
1685 | 数/
1686 | 整个
1687 | 方便
1688 | 方面
1689 | 无
1690 | 无法
1691 | 既往
1692 | 明显
1693 | 明确
1694 | 是不是
1695 | 是以
1696 | 是否
1697 | 显然
1698 | 显著
1699 | 普通
1700 | 普遍
1701 | 曾
1702 | 曾经
1703 | 替代
1704 | 最
1705 | 最后
1706 | 最大
1707 | 最好
1708 | 最後
1709 | 最近
1710 | 最高
1711 | 有利
1712 | 有力
1713 | 有及
1714 | 有所
1715 | 有效
1716 | 有时
1717 | 有点
1718 | 有的是
1719 | 有着
1720 | 有著
1721 | 末末
1722 | 本地
1723 | 来自
1724 | 来说
1725 | 构成
1726 | 某某
1727 | 根本
1728 | 欢迎
1729 | 欤
1730 | 正值
1731 | 正在
1732 | 正巧
1733 | 正常
1734 | 正是
1735 | 此地
1736 | 此处
1737 | 此时
1738 | 此次
1739 | 每个
1740 | 每天
1741 | 每年
1742 | 比及
1743 | 比较
1744 | 没奈何
1745 | 注意
1746 | 深入
1747 | 清楚
1748 | 满足
1749 | 然後
1750 | 特别是
1751 | 特殊
1752 | 特点
1753 | 犹且
1754 | 犹自
1755 | 现代
1756 | 现在
1757 | 甚且
1758 | 甚或
1759 | 甚至于
1760 | 用来
1761 | 由是
1762 | 由此
1763 | 目前
1764 | 直到
1765 | 直接
1766 | 相似
1767 | 相信
1768 | 相反
1769 | 相同
1770 | 相对
1771 | 相应
1772 | 相当
1773 | 相等
1774 | 看出
1775 | 看到
1776 | 看看
1777 | 看见
1778 | 真是
1779 | 真正
1780 | 眨眼
1781 | 矣乎
1782 | 矣哉
1783 | 知道
1784 | 确定
1785 | 种
1786 | 积极
1787 | 移动
1788 | 突出
1789 | 突然
1790 | 立即
1791 | 竟而
1792 | 第二
1793 | 类如
1794 | 练习
1795 | 组成
1796 | 结合
1797 | 继后
1798 | 继续
1799 | 维持
1800 | 考虑
1801 | 联系
1802 | 能否
1803 | 能够
1804 | 自后
1805 | 自打
1806 | 至今
1807 | 至若
1808 | 致
1809 | 般的
1810 | 良好
1811 | 若夫
1812 | 若果
1813 | 范围
1814 | 莫不然
1815 | 获得
1816 | 行为
1817 | 行动
1818 | 表明
1819 | 表示
1820 | 要求
1821 | 规定
1822 | 觉得
1823 | 譬喻
1824 | 认为
1825 | 认真
1826 | 认识
1827 | 许多
1828 | 设或
1829 | 诚如
1830 | 说明
1831 | 说来
1832 | 说说
1833 | 诸
1834 | 诸如
1835 | 谁人
1836 | 谁料
1837 | 贼死
1838 | 赖以
1839 | 距
1840 | 转动
1841 | 转变
1842 | 转贴
1843 | 达到
1844 | 迅速
1845 | 过去
1846 | 过来
1847 | 运用
1848 | 还要
1849 | 这一来
1850 | 这次
1851 | 这点
1852 | 这种
1853 | 这般
1854 | 这麽
1855 | 进入
1856 | 进步
1857 | 进行
1858 | 适应
1859 | 适当
1860 | 适用
1861 | 逐步
1862 | 逐渐
1863 | 通常
1864 | 造成
1865 | 遇到
1866 | 遭到
1867 | 遵循
1868 | 避免
1869 | 那般
1870 | 那麽
1871 | 部分
1872 | 采取
1873 | 里面
1874 | 重大
1875 | 重新
1876 | 重要
1877 | 针对
1878 | 问题
1879 | 防止
1880 | 附近
1881 | 限制
1882 | 随后
1883 | 随时
1884 | 随著
1885 | 难道说
1886 | 集中
1887 | 需要
1888 | 非特
1889 | 非独
1890 | 高兴
1891 | 若果
--------------------------------------------------------------------------------
/data_process/stopwords.txt:
--------------------------------------------------------------------------------
1 | ①
2 | ②
3 | ②
4 | ③
5 | ③
6 | ④
7 | ⑤
8 | ⑥
9 | ⑦
10 | ⑧
11 | ⑨
12 | ⑩
13 | 今日
14 | 每日
15 | 昨日
16 | 此前
17 | 转载
18 | 这位
19 | 新闻
20 | 证券网
21 | 发稿
22 | 正
23 | 登载
24 | 此文
25 | 如需
26 | 文章内容
27 | 仅供参考
28 | 报社
29 | 镜像
30 | 违者必究
31 | 刊发
32 | ———
33 | 》
34 | )
35 | ,
36 | )
37 | ÷
38 | (
39 | 1-
40 | ”,
41 | )、
42 | =
43 | (
44 | :
45 | →
46 | ℃
47 | &
48 | *
49 | 一一
50 | ~~~~
51 | ’
52 | .
53 | 『
54 | .一
55 | ./
56 | --
57 | 』
58 | =″
59 | 【
60 | [*]
61 | }>
62 | [⑤]]
63 | [①D]
64 | c]
65 | ng昉
66 | *
67 | //
68 | [
69 | ]
70 | [②e]
71 | [②g]
72 | ={
73 | }
74 | ,也
75 | ‘
76 | A
77 | [①⑥]
78 | [②B]
79 | [①a]
80 | [④a]
81 | [①③]
82 | [③h]
83 | ③]
84 | 1.
85 | --
86 | [②b]
87 | ’‘
88 | ×××
89 | [①⑧]
90 | 0:2
91 | =[
92 | [⑤b]
93 | [②c]
94 | [④b]
95 | [②③]
96 | [③a]
97 | [④c]
98 | [①⑤]
99 | [①⑦]
100 | [①g]
101 | ∈[
102 | [①⑨]
103 | [①④]
104 | [①c]
105 | [②f]
106 | [②⑧]
107 | [②①]
108 | [①C]
109 | [③c]
110 | [③g]
111 | [②⑤]
112 | [②②]
113 | 一.
114 | [①h]
115 | .数
116 | []
117 | [①B]
118 | 数/
119 | [①i]
120 | [③e]
121 | [①①]
122 | [④d]
123 | [④e]
124 | [③b]
125 | [⑤a]
126 | [①A]
127 | [②⑧]
128 | [②⑦]
129 | [①d]
130 | [②j]
131 | 〕〔
132 | ][
133 | ://
134 | ′∈
135 | [②④
136 | [⑤e]
137 | 12%
138 | b]
139 | ...
140 | ...................
141 | …………………………………………………③
142 | ZXFITL
143 | [③F]
144 | 」
145 | [①o]
146 | ]∧′=[
147 | ∪φ∈
148 | ′|
149 | {-
150 | ②c
151 | }
152 | [③①]
153 | R.L.
154 | [①E]
155 | Ψ
156 | -[*]-
157 | ↑
158 | .日
159 | [②d]
160 | [②
161 | [②⑦]
162 | [②②]
163 | [③e]
164 | [①i]
165 | [①B]
166 | [①h]
167 | [①d]
168 | [①g]
169 | [①②]
170 | [②a]
171 | f]
172 | [⑩]
173 | a]
174 | [①e]
175 | [②h]
176 | [②⑥]
177 | [③d]
178 | [②⑩]
179 | e]
180 | 〉
181 | 】
182 | 元/吨
183 | [②⑩]
184 | 2.3%
185 | 5:0
186 | [①]
187 | ::
188 | [②]
189 | [③]
190 | [④]
191 | [⑤]
192 | [⑥]
193 | [⑦]
194 | [⑧]
195 | [⑨]
196 | ……
197 | ——
198 | ?
199 | 、
200 | 。
201 | “
202 | ”
203 | 《
204 | 》
205 | !
206 | ,
207 | :
208 | ;
209 | ?
210 | .
211 | ,
212 | .
213 | '
214 | ?
215 | ·
216 | ———
217 | ──
218 | ?
219 | —
220 | <
221 | >
222 | (
223 | )
224 | 〔
225 | 〕
226 | [
227 | ]
228 | (
229 | )
230 | -
231 | +
232 | ~
233 | ×
234 | /
235 | /
236 | ①
237 | ②
238 | ③
239 | ④
240 | ⑤
241 | ⑥
242 | ⑦
243 | ⑧
244 | ⑨
245 | ⑩
246 | Ⅲ
247 | В
248 | "
249 | ;
250 | #
251 | @
252 | γ
253 | μ
254 | φ
255 | φ.
256 | ×
257 | Δ
258 | ■
259 | ▲
260 | sub
261 | exp
262 | sup
263 | sub
264 | Lex
265 | #
266 | %
267 | &
268 | '
269 | +
270 | +ξ
271 | ++
272 | -
273 | -β
274 | <
275 | <±
276 | <Δ
277 | <λ
278 | <φ
279 | <<
280 | =
281 | =
282 | =☆
283 | =-
284 | >
285 | >λ
286 | _
287 | ~±
288 | ~+
289 | [⑤f]
290 | [⑤d]
291 | [②i]
292 | ≈
293 | [②G]
294 | [①f]
295 | LI
296 | ㈧
297 | [-
298 | ......
299 | 〉
300 | 啊
301 | 阿
302 | 哎
303 | 哎呀
304 | 哎哟
305 | 唉
306 | 俺
307 | 俺们
308 | 按
309 | 按照
310 | 吧
311 | 吧哒
312 | 把
313 | 罢了
314 | 被
315 | 本
316 | 本着
317 | 比
318 | 比方
319 | 比如
320 | 鄙人
321 | 彼
322 | 彼此
323 | 边
324 | 别
325 | 别的
326 | 别说
327 | 并
328 | 并且
329 | 不比
330 | 不成
331 | 不单
332 | 不但
333 | 不独
334 | 不管
335 | 不光
336 | 不过
337 | 不仅
338 | 不拘
339 | 不论
340 | 不怕
341 | 不然
342 | 不如
343 | 不特
344 | 不惟
345 | 不问
346 | 不只
347 | 朝
348 | 朝着
349 | 趁
350 | 趁着
351 | 乘
352 | 冲
353 | 除
354 | 除此之外
355 | 除非
356 | 除了
357 | 此
358 | 此间
359 | 此外
360 | 从
361 | 从而
362 | 打
363 | 待
364 | 但
365 | 但是
366 | 当
367 | 当着
368 | 到
369 | 得
370 | 的
371 | 的话
372 | 等
373 | 等等
374 | 地
375 | 第
376 | 叮咚
377 | 对
378 | 对于
379 | 多
380 | 多少
381 | 而
382 | 而况
383 | 而且
384 | 而是
385 | 而外
386 | 而言
387 | 而已
388 | 尔后
389 | 反过来
390 | 反过来说
391 | 反之
392 | 非但
393 | 非徒
394 | 否则
395 | 嘎
396 | 嘎登
397 | 该
398 | 赶
399 | 个
400 | 各
401 | 各个
402 | 各位
403 | 各种
404 | 各自
405 | 给
406 | 根据
407 | 跟
408 | 故
409 | 故此
410 | 固然
411 | 关于
412 | 管
413 | 归
414 | 果然
415 | 果真
416 | 过
417 | 哈
418 | 哈哈
419 | 呵
420 | 和
421 | 何
422 | 何处
423 | 何况
424 | 何时
425 | 嘿
426 | 哼
427 | 哼唷
428 | 呼哧
429 | 乎
430 | 哗
431 | 还是
432 | 还有
433 | 换句话说
434 | 换言之
435 | 或
436 | 或是
437 | 或者
438 | 极了
439 | 及
440 | 及其
441 | 及至
442 | 即
443 | 即便
444 | 即或
445 | 即令
446 | 即若
447 | 即使
448 | 几
449 | 几时
450 | 己
451 | 既
452 | 既然
453 | 既是
454 | 继而
455 | 加之
456 | 假如
457 | 假若
458 | 假使
459 | 鉴于
460 | 将
461 | 较
462 | 较之
463 | 叫
464 | 接着
465 | 结果
466 | 借
467 | 紧接着
468 | 进而
469 | 尽
470 | 尽管
471 | 经
472 | 经过
473 | 就
474 | 就是
475 | 就是说
476 | 据
477 | 具体地说
478 | 具体说来
479 | 开始
480 | 开外
481 | 靠
482 | 咳
483 | 可
484 | 可见
485 | 可是
486 | 可以
487 | 况且
488 | 啦
489 | 来
490 | 来着
491 | 离
492 | 例如
493 | 哩
494 | 连
495 | 连同
496 | 两者
497 | 了
498 | 临
499 | 另
500 | 另外
501 | 另一方面
502 | 论
503 | 嘛
504 | 吗
505 | 慢说
506 | 漫说
507 | 冒
508 | 么
509 | 每
510 | 每当
511 | 们
512 | 莫若
513 | 某
514 | 某个
515 | 某些
516 | 拿
517 | 哪
518 | 哪边
519 | 哪儿
520 | 哪个
521 | 哪里
522 | 哪年
523 | 哪怕
524 | 哪天
525 | 哪些
526 | 哪样
527 | 那
528 | 那边
529 | 那儿
530 | 那个
531 | 那会儿
532 | 那里
533 | 那么
534 | 那么些
535 | 那么样
536 | 那时
537 | 那些
538 | 那样
539 | 乃
540 | 乃至
541 | 呢
542 | 能
543 | 你
544 | 你们
545 | 您
546 | 宁
547 | 宁可
548 | 宁肯
549 | 宁愿
550 | 哦
551 | 呕
552 | 啪达
553 | 旁人
554 | 呸
555 | 凭
556 | 凭借
557 | 其
558 | 其次
559 | 其二
560 | 其他
561 | 其它
562 | 其一
563 | 其余
564 | 其中
565 | 起
566 | 起见
567 | 岂但
568 | 恰恰相反
569 | 前后
570 | 前者
571 | 且
572 | 然而
573 | 然后
574 | 然则
575 | 让
576 | 人家
577 | 任
578 | 任何
579 | 任凭
580 | 如
581 | 如此
582 | 如果
583 | 如何
584 | 如其
585 | 如若
586 | 如上所述
587 | 若
588 | 若非
589 | 若是
590 | 啥
591 | 上下
592 | 尚且
593 | 设若
594 | 设使
595 | 甚而
596 | 甚么
597 | 甚至
598 | 省得
599 | 时候
600 | 什么
601 | 什么样
602 | 使得
603 | 是
604 | 是的
605 | 首先
606 | 谁
607 | 谁知
608 | 顺
609 | 顺着
610 | 似的
611 | 虽
612 | 虽然
613 | 虽说
614 | 虽则
615 | 随
616 | 随着
617 | 所
618 | 所以
619 | 他
620 | 他们
621 | 他人
622 | 它
623 | 它们
624 | 她
625 | 她们
626 | 倘
627 | 倘或
628 | 倘然
629 | 倘若
630 | 倘使
631 | 腾
632 | 替
633 | 通过
634 | 同
635 | 同时
636 | 哇
637 | 万一
638 | 往
639 | 望
640 | 为
641 | 为何
642 | 为了
643 | 为什么
644 | 为着
645 | 喂
646 | 嗡嗡
647 | 我
648 | 我们
649 | 呜
650 | 呜呼
651 | 乌乎
652 | 无论
653 | 无宁
654 | 毋宁
655 | 嘻
656 | 吓
657 | 相对而言
658 | 像
659 | 向
660 | 向着
661 | 嘘
662 | 呀
663 | 焉
664 | 沿
665 | 沿着
666 | 要
667 | 要不
668 | 要不然
669 | 要不是
670 | 要么
671 | 要是
672 | 也
673 | 也罢
674 | 也好
675 | 一
676 | 一般
677 | 一旦
678 | 一方面
679 | 一来
680 | 一切
681 | 一样
682 | 一则
683 | 依
684 | 依照
685 | 矣
686 | 以
687 | 以便
688 | 以及
689 | 以免
690 | 以至
691 | 以至于
692 | 以致
693 | 抑或
694 | 因
695 | 因此
696 | 因而
697 | 因为
698 | 哟
699 | 用
700 | 由
701 | 由此可见
702 | 由于
703 | 有
704 | 有的
705 | 有关
706 | 有些
707 | 又
708 | 于
709 | 于是
710 | 于是乎
711 | 与
712 | 与此同时
713 | 与否
714 | 与其
715 | 越是
716 | 云云
717 | 哉
718 | 再说
719 | 再者
720 | 在
721 | 在下
722 | 咱
723 | 咱们
724 | 则
725 | 怎
726 | 怎么
727 | 怎么办
728 | 怎么样
729 | 怎样
730 | 咋
731 | 照
732 | 照着
733 | 者
734 | 这
735 | 这边
736 | 这儿
737 | 这个
738 | 这会儿
739 | 这就是说
740 | 这里
741 | 这么
742 | 这么点儿
743 | 这么些
744 | 这么样
745 | 这时
746 | 这些
747 | 这样
748 | 正如
749 | 吱
750 | 之
751 | 之类
752 | 之所以
753 | 之一
754 | 只是
755 | 只限
756 | 只要
757 | 只有
758 | 至
759 | 至于
760 | 诸位
761 | 着
762 | 着呢
763 | 自
764 | 自从
765 | 自个儿
766 | 自各儿
767 | 自己
768 | 自家
769 | 自身
770 | 综上所述
771 | 总的来看
772 | 总的来说
773 | 总的说来
774 | 总而言之
775 | 总之
776 | 纵
777 | 纵令
778 | 纵然
779 | 纵使
780 | 遵照
781 | 作为
782 | 兮
783 | 呃
784 | 呗
785 | 咚
786 | 咦
787 | 喏
788 | 啐
789 | 喔唷
790 | 嗬
791 | 嗯
792 | 嗳
793 | 啊哈
794 | 啊呀
795 | 啊哟
796 | 挨次
797 | 挨个
798 | 挨家挨户
799 | 挨门挨户
800 | 挨门逐户
801 | 挨着
802 | 按理
803 | 按期
804 | 按时
805 | 按说
806 | 暗地里
807 | 暗中
808 | 暗自
809 | 昂然
810 | 八成
811 | 白白
812 | 半
813 | 梆
814 | 保管
815 | 保险
816 | 饱
817 | 背地里
818 | 背靠背
819 | 倍感
820 | 倍加
821 | 本人
822 | 本身
823 | 甭
824 | 比起
825 | 比如说
826 | 比照
827 | 毕竟
828 | 必
829 | 必定
830 | 必将
831 | 必须
832 | 便
833 | 别人
834 | 并非
835 | 并肩
836 | 并没
837 | 并没有
838 | 并排
839 | 并无
840 | 勃然
841 | 不
842 | 不必
843 | 不常
844 | 不大
845 | 不得
846 | 不得不
847 | 不得了
848 | 不得已
849 | 不迭
850 | 不定
851 | 不对
852 | 不妨
853 | 不管怎样
854 | 不会
855 | 不仅仅
856 | 不仅仅是
857 | 不经意
858 | 不可开交
859 | 不可抗拒
860 | 不力
861 | 不了
862 | 不料
863 | 不满
864 | 不免
865 | 不能不
866 | 不起
867 | 不巧
868 | 不然的话
869 | 不日
870 | 不少
871 | 不胜
872 | 不时
873 | 不是
874 | 不同
875 | 不能
876 | 不要
877 | 不外
878 | 不外乎
879 | 不下
880 | 不限
881 | 不消
882 | 不已
883 | 不亦乐乎
884 | 不由得
885 | 不再
886 | 不择手段
887 | 不怎么
888 | 不曾
889 | 不知不觉
890 | 不止
891 | 不止一次
892 | 不至于
893 | 才
894 | 才能
895 | 策略地
896 | 差不多
897 | 差一点
898 | 常
899 | 常常
900 | 常言道
901 | 常言说
902 | 常言说得好
903 | 长此下去
904 | 长话短说
905 | 长期以来
906 | 长线
907 | 敞开儿
908 | 彻夜
909 | 陈年
910 | 趁便
911 | 趁机
912 | 趁热
913 | 趁势
914 | 趁早
915 | 成年
916 | 成年累月
917 | 成心
918 | 乘机
919 | 乘胜
920 | 乘势
921 | 乘隙
922 | 乘虚
923 | 诚然
924 | 迟早
925 | 充分
926 | 充其极
927 | 充其量
928 | 抽冷子
929 | 臭
930 | 初
931 | 出
932 | 出来
933 | 出去
934 | 除此
935 | 除此而外
936 | 除此以外
937 | 除开
938 | 除去
939 | 除却
940 | 除外
941 | 处处
942 | 川流不息
943 | 传
944 | 传说
945 | 传闻
946 | 串行
947 | 纯
948 | 纯粹
949 | 此后
950 | 此中
951 | 次第
952 | 匆匆
953 | 从不
954 | 从此
955 | 从此以后
956 | 从古到今
957 | 从古至今
958 | 从今以后
959 | 从宽
960 | 从来
961 | 从轻
962 | 从速
963 | 从头
964 | 从未
965 | 从无到有
966 | 从小
967 | 从新
968 | 从严
969 | 从优
970 | 从早到晚
971 | 从中
972 | 从重
973 | 凑巧
974 | 粗
975 | 存心
976 | 达旦
977 | 打从
978 | 打开天窗说亮话
979 | 大
980 | 大不了
981 | 大大
982 | 大抵
983 | 大都
984 | 大多
985 | 大凡
986 | 大概
987 | 大家
988 | 大举
989 | 大略
990 | 大面儿上
991 | 大事
992 | 大体
993 | 大体上
994 | 大约
995 | 大张旗鼓
996 | 大致
997 | 呆呆地
998 | 带
999 | 殆
1000 | 待到
1001 | 单
1002 | 单纯
1003 | 单单
1004 | 但愿
1005 | 弹指之间
1006 | 当场
1007 | 当儿
1008 | 当即
1009 | 当口儿
1010 | 当然
1011 | 当庭
1012 | 当头
1013 | 当下
1014 | 当真
1015 | 当中
1016 | 倒不如
1017 | 倒不如说
1018 | 倒是
1019 | 到处
1020 | 到底
1021 | 到了儿
1022 | 到目前为止
1023 | 到头
1024 | 到头来
1025 | 得起
1026 | 得天独厚
1027 | 的确
1028 | 等到
1029 | 叮当
1030 | 顶多
1031 | 定
1032 | 动不动
1033 | 动辄
1034 | 陡然
1035 | 都
1036 | 独
1037 | 独自
1038 | 断然
1039 | 顿时
1040 | 多次
1041 | 多多
1042 | 多多少少
1043 | 多多益善
1044 | 多亏
1045 | 多年来
1046 | 多年前
1047 | 而后
1048 | 而论
1049 | 而又
1050 | 尔等
1051 | 二话不说
1052 | 二话没说
1053 | 反倒
1054 | 反倒是
1055 | 反而
1056 | 反手
1057 | 反之亦然
1058 | 反之则
1059 | 方
1060 | 方才
1061 | 方能
1062 | 放量
1063 | 非常
1064 | 非得
1065 | 分期
1066 | 分期分批
1067 | 分头
1068 | 奋勇
1069 | 愤然
1070 | 风雨无阻
1071 | 逢
1072 | 弗
1073 | 甫
1074 | 嘎嘎
1075 | 该当
1076 | 概
1077 | 赶快
1078 | 赶早不赶晚
1079 | 敢
1080 | 敢情
1081 | 敢于
1082 | 刚
1083 | 刚才
1084 | 刚好
1085 | 刚巧
1086 | 高低
1087 | 格外
1088 | 隔日
1089 | 隔夜
1090 | 个人
1091 | 各式
1092 | 更
1093 | 更加
1094 | 更进一步
1095 | 更为
1096 | 公然
1097 | 共
1098 | 共总
1099 | 够瞧的
1100 | 姑且
1101 | 古来
1102 | 故而
1103 | 故意
1104 | 固
1105 | 怪
1106 | 怪不得
1107 | 惯常
1108 | 光
1109 | 光是
1110 | 归根到底
1111 | 归根结底
1112 | 过于
1113 | 毫不
1114 | 毫无
1115 | 毫无保留地
1116 | 毫无例外
1117 | 好在
1118 | 何必
1119 | 何尝
1120 | 何妨
1121 | 何苦
1122 | 何乐而不为
1123 | 何须
1124 | 何止
1125 | 很
1126 | 很多
1127 | 很少
1128 | 轰然
1129 | 后来
1130 | 呼啦
1131 | 忽地
1132 | 忽然
1133 | 互
1134 | 互相
1135 | 哗啦
1136 | 话说
1137 | 还
1138 | 恍然
1139 | 会
1140 | 豁然
1141 | 活
1142 | 伙同
1143 | 或多或少
1144 | 或许
1145 | 基本
1146 | 基本上
1147 | 基于
1148 | 极
1149 | 极大
1150 | 极度
1151 | 极端
1152 | 极力
1153 | 极其
1154 | 极为
1155 | 急匆匆
1156 | 即将
1157 | 即刻
1158 | 即是说
1159 | 几度
1160 | 几番
1161 | 几乎
1162 | 几经
1163 | 既…又
1164 | 继之
1165 | 加上
1166 | 加以
1167 | 间或
1168 | 简而言之
1169 | 简言之
1170 | 简直
1171 | 见
1172 | 将才
1173 | 将近
1174 | 将要
1175 | 交口
1176 | 较比
1177 | 较为
1178 | 接连不断
1179 | 接下来
1180 | 皆可
1181 | 截然
1182 | 截至
1183 | 藉以
1184 | 借此
1185 | 借以
1186 | 届时
1187 | 仅
1188 | 仅仅
1189 | 谨
1190 | 进来
1191 | 进去
1192 | 近
1193 | 近几年来
1194 | 近来
1195 | 近年来
1196 | 尽管如此
1197 | 尽可能
1198 | 尽快
1199 | 尽量
1200 | 尽然
1201 | 尽如人意
1202 | 尽心竭力
1203 | 尽心尽力
1204 | 尽早
1205 | 精光
1206 | 经常
1207 | 竟
1208 | 竟然
1209 | 究竟
1210 | 就此
1211 | 就地
1212 | 就算
1213 | 居然
1214 | 局外
1215 | 举凡
1216 | 据称
1217 | 据此
1218 | 据实
1219 | 据说
1220 | 据我所知
1221 | 据悉
1222 | 具体来说
1223 | 决不
1224 | 决非
1225 | 绝
1226 | 绝不
1227 | 绝顶
1228 | 绝对
1229 | 绝非
1230 | 均
1231 | 喀
1232 | 看
1233 | 看来
1234 | 看起来
1235 | 看上去
1236 | 看样子
1237 | 可好
1238 | 可能
1239 | 恐怕
1240 | 快
1241 | 快要
1242 | 来不及
1243 | 来得及
1244 | 来讲
1245 | 来看
1246 | 拦腰
1247 | 牢牢
1248 | 老
1249 | 老大
1250 | 老老实实
1251 | 老是
1252 | 累次
1253 | 累年
1254 | 理当
1255 | 理该
1256 | 理应
1257 | 历
1258 | 立
1259 | 立地
1260 | 立刻
1261 | 立马
1262 | 立时
1263 | 联袂
1264 | 连连
1265 | 连日
1266 | 连日来
1267 | 连声
1268 | 连袂
1269 | 临到
1270 | 另方面
1271 | 另行
1272 | 另一个
1273 | 路经
1274 | 屡
1275 | 屡次
1276 | 屡次三番
1277 | 屡屡
1278 | 缕缕
1279 | 率尔
1280 | 率然
1281 | 略
1282 | 略加
1283 | 略微
1284 | 略为
1285 | 论说
1286 | 马上
1287 | 蛮
1288 | 满
1289 | 没
1290 | 没有
1291 | 每逢
1292 | 每每
1293 | 每时每刻
1294 | 猛然
1295 | 猛然间
1296 | 莫
1297 | 莫不
1298 | 莫非
1299 | 莫如
1300 | 默默地
1301 | 默然
1302 | 呐
1303 | 那末
1304 | 奈
1305 | 难道
1306 | 难得
1307 | 难怪
1308 | 难说
1309 | 内
1310 | 年复一年
1311 | 凝神
1312 | 偶而
1313 | 偶尔
1314 | 怕
1315 | 砰
1316 | 碰巧
1317 | 譬如
1318 | 偏偏
1319 | 乒
1320 | 平素
1321 | 颇
1322 | 迫于
1323 | 扑通
1324 | 其后
1325 | 其实
1326 | 奇
1327 | 齐
1328 | 起初
1329 | 起来
1330 | 起首
1331 | 起头
1332 | 起先
1333 | 岂
1334 | 岂非
1335 | 岂止
1336 | 迄
1337 | 恰逢
1338 | 恰好
1339 | 恰恰
1340 | 恰巧
1341 | 恰如
1342 | 恰似
1343 | 千
1344 | 万
1345 | 千万
1346 | 千万千万
1347 | 切
1348 | 切不可
1349 | 切莫
1350 | 切切
1351 | 切勿
1352 | 窃
1353 | 亲口
1354 | 亲身
1355 | 亲手
1356 | 亲眼
1357 | 亲自
1358 | 顷
1359 | 顷刻
1360 | 顷刻间
1361 | 顷刻之间
1362 | 请勿
1363 | 穷年累月
1364 | 取道
1365 | 去
1366 | 权时
1367 | 全都
1368 | 全力
1369 | 全年
1370 | 全然
1371 | 全身心
1372 | 然
1373 | 人人
1374 | 仍
1375 | 仍旧
1376 | 仍然
1377 | 日复一日
1378 | 日见
1379 | 日渐
1380 | 日益
1381 | 日臻
1382 | 如常
1383 | 如此等等
1384 | 如次
1385 | 如今
1386 | 如期
1387 | 如前所述
1388 | 如上
1389 | 如下
1390 | 汝
1391 | 三番两次
1392 | 三番五次
1393 | 三天两头
1394 | 瑟瑟
1395 | 沙沙
1396 | 上
1397 | 上来
1398 | 上去
1399 | 一.
1400 | 一一
1401 | 一下
1402 | 一个
1403 | 一些
1404 | 一何
1405 | 一则通过
1406 | 一天
1407 | 一定
1408 | 一时
1409 | 一次
1410 | 一片
1411 | 一番
1412 | 一直
1413 | 一致
1414 | 一起
1415 | 一转眼
1416 | 一边
1417 | 一面
1418 | 上升
1419 | 上述
1420 | 上面
1421 | 下
1422 | 下列
1423 | 下去
1424 | 下来
1425 | 下面
1426 | 不一
1427 | 不久
1428 | 不变
1429 | 不可
1430 | 不够
1431 | 不尽
1432 | 不尽然
1433 | 不敢
1434 | 不断
1435 | 不若
1436 | 不足
1437 | 与其说
1438 | 专门
1439 | 且不说
1440 | 且说
1441 | 严格
1442 | 严重
1443 | 个别
1444 | 中小
1445 | 中间
1446 | 丰富
1447 | 为主
1448 | 为什麽
1449 | 为止
1450 | 为此
1451 | 主张
1452 | 主要
1453 | 举行
1454 | 乃至于
1455 | 之前
1456 | 之后
1457 | 之後
1458 | 也就是说
1459 | 也是
1460 | 了解
1461 | 争取
1462 | 二来
1463 | 云尔
1464 | 些
1465 | 亦
1466 | 产生
1467 | 人
1468 | 人们
1469 | 什麽
1470 | 今
1471 | 今后
1472 | 今天
1473 | 今年
1474 | 今後
1475 | 介于
1476 | 从事
1477 | 他是
1478 | 他的
1479 | 代替
1480 | 以上
1481 | 以下
1482 | 以为
1483 | 以前
1484 | 以后
1485 | 以外
1486 | 以後
1487 | 以故
1488 | 以期
1489 | 以来
1490 | 任务
1491 | 企图
1492 | 伟大
1493 | 似乎
1494 | 但凡
1495 | 何以
1496 | 余外
1497 | 你是
1498 | 你的
1499 | 使
1500 | 使用
1501 | 依据
1502 | 依靠
1503 | 便于
1504 | 促进
1505 | 保持
1506 | 做到
1507 | 傥然
1508 | 儿
1509 | 允许
1510 | 元/吨
1511 | 先不先
1512 | 先后
1513 | 先後
1514 | 先生
1515 | 全体
1516 | 全部
1517 | 全面
1518 | 共同
1519 | 具体
1520 | 具有
1521 | 兼之
1522 | 再
1523 | 再其次
1524 | 再则
1525 | 再有
1526 | 再次
1527 | 再者说
1528 | 决定
1529 | 准备
1530 | 凡
1531 | 凡是
1532 | 出于
1533 | 出现
1534 | 分别
1535 | 则甚
1536 | 别处
1537 | 别是
1538 | 别管
1539 | 前此
1540 | 前进
1541 | 前面
1542 | 加入
1543 | 加强
1544 | 十分
1545 | 即如
1546 | 却
1547 | 却不
1548 | 原来
1549 | 又及
1550 | 及时
1551 | 双方
1552 | 反应
1553 | 反映
1554 | 取得
1555 | 受到
1556 | 变成
1557 | 另悉
1558 | 只
1559 | 只当
1560 | 只怕
1561 | 只消
1562 | 叫做
1563 | 召开
1564 | 各人
1565 | 各地
1566 | 各级
1567 | 合理
1568 | 同一
1569 | 同样
1570 | 后
1571 | 后者
1572 | 后面
1573 | 向使
1574 | 周围
1575 | 呵呵
1576 | 咧
1577 | 唯有
1578 | 啷当
1579 | 喽
1580 | 嗡
1581 | 嘿嘿
1582 | 因了
1583 | 因着
1584 | 在于
1585 | 坚决
1586 | 坚持
1587 | 处在
1588 | 处理
1589 | 复杂
1590 | 多么
1591 | 多数
1592 | 大力
1593 | 大多数
1594 | 大批
1595 | 大量
1596 | 失去
1597 | 她是
1598 | 她的
1599 | 好
1600 | 好的
1601 | 好象
1602 | 如同
1603 | 如是
1604 | 始而
1605 | 存在
1606 | 孰料
1607 | 孰知
1608 | 它们的
1609 | 它是
1610 | 它的
1611 | 安全
1612 | 完全
1613 | 完成
1614 | 实现
1615 | 实际
1616 | 宣布
1617 | 容易
1618 | 密切
1619 | 对应
1620 | 对待
1621 | 对方
1622 | 对比
1623 | 小
1624 | 少数
1625 | 尔
1626 | 尔尔
1627 | 尤其
1628 | 就是了
1629 | 就要
1630 | 属于
1631 | 左右
1632 | 巨大
1633 | 巩固
1634 | 已
1635 | 已矣
1636 | 已经
1637 | 巴
1638 | 巴巴
1639 | 帮助
1640 | 并不
1641 | 并不是
1642 | 广大
1643 | 广泛
1644 | 应当
1645 | 应用
1646 | 应该
1647 | 庶乎
1648 | 庶几
1649 | 开展
1650 | 引起
1651 | 强烈
1652 | 强调
1653 | 归齐
1654 | 当前
1655 | 当地
1656 | 当时
1657 | 形成
1658 | 彻底
1659 | 彼时
1660 | 往往
1661 | 後来
1662 | 後面
1663 | 得了
1664 | 得出
1665 | 得到
1666 | 心里
1667 | 必然
1668 | 必要
1669 | 怎奈
1670 | 怎麽
1671 | 总是
1672 | 总结
1673 | 您们
1674 | 您是
1675 | 惟其
1676 | 意思
1677 | 愿意
1678 | 成为
1679 | 我是
1680 | 我的
1681 | 或则
1682 | 或曰
1683 | 战斗
1684 | 所在
1685 | 所幸
1686 | 所有
1687 | 所谓
1688 | 扩大
1689 | 掌握
1690 | 接著
1691 | 数/
1692 | 整个
1693 | 方便
1694 | 方面
1695 | 无
1696 | 无法
1697 | 既往
1698 | 明显
1699 | 明确
1700 | 是不是
1701 | 是以
1702 | 是否
1703 | 显然
1704 | 显著
1705 | 普通
1706 | 普遍
1707 | 曾
1708 | 曾经
1709 | 替代
1710 | 最
1711 | 最后
1712 | 最大
1713 | 最好
1714 | 最後
1715 | 最近
1716 | 最高
1717 | 有利
1718 | 有力
1719 | 有及
1720 | 有所
1721 | 有效
1722 | 有时
1723 | 有点
1724 | 有的是
1725 | 有着
1726 | 有著
1727 | 末末
1728 | 本地
1729 | 来自
1730 | 来说
1731 | 构成
1732 | 某某
1733 | 根本
1734 | 欢迎
1735 | 欤
1736 | 正值
1737 | 正在
1738 | 正巧
1739 | 正常
1740 | 正是
1741 | 此地
1742 | 此处
1743 | 此时
1744 | 此次
1745 | 每个
1746 | 每天
1747 | 每年
1748 | 比及
1749 | 比较
1750 | 没奈何
1751 | 注意
1752 | 深入
1753 | 清楚
1754 | 满足
1755 | 然後
1756 | 特别是
1757 | 特殊
1758 | 特点
1759 | 犹且
1760 | 犹自
1761 | 现代
1762 | 现在
1763 | 甚且
1764 | 甚或
1765 | 甚至于
1766 | 用来
1767 | 由是
1768 | 由此
1769 | 目前
1770 | 直到
1771 | 直接
1772 | 相似
1773 | 相信
1774 | 相反
1775 | 相同
1776 | 相对
1777 | 相应
1778 | 相当
1779 | 相等
1780 | 看出
1781 | 看到
1782 | 看看
1783 | 看见
1784 | 真是
1785 | 真正
1786 | 眨眼
1787 | 矣乎
1788 | 矣哉
1789 | 知道
1790 | 确定
1791 | 种
1792 | 积极
1793 | 移动
1794 | 突出
1795 | 突然
1796 | 立即
1797 | 竟而
1798 | 第二
1799 | 类如
1800 | 练习
1801 | 组成
1802 | 结合
1803 | 继后
1804 | 继续
1805 | 维持
1806 | 考虑
1807 | 联系
1808 | 能否
1809 | 能够
1810 | 自后
1811 | 自打
1812 | 至今
1813 | 至若
1814 | 致
1815 | 般的
1816 | 良好
1817 | 若夫
1818 | 若果
1819 | 范围
1820 | 莫不然
1821 | 获得
1822 | 行为
1823 | 行动
1824 | 表明
1825 | 表示
1826 | 要求
1827 | 规定
1828 | 觉得
1829 | 譬喻
1830 | 认为
1831 | 认真
1832 | 认识
1833 | 许多
1834 | 设或
1835 | 诚如
1836 | 说明
1837 | 说来
1838 | 说说
1839 | 诸
1840 | 诸如
1841 | 谁人
1842 | 谁料
1843 | 贼死
1844 | 赖以
1845 | 距
1846 | 转动
1847 | 转变
1848 | 转贴
1849 | 达到
1850 | 迅速
1851 | 过去
1852 | 过来
1853 | 运用
1854 | 还要
1855 | 这一来
1856 | 这次
1857 | 这点
1858 | 这种
1859 | 这般
1860 | 这麽
1861 | 进入
1862 | 进步
1863 | 进行
1864 | 适应
1865 | 适当
1866 | 适用
1867 | 逐步
1868 | 逐渐
1869 | 通常
1870 | 造成
1871 | 遇到
1872 | 遭到
1873 | 遵循
1874 | 避免
1875 | 那般
1876 | 那麽
1877 | 部分
1878 | 采取
1879 | 里面
1880 | 重大
1881 | 重新
1882 | 重要
1883 | 针对
1884 | 问题
1885 | 防止
1886 | 附近
1887 | 限制
1888 | 随后
1889 | 随时
1890 | 随著
1891 | 难道说
1892 | 集中
1893 | 需要
1894 | 非特
1895 | 非独
1896 | 高兴
1897 | 若果
--------------------------------------------------------------------------------
/prediction/stopwords.txt:
--------------------------------------------------------------------------------
1 | ①
2 | ②
3 | ②
4 | ③
5 | ③
6 | ④
7 | ⑤
8 | ⑥
9 | ⑦
10 | ⑧
11 | ⑨
12 | ⑩
13 | 今日
14 | 每日
15 | 昨日
16 | 此前
17 | 转载
18 | 这位
19 | 新闻
20 | 证券网
21 | 发稿
22 | 正
23 | 登载
24 | 此文
25 | 如需
26 | 文章内容
27 | 仅供参考
28 | 报社
29 | 镜像
30 | 违者必究
31 | 刊发
32 | ———
33 | 》
34 | )
35 | ,
36 | )
37 | ÷
38 | (
39 | 1-
40 | ”,
41 | )、
42 | =
43 | (
44 | :
45 | →
46 | ℃
47 | &
48 | *
49 | 一一
50 | ~~~~
51 | ’
52 | .
53 | 『
54 | .一
55 | ./
56 | --
57 | 』
58 | =″
59 | 【
60 | [*]
61 | }>
62 | [⑤]]
63 | [①D]
64 | c]
65 | ng昉
66 | *
67 | //
68 | [
69 | ]
70 | [②e]
71 | [②g]
72 | ={
73 | }
74 | ,也
75 | ‘
76 | A
77 | [①⑥]
78 | [②B]
79 | [①a]
80 | [④a]
81 | [①③]
82 | [③h]
83 | ③]
84 | 1.
85 | --
86 | [②b]
87 | ’‘
88 | ×××
89 | [①⑧]
90 | 0:2
91 | =[
92 | [⑤b]
93 | [②c]
94 | [④b]
95 | [②③]
96 | [③a]
97 | [④c]
98 | [①⑤]
99 | [①⑦]
100 | [①g]
101 | ∈[
102 | [①⑨]
103 | [①④]
104 | [①c]
105 | [②f]
106 | [②⑧]
107 | [②①]
108 | [①C]
109 | [③c]
110 | [③g]
111 | [②⑤]
112 | [②②]
113 | 一.
114 | [①h]
115 | .数
116 | []
117 | [①B]
118 | 数/
119 | [①i]
120 | [③e]
121 | [①①]
122 | [④d]
123 | [④e]
124 | [③b]
125 | [⑤a]
126 | [①A]
127 | [②⑧]
128 | [②⑦]
129 | [①d]
130 | [②j]
131 | 〕〔
132 | ][
133 | ://
134 | ′∈
135 | [②④
136 | [⑤e]
137 | 12%
138 | b]
139 | ...
140 | ...................
141 | …………………………………………………③
142 | ZXFITL
143 | [③F]
144 | 」
145 | [①o]
146 | ]∧′=[
147 | ∪φ∈
148 | ′|
149 | {-
150 | ②c
151 | }
152 | [③①]
153 | R.L.
154 | [①E]
155 | Ψ
156 | -[*]-
157 | ↑
158 | .日
159 | [②d]
160 | [②
161 | [②⑦]
162 | [②②]
163 | [③e]
164 | [①i]
165 | [①B]
166 | [①h]
167 | [①d]
168 | [①g]
169 | [①②]
170 | [②a]
171 | f]
172 | [⑩]
173 | a]
174 | [①e]
175 | [②h]
176 | [②⑥]
177 | [③d]
178 | [②⑩]
179 | e]
180 | 〉
181 | 】
182 | 元/吨
183 | [②⑩]
184 | 2.3%
185 | 5:0
186 | [①]
187 | ::
188 | [②]
189 | [③]
190 | [④]
191 | [⑤]
192 | [⑥]
193 | [⑦]
194 | [⑧]
195 | [⑨]
196 | ……
197 | ——
198 | ?
199 | 、
200 | 。
201 | “
202 | ”
203 | 《
204 | 》
205 | !
206 | ,
207 | :
208 | ;
209 | ?
210 | .
211 | ,
212 | .
213 | '
214 | ?
215 | ·
216 | ———
217 | ──
218 | ?
219 | —
220 | <
221 | >
222 | (
223 | )
224 | 〔
225 | 〕
226 | [
227 | ]
228 | (
229 | )
230 | -
231 | +
232 | ~
233 | ×
234 | /
235 | /
236 | ①
237 | ②
238 | ③
239 | ④
240 | ⑤
241 | ⑥
242 | ⑦
243 | ⑧
244 | ⑨
245 | ⑩
246 | Ⅲ
247 | В
248 | "
249 | ;
250 | #
251 | @
252 | γ
253 | μ
254 | φ
255 | φ.
256 | ×
257 | Δ
258 | ■
259 | ▲
260 | sub
261 | exp
262 | sup
263 | sub
264 | Lex
265 | #
266 | %
267 | &
268 | '
269 | +
270 | +ξ
271 | ++
272 | -
273 | -β
274 | <
275 | <±
276 | <Δ
277 | <λ
278 | <φ
279 | <<
280 | =
281 | =
282 | =☆
283 | =-
284 | >
285 | >λ
286 | _
287 | ~±
288 | ~+
289 | [⑤f]
290 | [⑤d]
291 | [②i]
292 | ≈
293 | [②G]
294 | [①f]
295 | LI
296 | ㈧
297 | [-
298 | ......
299 | 〉
300 | 啊
301 | 阿
302 | 哎
303 | 哎呀
304 | 哎哟
305 | 唉
306 | 俺
307 | 俺们
308 | 按
309 | 按照
310 | 吧
311 | 吧哒
312 | 把
313 | 罢了
314 | 被
315 | 本
316 | 本着
317 | 比
318 | 比方
319 | 比如
320 | 鄙人
321 | 彼
322 | 彼此
323 | 边
324 | 别
325 | 别的
326 | 别说
327 | 并
328 | 并且
329 | 不比
330 | 不成
331 | 不单
332 | 不但
333 | 不独
334 | 不管
335 | 不光
336 | 不过
337 | 不仅
338 | 不拘
339 | 不论
340 | 不怕
341 | 不然
342 | 不如
343 | 不特
344 | 不惟
345 | 不问
346 | 不只
347 | 朝
348 | 朝着
349 | 趁
350 | 趁着
351 | 乘
352 | 冲
353 | 除
354 | 除此之外
355 | 除非
356 | 除了
357 | 此
358 | 此间
359 | 此外
360 | 从
361 | 从而
362 | 打
363 | 待
364 | 但
365 | 但是
366 | 当
367 | 当着
368 | 到
369 | 得
370 | 的
371 | 的话
372 | 等
373 | 等等
374 | 地
375 | 第
376 | 叮咚
377 | 对
378 | 对于
379 | 多
380 | 多少
381 | 而
382 | 而况
383 | 而且
384 | 而是
385 | 而外
386 | 而言
387 | 而已
388 | 尔后
389 | 反过来
390 | 反过来说
391 | 反之
392 | 非但
393 | 非徒
394 | 否则
395 | 嘎
396 | 嘎登
397 | 该
398 | 赶
399 | 个
400 | 各
401 | 各个
402 | 各位
403 | 各种
404 | 各自
405 | 给
406 | 根据
407 | 跟
408 | 故
409 | 故此
410 | 固然
411 | 关于
412 | 管
413 | 归
414 | 果然
415 | 果真
416 | 过
417 | 哈
418 | 哈哈
419 | 呵
420 | 和
421 | 何
422 | 何处
423 | 何况
424 | 何时
425 | 嘿
426 | 哼
427 | 哼唷
428 | 呼哧
429 | 乎
430 | 哗
431 | 还是
432 | 还有
433 | 换句话说
434 | 换言之
435 | 或
436 | 或是
437 | 或者
438 | 极了
439 | 及
440 | 及其
441 | 及至
442 | 即
443 | 即便
444 | 即或
445 | 即令
446 | 即若
447 | 即使
448 | 几
449 | 几时
450 | 己
451 | 既
452 | 既然
453 | 既是
454 | 继而
455 | 加之
456 | 假如
457 | 假若
458 | 假使
459 | 鉴于
460 | 将
461 | 较
462 | 较之
463 | 叫
464 | 接着
465 | 结果
466 | 借
467 | 紧接着
468 | 进而
469 | 尽
470 | 尽管
471 | 经
472 | 经过
473 | 就
474 | 就是
475 | 就是说
476 | 据
477 | 具体地说
478 | 具体说来
479 | 开始
480 | 开外
481 | 靠
482 | 咳
483 | 可
484 | 可见
485 | 可是
486 | 可以
487 | 况且
488 | 啦
489 | 来
490 | 来着
491 | 离
492 | 例如
493 | 哩
494 | 连
495 | 连同
496 | 两者
497 | 了
498 | 临
499 | 另
500 | 另外
501 | 另一方面
502 | 论
503 | 嘛
504 | 吗
505 | 慢说
506 | 漫说
507 | 冒
508 | 么
509 | 每
510 | 每当
511 | 们
512 | 莫若
513 | 某
514 | 某个
515 | 某些
516 | 拿
517 | 哪
518 | 哪边
519 | 哪儿
520 | 哪个
521 | 哪里
522 | 哪年
523 | 哪怕
524 | 哪天
525 | 哪些
526 | 哪样
527 | 那
528 | 那边
529 | 那儿
530 | 那个
531 | 那会儿
532 | 那里
533 | 那么
534 | 那么些
535 | 那么样
536 | 那时
537 | 那些
538 | 那样
539 | 乃
540 | 乃至
541 | 呢
542 | 能
543 | 你
544 | 你们
545 | 您
546 | 宁
547 | 宁可
548 | 宁肯
549 | 宁愿
550 | 哦
551 | 呕
552 | 啪达
553 | 旁人
554 | 呸
555 | 凭
556 | 凭借
557 | 其
558 | 其次
559 | 其二
560 | 其他
561 | 其它
562 | 其一
563 | 其余
564 | 其中
565 | 起
566 | 起见
567 | 岂但
568 | 恰恰相反
569 | 前后
570 | 前者
571 | 且
572 | 然而
573 | 然后
574 | 然则
575 | 让
576 | 人家
577 | 任
578 | 任何
579 | 任凭
580 | 如
581 | 如此
582 | 如果
583 | 如何
584 | 如其
585 | 如若
586 | 如上所述
587 | 若
588 | 若非
589 | 若是
590 | 啥
591 | 上下
592 | 尚且
593 | 设若
594 | 设使
595 | 甚而
596 | 甚么
597 | 甚至
598 | 省得
599 | 时候
600 | 什么
601 | 什么样
602 | 使得
603 | 是
604 | 是的
605 | 首先
606 | 谁
607 | 谁知
608 | 顺
609 | 顺着
610 | 似的
611 | 虽
612 | 虽然
613 | 虽说
614 | 虽则
615 | 随
616 | 随着
617 | 所
618 | 所以
619 | 他
620 | 他们
621 | 他人
622 | 它
623 | 它们
624 | 她
625 | 她们
626 | 倘
627 | 倘或
628 | 倘然
629 | 倘若
630 | 倘使
631 | 腾
632 | 替
633 | 通过
634 | 同
635 | 同时
636 | 哇
637 | 万一
638 | 往
639 | 望
640 | 为
641 | 为何
642 | 为了
643 | 为什么
644 | 为着
645 | 喂
646 | 嗡嗡
647 | 我
648 | 我们
649 | 呜
650 | 呜呼
651 | 乌乎
652 | 无论
653 | 无宁
654 | 毋宁
655 | 嘻
656 | 吓
657 | 相对而言
658 | 像
659 | 向
660 | 向着
661 | 嘘
662 | 呀
663 | 焉
664 | 沿
665 | 沿着
666 | 要
667 | 要不
668 | 要不然
669 | 要不是
670 | 要么
671 | 要是
672 | 也
673 | 也罢
674 | 也好
675 | 一
676 | 一般
677 | 一旦
678 | 一方面
679 | 一来
680 | 一切
681 | 一样
682 | 一则
683 | 依
684 | 依照
685 | 矣
686 | 以
687 | 以便
688 | 以及
689 | 以免
690 | 以至
691 | 以至于
692 | 以致
693 | 抑或
694 | 因
695 | 因此
696 | 因而
697 | 因为
698 | 哟
699 | 用
700 | 由
701 | 由此可见
702 | 由于
703 | 有
704 | 有的
705 | 有关
706 | 有些
707 | 又
708 | 于
709 | 于是
710 | 于是乎
711 | 与
712 | 与此同时
713 | 与否
714 | 与其
715 | 越是
716 | 云云
717 | 哉
718 | 再说
719 | 再者
720 | 在
721 | 在下
722 | 咱
723 | 咱们
724 | 则
725 | 怎
726 | 怎么
727 | 怎么办
728 | 怎么样
729 | 怎样
730 | 咋
731 | 照
732 | 照着
733 | 者
734 | 这
735 | 这边
736 | 这儿
737 | 这个
738 | 这会儿
739 | 这就是说
740 | 这里
741 | 这么
742 | 这么点儿
743 | 这么些
744 | 这么样
745 | 这时
746 | 这些
747 | 这样
748 | 正如
749 | 吱
750 | 之
751 | 之类
752 | 之所以
753 | 之一
754 | 只是
755 | 只限
756 | 只要
757 | 只有
758 | 至
759 | 至于
760 | 诸位
761 | 着
762 | 着呢
763 | 自
764 | 自从
765 | 自个儿
766 | 自各儿
767 | 自己
768 | 自家
769 | 自身
770 | 综上所述
771 | 总的来看
772 | 总的来说
773 | 总的说来
774 | 总而言之
775 | 总之
776 | 纵
777 | 纵令
778 | 纵然
779 | 纵使
780 | 遵照
781 | 作为
782 | 兮
783 | 呃
784 | 呗
785 | 咚
786 | 咦
787 | 喏
788 | 啐
789 | 喔唷
790 | 嗬
791 | 嗯
792 | 嗳
793 | 啊哈
794 | 啊呀
795 | 啊哟
796 | 挨次
797 | 挨个
798 | 挨家挨户
799 | 挨门挨户
800 | 挨门逐户
801 | 挨着
802 | 按理
803 | 按期
804 | 按时
805 | 按说
806 | 暗地里
807 | 暗中
808 | 暗自
809 | 昂然
810 | 八成
811 | 白白
812 | 半
813 | 梆
814 | 保管
815 | 保险
816 | 饱
817 | 背地里
818 | 背靠背
819 | 倍感
820 | 倍加
821 | 本人
822 | 本身
823 | 甭
824 | 比起
825 | 比如说
826 | 比照
827 | 毕竟
828 | 必
829 | 必定
830 | 必将
831 | 必须
832 | 便
833 | 别人
834 | 并非
835 | 并肩
836 | 并没
837 | 并没有
838 | 并排
839 | 并无
840 | 勃然
841 | 不
842 | 不必
843 | 不常
844 | 不大
845 | 不得
846 | 不得不
847 | 不得了
848 | 不得已
849 | 不迭
850 | 不定
851 | 不对
852 | 不妨
853 | 不管怎样
854 | 不会
855 | 不仅仅
856 | 不仅仅是
857 | 不经意
858 | 不可开交
859 | 不可抗拒
860 | 不力
861 | 不了
862 | 不料
863 | 不满
864 | 不免
865 | 不能不
866 | 不起
867 | 不巧
868 | 不然的话
869 | 不日
870 | 不少
871 | 不胜
872 | 不时
873 | 不是
874 | 不同
875 | 不能
876 | 不要
877 | 不外
878 | 不外乎
879 | 不下
880 | 不限
881 | 不消
882 | 不已
883 | 不亦乐乎
884 | 不由得
885 | 不再
886 | 不择手段
887 | 不怎么
888 | 不曾
889 | 不知不觉
890 | 不止
891 | 不止一次
892 | 不至于
893 | 才
894 | 才能
895 | 策略地
896 | 差不多
897 | 差一点
898 | 常
899 | 常常
900 | 常言道
901 | 常言说
902 | 常言说得好
903 | 长此下去
904 | 长话短说
905 | 长期以来
906 | 长线
907 | 敞开儿
908 | 彻夜
909 | 陈年
910 | 趁便
911 | 趁机
912 | 趁热
913 | 趁势
914 | 趁早
915 | 成年
916 | 成年累月
917 | 成心
918 | 乘机
919 | 乘胜
920 | 乘势
921 | 乘隙
922 | 乘虚
923 | 诚然
924 | 迟早
925 | 充分
926 | 充其极
927 | 充其量
928 | 抽冷子
929 | 臭
930 | 初
931 | 出
932 | 出来
933 | 出去
934 | 除此
935 | 除此而外
936 | 除此以外
937 | 除开
938 | 除去
939 | 除却
940 | 除外
941 | 处处
942 | 川流不息
943 | 传
944 | 传说
945 | 传闻
946 | 串行
947 | 纯
948 | 纯粹
949 | 此后
950 | 此中
951 | 次第
952 | 匆匆
953 | 从不
954 | 从此
955 | 从此以后
956 | 从古到今
957 | 从古至今
958 | 从今以后
959 | 从宽
960 | 从来
961 | 从轻
962 | 从速
963 | 从头
964 | 从未
965 | 从无到有
966 | 从小
967 | 从新
968 | 从严
969 | 从优
970 | 从早到晚
971 | 从中
972 | 从重
973 | 凑巧
974 | 粗
975 | 存心
976 | 达旦
977 | 打从
978 | 打开天窗说亮话
979 | 大
980 | 大不了
981 | 大大
982 | 大抵
983 | 大都
984 | 大多
985 | 大凡
986 | 大概
987 | 大家
988 | 大举
989 | 大略
990 | 大面儿上
991 | 大事
992 | 大体
993 | 大体上
994 | 大约
995 | 大张旗鼓
996 | 大致
997 | 呆呆地
998 | 带
999 | 殆
1000 | 待到
1001 | 单
1002 | 单纯
1003 | 单单
1004 | 但愿
1005 | 弹指之间
1006 | 当场
1007 | 当儿
1008 | 当即
1009 | 当口儿
1010 | 当然
1011 | 当庭
1012 | 当头
1013 | 当下
1014 | 当真
1015 | 当中
1016 | 倒不如
1017 | 倒不如说
1018 | 倒是
1019 | 到处
1020 | 到底
1021 | 到了儿
1022 | 到目前为止
1023 | 到头
1024 | 到头来
1025 | 得起
1026 | 得天独厚
1027 | 的确
1028 | 等到
1029 | 叮当
1030 | 顶多
1031 | 定
1032 | 动不动
1033 | 动辄
1034 | 陡然
1035 | 都
1036 | 独
1037 | 独自
1038 | 断然
1039 | 顿时
1040 | 多次
1041 | 多多
1042 | 多多少少
1043 | 多多益善
1044 | 多亏
1045 | 多年来
1046 | 多年前
1047 | 而后
1048 | 而论
1049 | 而又
1050 | 尔等
1051 | 二话不说
1052 | 二话没说
1053 | 反倒
1054 | 反倒是
1055 | 反而
1056 | 反手
1057 | 反之亦然
1058 | 反之则
1059 | 方
1060 | 方才
1061 | 方能
1062 | 放量
1063 | 非常
1064 | 非得
1065 | 分期
1066 | 分期分批
1067 | 分头
1068 | 奋勇
1069 | 愤然
1070 | 风雨无阻
1071 | 逢
1072 | 弗
1073 | 甫
1074 | 嘎嘎
1075 | 该当
1076 | 概
1077 | 赶快
1078 | 赶早不赶晚
1079 | 敢
1080 | 敢情
1081 | 敢于
1082 | 刚
1083 | 刚才
1084 | 刚好
1085 | 刚巧
1086 | 高低
1087 | 格外
1088 | 隔日
1089 | 隔夜
1090 | 个人
1091 | 各式
1092 | 更
1093 | 更加
1094 | 更进一步
1095 | 更为
1096 | 公然
1097 | 共
1098 | 共总
1099 | 够瞧的
1100 | 姑且
1101 | 古来
1102 | 故而
1103 | 故意
1104 | 固
1105 | 怪
1106 | 怪不得
1107 | 惯常
1108 | 光
1109 | 光是
1110 | 归根到底
1111 | 归根结底
1112 | 过于
1113 | 毫不
1114 | 毫无
1115 | 毫无保留地
1116 | 毫无例外
1117 | 好在
1118 | 何必
1119 | 何尝
1120 | 何妨
1121 | 何苦
1122 | 何乐而不为
1123 | 何须
1124 | 何止
1125 | 很
1126 | 很多
1127 | 很少
1128 | 轰然
1129 | 后来
1130 | 呼啦
1131 | 忽地
1132 | 忽然
1133 | 互
1134 | 互相
1135 | 哗啦
1136 | 话说
1137 | 还
1138 | 恍然
1139 | 会
1140 | 豁然
1141 | 活
1142 | 伙同
1143 | 或多或少
1144 | 或许
1145 | 基本
1146 | 基本上
1147 | 基于
1148 | 极
1149 | 极大
1150 | 极度
1151 | 极端
1152 | 极力
1153 | 极其
1154 | 极为
1155 | 急匆匆
1156 | 即将
1157 | 即刻
1158 | 即是说
1159 | 几度
1160 | 几番
1161 | 几乎
1162 | 几经
1163 | 既…又
1164 | 继之
1165 | 加上
1166 | 加以
1167 | 间或
1168 | 简而言之
1169 | 简言之
1170 | 简直
1171 | 见
1172 | 将才
1173 | 将近
1174 | 将要
1175 | 交口
1176 | 较比
1177 | 较为
1178 | 接连不断
1179 | 接下来
1180 | 皆可
1181 | 截然
1182 | 截至
1183 | 藉以
1184 | 借此
1185 | 借以
1186 | 届时
1187 | 仅
1188 | 仅仅
1189 | 谨
1190 | 进来
1191 | 进去
1192 | 近
1193 | 近几年来
1194 | 近来
1195 | 近年来
1196 | 尽管如此
1197 | 尽可能
1198 | 尽快
1199 | 尽量
1200 | 尽然
1201 | 尽如人意
1202 | 尽心竭力
1203 | 尽心尽力
1204 | 尽早
1205 | 精光
1206 | 经常
1207 | 竟
1208 | 竟然
1209 | 究竟
1210 | 就此
1211 | 就地
1212 | 就算
1213 | 居然
1214 | 局外
1215 | 举凡
1216 | 据称
1217 | 据此
1218 | 据实
1219 | 据说
1220 | 据我所知
1221 | 据悉
1222 | 具体来说
1223 | 决不
1224 | 决非
1225 | 绝
1226 | 绝不
1227 | 绝顶
1228 | 绝对
1229 | 绝非
1230 | 均
1231 | 喀
1232 | 看
1233 | 看来
1234 | 看起来
1235 | 看上去
1236 | 看样子
1237 | 可好
1238 | 可能
1239 | 恐怕
1240 | 快
1241 | 快要
1242 | 来不及
1243 | 来得及
1244 | 来讲
1245 | 来看
1246 | 拦腰
1247 | 牢牢
1248 | 老
1249 | 老大
1250 | 老老实实
1251 | 老是
1252 | 累次
1253 | 累年
1254 | 理当
1255 | 理该
1256 | 理应
1257 | 历
1258 | 立
1259 | 立地
1260 | 立刻
1261 | 立马
1262 | 立时
1263 | 联袂
1264 | 连连
1265 | 连日
1266 | 连日来
1267 | 连声
1268 | 连袂
1269 | 临到
1270 | 另方面
1271 | 另行
1272 | 另一个
1273 | 路经
1274 | 屡
1275 | 屡次
1276 | 屡次三番
1277 | 屡屡
1278 | 缕缕
1279 | 率尔
1280 | 率然
1281 | 略
1282 | 略加
1283 | 略微
1284 | 略为
1285 | 论说
1286 | 马上
1287 | 蛮
1288 | 满
1289 | 没
1290 | 没有
1291 | 每逢
1292 | 每每
1293 | 每时每刻
1294 | 猛然
1295 | 猛然间
1296 | 莫
1297 | 莫不
1298 | 莫非
1299 | 莫如
1300 | 默默地
1301 | 默然
1302 | 呐
1303 | 那末
1304 | 奈
1305 | 难道
1306 | 难得
1307 | 难怪
1308 | 难说
1309 | 内
1310 | 年复一年
1311 | 凝神
1312 | 偶而
1313 | 偶尔
1314 | 怕
1315 | 砰
1316 | 碰巧
1317 | 譬如
1318 | 偏偏
1319 | 乒
1320 | 平素
1321 | 颇
1322 | 迫于
1323 | 扑通
1324 | 其后
1325 | 其实
1326 | 奇
1327 | 齐
1328 | 起初
1329 | 起来
1330 | 起首
1331 | 起头
1332 | 起先
1333 | 岂
1334 | 岂非
1335 | 岂止
1336 | 迄
1337 | 恰逢
1338 | 恰好
1339 | 恰恰
1340 | 恰巧
1341 | 恰如
1342 | 恰似
1343 | 千
1344 | 万
1345 | 千万
1346 | 千万千万
1347 | 切
1348 | 切不可
1349 | 切莫
1350 | 切切
1351 | 切勿
1352 | 窃
1353 | 亲口
1354 | 亲身
1355 | 亲手
1356 | 亲眼
1357 | 亲自
1358 | 顷
1359 | 顷刻
1360 | 顷刻间
1361 | 顷刻之间
1362 | 请勿
1363 | 穷年累月
1364 | 取道
1365 | 去
1366 | 权时
1367 | 全都
1368 | 全力
1369 | 全年
1370 | 全然
1371 | 全身心
1372 | 然
1373 | 人人
1374 | 仍
1375 | 仍旧
1376 | 仍然
1377 | 日复一日
1378 | 日见
1379 | 日渐
1380 | 日益
1381 | 日臻
1382 | 如常
1383 | 如此等等
1384 | 如次
1385 | 如今
1386 | 如期
1387 | 如前所述
1388 | 如上
1389 | 如下
1390 | 汝
1391 | 三番两次
1392 | 三番五次
1393 | 三天两头
1394 | 瑟瑟
1395 | 沙沙
1396 | 上
1397 | 上来
1398 | 上去
1399 | 一.
1400 | 一一
1401 | 一下
1402 | 一个
1403 | 一些
1404 | 一何
1405 | 一则通过
1406 | 一天
1407 | 一定
1408 | 一时
1409 | 一次
1410 | 一片
1411 | 一番
1412 | 一直
1413 | 一致
1414 | 一起
1415 | 一转眼
1416 | 一边
1417 | 一面
1418 | 上升
1419 | 上述
1420 | 上面
1421 | 下
1422 | 下列
1423 | 下去
1424 | 下来
1425 | 下面
1426 | 不一
1427 | 不久
1428 | 不变
1429 | 不可
1430 | 不够
1431 | 不尽
1432 | 不尽然
1433 | 不敢
1434 | 不断
1435 | 不若
1436 | 不足
1437 | 与其说
1438 | 专门
1439 | 且不说
1440 | 且说
1441 | 严格
1442 | 严重
1443 | 个别
1444 | 中小
1445 | 中间
1446 | 丰富
1447 | 为主
1448 | 为什麽
1449 | 为止
1450 | 为此
1451 | 主张
1452 | 主要
1453 | 举行
1454 | 乃至于
1455 | 之前
1456 | 之后
1457 | 之後
1458 | 也就是说
1459 | 也是
1460 | 了解
1461 | 争取
1462 | 二来
1463 | 云尔
1464 | 些
1465 | 亦
1466 | 产生
1467 | 人
1468 | 人们
1469 | 什麽
1470 | 今
1471 | 今后
1472 | 今天
1473 | 今年
1474 | 今後
1475 | 介于
1476 | 从事
1477 | 他是
1478 | 他的
1479 | 代替
1480 | 以上
1481 | 以下
1482 | 以为
1483 | 以前
1484 | 以后
1485 | 以外
1486 | 以後
1487 | 以故
1488 | 以期
1489 | 以来
1490 | 任务
1491 | 企图
1492 | 伟大
1493 | 似乎
1494 | 但凡
1495 | 何以
1496 | 余外
1497 | 你是
1498 | 你的
1499 | 使
1500 | 使用
1501 | 依据
1502 | 依靠
1503 | 便于
1504 | 促进
1505 | 保持
1506 | 做到
1507 | 傥然
1508 | 儿
1509 | 允许
1510 | 元/吨
1511 | 先不先
1512 | 先后
1513 | 先後
1514 | 先生
1515 | 全体
1516 | 全部
1517 | 全面
1518 | 共同
1519 | 具体
1520 | 具有
1521 | 兼之
1522 | 再
1523 | 再其次
1524 | 再则
1525 | 再有
1526 | 再次
1527 | 再者说
1528 | 决定
1529 | 准备
1530 | 凡
1531 | 凡是
1532 | 出于
1533 | 出现
1534 | 分别
1535 | 则甚
1536 | 别处
1537 | 别是
1538 | 别管
1539 | 前此
1540 | 前进
1541 | 前面
1542 | 加入
1543 | 加强
1544 | 十分
1545 | 即如
1546 | 却
1547 | 却不
1548 | 原来
1549 | 又及
1550 | 及时
1551 | 双方
1552 | 反应
1553 | 反映
1554 | 取得
1555 | 受到
1556 | 变成
1557 | 另悉
1558 | 只
1559 | 只当
1560 | 只怕
1561 | 只消
1562 | 叫做
1563 | 召开
1564 | 各人
1565 | 各地
1566 | 各级
1567 | 合理
1568 | 同一
1569 | 同样
1570 | 后
1571 | 后者
1572 | 后面
1573 | 向使
1574 | 周围
1575 | 呵呵
1576 | 咧
1577 | 唯有
1578 | 啷当
1579 | 喽
1580 | 嗡
1581 | 嘿嘿
1582 | 因了
1583 | 因着
1584 | 在于
1585 | 坚决
1586 | 坚持
1587 | 处在
1588 | 处理
1589 | 复杂
1590 | 多么
1591 | 多数
1592 | 大力
1593 | 大多数
1594 | 大批
1595 | 大量
1596 | 失去
1597 | 她是
1598 | 她的
1599 | 好
1600 | 好的
1601 | 好象
1602 | 如同
1603 | 如是
1604 | 始而
1605 | 存在
1606 | 孰料
1607 | 孰知
1608 | 它们的
1609 | 它是
1610 | 它的
1611 | 安全
1612 | 完全
1613 | 完成
1614 | 实现
1615 | 实际
1616 | 宣布
1617 | 容易
1618 | 密切
1619 | 对应
1620 | 对待
1621 | 对方
1622 | 对比
1623 | 小
1624 | 少数
1625 | 尔
1626 | 尔尔
1627 | 尤其
1628 | 就是了
1629 | 就要
1630 | 属于
1631 | 左右
1632 | 巨大
1633 | 巩固
1634 | 已
1635 | 已矣
1636 | 已经
1637 | 巴
1638 | 巴巴
1639 | 帮助
1640 | 并不
1641 | 并不是
1642 | 广大
1643 | 广泛
1644 | 应当
1645 | 应用
1646 | 应该
1647 | 庶乎
1648 | 庶几
1649 | 开展
1650 | 引起
1651 | 强烈
1652 | 强调
1653 | 归齐
1654 | 当前
1655 | 当地
1656 | 当时
1657 | 形成
1658 | 彻底
1659 | 彼时
1660 | 往往
1661 | 後来
1662 | 後面
1663 | 得了
1664 | 得出
1665 | 得到
1666 | 心里
1667 | 必然
1668 | 必要
1669 | 怎奈
1670 | 怎麽
1671 | 总是
1672 | 总结
1673 | 您们
1674 | 您是
1675 | 惟其
1676 | 意思
1677 | 愿意
1678 | 成为
1679 | 我是
1680 | 我的
1681 | 或则
1682 | 或曰
1683 | 战斗
1684 | 所在
1685 | 所幸
1686 | 所有
1687 | 所谓
1688 | 扩大
1689 | 掌握
1690 | 接著
1691 | 数/
1692 | 整个
1693 | 方便
1694 | 方面
1695 | 无
1696 | 无法
1697 | 既往
1698 | 明显
1699 | 明确
1700 | 是不是
1701 | 是以
1702 | 是否
1703 | 显然
1704 | 显著
1705 | 普通
1706 | 普遍
1707 | 曾
1708 | 曾经
1709 | 替代
1710 | 最
1711 | 最后
1712 | 最大
1713 | 最好
1714 | 最後
1715 | 最近
1716 | 最高
1717 | 有利
1718 | 有力
1719 | 有及
1720 | 有所
1721 | 有效
1722 | 有时
1723 | 有点
1724 | 有的是
1725 | 有着
1726 | 有著
1727 | 末末
1728 | 本地
1729 | 来自
1730 | 来说
1731 | 构成
1732 | 某某
1733 | 根本
1734 | 欢迎
1735 | 欤
1736 | 正值
1737 | 正在
1738 | 正巧
1739 | 正常
1740 | 正是
1741 | 此地
1742 | 此处
1743 | 此时
1744 | 此次
1745 | 每个
1746 | 每天
1747 | 每年
1748 | 比及
1749 | 比较
1750 | 没奈何
1751 | 注意
1752 | 深入
1753 | 清楚
1754 | 满足
1755 | 然後
1756 | 特别是
1757 | 特殊
1758 | 特点
1759 | 犹且
1760 | 犹自
1761 | 现代
1762 | 现在
1763 | 甚且
1764 | 甚或
1765 | 甚至于
1766 | 用来
1767 | 由是
1768 | 由此
1769 | 目前
1770 | 直到
1771 | 直接
1772 | 相似
1773 | 相信
1774 | 相反
1775 | 相同
1776 | 相对
1777 | 相应
1778 | 相当
1779 | 相等
1780 | 看出
1781 | 看到
1782 | 看看
1783 | 看见
1784 | 真是
1785 | 真正
1786 | 眨眼
1787 | 矣乎
1788 | 矣哉
1789 | 知道
1790 | 确定
1791 | 种
1792 | 积极
1793 | 移动
1794 | 突出
1795 | 突然
1796 | 立即
1797 | 竟而
1798 | 第二
1799 | 类如
1800 | 练习
1801 | 组成
1802 | 结合
1803 | 继后
1804 | 继续
1805 | 维持
1806 | 考虑
1807 | 联系
1808 | 能否
1809 | 能够
1810 | 自后
1811 | 自打
1812 | 至今
1813 | 至若
1814 | 致
1815 | 般的
1816 | 良好
1817 | 若夫
1818 | 若果
1819 | 范围
1820 | 莫不然
1821 | 获得
1822 | 行为
1823 | 行动
1824 | 表明
1825 | 表示
1826 | 要求
1827 | 规定
1828 | 觉得
1829 | 譬喻
1830 | 认为
1831 | 认真
1832 | 认识
1833 | 许多
1834 | 设或
1835 | 诚如
1836 | 说明
1837 | 说来
1838 | 说说
1839 | 诸
1840 | 诸如
1841 | 谁人
1842 | 谁料
1843 | 贼死
1844 | 赖以
1845 | 距
1846 | 转动
1847 | 转变
1848 | 转贴
1849 | 达到
1850 | 迅速
1851 | 过去
1852 | 过来
1853 | 运用
1854 | 还要
1855 | 这一来
1856 | 这次
1857 | 这点
1858 | 这种
1859 | 这般
1860 | 这麽
1861 | 进入
1862 | 进步
1863 | 进行
1864 | 适应
1865 | 适当
1866 | 适用
1867 | 逐步
1868 | 逐渐
1869 | 通常
1870 | 造成
1871 | 遇到
1872 | 遭到
1873 | 遵循
1874 | 避免
1875 | 那般
1876 | 那麽
1877 | 部分
1878 | 采取
1879 | 里面
1880 | 重大
1881 | 重新
1882 | 重要
1883 | 针对
1884 | 问题
1885 | 防止
1886 | 附近
1887 | 限制
1888 | 随后
1889 | 随时
1890 | 随著
1891 | 难道说
1892 | 集中
1893 | 需要
1894 | 非特
1895 | 非独
1896 | 高兴
1897 | 若果
--------------------------------------------------------------------------------