├── README.md ├── Supervised Learning ├── Descision Tree │ └── ad │ │ ├── ad.DOCUMENTATION │ │ ├── ad.data │ │ ├── ad.names │ │ └── ad.py ├── Linear Regression │ ├── Boston Housing │ │ └── boston.py │ └── wine │ │ ├── wine.py │ │ └── winequality-red.csv ├── Logistic Regression │ ├── movie │ │ ├── movie.py │ │ ├── test.tsv │ │ ├── test.tsv.zip │ │ ├── train.tsv │ │ └── train.tsv.zip │ ├── seeds │ │ ├── seed.csv │ │ └── seed.py │ └── spam │ │ ├── SMSSpamCollection │ │ ├── readme │ │ └── spam.py └── svm │ ├── data │ └── mnist │ │ └── mldata │ │ └── mnist-original.mat │ └── digit.py ├── Unsupervised Learning └── K-means │ ├── dog-vs-cats │ └── dvsc.py │ └── image-compression │ ├── image.py │ └── new.jpg ├── cheatsheet.txt ├── neural-networks ├── mmnist.py └── mnist_cnn.py ├── new.jpg └── try_ml.py /README.md: -------------------------------------------------------------------------------- 1 | # Practical-MachineLearning 2 | 3 | Machine Learning models for real life datasets taken from UCI and Kaggle. 4 | -------------------------------------------------------------------------------- /Supervised Learning/Descision Tree/ad/ad.DOCUMENTATION: -------------------------------------------------------------------------------- 1 | 1. Title of Database: Internet advertisements 2 | 3 | 2. Sources: 4 | (a) Creator & donor: Nicholas Kushmerick 5 | (c) Generated: April-July 1998 6 | 7 | 3. Past Usage: 8 | N. Kushmerick (1999). "Learning to remove Internet advertisements", 9 | 3rd Int Conf Autonomous Agents. Available at 10 | www.cs.ucd.ie/staff/nick/research/download/kushmerick-aa99.ps.gz. 11 | Accuracy >97% using C4.5rules in predicting whether an image is an 12 | advertisement. 13 | 14 | 4. This dataset represents a set of possible advertisements on 15 | Internet pages. The features encode the geometry of the image (if 16 | available) as well as phrases occuring in the URL, the image's URL and 17 | alt text, the anchor text, and words occuring near the anchor text. 18 | The task is to predict whether an image is an advertisement ("ad") or 19 | not ("nonad"). 20 | 21 | 5. Number of Instances: 3279 (2821 nonads, 458 ads) 22 | 23 | 6. Number of Attributes: 1558 (3 continous; others binary; this is the 24 | "STANDARD encoding" mentioned in the [Kushmerick, 99].) 25 | One or more of the three continous features are missing in 28% 26 | of the instances; missing values should be interpreted as "unknown". 27 | 28 | 7. See [Kushmerick, 99] for details of the attributes; in 29 | ".names" format: 30 | 31 | height: continuous. | possibly missing 32 | width: continuous. | possibly missing 33 | aratio: continuous. | possibly missing 34 | local: 0,1. 35 | | 457 features from url terms, each of the form "url*term1+term2..."; 36 | | for example: 37 | url*images+buttons: 0,1. 38 | ... 39 | | 495 features from origurl terms, in same form; for example: 40 | origurl*labyrinth: 0,1. 41 | ... 42 | | 472 features from ancurl terms, in same form; for example: 43 | ancurl*search+direct: 0,1. 44 | ... 45 | | 111 features from alt terms, in same form; for example: 46 | alt*your: 0,1. 47 | ... 48 | | 19 features from caption terms 49 | caption*and: 0,1. 50 | ... 51 | 52 | 8. Missing Attribute Values: how many per each attribute? 53 | 28% of instances are missing some of the continous attributes. 54 | 55 | 9. Class Distribution: number of instances per class 56 | 2821 nonads, 458 ads. 57 | -------------------------------------------------------------------------------- /Supervised Learning/Descision Tree/ad/ad.names: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/ayush1997/Practical-MachineLearning/c616e26b1b4515e0c4496625b9ff99b463ff0427/Supervised Learning/Descision Tree/ad/ad.names -------------------------------------------------------------------------------- /Supervised Learning/Descision Tree/ad/ad.py: -------------------------------------------------------------------------------- 1 | ################################################################################################################## 2 | # A decision tree model for predicting whether each of the image on the webpage is an avertismentself. # 3 | # # 4 | # dataset source : http://archiive.ics.uci.edu/ml/datasets/Internet+Advertisment # 5 | ################################################################################################################### 6 | 7 | import pandas as pd 8 | from sklearn.tree import DecisionTreeClassifier 9 | from sklearn.cross_validation import train_test_split 10 | from sklearn.metrics import classification_report 11 | from sklearn.pipeline import Pipeline 12 | from sklearn.grid_search import GridSearchCV 13 | 14 | 15 | 16 | if __name__ == '__main__': 17 | df = pd.read_csv('ad.data',header=None) 18 | explanatory_variable_columns = set(df.columns.values) 19 | response_variable_column = df[len(df.columns.values)-1] 20 | explanatory_variable_columns.remove(len(df.columns.values)-1) 21 | 22 | y = [1 if e == 'ad.' else 0 for e in response_variable_column ] 23 | X = df[list(explanatory_variable_columns)] 24 | 25 | X.replace(to_replace=' *\?',value = -1,regex =True,inplace=True) 26 | 27 | X_train,X_test,y_train,y_test = train_test_split(X,y) 28 | 29 | # print "training",X_train 30 | # print "y-training",X_test 31 | 32 | pipeline = Pipeline([ 33 | ('clf',DecisionTreeClassifier(criterion='entropy')) 34 | ]) 35 | 36 | parameters={ 37 | 'clf__max_depth':(150,155,160), 38 | 'clf__min_samples_split':(1,2,3), 39 | 'clf__min_samples_leaf':(1,2,3) 40 | } 41 | 42 | #GridSearchCV is basically used to find the set of most appropriate hyper-parameter for the model among parameters given.Also to maximize the model's F1 score. 43 | 44 | grid_search = GridSearchCV(pipeline,parameters,n_jobs=1,verbose=1,scoring='f1') 45 | grid_search.fit(X_train,y_train) 46 | 47 | print "Best score:",grid_search.best_score_ 48 | print "Best parameters set:" 49 | best_parameters = grid_search.best_estimator_.get_params() 50 | 51 | for param_name in sorted(parameters.keys()): 52 | print (param_name,best_parameters[param_name]) 53 | 54 | prediction = grid_search.predict(X_test) 55 | print prediction 56 | print classification_report(y_test,prediction) 57 | -------------------------------------------------------------------------------- /Supervised Learning/Linear Regression/Boston Housing/boston.py: -------------------------------------------------------------------------------- 1 | import numpy as np 2 | from sklearn.datasets import load_boston 3 | from scipy.stats import pointbiserialr, spearmanr 4 | import pandas as pd 5 | import matplotlib.pyplot as plt 6 | from sklearn.linear_model import LinearRegression 7 | from sklearn.linear_model import SGDRegressor 8 | from sklearn.cross_validation import train_test_split, cross_val_score 9 | from sklearn.preprocessing import StandardScaler 10 | from sklearn.metrics.metrics import accuracy_score,classification_report 11 | 12 | #pointbiserialr for bnary classification and spearmanr for milti class classification 13 | data = load_boston() 14 | 15 | def scatter_plot(X,Y): 16 | plt.subplot(5,3,1) 17 | columns = ['crim','zn','indus','chos','nox','rm','age','dis','rad','tax','ptratio','b','lstat'] 18 | 19 | subplot_counter = 1 20 | for c in range(len(columns)): 21 | x = X[:,c] 22 | y = Y 23 | plt.subplot(5,3,subplot_counter) 24 | plt.scatter(x,y) 25 | plt.axis("tight") 26 | # plt.title('Feature Selection', fontsize=14) 27 | plt.xlabel(columns[c], fontsize=12) 28 | plt.ylabel("price", fontsize=12) 29 | subplot_counter+=1 30 | plt.show() 31 | 32 | def feature_selection(X,Y): 33 | param_df= ['crim','zn','indus','chos','nox','rm','age','dis','rad','tax','ptratio','b','lstat'] 34 | # print param_df 35 | scores = [] 36 | scoreCV =[] 37 | for j in range(5): 38 | scores = [] 39 | scoreCV=[] 40 | for i in range(0,len(param_df)): 41 | # print df[:,0:i+1:] 42 | x = X[:,0:(i+1)] 43 | # print X 44 | y = Y 45 | clf =SGDRegressor(loss="squared_loss") 46 | scoreCV = cross_val_score(clf, x, y, cv=3) 47 | # print scoreCV 48 | # print np.mean(scoreCV) 49 | scores.append(np.mean(scoreCV)) 50 | 51 | plt.figure(figsize=(15,5)) 52 | plt.plot(range(1,len(scores)+1),scores, '.-') 53 | plt.axis("tight") 54 | plt.title('Feature Selection', fontsize=14) 55 | plt.xlabel('# Features', fontsize=12) 56 | plt.ylabel('Score', fontsize=12) 57 | plt.show() 58 | 59 | 60 | 61 | 62 | def correlation(X,Y): 63 | param = [] 64 | correlation=[] 65 | abs_corr=[] 66 | 67 | columns = ['crim','zn','indus','chos','nox','rm','age','dis','rad','tax','ptratio','b','lstat'] 68 | 69 | for c in range(len(columns)): 70 | corr = spearmanr(X[:,c],Y)[0] 71 | correlation.append(corr) 72 | param.append(c) 73 | abs_corr.append(abs(corr)) 74 | print correlation 75 | #create data frame 76 | param_cor = pd.DataFrame({'correlation':correlation,'parameter':param, 'abs_corr':abs_corr}) 77 | paramc_cor=param_cor.sort_values(by=['abs_corr'], ascending=False) 78 | param_cor=param_cor.set_index('parameter') 79 | 80 | 81 | print param_cor 82 | 83 | 84 | 85 | 86 | 87 | if __name__ == '__main__': 88 | data = load_boston() 89 | 90 | X = data.data 91 | Y = data.target 92 | 93 | 94 | 95 | X_train,X_test,Y_train,Y_test = train_test_split(X,Y) 96 | 97 | X_scaler = StandardScaler() 98 | Y_scaler = StandardScaler() 99 | 100 | X_train = X_scaler.fit_transform(X_train) 101 | Y_train = Y_scaler.fit_transform(Y_train) 102 | X_test = X_scaler.transform(X_test) 103 | Y_test = Y_scaler.transform(Y_test) 104 | 105 | print X_train[0:5] 106 | 107 | 108 | print len(X_train) 109 | print Y_test 110 | 111 | clf =SGDRegressor(loss="squared_loss") 112 | scores = cross_val_score(clf,X_train,Y_train,cv=5) 113 | print scores 114 | print np.mean(scores) 115 | 116 | clf.fit_transform(X_train,Y_train) 117 | 118 | pred = clf.predict(X_test) 119 | 120 | print clf.score(X_test,Y_test) 121 | 122 | 123 | 124 | 125 | # correlation(X_train,Y_train) 126 | # feature_selection(X_train,Y_train) 127 | scatter_plot(X_train,Y_train) 128 | -------------------------------------------------------------------------------- /Supervised Learning/Linear Regression/wine/wine.py: -------------------------------------------------------------------------------- 1 | ################################################################################################################## 2 | # A Linear regression model to predict the quality of wine # 3 | # # 4 | # dataset source : http://archiive.ics.uci.edu/ml/datasets/Wine # 5 | ################################################################################################################### 6 | 7 | 8 | import pandas as pd 9 | import matplotlib.pylab as plt 10 | from sklearn.linear_model import LinearRegression 11 | from sklearn.cross_validation import train_test_split,cross_val_score 12 | from sklearn.metrics import accuracy_score 13 | from sklearn.metrics import median_absolute_error 14 | 15 | 16 | df = pd.read_csv('winequality-red.csv' ,sep=";") 17 | print df 18 | #gives all the statistics 19 | # print df.describe() 20 | 21 | # print df["quality"] 22 | # print df.columns[:-1] 23 | 24 | 25 | # plt.scatter(df["alcohol"],df["quality"]) 26 | # plt.xlabel("Alcohol Content") 27 | # plt.ylabel("Quality") 28 | # plt.title("wijen quality analy") 29 | # plt.show() 30 | 31 | 32 | 33 | X = df[list(df.columns)[:-1]] 34 | Y = df["quality"] 35 | print X 36 | print Y 37 | 38 | X_train,X_test,Y_train,Y_test = train_test_split(X,Y) 39 | print X_train 40 | print Y_train 41 | 42 | regressor = LinearRegression() 43 | regressor.fit([[1,2,3],[4,5,6],[7,8,9]],[[0,1,2]]) 44 | 45 | scores = cross_val_score(regressor,X,Y,cv = 5) 46 | print scores.mean(),scores 47 | 48 | y_prediction = regressor.predict(X_test) 49 | 50 | # print "prediction = ",y_prediction 51 | 52 | print "r squared=",regressor.score(X_test,Y_test) 53 | 54 | print "accuracy_score", accuracy_score(y_prediction,Y_test) 55 | 56 | 57 | 58 | print median_absolute_error(Y_test, y_prediction) 59 | -------------------------------------------------------------------------------- /Supervised Learning/Linear Regression/wine/winequality-red.csv: -------------------------------------------------------------------------------- 1 | "fixed acidity";"volatile acidity";"citric acid";"residual sugar";"chlorides";"free sulfur dioxide";"total sulfur dioxide";"density";"pH";"sulphates";"alcohol";"quality" 2 | 7.4;0.7;0;1.9;0.076;11;34;0.9978;3.51;0.56;9.4;5 3 | 7.8;0.88;0;2.6;0.098;25;67;0.9968;3.2;0.68;9.8;5 4 | 7.8;0.76;0.04;2.3;0.092;15;54;0.997;3.26;0.65;9.8;5 5 | 11.2;0.28;0.56;1.9;0.075;17;60;0.998;3.16;0.58;9.8;6 6 | 7.4;0.7;0;1.9;0.076;11;34;0.9978;3.51;0.56;9.4;5 7 | 7.4;0.66;0;1.8;0.075;13;40;0.9978;3.51;0.56;9.4;5 8 | 7.9;0.6;0.06;1.6;0.069;15;59;0.9964;3.3;0.46;9.4;5 9 | 7.3;0.65;0;1.2;0.065;15;21;0.9946;3.39;0.47;10;7 10 | 7.8;0.58;0.02;2;0.073;9;18;0.9968;3.36;0.57;9.5;7 11 | 7.5;0.5;0.36;6.1;0.071;17;102;0.9978;3.35;0.8;10.5;5 12 | 6.7;0.58;0.08;1.8;0.097;15;65;0.9959;3.28;0.54;9.2;5 13 | 7.5;0.5;0.36;6.1;0.071;17;102;0.9978;3.35;0.8;10.5;5 14 | 5.6;0.615;0;1.6;0.089;16;59;0.9943;3.58;0.52;9.9;5 15 | 7.8;0.61;0.29;1.6;0.114;9;29;0.9974;3.26;1.56;9.1;5 16 | 8.9;0.62;0.18;3.8;0.176;52;145;0.9986;3.16;0.88;9.2;5 17 | 8.9;0.62;0.19;3.9;0.17;51;148;0.9986;3.17;0.93;9.2;5 18 | 8.5;0.28;0.56;1.8;0.092;35;103;0.9969;3.3;0.75;10.5;7 19 | 8.1;0.56;0.28;1.7;0.368;16;56;0.9968;3.11;1.28;9.3;5 20 | 7.4;0.59;0.08;4.4;0.086;6;29;0.9974;3.38;0.5;9;4 21 | 7.9;0.32;0.51;1.8;0.341;17;56;0.9969;3.04;1.08;9.2;6 22 | 8.9;0.22;0.48;1.8;0.077;29;60;0.9968;3.39;0.53;9.4;6 23 | 7.6;0.39;0.31;2.3;0.082;23;71;0.9982;3.52;0.65;9.7;5 24 | 7.9;0.43;0.21;1.6;0.106;10;37;0.9966;3.17;0.91;9.5;5 25 | 8.5;0.49;0.11;2.3;0.084;9;67;0.9968;3.17;0.53;9.4;5 26 | 6.9;0.4;0.14;2.4;0.085;21;40;0.9968;3.43;0.63;9.7;6 27 | 6.3;0.39;0.16;1.4;0.08;11;23;0.9955;3.34;0.56;9.3;5 28 | 7.6;0.41;0.24;1.8;0.08;4;11;0.9962;3.28;0.59;9.5;5 29 | 7.9;0.43;0.21;1.6;0.106;10;37;0.9966;3.17;0.91;9.5;5 30 | 7.1;0.71;0;1.9;0.08;14;35;0.9972;3.47;0.55;9.4;5 31 | 7.8;0.645;0;2;0.082;8;16;0.9964;3.38;0.59;9.8;6 32 | 6.7;0.675;0.07;2.4;0.089;17;82;0.9958;3.35;0.54;10.1;5 33 | 6.9;0.685;0;2.5;0.105;22;37;0.9966;3.46;0.57;10.6;6 34 | 8.3;0.655;0.12;2.3;0.083;15;113;0.9966;3.17;0.66;9.8;5 35 | 6.9;0.605;0.12;10.7;0.073;40;83;0.9993;3.45;0.52;9.4;6 36 | 5.2;0.32;0.25;1.8;0.103;13;50;0.9957;3.38;0.55;9.2;5 37 | 7.8;0.645;0;5.5;0.086;5;18;0.9986;3.4;0.55;9.6;6 38 | 7.8;0.6;0.14;2.4;0.086;3;15;0.9975;3.42;0.6;10.8;6 39 | 8.1;0.38;0.28;2.1;0.066;13;30;0.9968;3.23;0.73;9.7;7 40 | 5.7;1.13;0.09;1.5;0.172;7;19;0.994;3.5;0.48;9.8;4 41 | 7.3;0.45;0.36;5.9;0.074;12;87;0.9978;3.33;0.83;10.5;5 42 | 7.3;0.45;0.36;5.9;0.074;12;87;0.9978;3.33;0.83;10.5;5 43 | 8.8;0.61;0.3;2.8;0.088;17;46;0.9976;3.26;0.51;9.3;4 44 | 7.5;0.49;0.2;2.6;0.332;8;14;0.9968;3.21;0.9;10.5;6 45 | 8.1;0.66;0.22;2.2;0.069;9;23;0.9968;3.3;1.2;10.3;5 46 | 6.8;0.67;0.02;1.8;0.05;5;11;0.9962;3.48;0.52;9.5;5 47 | 4.6;0.52;0.15;2.1;0.054;8;65;0.9934;3.9;0.56;13.1;4 48 | 7.7;0.935;0.43;2.2;0.114;22;114;0.997;3.25;0.73;9.2;5 49 | 8.7;0.29;0.52;1.6;0.113;12;37;0.9969;3.25;0.58;9.5;5 50 | 6.4;0.4;0.23;1.6;0.066;5;12;0.9958;3.34;0.56;9.2;5 51 | 5.6;0.31;0.37;1.4;0.074;12;96;0.9954;3.32;0.58;9.2;5 52 | 8.8;0.66;0.26;1.7;0.074;4;23;0.9971;3.15;0.74;9.2;5 53 | 6.6;0.52;0.04;2.2;0.069;8;15;0.9956;3.4;0.63;9.4;6 54 | 6.6;0.5;0.04;2.1;0.068;6;14;0.9955;3.39;0.64;9.4;6 55 | 8.6;0.38;0.36;3;0.081;30;119;0.997;3.2;0.56;9.4;5 56 | 7.6;0.51;0.15;2.8;0.11;33;73;0.9955;3.17;0.63;10.2;6 57 | 7.7;0.62;0.04;3.8;0.084;25;45;0.9978;3.34;0.53;9.5;5 58 | 10.2;0.42;0.57;3.4;0.07;4;10;0.9971;3.04;0.63;9.6;5 59 | 7.5;0.63;0.12;5.1;0.111;50;110;0.9983;3.26;0.77;9.4;5 60 | 7.8;0.59;0.18;2.3;0.076;17;54;0.9975;3.43;0.59;10;5 61 | 7.3;0.39;0.31;2.4;0.074;9;46;0.9962;3.41;0.54;9.4;6 62 | 8.8;0.4;0.4;2.2;0.079;19;52;0.998;3.44;0.64;9.2;5 63 | 7.7;0.69;0.49;1.8;0.115;20;112;0.9968;3.21;0.71;9.3;5 64 | 7.5;0.52;0.16;1.9;0.085;12;35;0.9968;3.38;0.62;9.5;7 65 | 7;0.735;0.05;2;0.081;13;54;0.9966;3.39;0.57;9.8;5 66 | 7.2;0.725;0.05;4.65;0.086;4;11;0.9962;3.41;0.39;10.9;5 67 | 7.2;0.725;0.05;4.65;0.086;4;11;0.9962;3.41;0.39;10.9;5 68 | 7.5;0.52;0.11;1.5;0.079;11;39;0.9968;3.42;0.58;9.6;5 69 | 6.6;0.705;0.07;1.6;0.076;6;15;0.9962;3.44;0.58;10.7;5 70 | 9.3;0.32;0.57;2;0.074;27;65;0.9969;3.28;0.79;10.7;5 71 | 8;0.705;0.05;1.9;0.074;8;19;0.9962;3.34;0.95;10.5;6 72 | 7.7;0.63;0.08;1.9;0.076;15;27;0.9967;3.32;0.54;9.5;6 73 | 7.7;0.67;0.23;2.1;0.088;17;96;0.9962;3.32;0.48;9.5;5 74 | 7.7;0.69;0.22;1.9;0.084;18;94;0.9961;3.31;0.48;9.5;5 75 | 8.3;0.675;0.26;2.1;0.084;11;43;0.9976;3.31;0.53;9.2;4 76 | 9.7;0.32;0.54;2.5;0.094;28;83;0.9984;3.28;0.82;9.6;5 77 | 8.8;0.41;0.64;2.2;0.093;9;42;0.9986;3.54;0.66;10.5;5 78 | 8.8;0.41;0.64;2.2;0.093;9;42;0.9986;3.54;0.66;10.5;5 79 | 6.8;0.785;0;2.4;0.104;14;30;0.9966;3.52;0.55;10.7;6 80 | 6.7;0.75;0.12;2;0.086;12;80;0.9958;3.38;0.52;10.1;5 81 | 8.3;0.625;0.2;1.5;0.08;27;119;0.9972;3.16;1.12;9.1;4 82 | 6.2;0.45;0.2;1.6;0.069;3;15;0.9958;3.41;0.56;9.2;5 83 | 7.8;0.43;0.7;1.9;0.464;22;67;0.9974;3.13;1.28;9.4;5 84 | 7.4;0.5;0.47;2;0.086;21;73;0.997;3.36;0.57;9.1;5 85 | 7.3;0.67;0.26;1.8;0.401;16;51;0.9969;3.16;1.14;9.4;5 86 | 6.3;0.3;0.48;1.8;0.069;18;61;0.9959;3.44;0.78;10.3;6 87 | 6.9;0.55;0.15;2.2;0.076;19;40;0.9961;3.41;0.59;10.1;5 88 | 8.6;0.49;0.28;1.9;0.11;20;136;0.9972;2.93;1.95;9.9;6 89 | 7.7;0.49;0.26;1.9;0.062;9;31;0.9966;3.39;0.64;9.6;5 90 | 9.3;0.39;0.44;2.1;0.107;34;125;0.9978;3.14;1.22;9.5;5 91 | 7;0.62;0.08;1.8;0.076;8;24;0.9978;3.48;0.53;9;5 92 | 7.9;0.52;0.26;1.9;0.079;42;140;0.9964;3.23;0.54;9.5;5 93 | 8.6;0.49;0.28;1.9;0.11;20;136;0.9972;2.93;1.95;9.9;6 94 | 8.6;0.49;0.29;2;0.11;19;133;0.9972;2.93;1.98;9.8;5 95 | 7.7;0.49;0.26;1.9;0.062;9;31;0.9966;3.39;0.64;9.6;5 96 | 5;1.02;0.04;1.4;0.045;41;85;0.9938;3.75;0.48;10.5;4 97 | 4.7;0.6;0.17;2.3;0.058;17;106;0.9932;3.85;0.6;12.9;6 98 | 6.8;0.775;0;3;0.102;8;23;0.9965;3.45;0.56;10.7;5 99 | 7;0.5;0.25;2;0.07;3;22;0.9963;3.25;0.63;9.2;5 100 | 7.6;0.9;0.06;2.5;0.079;5;10;0.9967;3.39;0.56;9.8;5 101 | 8.1;0.545;0.18;1.9;0.08;13;35;0.9972;3.3;0.59;9;6 102 | 8.3;0.61;0.3;2.1;0.084;11;50;0.9972;3.4;0.61;10.2;6 103 | 7.8;0.5;0.3;1.9;0.075;8;22;0.9959;3.31;0.56;10.4;6 104 | 8.1;0.545;0.18;1.9;0.08;13;35;0.9972;3.3;0.59;9;6 105 | 8.1;0.575;0.22;2.1;0.077;12;65;0.9967;3.29;0.51;9.2;5 106 | 7.2;0.49;0.24;2.2;0.07;5;36;0.996;3.33;0.48;9.4;5 107 | 8.1;0.575;0.22;2.1;0.077;12;65;0.9967;3.29;0.51;9.2;5 108 | 7.8;0.41;0.68;1.7;0.467;18;69;0.9973;3.08;1.31;9.3;5 109 | 6.2;0.63;0.31;1.7;0.088;15;64;0.9969;3.46;0.79;9.3;5 110 | 8;0.33;0.53;2.5;0.091;18;80;0.9976;3.37;0.8;9.6;6 111 | 8.1;0.785;0.52;2;0.122;37;153;0.9969;3.21;0.69;9.3;5 112 | 7.8;0.56;0.19;1.8;0.104;12;47;0.9964;3.19;0.93;9.5;5 113 | 8.4;0.62;0.09;2.2;0.084;11;108;0.9964;3.15;0.66;9.8;5 114 | 8.4;0.6;0.1;2.2;0.085;14;111;0.9964;3.15;0.66;9.8;5 115 | 10.1;0.31;0.44;2.3;0.08;22;46;0.9988;3.32;0.67;9.7;6 116 | 7.8;0.56;0.19;1.8;0.104;12;47;0.9964;3.19;0.93;9.5;5 117 | 9.4;0.4;0.31;2.2;0.09;13;62;0.9966;3.07;0.63;10.5;6 118 | 8.3;0.54;0.28;1.9;0.077;11;40;0.9978;3.39;0.61;10;6 119 | 7.8;0.56;0.12;2;0.082;7;28;0.997;3.37;0.5;9.4;6 120 | 8.8;0.55;0.04;2.2;0.119;14;56;0.9962;3.21;0.6;10.9;6 121 | 7;0.69;0.08;1.8;0.097;22;89;0.9959;3.34;0.54;9.2;6 122 | 7.3;1.07;0.09;1.7;0.178;10;89;0.9962;3.3;0.57;9;5 123 | 8.8;0.55;0.04;2.2;0.119;14;56;0.9962;3.21;0.6;10.9;6 124 | 7.3;0.695;0;2.5;0.075;3;13;0.998;3.49;0.52;9.2;5 125 | 8;0.71;0;2.6;0.08;11;34;0.9976;3.44;0.53;9.5;5 126 | 7.8;0.5;0.17;1.6;0.082;21;102;0.996;3.39;0.48;9.5;5 127 | 9;0.62;0.04;1.9;0.146;27;90;0.9984;3.16;0.7;9.4;5 128 | 8.2;1.33;0;1.7;0.081;3;12;0.9964;3.53;0.49;10.9;5 129 | 8.1;1.33;0;1.8;0.082;3;12;0.9964;3.54;0.48;10.9;5 130 | 8;0.59;0.16;1.8;0.065;3;16;0.9962;3.42;0.92;10.5;7 131 | 6.1;0.38;0.15;1.8;0.072;6;19;0.9955;3.42;0.57;9.4;5 132 | 8;0.745;0.56;2;0.118;30;134;0.9968;3.24;0.66;9.4;5 133 | 5.6;0.5;0.09;2.3;0.049;17;99;0.9937;3.63;0.63;13;5 134 | 5.6;0.5;0.09;2.3;0.049;17;99;0.9937;3.63;0.63;13;5 135 | 6.6;0.5;0.01;1.5;0.06;17;26;0.9952;3.4;0.58;9.8;6 136 | 7.9;1.04;0.05;2.2;0.084;13;29;0.9959;3.22;0.55;9.9;6 137 | 8.4;0.745;0.11;1.9;0.09;16;63;0.9965;3.19;0.82;9.6;5 138 | 8.3;0.715;0.15;1.8;0.089;10;52;0.9968;3.23;0.77;9.5;5 139 | 7.2;0.415;0.36;2;0.081;13;45;0.9972;3.48;0.64;9.2;5 140 | 7.8;0.56;0.19;2.1;0.081;15;105;0.9962;3.33;0.54;9.5;5 141 | 7.8;0.56;0.19;2;0.081;17;108;0.9962;3.32;0.54;9.5;5 142 | 8.4;0.745;0.11;1.9;0.09;16;63;0.9965;3.19;0.82;9.6;5 143 | 8.3;0.715;0.15;1.8;0.089;10;52;0.9968;3.23;0.77;9.5;5 144 | 5.2;0.34;0;1.8;0.05;27;63;0.9916;3.68;0.79;14;6 145 | 6.3;0.39;0.08;1.7;0.066;3;20;0.9954;3.34;0.58;9.4;5 146 | 5.2;0.34;0;1.8;0.05;27;63;0.9916;3.68;0.79;14;6 147 | 8.1;0.67;0.55;1.8;0.117;32;141;0.9968;3.17;0.62;9.4;5 148 | 5.8;0.68;0.02;1.8;0.087;21;94;0.9944;3.54;0.52;10;5 149 | 7.6;0.49;0.26;1.6;0.236;10;88;0.9968;3.11;0.8;9.3;5 150 | 6.9;0.49;0.1;2.3;0.074;12;30;0.9959;3.42;0.58;10.2;6 151 | 8.2;0.4;0.44;2.8;0.089;11;43;0.9975;3.53;0.61;10.5;6 152 | 7.3;0.33;0.47;2.1;0.077;5;11;0.9958;3.33;0.53;10.3;6 153 | 9.2;0.52;1;3.4;0.61;32;69;0.9996;2.74;2.0;9.4;4 154 | 7.5;0.6;0.03;1.8;0.095;25;99;0.995;3.35;0.54;10.1;5 155 | 7.5;0.6;0.03;1.8;0.095;25;99;0.995;3.35;0.54;10.1;5 156 | 7.1;0.43;0.42;5.5;0.07;29;129;0.9973;3.42;0.72;10.5;5 157 | 7.1;0.43;0.42;5.5;0.071;28;128;0.9973;3.42;0.71;10.5;5 158 | 7.1;0.43;0.42;5.5;0.07;29;129;0.9973;3.42;0.72;10.5;5 159 | 7.1;0.43;0.42;5.5;0.071;28;128;0.9973;3.42;0.71;10.5;5 160 | 7.1;0.68;0;2.2;0.073;12;22;0.9969;3.48;0.5;9.3;5 161 | 6.8;0.6;0.18;1.9;0.079;18;86;0.9968;3.59;0.57;9.3;6 162 | 7.6;0.95;0.03;2;0.09;7;20;0.9959;3.2;0.56;9.6;5 163 | 7.6;0.68;0.02;1.3;0.072;9;20;0.9965;3.17;1.08;9.2;4 164 | 7.8;0.53;0.04;1.7;0.076;17;31;0.9964;3.33;0.56;10;6 165 | 7.4;0.6;0.26;7.3;0.07;36;121;0.9982;3.37;0.49;9.4;5 166 | 7.3;0.59;0.26;7.2;0.07;35;121;0.9981;3.37;0.49;9.4;5 167 | 7.8;0.63;0.48;1.7;0.1;14;96;0.9961;3.19;0.62;9.5;5 168 | 6.8;0.64;0.1;2.1;0.085;18;101;0.9956;3.34;0.52;10.2;5 169 | 7.3;0.55;0.03;1.6;0.072;17;42;0.9956;3.37;0.48;9;4 170 | 6.8;0.63;0.07;2.1;0.089;11;44;0.9953;3.47;0.55;10.4;6 171 | 7.5;0.705;0.24;1.8;0.36;15;63;0.9964;3;1.59;9.5;5 172 | 7.9;0.885;0.03;1.8;0.058;4;8;0.9972;3.36;0.33;9.1;4 173 | 8;0.42;0.17;2;0.073;6;18;0.9972;3.29;0.61;9.2;6 174 | 8;0.42;0.17;2;0.073;6;18;0.9972;3.29;0.61;9.2;6 175 | 7.4;0.62;0.05;1.9;0.068;24;42;0.9961;3.42;0.57;11.5;6 176 | 7.3;0.38;0.21;2;0.08;7;35;0.9961;3.33;0.47;9.5;5 177 | 6.9;0.5;0.04;1.5;0.085;19;49;0.9958;3.35;0.78;9.5;5 178 | 7.3;0.38;0.21;2;0.08;7;35;0.9961;3.33;0.47;9.5;5 179 | 7.5;0.52;0.42;2.3;0.087;8;38;0.9972;3.58;0.61;10.5;6 180 | 7;0.805;0;2.5;0.068;7;20;0.9969;3.48;0.56;9.6;5 181 | 8.8;0.61;0.14;2.4;0.067;10;42;0.9969;3.19;0.59;9.5;5 182 | 8.8;0.61;0.14;2.4;0.067;10;42;0.9969;3.19;0.59;9.5;5 183 | 8.9;0.61;0.49;2;0.27;23;110;0.9972;3.12;1.02;9.3;5 184 | 7.2;0.73;0.02;2.5;0.076;16;42;0.9972;3.44;0.52;9.3;5 185 | 6.8;0.61;0.2;1.8;0.077;11;65;0.9971;3.54;0.58;9.3;5 186 | 6.7;0.62;0.21;1.9;0.079;8;62;0.997;3.52;0.58;9.3;6 187 | 8.9;0.31;0.57;2;0.111;26;85;0.9971;3.26;0.53;9.7;5 188 | 7.4;0.39;0.48;2;0.082;14;67;0.9972;3.34;0.55;9.2;5 189 | 7.7;0.705;0.1;2.6;0.084;9;26;0.9976;3.39;0.49;9.7;5 190 | 7.9;0.5;0.33;2;0.084;15;143;0.9968;3.2;0.55;9.5;5 191 | 7.9;0.49;0.32;1.9;0.082;17;144;0.9968;3.2;0.55;9.5;5 192 | 8.2;0.5;0.35;2.9;0.077;21;127;0.9976;3.23;0.62;9.4;5 193 | 6.4;0.37;0.25;1.9;0.074;21;49;0.9974;3.57;0.62;9.8;6 194 | 6.8;0.63;0.12;3.8;0.099;16;126;0.9969;3.28;0.61;9.5;5 195 | 7.6;0.55;0.21;2.2;0.071;7;28;0.9964;3.28;0.55;9.7;5 196 | 7.6;0.55;0.21;2.2;0.071;7;28;0.9964;3.28;0.55;9.7;5 197 | 7.8;0.59;0.33;2;0.074;24;120;0.9968;3.25;0.54;9.4;5 198 | 7.3;0.58;0.3;2.4;0.074;15;55;0.9968;3.46;0.59;10.2;5 199 | 11.5;0.3;0.6;2;0.067;12;27;0.9981;3.11;0.97;10.1;6 200 | 5.4;0.835;0.08;1.2;0.046;13;93;0.9924;3.57;0.85;13;7 201 | 6.9;1.09;0.06;2.1;0.061;12;31;0.9948;3.51;0.43;11.4;4 202 | 9.6;0.32;0.47;1.4;0.056;9;24;0.99695;3.22;0.82;10.3;7 203 | 8.8;0.37;0.48;2.1;0.097;39;145;0.9975;3.04;1.03;9.3;5 204 | 6.8;0.5;0.11;1.5;0.075;16;49;0.99545;3.36;0.79;9.5;5 205 | 7;0.42;0.35;1.6;0.088;16;39;0.9961;3.34;0.55;9.2;5 206 | 7;0.43;0.36;1.6;0.089;14;37;0.99615;3.34;0.56;9.2;6 207 | 12.8;0.3;0.74;2.6;0.095;9;28;0.9994;3.2;0.77;10.8;7 208 | 12.8;0.3;0.74;2.6;0.095;9;28;0.9994;3.2;0.77;10.8;7 209 | 7.8;0.57;0.31;1.8;0.069;26;120;0.99625;3.29;0.53;9.3;5 210 | 7.8;0.44;0.28;2.7;0.1;18;95;0.9966;3.22;0.67;9.4;5 211 | 11;0.3;0.58;2.1;0.054;7;19;0.998;3.31;0.88;10.5;7 212 | 9.7;0.53;0.6;2;0.039;5;19;0.99585;3.3;0.86;12.4;6 213 | 8;0.725;0.24;2.8;0.083;10;62;0.99685;3.35;0.56;10;6 214 | 11.6;0.44;0.64;2.1;0.059;5;15;0.998;3.21;0.67;10.2;6 215 | 8.2;0.57;0.26;2.2;0.06;28;65;0.9959;3.3;0.43;10.1;5 216 | 7.8;0.735;0.08;2.4;0.092;10;41;0.9974;3.24;0.71;9.8;6 217 | 7;0.49;0.49;5.6;0.06;26;121;0.9974;3.34;0.76;10.5;5 218 | 8.7;0.625;0.16;2;0.101;13;49;0.9962;3.14;0.57;11;5 219 | 8.1;0.725;0.22;2.2;0.072;11;41;0.9967;3.36;0.55;9.1;5 220 | 7.5;0.49;0.19;1.9;0.076;10;44;0.9957;3.39;0.54;9.7;5 221 | 7.8;0.53;0.33;2.4;0.08;24;144;0.99655;3.3;0.6;9.5;5 222 | 7.8;0.34;0.37;2;0.082;24;58;0.9964;3.34;0.59;9.4;6 223 | 7.4;0.53;0.26;2;0.101;16;72;0.9957;3.15;0.57;9.4;5 224 | 6.8;0.61;0.04;1.5;0.057;5;10;0.99525;3.42;0.6;9.5;5 225 | 8.6;0.645;0.25;2;0.083;8;28;0.99815;3.28;0.6;10;6 226 | 8.4;0.635;0.36;2;0.089;15;55;0.99745;3.31;0.57;10.4;4 227 | 7.7;0.43;0.25;2.6;0.073;29;63;0.99615;3.37;0.58;10.5;6 228 | 8.9;0.59;0.5;2;0.337;27;81;0.9964;3.04;1.61;9.5;6 229 | 9;0.82;0.14;2.6;0.089;9;23;0.9984;3.39;0.63;9.8;5 230 | 7.7;0.43;0.25;2.6;0.073;29;63;0.99615;3.37;0.58;10.5;6 231 | 6.9;0.52;0.25;2.6;0.081;10;37;0.99685;3.46;0.5;11;5 232 | 5.2;0.48;0.04;1.6;0.054;19;106;0.9927;3.54;0.62;12.2;7 233 | 8;0.38;0.06;1.8;0.078;12;49;0.99625;3.37;0.52;9.9;6 234 | 8.5;0.37;0.2;2.8;0.09;18;58;0.998;3.34;0.7;9.6;6 235 | 6.9;0.52;0.25;2.6;0.081;10;37;0.99685;3.46;0.5;11;5 236 | 8.2;1;0.09;2.3;0.065;7;37;0.99685;3.32;0.55;9;6 237 | 7.2;0.63;0;1.9;0.097;14;38;0.99675;3.37;0.58;9;6 238 | 7.2;0.63;0;1.9;0.097;14;38;0.99675;3.37;0.58;9;6 239 | 7.2;0.645;0;1.9;0.097;15;39;0.99675;3.37;0.58;9.2;6 240 | 7.2;0.63;0;1.9;0.097;14;38;0.99675;3.37;0.58;9;6 241 | 8.2;1;0.09;2.3;0.065;7;37;0.99685;3.32;0.55;9;6 242 | 8.9;0.635;0.37;1.7;0.263;5;62;0.9971;3;1.09;9.3;5 243 | 12;0.38;0.56;2.1;0.093;6;24;0.99925;3.14;0.71;10.9;6 244 | 7.7;0.58;0.1;1.8;0.102;28;109;0.99565;3.08;0.49;9.8;6 245 | 15;0.21;0.44;2.2;0.075;10;24;1.00005;3.07;0.84;9.2;7 246 | 15;0.21;0.44;2.2;0.075;10;24;1.00005;3.07;0.84;9.2;7 247 | 7.3;0.66;0;2;0.084;6;23;0.9983;3.61;0.96;9.9;6 248 | 7.1;0.68;0.07;1.9;0.075;16;51;0.99685;3.38;0.52;9.5;5 249 | 8.2;0.6;0.17;2.3;0.072;11;73;0.9963;3.2;0.45;9.3;5 250 | 7.7;0.53;0.06;1.7;0.074;9;39;0.99615;3.35;0.48;9.8;6 251 | 7.3;0.66;0;2;0.084;6;23;0.9983;3.61;0.96;9.9;6 252 | 10.8;0.32;0.44;1.6;0.063;16;37;0.9985;3.22;0.78;10;6 253 | 7.1;0.6;0;1.8;0.074;16;34;0.9972;3.47;0.7;9.9;6 254 | 11.1;0.35;0.48;3.1;0.09;5;21;0.9986;3.17;0.53;10.5;5 255 | 7.7;0.775;0.42;1.9;0.092;8;86;0.9959;3.23;0.59;9.5;5 256 | 7.1;0.6;0;1.8;0.074;16;34;0.9972;3.47;0.7;9.9;6 257 | 8;0.57;0.23;3.2;0.073;17;119;0.99675;3.26;0.57;9.3;5 258 | 9.4;0.34;0.37;2.2;0.075;5;13;0.998;3.22;0.62;9.2;5 259 | 6.6;0.695;0;2.1;0.075;12;56;0.9968;3.49;0.67;9.2;5 260 | 7.7;0.41;0.76;1.8;0.611;8;45;0.9968;3.06;1.26;9.4;5 261 | 10;0.31;0.47;2.6;0.085;14;33;0.99965;3.36;0.8;10.5;7 262 | 7.9;0.33;0.23;1.7;0.077;18;45;0.99625;3.29;0.65;9.3;5 263 | 7;0.975;0.04;2;0.087;12;67;0.99565;3.35;0.6;9.4;4 264 | 8;0.52;0.03;1.7;0.07;10;35;0.99575;3.34;0.57;10;5 265 | 7.9;0.37;0.23;1.8;0.077;23;49;0.9963;3.28;0.67;9.3;5 266 | 12.5;0.56;0.49;2.4;0.064;5;27;0.9999;3.08;0.87;10.9;5 267 | 11.8;0.26;0.52;1.8;0.071;6;10;0.9968;3.2;0.72;10.2;7 268 | 8.1;0.87;0;3.3;0.096;26;61;1.00025;3.6;0.72;9.8;4 269 | 7.9;0.35;0.46;3.6;0.078;15;37;0.9973;3.35;0.86;12.8;8 270 | 6.9;0.54;0.04;3;0.077;7;27;0.9987;3.69;0.91;9.4;6 271 | 11.5;0.18;0.51;4;0.104;4;23;0.9996;3.28;0.97;10.1;6 272 | 7.9;0.545;0.06;4;0.087;27;61;0.9965;3.36;0.67;10.7;6 273 | 11.5;0.18;0.51;4;0.104;4;23;0.9996;3.28;0.97;10.1;6 274 | 10.9;0.37;0.58;4;0.071;17;65;0.99935;3.22;0.78;10.1;5 275 | 8.4;0.715;0.2;2.4;0.076;10;38;0.99735;3.31;0.64;9.4;5 276 | 7.5;0.65;0.18;7;0.088;27;94;0.99915;3.38;0.77;9.4;5 277 | 7.9;0.545;0.06;4;0.087;27;61;0.9965;3.36;0.67;10.7;6 278 | 6.9;0.54;0.04;3;0.077;7;27;0.9987;3.69;0.91;9.4;6 279 | 11.5;0.18;0.51;4;0.104;4;23;0.9996;3.28;0.97;10.1;6 280 | 10.3;0.32;0.45;6.4;0.073;5;13;0.9976;3.23;0.82;12.6;8 281 | 8.9;0.4;0.32;5.6;0.087;10;47;0.9991;3.38;0.77;10.5;7 282 | 11.4;0.26;0.44;3.6;0.071;6;19;0.9986;3.12;0.82;9.3;6 283 | 7.7;0.27;0.68;3.5;0.358;5;10;0.9972;3.25;1.08;9.9;7 284 | 7.6;0.52;0.12;3;0.067;12;53;0.9971;3.36;0.57;9.1;5 285 | 8.9;0.4;0.32;5.6;0.087;10;47;0.9991;3.38;0.77;10.5;7 286 | 9.9;0.59;0.07;3.4;0.102;32;71;1.00015;3.31;0.71;9.8;5 287 | 9.9;0.59;0.07;3.4;0.102;32;71;1.00015;3.31;0.71;9.8;5 288 | 12;0.45;0.55;2;0.073;25;49;0.9997;3.1;0.76;10.3;6 289 | 7.5;0.4;0.12;3;0.092;29;53;0.9967;3.37;0.7;10.3;6 290 | 8.7;0.52;0.09;2.5;0.091;20;49;0.9976;3.34;0.86;10.6;7 291 | 11.6;0.42;0.53;3.3;0.105;33;98;1.001;3.2;0.95;9.2;5 292 | 8.7;0.52;0.09;2.5;0.091;20;49;0.9976;3.34;0.86;10.6;7 293 | 11;0.2;0.48;2;0.343;6;18;0.9979;3.3;0.71;10.5;5 294 | 10.4;0.55;0.23;2.7;0.091;18;48;0.9994;3.22;0.64;10.3;6 295 | 6.9;0.36;0.25;2.4;0.098;5;16;0.9964;3.41;0.6;10.1;6 296 | 13.3;0.34;0.52;3.2;0.094;17;53;1.0014;3.05;0.81;9.5;6 297 | 10.8;0.5;0.46;2.5;0.073;5;27;1.0001;3.05;0.64;9.5;5 298 | 10.6;0.83;0.37;2.6;0.086;26;70;0.9981;3.16;0.52;9.9;5 299 | 7.1;0.63;0.06;2;0.083;8;29;0.99855;3.67;0.73;9.6;5 300 | 7.2;0.65;0.02;2.3;0.094;5;31;0.9993;3.67;0.8;9.7;5 301 | 6.9;0.67;0.06;2.1;0.08;8;33;0.99845;3.68;0.71;9.6;5 302 | 7.5;0.53;0.06;2.6;0.086;20;44;0.9965;3.38;0.59;10.7;6 303 | 11.1;0.18;0.48;1.5;0.068;7;15;0.9973;3.22;0.64;10.1;6 304 | 8.3;0.705;0.12;2.6;0.092;12;28;0.9994;3.51;0.72;10;5 305 | 7.4;0.67;0.12;1.6;0.186;5;21;0.996;3.39;0.54;9.5;5 306 | 8.4;0.65;0.6;2.1;0.112;12;90;0.9973;3.2;0.52;9.2;5 307 | 10.3;0.53;0.48;2.5;0.063;6;25;0.9998;3.12;0.59;9.3;6 308 | 7.6;0.62;0.32;2.2;0.082;7;54;0.9966;3.36;0.52;9.4;5 309 | 10.3;0.41;0.42;2.4;0.213;6;14;0.9994;3.19;0.62;9.5;6 310 | 10.3;0.43;0.44;2.4;0.214;5;12;0.9994;3.19;0.63;9.5;6 311 | 7.4;0.29;0.38;1.7;0.062;9;30;0.9968;3.41;0.53;9.5;6 312 | 10.3;0.53;0.48;2.5;0.063;6;25;0.9998;3.12;0.59;9.3;6 313 | 7.9;0.53;0.24;2;0.072;15;105;0.996;3.27;0.54;9.4;6 314 | 9;0.46;0.31;2.8;0.093;19;98;0.99815;3.32;0.63;9.5;6 315 | 8.6;0.47;0.3;3;0.076;30;135;0.9976;3.3;0.53;9.4;5 316 | 7.4;0.36;0.29;2.6;0.087;26;72;0.99645;3.39;0.68;11;5 317 | 7.1;0.35;0.29;2.5;0.096;20;53;0.9962;3.42;0.65;11;6 318 | 9.6;0.56;0.23;3.4;0.102;37;92;0.9996;3.3;0.65;10.1;5 319 | 9.6;0.77;0.12;2.9;0.082;30;74;0.99865;3.3;0.64;10.4;6 320 | 9.8;0.66;0.39;3.2;0.083;21;59;0.9989;3.37;0.71;11.5;7 321 | 9.6;0.77;0.12;2.9;0.082;30;74;0.99865;3.3;0.64;10.4;6 322 | 9.8;0.66;0.39;3.2;0.083;21;59;0.9989;3.37;0.71;11.5;7 323 | 9.3;0.61;0.26;3.4;0.09;25;87;0.99975;3.24;0.62;9.7;5 324 | 7.8;0.62;0.05;2.3;0.079;6;18;0.99735;3.29;0.63;9.3;5 325 | 10.3;0.59;0.42;2.8;0.09;35;73;0.999;3.28;0.7;9.5;6 326 | 10;0.49;0.2;11;0.071;13;50;1.0015;3.16;0.69;9.2;6 327 | 10;0.49;0.2;11;0.071;13;50;1.0015;3.16;0.69;9.2;6 328 | 11.6;0.53;0.66;3.65;0.121;6;14;0.9978;3.05;0.74;11.5;7 329 | 10.3;0.44;0.5;4.5;0.107;5;13;0.998;3.28;0.83;11.5;5 330 | 13.4;0.27;0.62;2.6;0.082;6;21;1.0002;3.16;0.67;9.7;6 331 | 10.7;0.46;0.39;2;0.061;7;15;0.9981;3.18;0.62;9.5;5 332 | 10.2;0.36;0.64;2.9;0.122;10;41;0.998;3.23;0.66;12.5;6 333 | 10.2;0.36;0.64;2.9;0.122;10;41;0.998;3.23;0.66;12.5;6 334 | 8;0.58;0.28;3.2;0.066;21;114;0.9973;3.22;0.54;9.4;6 335 | 8.4;0.56;0.08;2.1;0.105;16;44;0.9958;3.13;0.52;11;5 336 | 7.9;0.65;0.01;2.5;0.078;17;38;0.9963;3.34;0.74;11.7;7 337 | 11.9;0.695;0.53;3.4;0.128;7;21;0.9992;3.17;0.84;12.2;7 338 | 8.9;0.43;0.45;1.9;0.052;6;16;0.9948;3.35;0.7;12.5;6 339 | 7.8;0.43;0.32;2.8;0.08;29;58;0.9974;3.31;0.64;10.3;5 340 | 12.4;0.49;0.58;3;0.103;28;99;1.0008;3.16;1;11.5;6 341 | 12.5;0.28;0.54;2.3;0.082;12;29;0.9997;3.11;1.36;9.8;7 342 | 12.2;0.34;0.5;2.4;0.066;10;21;1;3.12;1.18;9.2;6 343 | 10.6;0.42;0.48;2.7;0.065;5;18;0.9972;3.21;0.87;11.3;6 344 | 10.9;0.39;0.47;1.8;0.118;6;14;0.9982;3.3;0.75;9.8;6 345 | 10.9;0.39;0.47;1.8;0.118;6;14;0.9982;3.3;0.75;9.8;6 346 | 11.9;0.57;0.5;2.6;0.082;6;32;1.0006;3.12;0.78;10.7;6 347 | 7;0.685;0;1.9;0.067;40;63;0.9979;3.6;0.81;9.9;5 348 | 6.6;0.815;0.02;2.7;0.072;17;34;0.9955;3.58;0.89;12.3;7 349 | 13.8;0.49;0.67;3;0.093;6;15;0.9986;3.02;0.93;12;6 350 | 9.6;0.56;0.31;2.8;0.089;15;46;0.9979;3.11;0.92;10;6 351 | 9.1;0.785;0;2.6;0.093;11;28;0.9994;3.36;0.86;9.4;6 352 | 10.7;0.67;0.22;2.7;0.107;17;34;1.0004;3.28;0.98;9.9;6 353 | 9.1;0.795;0;2.6;0.096;11;26;0.9994;3.35;0.83;9.4;6 354 | 7.7;0.665;0;2.4;0.09;8;19;0.9974;3.27;0.73;9.3;5 355 | 13.5;0.53;0.79;4.8;0.12;23;77;1.0018;3.18;0.77;13;5 356 | 6.1;0.21;0.4;1.4;0.066;40.5;165;0.9912;3.25;0.59;11.9;6 357 | 6.7;0.75;0.01;2.4;0.078;17;32;0.9955;3.55;0.61;12.8;6 358 | 11.5;0.41;0.52;3;0.08;29;55;1.0001;3.26;0.88;11;5 359 | 10.5;0.42;0.66;2.95;0.116;12;29;0.997;3.24;0.75;11.7;7 360 | 11.9;0.43;0.66;3.1;0.109;10;23;1;3.15;0.85;10.4;7 361 | 12.6;0.38;0.66;2.6;0.088;10;41;1.001;3.17;0.68;9.8;6 362 | 8.2;0.7;0.23;2;0.099;14;81;0.9973;3.19;0.7;9.4;5 363 | 8.6;0.45;0.31;2.6;0.086;21;50;0.9982;3.37;0.91;9.9;6 364 | 11.9;0.58;0.66;2.5;0.072;6;37;0.9992;3.05;0.56;10;5 365 | 12.5;0.46;0.63;2;0.071;6;15;0.9988;2.99;0.87;10.2;5 366 | 12.8;0.615;0.66;5.8;0.083;7;42;1.0022;3.07;0.73;10;7 367 | 10;0.42;0.5;3.4;0.107;7;21;0.9979;3.26;0.93;11.8;6 368 | 12.8;0.615;0.66;5.8;0.083;7;42;1.0022;3.07;0.73;10;7 369 | 10.4;0.575;0.61;2.6;0.076;11;24;1;3.16;0.69;9;5 370 | 10.3;0.34;0.52;2.8;0.159;15;75;0.9998;3.18;0.64;9.4;5 371 | 9.4;0.27;0.53;2.4;0.074;6;18;0.9962;3.2;1.13;12;7 372 | 6.9;0.765;0.02;2.3;0.063;35;63;0.9975;3.57;0.78;9.9;5 373 | 7.9;0.24;0.4;1.6;0.056;11;25;0.9967;3.32;0.87;8.7;6 374 | 9.1;0.28;0.48;1.8;0.067;26;46;0.9967;3.32;1.04;10.6;6 375 | 7.4;0.55;0.22;2.2;0.106;12;72;0.9959;3.05;0.63;9.2;5 376 | 14;0.41;0.63;3.8;0.089;6;47;1.0014;3.01;0.81;10.8;6 377 | 11.5;0.54;0.71;4.4;0.124;6;15;0.9984;3.01;0.83;11.8;7 378 | 11.5;0.45;0.5;3;0.078;19;47;1.0003;3.26;1.11;11;6 379 | 9.4;0.27;0.53;2.4;0.074;6;18;0.9962;3.2;1.13;12;7 380 | 11.4;0.625;0.66;6.2;0.088;6;24;0.9988;3.11;0.99;13.3;6 381 | 8.3;0.42;0.38;2.5;0.094;24;60;0.9979;3.31;0.7;10.8;6 382 | 8.3;0.26;0.42;2;0.08;11;27;0.9974;3.21;0.8;9.4;6 383 | 13.7;0.415;0.68;2.9;0.085;17;43;1.0014;3.06;0.8;10;6 384 | 8.3;0.26;0.42;2;0.08;11;27;0.9974;3.21;0.8;9.4;6 385 | 8.3;0.26;0.42;2;0.08;11;27;0.9974;3.21;0.8;9.4;6 386 | 7.7;0.51;0.28;2.1;0.087;23;54;0.998;3.42;0.74;9.2;5 387 | 7.4;0.63;0.07;2.4;0.09;11;37;0.9979;3.43;0.76;9.7;6 388 | 7.8;0.54;0.26;2;0.088;23;48;0.9981;3.41;0.74;9.2;6 389 | 8.3;0.66;0.15;1.9;0.079;17;42;0.9972;3.31;0.54;9.6;6 390 | 7.8;0.46;0.26;1.9;0.088;23;53;0.9981;3.43;0.74;9.2;6 391 | 9.6;0.38;0.31;2.5;0.096;16;49;0.9982;3.19;0.7;10;7 392 | 5.6;0.85;0.05;1.4;0.045;12;88;0.9924;3.56;0.82;12.9;8 393 | 13.7;0.415;0.68;2.9;0.085;17;43;1.0014;3.06;0.8;10;6 394 | 9.5;0.37;0.52;2;0.082;6;26;0.998;3.18;0.51;9.5;5 395 | 8.4;0.665;0.61;2;0.112;13;95;0.997;3.16;0.54;9.1;5 396 | 12.7;0.6;0.65;2.3;0.063;6;25;0.9997;3.03;0.57;9.9;5 397 | 12;0.37;0.76;4.2;0.066;7;38;1.0004;3.22;0.6;13;7 398 | 6.6;0.735;0.02;7.9;0.122;68;124;0.9994;3.47;0.53;9.9;5 399 | 11.5;0.59;0.59;2.6;0.087;13;49;0.9988;3.18;0.65;11;6 400 | 11.5;0.59;0.59;2.6;0.087;13;49;0.9988;3.18;0.65;11;6 401 | 8.7;0.765;0.22;2.3;0.064;9;42;0.9963;3.1;0.55;9.4;5 402 | 6.6;0.735;0.02;7.9;0.122;68;124;0.9994;3.47;0.53;9.9;5 403 | 7.7;0.26;0.3;1.7;0.059;20;38;0.9949;3.29;0.47;10.8;6 404 | 12.2;0.48;0.54;2.6;0.085;19;64;1;3.1;0.61;10.5;6 405 | 11.4;0.6;0.49;2.7;0.085;10;41;0.9994;3.15;0.63;10.5;6 406 | 7.7;0.69;0.05;2.7;0.075;15;27;0.9974;3.26;0.61;9.1;5 407 | 8.7;0.31;0.46;1.4;0.059;11;25;0.9966;3.36;0.76;10.1;6 408 | 9.8;0.44;0.47;2.5;0.063;9;28;0.9981;3.24;0.65;10.8;6 409 | 12;0.39;0.66;3;0.093;12;30;0.9996;3.18;0.63;10.8;7 410 | 10.4;0.34;0.58;3.7;0.174;6;16;0.997;3.19;0.7;11.3;6 411 | 12.5;0.46;0.49;4.5;0.07;26;49;0.9981;3.05;0.57;9.6;4 412 | 9;0.43;0.34;2.5;0.08;26;86;0.9987;3.38;0.62;9.5;6 413 | 9.1;0.45;0.35;2.4;0.08;23;78;0.9987;3.38;0.62;9.5;5 414 | 7.1;0.735;0.16;1.9;0.1;15;77;0.9966;3.27;0.64;9.3;5 415 | 9.9;0.4;0.53;6.7;0.097;6;19;0.9986;3.27;0.82;11.7;7 416 | 8.8;0.52;0.34;2.7;0.087;24;122;0.9982;3.26;0.61;9.5;5 417 | 8.6;0.725;0.24;6.6;0.117;31;134;1.0014;3.32;1.07;9.3;5 418 | 10.6;0.48;0.64;2.2;0.111;6;20;0.997;3.26;0.66;11.7;6 419 | 7;0.58;0.12;1.9;0.091;34;124;0.9956;3.44;0.48;10.5;5 420 | 11.9;0.38;0.51;2;0.121;7;20;0.9996;3.24;0.76;10.4;6 421 | 6.8;0.77;0;1.8;0.066;34;52;0.9976;3.62;0.68;9.9;5 422 | 9.5;0.56;0.33;2.4;0.089;35;67;0.9972;3.28;0.73;11.8;7 423 | 6.6;0.84;0.03;2.3;0.059;32;48;0.9952;3.52;0.56;12.3;7 424 | 7.7;0.96;0.2;2;0.047;15;60;0.9955;3.36;0.44;10.9;5 425 | 10.5;0.24;0.47;2.1;0.066;6;24;0.9978;3.15;0.9;11;7 426 | 7.7;0.96;0.2;2;0.047;15;60;0.9955;3.36;0.44;10.9;5 427 | 6.6;0.84;0.03;2.3;0.059;32;48;0.9952;3.52;0.56;12.3;7 428 | 6.4;0.67;0.08;2.1;0.045;19;48;0.9949;3.49;0.49;11.4;6 429 | 9.5;0.78;0.22;1.9;0.077;6;32;0.9988;3.26;0.56;10.6;6 430 | 9.1;0.52;0.33;1.3;0.07;9;30;0.9978;3.24;0.6;9.3;5 431 | 12.8;0.84;0.63;2.4;0.088;13;35;0.9997;3.1;0.6;10.4;6 432 | 10.5;0.24;0.47;2.1;0.066;6;24;0.9978;3.15;0.9;11;7 433 | 7.8;0.55;0.35;2.2;0.074;21;66;0.9974;3.25;0.56;9.2;5 434 | 11.9;0.37;0.69;2.3;0.078;12;24;0.9958;3;0.65;12.8;6 435 | 12.3;0.39;0.63;2.3;0.091;6;18;1.0004;3.16;0.49;9.5;5 436 | 10.4;0.41;0.55;3.2;0.076;22;54;0.9996;3.15;0.89;9.9;6 437 | 12.3;0.39;0.63;2.3;0.091;6;18;1.0004;3.16;0.49;9.5;5 438 | 8;0.67;0.3;2;0.06;38;62;0.9958;3.26;0.56;10.2;6 439 | 11.1;0.45;0.73;3.2;0.066;6;22;0.9986;3.17;0.66;11.2;6 440 | 10.4;0.41;0.55;3.2;0.076;22;54;0.9996;3.15;0.89;9.9;6 441 | 7;0.62;0.18;1.5;0.062;7;50;0.9951;3.08;0.6;9.3;5 442 | 12.6;0.31;0.72;2.2;0.072;6;29;0.9987;2.88;0.82;9.8;8 443 | 11.9;0.4;0.65;2.15;0.068;7;27;0.9988;3.06;0.68;11.3;6 444 | 15.6;0.685;0.76;3.7;0.1;6;43;1.0032;2.95;0.68;11.2;7 445 | 10;0.44;0.49;2.7;0.077;11;19;0.9963;3.23;0.63;11.6;7 446 | 5.3;0.57;0.01;1.7;0.054;5;27;0.9934;3.57;0.84;12.5;7 447 | 9.5;0.735;0.1;2.1;0.079;6;31;0.9986;3.23;0.56;10.1;6 448 | 12.5;0.38;0.6;2.6;0.081;31;72;0.9996;3.1;0.73;10.5;5 449 | 9.3;0.48;0.29;2.1;0.127;6;16;0.9968;3.22;0.72;11.2;5 450 | 8.6;0.53;0.22;2;0.1;7;27;0.9967;3.2;0.56;10.2;6 451 | 11.9;0.39;0.69;2.8;0.095;17;35;0.9994;3.1;0.61;10.8;6 452 | 11.9;0.39;0.69;2.8;0.095;17;35;0.9994;3.1;0.61;10.8;6 453 | 8.4;0.37;0.53;1.8;0.413;9;26;0.9979;3.06;1.06;9.1;6 454 | 6.8;0.56;0.03;1.7;0.084;18;35;0.9968;3.44;0.63;10;6 455 | 10.4;0.33;0.63;2.8;0.084;5;22;0.9998;3.26;0.74;11.2;7 456 | 7;0.23;0.4;1.6;0.063;21;67;0.9952;3.5;0.63;11.1;5 457 | 11.3;0.62;0.67;5.2;0.086;6;19;0.9988;3.22;0.69;13.4;8 458 | 8.9;0.59;0.39;2.3;0.095;5;22;0.9986;3.37;0.58;10.3;5 459 | 9.2;0.63;0.21;2.7;0.097;29;65;0.9988;3.28;0.58;9.6;5 460 | 10.4;0.33;0.63;2.8;0.084;5;22;0.9998;3.26;0.74;11.2;7 461 | 11.6;0.58;0.66;2.2;0.074;10;47;1.0008;3.25;0.57;9;3 462 | 9.2;0.43;0.52;2.3;0.083;14;23;0.9976;3.35;0.61;11.3;6 463 | 8.3;0.615;0.22;2.6;0.087;6;19;0.9982;3.26;0.61;9.3;5 464 | 11;0.26;0.68;2.55;0.085;10;25;0.997;3.18;0.61;11.8;5 465 | 8.1;0.66;0.7;2.2;0.098;25;129;0.9972;3.08;0.53;9;5 466 | 11.5;0.315;0.54;2.1;0.084;5;15;0.9987;2.98;0.7;9.2;6 467 | 10;0.29;0.4;2.9;0.098;10;26;1.0006;3.48;0.91;9.7;5 468 | 10.3;0.5;0.42;2;0.069;21;51;0.9982;3.16;0.72;11.5;6 469 | 8.8;0.46;0.45;2.6;0.065;7;18;0.9947;3.32;0.79;14;6 470 | 11.4;0.36;0.69;2.1;0.09;6;21;1;3.17;0.62;9.2;6 471 | 8.7;0.82;0.02;1.2;0.07;36;48;0.9952;3.2;0.58;9.8;5 472 | 13;0.32;0.65;2.6;0.093;15;47;0.9996;3.05;0.61;10.6;5 473 | 9.6;0.54;0.42;2.4;0.081;25;52;0.997;3.2;0.71;11.4;6 474 | 12.5;0.37;0.55;2.6;0.083;25;68;0.9995;3.15;0.82;10.4;6 475 | 9.9;0.35;0.55;2.1;0.062;5;14;0.9971;3.26;0.79;10.6;5 476 | 10.5;0.28;0.51;1.7;0.08;10;24;0.9982;3.2;0.89;9.4;6 477 | 9.6;0.68;0.24;2.2;0.087;5;28;0.9988;3.14;0.6;10.2;5 478 | 9.3;0.27;0.41;2;0.091;6;16;0.998;3.28;0.7;9.7;5 479 | 10.4;0.24;0.49;1.8;0.075;6;20;0.9977;3.18;1.06;11;6 480 | 9.6;0.68;0.24;2.2;0.087;5;28;0.9988;3.14;0.6;10.2;5 481 | 9.4;0.685;0.11;2.7;0.077;6;31;0.9984;3.19;0.7;10.1;6 482 | 10.6;0.28;0.39;15.5;0.069;6;23;1.0026;3.12;0.66;9.2;5 483 | 9.4;0.3;0.56;2.8;0.08;6;17;0.9964;3.15;0.92;11.7;8 484 | 10.6;0.36;0.59;2.2;0.152;6;18;0.9986;3.04;1.05;9.4;5 485 | 10.6;0.36;0.6;2.2;0.152;7;18;0.9986;3.04;1.06;9.4;5 486 | 10.6;0.44;0.68;4.1;0.114;6;24;0.997;3.06;0.66;13.4;6 487 | 10.2;0.67;0.39;1.9;0.054;6;17;0.9976;3.17;0.47;10;5 488 | 10.2;0.67;0.39;1.9;0.054;6;17;0.9976;3.17;0.47;10;5 489 | 10.2;0.645;0.36;1.8;0.053;5;14;0.9982;3.17;0.42;10;6 490 | 11.6;0.32;0.55;2.8;0.081;35;67;1.0002;3.32;0.92;10.8;7 491 | 9.3;0.39;0.4;2.6;0.073;10;26;0.9984;3.34;0.75;10.2;6 492 | 9.3;0.775;0.27;2.8;0.078;24;56;0.9984;3.31;0.67;10.6;6 493 | 9.2;0.41;0.5;2.5;0.055;12;25;0.9952;3.34;0.79;13.3;7 494 | 8.9;0.4;0.51;2.6;0.052;13;27;0.995;3.32;0.9;13.4;7 495 | 8.7;0.69;0.31;3;0.086;23;81;1.0002;3.48;0.74;11.6;6 496 | 6.5;0.39;0.23;8.3;0.051;28;91;0.9952;3.44;0.55;12.1;6 497 | 10.7;0.35;0.53;2.6;0.07;5;16;0.9972;3.15;0.65;11;8 498 | 7.8;0.52;0.25;1.9;0.081;14;38;0.9984;3.43;0.65;9;6 499 | 7.2;0.34;0.32;2.5;0.09;43;113;0.9966;3.32;0.79;11.1;5 500 | 10.7;0.35;0.53;2.6;0.07;5;16;0.9972;3.15;0.65;11;8 501 | 8.7;0.69;0.31;3;0.086;23;81;1.0002;3.48;0.74;11.6;6 502 | 7.8;0.52;0.25;1.9;0.081;14;38;0.9984;3.43;0.65;9;6 503 | 10.4;0.44;0.73;6.55;0.074;38;76;0.999;3.17;0.85;12;7 504 | 10.4;0.44;0.73;6.55;0.074;38;76;0.999;3.17;0.85;12;7 505 | 10.5;0.26;0.47;1.9;0.078;6;24;0.9976;3.18;1.04;10.9;7 506 | 10.5;0.24;0.42;1.8;0.077;6;22;0.9976;3.21;1.05;10.8;7 507 | 10.2;0.49;0.63;2.9;0.072;10;26;0.9968;3.16;0.78;12.5;7 508 | 10.4;0.24;0.46;1.8;0.075;6;21;0.9976;3.25;1.02;10.8;7 509 | 11.2;0.67;0.55;2.3;0.084;6;13;1;3.17;0.71;9.5;6 510 | 10;0.59;0.31;2.2;0.09;26;62;0.9994;3.18;0.63;10.2;6 511 | 13.3;0.29;0.75;2.8;0.084;23;43;0.9986;3.04;0.68;11.4;7 512 | 12.4;0.42;0.49;4.6;0.073;19;43;0.9978;3.02;0.61;9.5;5 513 | 10;0.59;0.31;2.2;0.09;26;62;0.9994;3.18;0.63;10.2;6 514 | 10.7;0.4;0.48;2.1;0.125;15;49;0.998;3.03;0.81;9.7;6 515 | 10.5;0.51;0.64;2.4;0.107;6;15;0.9973;3.09;0.66;11.8;7 516 | 10.5;0.51;0.64;2.4;0.107;6;15;0.9973;3.09;0.66;11.8;7 517 | 8.5;0.655;0.49;6.1;0.122;34;151;1.001;3.31;1.14;9.3;5 518 | 12.5;0.6;0.49;4.3;0.1;5;14;1.001;3.25;0.74;11.9;6 519 | 10.4;0.61;0.49;2.1;0.2;5;16;0.9994;3.16;0.63;8.4;3 520 | 10.9;0.21;0.49;2.8;0.088;11;32;0.9972;3.22;0.68;11.7;6 521 | 7.3;0.365;0.49;2.5;0.088;39;106;0.9966;3.36;0.78;11;5 522 | 9.8;0.25;0.49;2.7;0.088;15;33;0.9982;3.42;0.9;10;6 523 | 7.6;0.41;0.49;2;0.088;16;43;0.998;3.48;0.64;9.1;5 524 | 8.2;0.39;0.49;2.3;0.099;47;133;0.9979;3.38;0.99;9.8;5 525 | 9.3;0.4;0.49;2.5;0.085;38;142;0.9978;3.22;0.55;9.4;5 526 | 9.2;0.43;0.49;2.4;0.086;23;116;0.9976;3.23;0.64;9.5;5 527 | 10.4;0.64;0.24;2.8;0.105;29;53;0.9998;3.24;0.67;9.9;5 528 | 7.3;0.365;0.49;2.5;0.088;39;106;0.9966;3.36;0.78;11;5 529 | 7;0.38;0.49;2.5;0.097;33;85;0.9962;3.39;0.77;11.4;6 530 | 8.2;0.42;0.49;2.6;0.084;32;55;0.9988;3.34;0.75;8.7;6 531 | 9.9;0.63;0.24;2.4;0.077;6;33;0.9974;3.09;0.57;9.4;5 532 | 9.1;0.22;0.24;2.1;0.078;1;28;0.999;3.41;0.87;10.3;6 533 | 11.9;0.38;0.49;2.7;0.098;12;42;1.0004;3.16;0.61;10.3;5 534 | 11.9;0.38;0.49;2.7;0.098;12;42;1.0004;3.16;0.61;10.3;5 535 | 10.3;0.27;0.24;2.1;0.072;15;33;0.9956;3.22;0.66;12.8;6 536 | 10;0.48;0.24;2.7;0.102;13;32;1;3.28;0.56;10;6 537 | 9.1;0.22;0.24;2.1;0.078;1;28;0.999;3.41;0.87;10.3;6 538 | 9.9;0.63;0.24;2.4;0.077;6;33;0.9974;3.09;0.57;9.4;5 539 | 8.1;0.825;0.24;2.1;0.084;5;13;0.9972;3.37;0.77;10.7;6 540 | 12.9;0.35;0.49;5.8;0.066;5;35;1.0014;3.2;0.66;12;7 541 | 11.2;0.5;0.74;5.15;0.1;5;17;0.9996;3.22;0.62;11.2;5 542 | 9.2;0.59;0.24;3.3;0.101;20;47;0.9988;3.26;0.67;9.6;5 543 | 9.5;0.46;0.49;6.3;0.064;5;17;0.9988;3.21;0.73;11;6 544 | 9.3;0.715;0.24;2.1;0.07;5;20;0.9966;3.12;0.59;9.9;5 545 | 11.2;0.66;0.24;2.5;0.085;16;53;0.9993;3.06;0.72;11;6 546 | 14.3;0.31;0.74;1.8;0.075;6;15;1.0008;2.86;0.79;8.4;6 547 | 9.1;0.47;0.49;2.6;0.094;38;106;0.9982;3.08;0.59;9.1;5 548 | 7.5;0.55;0.24;2;0.078;10;28;0.9983;3.45;0.78;9.5;6 549 | 10.6;0.31;0.49;2.5;0.067;6;21;0.9987;3.26;0.86;10.7;6 550 | 12.4;0.35;0.49;2.6;0.079;27;69;0.9994;3.12;0.75;10.4;6 551 | 9;0.53;0.49;1.9;0.171;6;25;0.9975;3.27;0.61;9.4;6 552 | 6.8;0.51;0.01;2.1;0.074;9;25;0.9958;3.33;0.56;9.5;6 553 | 9.4;0.43;0.24;2.8;0.092;14;45;0.998;3.19;0.73;10;6 554 | 9.5;0.46;0.24;2.7;0.092;14;44;0.998;3.12;0.74;10;6 555 | 5;1.04;0.24;1.6;0.05;32;96;0.9934;3.74;0.62;11.5;5 556 | 15.5;0.645;0.49;4.2;0.095;10;23;1.00315;2.92;0.74;11.1;5 557 | 15.5;0.645;0.49;4.2;0.095;10;23;1.00315;2.92;0.74;11.1;5 558 | 10.9;0.53;0.49;4.6;0.118;10;17;1.0002;3.07;0.56;11.7;6 559 | 15.6;0.645;0.49;4.2;0.095;10;23;1.00315;2.92;0.74;11.1;5 560 | 10.9;0.53;0.49;4.6;0.118;10;17;1.0002;3.07;0.56;11.7;6 561 | 13;0.47;0.49;4.3;0.085;6;47;1.0021;3.3;0.68;12.7;6 562 | 12.7;0.6;0.49;2.8;0.075;5;19;0.9994;3.14;0.57;11.4;5 563 | 9;0.44;0.49;2.4;0.078;26;121;0.9978;3.23;0.58;9.2;5 564 | 9;0.54;0.49;2.9;0.094;41;110;0.9982;3.08;0.61;9.2;5 565 | 7.6;0.29;0.49;2.7;0.092;25;60;0.9971;3.31;0.61;10.1;6 566 | 13;0.47;0.49;4.3;0.085;6;47;1.0021;3.3;0.68;12.7;6 567 | 12.7;0.6;0.49;2.8;0.075;5;19;0.9994;3.14;0.57;11.4;5 568 | 8.7;0.7;0.24;2.5;0.226;5;15;0.9991;3.32;0.6;9;6 569 | 8.7;0.7;0.24;2.5;0.226;5;15;0.9991;3.32;0.6;9;6 570 | 9.8;0.5;0.49;2.6;0.25;5;20;0.999;3.31;0.79;10.7;6 571 | 6.2;0.36;0.24;2.2;0.095;19;42;0.9946;3.57;0.57;11.7;6 572 | 11.5;0.35;0.49;3.3;0.07;10;37;1.0003;3.32;0.91;11;6 573 | 6.2;0.36;0.24;2.2;0.095;19;42;0.9946;3.57;0.57;11.7;6 574 | 10.2;0.24;0.49;2.4;0.075;10;28;0.9978;3.14;0.61;10.4;5 575 | 10.5;0.59;0.49;2.1;0.07;14;47;0.9991;3.3;0.56;9.6;4 576 | 10.6;0.34;0.49;3.2;0.078;20;78;0.9992;3.19;0.7;10;6 577 | 12.3;0.27;0.49;3.1;0.079;28;46;0.9993;3.2;0.8;10.2;6 578 | 9.9;0.5;0.24;2.3;0.103;6;14;0.9978;3.34;0.52;10;4 579 | 8.8;0.44;0.49;2.8;0.083;18;111;0.9982;3.3;0.6;9.5;5 580 | 8.8;0.47;0.49;2.9;0.085;17;110;0.9982;3.29;0.6;9.8;5 581 | 10.6;0.31;0.49;2.2;0.063;18;40;0.9976;3.14;0.51;9.8;6 582 | 12.3;0.5;0.49;2.2;0.089;5;14;1.0002;3.19;0.44;9.6;5 583 | 12.3;0.5;0.49;2.2;0.089;5;14;1.0002;3.19;0.44;9.6;5 584 | 11.7;0.49;0.49;2.2;0.083;5;15;1;3.19;0.43;9.2;5 585 | 12;0.28;0.49;1.9;0.074;10;21;0.9976;2.98;0.66;9.9;7 586 | 11.8;0.33;0.49;3.4;0.093;54;80;1.0002;3.3;0.76;10.7;7 587 | 7.6;0.51;0.24;2.4;0.091;8;38;0.998;3.47;0.66;9.6;6 588 | 11.1;0.31;0.49;2.7;0.094;16;47;0.9986;3.12;1.02;10.6;7 589 | 7.3;0.73;0.24;1.9;0.108;18;102;0.9967;3.26;0.59;9.3;5 590 | 5;0.42;0.24;2;0.06;19;50;0.9917;3.72;0.74;14;8 591 | 10.2;0.29;0.49;2.6;0.059;5;13;0.9976;3.05;0.74;10.5;7 592 | 9;0.45;0.49;2.6;0.084;21;75;0.9987;3.35;0.57;9.7;5 593 | 6.6;0.39;0.49;1.7;0.07;23;149;0.9922;3.12;0.5;11.5;6 594 | 9;0.45;0.49;2.6;0.084;21;75;0.9987;3.35;0.57;9.7;5 595 | 9.9;0.49;0.58;3.5;0.094;9;43;1.0004;3.29;0.58;9;5 596 | 7.9;0.72;0.17;2.6;0.096;20;38;0.9978;3.4;0.53;9.5;5 597 | 8.9;0.595;0.41;7.9;0.086;30;109;0.9998;3.27;0.57;9.3;5 598 | 12.4;0.4;0.51;2;0.059;6;24;0.9994;3.04;0.6;9.3;6 599 | 11.9;0.58;0.58;1.9;0.071;5;18;0.998;3.09;0.63;10;6 600 | 8.5;0.585;0.18;2.1;0.078;5;30;0.9967;3.2;0.48;9.8;6 601 | 12.7;0.59;0.45;2.3;0.082;11;22;1;3;0.7;9.3;6 602 | 8.2;0.915;0.27;2.1;0.088;7;23;0.9962;3.26;0.47;10;4 603 | 13.2;0.46;0.52;2.2;0.071;12;35;1.0006;3.1;0.56;9;6 604 | 7.7;0.835;0;2.6;0.081;6;14;0.9975;3.3;0.52;9.3;5 605 | 13.2;0.46;0.52;2.2;0.071;12;35;1.0006;3.1;0.56;9;6 606 | 8.3;0.58;0.13;2.9;0.096;14;63;0.9984;3.17;0.62;9.1;6 607 | 8.3;0.6;0.13;2.6;0.085;6;24;0.9984;3.31;0.59;9.2;6 608 | 9.4;0.41;0.48;4.6;0.072;10;20;0.9973;3.34;0.79;12.2;7 609 | 8.8;0.48;0.41;3.3;0.092;26;52;0.9982;3.31;0.53;10.5;6 610 | 10.1;0.65;0.37;5.1;0.11;11;65;1.0026;3.32;0.64;10.4;6 611 | 6.3;0.36;0.19;3.2;0.075;15;39;0.9956;3.56;0.52;12.7;6 612 | 8.8;0.24;0.54;2.5;0.083;25;57;0.9983;3.39;0.54;9.2;5 613 | 13.2;0.38;0.55;2.7;0.081;5;16;1.0006;2.98;0.54;9.4;5 614 | 7.5;0.64;0;2.4;0.077;18;29;0.9965;3.32;0.6;10;6 615 | 8.2;0.39;0.38;1.5;0.058;10;29;0.9962;3.26;0.74;9.8;5 616 | 9.2;0.755;0.18;2.2;0.148;10;103;0.9969;2.87;1.36;10.2;6 617 | 9.6;0.6;0.5;2.3;0.079;28;71;0.9997;3.5;0.57;9.7;5 618 | 9.6;0.6;0.5;2.3;0.079;28;71;0.9997;3.5;0.57;9.7;5 619 | 11.5;0.31;0.51;2.2;0.079;14;28;0.9982;3.03;0.93;9.8;6 620 | 11.4;0.46;0.5;2.7;0.122;4;17;1.0006;3.13;0.7;10.2;5 621 | 11.3;0.37;0.41;2.3;0.088;6;16;0.9988;3.09;0.8;9.3;5 622 | 8.3;0.54;0.24;3.4;0.076;16;112;0.9976;3.27;0.61;9.4;5 623 | 8.2;0.56;0.23;3.4;0.078;14;104;0.9976;3.28;0.62;9.4;5 624 | 10;0.58;0.22;1.9;0.08;9;32;0.9974;3.13;0.55;9.5;5 625 | 7.9;0.51;0.25;2.9;0.077;21;45;0.9974;3.49;0.96;12.1;6 626 | 6.8;0.69;0;5.6;0.124;21;58;0.9997;3.46;0.72;10.2;5 627 | 6.8;0.69;0;5.6;0.124;21;58;0.9997;3.46;0.72;10.2;5 628 | 8.8;0.6;0.29;2.2;0.098;5;15;0.9988;3.36;0.49;9.1;5 629 | 8.8;0.6;0.29;2.2;0.098;5;15;0.9988;3.36;0.49;9.1;5 630 | 8.7;0.54;0.26;2.5;0.097;7;31;0.9976;3.27;0.6;9.3;6 631 | 7.6;0.685;0.23;2.3;0.111;20;84;0.9964;3.21;0.61;9.3;5 632 | 8.7;0.54;0.26;2.5;0.097;7;31;0.9976;3.27;0.6;9.3;6 633 | 10.4;0.28;0.54;2.7;0.105;5;19;0.9988;3.25;0.63;9.5;5 634 | 7.6;0.41;0.14;3;0.087;21;43;0.9964;3.32;0.57;10.5;6 635 | 10.1;0.935;0.22;3.4;0.105;11;86;1.001;3.43;0.64;11.3;4 636 | 7.9;0.35;0.21;1.9;0.073;46;102;0.9964;3.27;0.58;9.5;5 637 | 8.7;0.84;0;1.4;0.065;24;33;0.9954;3.27;0.55;9.7;5 638 | 9.6;0.88;0.28;2.4;0.086;30;147;0.9979;3.24;0.53;9.4;5 639 | 9.5;0.885;0.27;2.3;0.084;31;145;0.9978;3.24;0.53;9.4;5 640 | 7.7;0.915;0.12;2.2;0.143;7;23;0.9964;3.35;0.65;10.2;7 641 | 8.9;0.29;0.35;1.9;0.067;25;57;0.997;3.18;1.36;10.3;6 642 | 9.9;0.54;0.45;2.3;0.071;16;40;0.9991;3.39;0.62;9.4;5 643 | 9.5;0.59;0.44;2.3;0.071;21;68;0.9992;3.46;0.63;9.5;5 644 | 9.9;0.54;0.45;2.3;0.071;16;40;0.9991;3.39;0.62;9.4;5 645 | 9.5;0.59;0.44;2.3;0.071;21;68;0.9992;3.46;0.63;9.5;5 646 | 9.9;0.54;0.45;2.3;0.071;16;40;0.9991;3.39;0.62;9.4;5 647 | 7.8;0.64;0.1;6;0.115;5;11;0.9984;3.37;0.69;10.1;7 648 | 7.3;0.67;0.05;3.6;0.107;6;20;0.9972;3.4;0.63;10.1;5 649 | 8.3;0.845;0.01;2.2;0.07;5;14;0.9967;3.32;0.58;11;4 650 | 8.7;0.48;0.3;2.8;0.066;10;28;0.9964;3.33;0.67;11.2;7 651 | 6.7;0.42;0.27;8.6;0.068;24;148;0.9948;3.16;0.57;11.3;6 652 | 10.7;0.43;0.39;2.2;0.106;8;32;0.9986;2.89;0.5;9.6;5 653 | 9.8;0.88;0.25;2.5;0.104;35;155;1.001;3.41;0.67;11.2;5 654 | 15.9;0.36;0.65;7.5;0.096;22;71;0.9976;2.98;0.84;14.9;5 655 | 9.4;0.33;0.59;2.8;0.079;9;30;0.9976;3.12;0.54;12;6 656 | 8.6;0.47;0.47;2.4;0.074;7;29;0.9979;3.08;0.46;9.5;5 657 | 9.7;0.55;0.17;2.9;0.087;20;53;1.0004;3.14;0.61;9.4;5 658 | 10.7;0.43;0.39;2.2;0.106;8;32;0.9986;2.89;0.5;9.6;5 659 | 12;0.5;0.59;1.4;0.073;23;42;0.998;2.92;0.68;10.5;7 660 | 7.2;0.52;0.07;1.4;0.074;5;20;0.9973;3.32;0.81;9.6;6 661 | 7.1;0.84;0.02;4.4;0.096;5;13;0.997;3.41;0.57;11;4 662 | 7.2;0.52;0.07;1.4;0.074;5;20;0.9973;3.32;0.81;9.6;6 663 | 7.5;0.42;0.31;1.6;0.08;15;42;0.9978;3.31;0.64;9;5 664 | 7.2;0.57;0.06;1.6;0.076;9;27;0.9972;3.36;0.7;9.6;6 665 | 10.1;0.28;0.46;1.8;0.05;5;13;0.9974;3.04;0.79;10.2;6 666 | 12.1;0.4;0.52;2;0.092;15;54;1;3.03;0.66;10.2;5 667 | 9.4;0.59;0.14;2;0.084;25;48;0.9981;3.14;0.56;9.7;5 668 | 8.3;0.49;0.36;1.8;0.222;6;16;0.998;3.18;0.6;9.5;6 669 | 11.3;0.34;0.45;2;0.082;6;15;0.9988;2.94;0.66;9.2;6 670 | 10;0.73;0.43;2.3;0.059;15;31;0.9966;3.15;0.57;11;5 671 | 11.3;0.34;0.45;2;0.082;6;15;0.9988;2.94;0.66;9.2;6 672 | 6.9;0.4;0.24;2.5;0.083;30;45;0.9959;3.26;0.58;10;5 673 | 8.2;0.73;0.21;1.7;0.074;5;13;0.9968;3.2;0.52;9.5;5 674 | 9.8;1.24;0.34;2;0.079;32;151;0.998;3.15;0.53;9.5;5 675 | 8.2;0.73;0.21;1.7;0.074;5;13;0.9968;3.2;0.52;9.5;5 676 | 10.8;0.4;0.41;2.2;0.084;7;17;0.9984;3.08;0.67;9.3;6 677 | 9.3;0.41;0.39;2.2;0.064;12;31;0.9984;3.26;0.65;10.2;5 678 | 10.8;0.4;0.41;2.2;0.084;7;17;0.9984;3.08;0.67;9.3;6 679 | 8.6;0.8;0.11;2.3;0.084;12;31;0.9979;3.4;0.48;9.9;5 680 | 8.3;0.78;0.1;2.6;0.081;45;87;0.9983;3.48;0.53;10;5 681 | 10.8;0.26;0.45;3.3;0.06;20;49;0.9972;3.13;0.54;9.6;5 682 | 13.3;0.43;0.58;1.9;0.07;15;40;1.0004;3.06;0.49;9;5 683 | 8;0.45;0.23;2.2;0.094;16;29;0.9962;3.21;0.49;10.2;6 684 | 8.5;0.46;0.31;2.25;0.078;32;58;0.998;3.33;0.54;9.8;5 685 | 8.1;0.78;0.23;2.6;0.059;5;15;0.997;3.37;0.56;11.3;5 686 | 9.8;0.98;0.32;2.3;0.078;35;152;0.998;3.25;0.48;9.4;5 687 | 8.1;0.78;0.23;2.6;0.059;5;15;0.997;3.37;0.56;11.3;5 688 | 7.1;0.65;0.18;1.8;0.07;13;40;0.997;3.44;0.6;9.1;5 689 | 9.1;0.64;0.23;3.1;0.095;13;38;0.9998;3.28;0.59;9.7;5 690 | 7.7;0.66;0.04;1.6;0.039;4;9;0.9962;3.4;0.47;9.4;5 691 | 8.1;0.38;0.48;1.8;0.157;5;17;0.9976;3.3;1.05;9.4;5 692 | 7.4;1.185;0;4.25;0.097;5;14;0.9966;3.63;0.54;10.7;3 693 | 9.2;0.92;0.24;2.6;0.087;12;93;0.9998;3.48;0.54;9.8;5 694 | 8.6;0.49;0.51;2;0.422;16;62;0.9979;3.03;1.17;9;5 695 | 9;0.48;0.32;2.8;0.084;21;122;0.9984;3.32;0.62;9.4;5 696 | 9;0.47;0.31;2.7;0.084;24;125;0.9984;3.31;0.61;9.4;5 697 | 5.1;0.47;0.02;1.3;0.034;18;44;0.9921;3.9;0.62;12.8;6 698 | 7;0.65;0.02;2.1;0.066;8;25;0.9972;3.47;0.67;9.5;6 699 | 7;0.65;0.02;2.1;0.066;8;25;0.9972;3.47;0.67;9.5;6 700 | 9.4;0.615;0.28;3.2;0.087;18;72;1.0001;3.31;0.53;9.7;5 701 | 11.8;0.38;0.55;2.1;0.071;5;19;0.9986;3.11;0.62;10.8;6 702 | 10.6;1.02;0.43;2.9;0.076;26;88;0.9984;3.08;0.57;10.1;6 703 | 7;0.65;0.02;2.1;0.066;8;25;0.9972;3.47;0.67;9.5;6 704 | 7;0.64;0.02;2.1;0.067;9;23;0.997;3.47;0.67;9.4;6 705 | 7.5;0.38;0.48;2.6;0.073;22;84;0.9972;3.32;0.7;9.6;4 706 | 9.1;0.765;0.04;1.6;0.078;4;14;0.998;3.29;0.54;9.7;4 707 | 8.4;1.035;0.15;6;0.073;11;54;0.999;3.37;0.49;9.9;5 708 | 7;0.78;0.08;2;0.093;10;19;0.9956;3.4;0.47;10;5 709 | 7.4;0.49;0.19;3;0.077;16;37;0.9966;3.37;0.51;10.5;5 710 | 7.8;0.545;0.12;2.5;0.068;11;35;0.996;3.34;0.61;11.6;6 711 | 9.7;0.31;0.47;1.6;0.062;13;33;0.9983;3.27;0.66;10;6 712 | 10.6;1.025;0.43;2.8;0.08;21;84;0.9985;3.06;0.57;10.1;5 713 | 8.9;0.565;0.34;3;0.093;16;112;0.9998;3.38;0.61;9.5;5 714 | 8.7;0.69;0;3.2;0.084;13;33;0.9992;3.36;0.45;9.4;5 715 | 8;0.43;0.36;2.3;0.075;10;48;0.9976;3.34;0.46;9.4;5 716 | 9.9;0.74;0.28;2.6;0.078;21;77;0.998;3.28;0.51;9.8;5 717 | 7.2;0.49;0.18;2.7;0.069;13;34;0.9967;3.29;0.48;9.2;6 718 | 8;0.43;0.36;2.3;0.075;10;48;0.9976;3.34;0.46;9.4;5 719 | 7.6;0.46;0.11;2.6;0.079;12;49;0.9968;3.21;0.57;10;5 720 | 8.4;0.56;0.04;2;0.082;10;22;0.9976;3.22;0.44;9.6;5 721 | 7.1;0.66;0;3.9;0.086;17;45;0.9976;3.46;0.54;9.5;5 722 | 8.4;0.56;0.04;2;0.082;10;22;0.9976;3.22;0.44;9.6;5 723 | 8.9;0.48;0.24;2.85;0.094;35;106;0.9982;3.1;0.53;9.2;5 724 | 7.6;0.42;0.08;2.7;0.084;15;48;0.9968;3.21;0.59;10;5 725 | 7.1;0.31;0.3;2.2;0.053;36;127;0.9965;2.94;1.62;9.5;5 726 | 7.5;1.115;0.1;3.1;0.086;5;12;0.9958;3.54;0.6;11.2;4 727 | 9;0.66;0.17;3;0.077;5;13;0.9976;3.29;0.55;10.4;5 728 | 8.1;0.72;0.09;2.8;0.084;18;49;0.9994;3.43;0.72;11.1;6 729 | 6.4;0.57;0.02;1.8;0.067;4;11;0.997;3.46;0.68;9.5;5 730 | 6.4;0.57;0.02;1.8;0.067;4;11;0.997;3.46;0.68;9.5;5 731 | 6.4;0.865;0.03;3.2;0.071;27;58;0.995;3.61;0.49;12.7;6 732 | 9.5;0.55;0.66;2.3;0.387;12;37;0.9982;3.17;0.67;9.6;5 733 | 8.9;0.875;0.13;3.45;0.088;4;14;0.9994;3.44;0.52;11.5;5 734 | 7.3;0.835;0.03;2.1;0.092;10;19;0.9966;3.39;0.47;9.6;5 735 | 7;0.45;0.34;2.7;0.082;16;72;0.998;3.55;0.6;9.5;5 736 | 7.7;0.56;0.2;2;0.075;9;39;0.9987;3.48;0.62;9.3;5 737 | 7.7;0.965;0.1;2.1;0.112;11;22;0.9963;3.26;0.5;9.5;5 738 | 7.7;0.965;0.1;2.1;0.112;11;22;0.9963;3.26;0.5;9.5;5 739 | 8.2;0.59;0;2.5;0.093;19;58;1.0002;3.5;0.65;9.3;6 740 | 9;0.46;0.23;2.8;0.092;28;104;0.9983;3.1;0.56;9.2;5 741 | 9;0.69;0;2.4;0.088;19;38;0.999;3.35;0.6;9.3;5 742 | 8.3;0.76;0.29;4.2;0.075;12;16;0.9965;3.45;0.68;11.5;6 743 | 9.2;0.53;0.24;2.6;0.078;28;139;0.99788;3.21;0.57;9.5;5 744 | 6.5;0.615;0;1.9;0.065;9;18;0.9972;3.46;0.65;9.2;5 745 | 11.6;0.41;0.58;2.8;0.096;25;101;1.00024;3.13;0.53;10;5 746 | 11.1;0.39;0.54;2.7;0.095;21;101;1.0001;3.13;0.51;9.5;5 747 | 7.3;0.51;0.18;2.1;0.07;12;28;0.99768;3.52;0.73;9.5;6 748 | 8.2;0.34;0.38;2.5;0.08;12;57;0.9978;3.3;0.47;9;6 749 | 8.6;0.33;0.4;2.6;0.083;16;68;0.99782;3.3;0.48;9.4;5 750 | 7.2;0.5;0.18;2.1;0.071;12;31;0.99761;3.52;0.72;9.6;6 751 | 7.3;0.51;0.18;2.1;0.07;12;28;0.99768;3.52;0.73;9.5;6 752 | 8.3;0.65;0.1;2.9;0.089;17;40;0.99803;3.29;0.55;9.5;5 753 | 8.3;0.65;0.1;2.9;0.089;17;40;0.99803;3.29;0.55;9.5;5 754 | 7.6;0.54;0.13;2.5;0.097;24;66;0.99785;3.39;0.61;9.4;5 755 | 8.3;0.65;0.1;2.9;0.089;17;40;0.99803;3.29;0.55;9.5;5 756 | 7.8;0.48;0.68;1.7;0.415;14;32;0.99656;3.09;1.06;9.1;6 757 | 7.8;0.91;0.07;1.9;0.058;22;47;0.99525;3.51;0.43;10.7;6 758 | 6.3;0.98;0.01;2;0.057;15;33;0.99488;3.6;0.46;11.2;6 759 | 8.1;0.87;0;2.2;0.084;10;31;0.99656;3.25;0.5;9.8;5 760 | 8.1;0.87;0;2.2;0.084;10;31;0.99656;3.25;0.5;9.8;5 761 | 8.8;0.42;0.21;2.5;0.092;33;88;0.99823;3.19;0.52;9.2;5 762 | 9;0.58;0.25;2.8;0.075;9;104;0.99779;3.23;0.57;9.7;5 763 | 9.3;0.655;0.26;2;0.096;5;35;0.99738;3.25;0.42;9.6;5 764 | 8.8;0.7;0;1.7;0.069;8;19;0.99701;3.31;0.53;10;6 765 | 9.3;0.655;0.26;2;0.096;5;35;0.99738;3.25;0.42;9.6;5 766 | 9.1;0.68;0.11;2.8;0.093;11;44;0.99888;3.31;0.55;9.5;6 767 | 9.2;0.67;0.1;3;0.091;12;48;0.99888;3.31;0.54;9.5;6 768 | 8.8;0.59;0.18;2.9;0.089;12;74;0.99738;3.14;0.54;9.4;5 769 | 7.5;0.6;0.32;2.7;0.103;13;98;0.99938;3.45;0.62;9.5;5 770 | 7.1;0.59;0.02;2.3;0.082;24;94;0.99744;3.55;0.53;9.7;6 771 | 7.9;0.72;0.01;1.9;0.076;7;32;0.99668;3.39;0.54;9.6;5 772 | 7.1;0.59;0.02;2.3;0.082;24;94;0.99744;3.55;0.53;9.7;6 773 | 9.4;0.685;0.26;2.4;0.082;23;143;0.9978;3.28;0.55;9.4;5 774 | 9.5;0.57;0.27;2.3;0.082;23;144;0.99782;3.27;0.55;9.4;5 775 | 7.9;0.4;0.29;1.8;0.157;1;44;0.9973;3.3;0.92;9.5;6 776 | 7.9;0.4;0.3;1.8;0.157;2;45;0.99727;3.31;0.91;9.5;6 777 | 7.2;1;0;3;0.102;7;16;0.99586;3.43;0.46;10;5 778 | 6.9;0.765;0.18;2.4;0.243;5.5;48;0.99612;3.4;0.6;10.3;6 779 | 6.9;0.635;0.17;2.4;0.241;6;18;0.9961;3.4;0.59;10.3;6 780 | 8.3;0.43;0.3;3.4;0.079;7;34;0.99788;3.36;0.61;10.5;5 781 | 7.1;0.52;0.03;2.6;0.076;21;92;0.99745;3.5;0.6;9.8;5 782 | 7;0.57;0;2;0.19;12;45;0.99676;3.31;0.6;9.4;6 783 | 6.5;0.46;0.14;2.4;0.114;9;37;0.99732;3.66;0.65;9.8;5 784 | 9;0.82;0.05;2.4;0.081;26;96;0.99814;3.36;0.53;10;5 785 | 6.5;0.46;0.14;2.4;0.114;9;37;0.99732;3.66;0.65;9.8;5 786 | 7.1;0.59;0.01;2.5;0.077;20;85;0.99746;3.55;0.59;9.8;5 787 | 9.9;0.35;0.41;2.3;0.083;11;61;0.9982;3.21;0.5;9.5;5 788 | 9.9;0.35;0.41;2.3;0.083;11;61;0.9982;3.21;0.5;9.5;5 789 | 10;0.56;0.24;2.2;0.079;19;58;0.9991;3.18;0.56;10.1;6 790 | 10;0.56;0.24;2.2;0.079;19;58;0.9991;3.18;0.56;10.1;6 791 | 8.6;0.63;0.17;2.9;0.099;21;119;0.998;3.09;0.52;9.3;5 792 | 7.4;0.37;0.43;2.6;0.082;18;82;0.99708;3.33;0.68;9.7;6 793 | 8.8;0.64;0.17;2.9;0.084;25;130;0.99818;3.23;0.54;9.6;5 794 | 7.1;0.61;0.02;2.5;0.081;17;87;0.99745;3.48;0.6;9.7;6 795 | 7.7;0.6;0;2.6;0.055;7;13;0.99639;3.38;0.56;10.8;5 796 | 10.1;0.27;0.54;2.3;0.065;7;26;0.99531;3.17;0.53;12.5;6 797 | 10.8;0.89;0.3;2.6;0.132;7;60;0.99786;2.99;1.18;10.2;5 798 | 8.7;0.46;0.31;2.5;0.126;24;64;0.99746;3.1;0.74;9.6;5 799 | 9.3;0.37;0.44;1.6;0.038;21;42;0.99526;3.24;0.81;10.8;7 800 | 9.4;0.5;0.34;3.6;0.082;5;14;0.9987;3.29;0.52;10.7;6 801 | 9.4;0.5;0.34;3.6;0.082;5;14;0.9987;3.29;0.52;10.7;6 802 | 7.2;0.61;0.08;4;0.082;26;108;0.99641;3.25;0.51;9.4;5 803 | 8.6;0.55;0.09;3.3;0.068;8;17;0.99735;3.23;0.44;10;5 804 | 5.1;0.585;0;1.7;0.044;14;86;0.99264;3.56;0.94;12.9;7 805 | 7.7;0.56;0.08;2.5;0.114;14;46;0.9971;3.24;0.66;9.6;6 806 | 8.4;0.52;0.22;2.7;0.084;4;18;0.99682;3.26;0.57;9.9;6 807 | 8.2;0.28;0.4;2.4;0.052;4;10;0.99356;3.33;0.7;12.8;7 808 | 8.4;0.25;0.39;2;0.041;4;10;0.99386;3.27;0.71;12.5;7 809 | 8.2;0.28;0.4;2.4;0.052;4;10;0.99356;3.33;0.7;12.8;7 810 | 7.4;0.53;0.12;1.9;0.165;4;12;0.99702;3.26;0.86;9.2;5 811 | 7.6;0.48;0.31;2.8;0.07;4;15;0.99693;3.22;0.55;10.3;6 812 | 7.3;0.49;0.1;2.6;0.068;4;14;0.99562;3.3;0.47;10.5;5 813 | 12.9;0.5;0.55;2.8;0.072;7;24;1.00012;3.09;0.68;10.9;6 814 | 10.8;0.45;0.33;2.5;0.099;20;38;0.99818;3.24;0.71;10.8;5 815 | 6.9;0.39;0.24;2.1;0.102;4;7;0.99462;3.44;0.58;11.4;4 816 | 12.6;0.41;0.54;2.8;0.103;19;41;0.99939;3.21;0.76;11.3;6 817 | 10.8;0.45;0.33;2.5;0.099;20;38;0.99818;3.24;0.71;10.8;5 818 | 9.8;0.51;0.19;3.2;0.081;8;30;0.9984;3.23;0.58;10.5;6 819 | 10.8;0.29;0.42;1.6;0.084;19;27;0.99545;3.28;0.73;11.9;6 820 | 7.1;0.715;0;2.35;0.071;21;47;0.99632;3.29;0.45;9.4;5 821 | 9.1;0.66;0.15;3.2;0.097;9;59;0.99976;3.28;0.54;9.6;5 822 | 7;0.685;0;1.9;0.099;9;22;0.99606;3.34;0.6;9.7;5 823 | 4.9;0.42;0;2.1;0.048;16;42;0.99154;3.71;0.74;14;7 824 | 6.7;0.54;0.13;2;0.076;15;36;0.9973;3.61;0.64;9.8;5 825 | 6.7;0.54;0.13;2;0.076;15;36;0.9973;3.61;0.64;9.8;5 826 | 7.1;0.48;0.28;2.8;0.068;6;16;0.99682;3.24;0.53;10.3;5 827 | 7.1;0.46;0.14;2.8;0.076;15;37;0.99624;3.36;0.49;10.7;5 828 | 7.5;0.27;0.34;2.3;0.05;4;8;0.9951;3.4;0.64;11;7 829 | 7.1;0.46;0.14;2.8;0.076;15;37;0.99624;3.36;0.49;10.7;5 830 | 7.8;0.57;0.09;2.3;0.065;34;45;0.99417;3.46;0.74;12.7;8 831 | 5.9;0.61;0.08;2.1;0.071;16;24;0.99376;3.56;0.77;11.1;6 832 | 7.5;0.685;0.07;2.5;0.058;5;9;0.99632;3.38;0.55;10.9;4 833 | 5.9;0.61;0.08;2.1;0.071;16;24;0.99376;3.56;0.77;11.1;6 834 | 10.4;0.44;0.42;1.5;0.145;34;48;0.99832;3.38;0.86;9.9;3 835 | 11.6;0.47;0.44;1.6;0.147;36;51;0.99836;3.38;0.86;9.9;4 836 | 8.8;0.685;0.26;1.6;0.088;16;23;0.99694;3.32;0.47;9.4;5 837 | 7.6;0.665;0.1;1.5;0.066;27;55;0.99655;3.39;0.51;9.3;5 838 | 6.7;0.28;0.28;2.4;0.012;36;100;0.99064;3.26;0.39;11.7;7 839 | 6.7;0.28;0.28;2.4;0.012;36;100;0.99064;3.26;0.39;11.7;7 840 | 10.1;0.31;0.35;1.6;0.075;9;28;0.99672;3.24;0.83;11.2;7 841 | 6;0.5;0.04;2.2;0.092;13;26;0.99647;3.46;0.47;10;5 842 | 11.1;0.42;0.47;2.65;0.085;9;34;0.99736;3.24;0.77;12.1;7 843 | 6.6;0.66;0;3;0.115;21;31;0.99629;3.45;0.63;10.3;5 844 | 10.6;0.5;0.45;2.6;0.119;34;68;0.99708;3.23;0.72;10.9;6 845 | 7.1;0.685;0.35;2;0.088;9;92;0.9963;3.28;0.62;9.4;5 846 | 9.9;0.25;0.46;1.7;0.062;26;42;0.9959;3.18;0.83;10.6;6 847 | 6.4;0.64;0.21;1.8;0.081;14;31;0.99689;3.59;0.66;9.8;5 848 | 6.4;0.64;0.21;1.8;0.081;14;31;0.99689;3.59;0.66;9.8;5 849 | 7.4;0.68;0.16;1.8;0.078;12;39;0.9977;3.5;0.7;9.9;6 850 | 6.4;0.64;0.21;1.8;0.081;14;31;0.99689;3.59;0.66;9.8;5 851 | 6.4;0.63;0.21;1.6;0.08;12;32;0.99689;3.58;0.66;9.8;5 852 | 9.3;0.43;0.44;1.9;0.085;9;22;0.99708;3.28;0.55;9.5;5 853 | 9.3;0.43;0.44;1.9;0.085;9;22;0.99708;3.28;0.55;9.5;5 854 | 8;0.42;0.32;2.5;0.08;26;122;0.99801;3.22;1.07;9.7;5 855 | 9.3;0.36;0.39;1.5;0.08;41;55;0.99652;3.47;0.73;10.9;6 856 | 9.3;0.36;0.39;1.5;0.08;41;55;0.99652;3.47;0.73;10.9;6 857 | 7.6;0.735;0.02;2.5;0.071;10;14;0.99538;3.51;0.71;11.7;7 858 | 9.3;0.36;0.39;1.5;0.08;41;55;0.99652;3.47;0.73;10.9;6 859 | 8.2;0.26;0.34;2.5;0.073;16;47;0.99594;3.4;0.78;11.3;7 860 | 11.7;0.28;0.47;1.7;0.054;17;32;0.99686;3.15;0.67;10.6;7 861 | 6.8;0.56;0.22;1.8;0.074;15;24;0.99438;3.4;0.82;11.2;6 862 | 7.2;0.62;0.06;2.7;0.077;15;85;0.99746;3.51;0.54;9.5;5 863 | 5.8;1.01;0.66;2;0.039;15;88;0.99357;3.66;0.6;11.5;6 864 | 7.5;0.42;0.32;2.7;0.067;7;25;0.99628;3.24;0.44;10.4;5 865 | 7.2;0.62;0.06;2.5;0.078;17;84;0.99746;3.51;0.53;9.7;5 866 | 7.2;0.62;0.06;2.7;0.077;15;85;0.99746;3.51;0.54;9.5;5 867 | 7.2;0.635;0.07;2.6;0.077;16;86;0.99748;3.51;0.54;9.7;5 868 | 6.8;0.49;0.22;2.3;0.071;13;24;0.99438;3.41;0.83;11.3;6 869 | 6.9;0.51;0.23;2;0.072;13;22;0.99438;3.4;0.84;11.2;6 870 | 6.8;0.56;0.22;1.8;0.074;15;24;0.99438;3.4;0.82;11.2;6 871 | 7.6;0.63;0.03;2;0.08;27;43;0.99578;3.44;0.64;10.9;6 872 | 7.7;0.715;0.01;2.1;0.064;31;43;0.99371;3.41;0.57;11.8;6 873 | 6.9;0.56;0.03;1.5;0.086;36;46;0.99522;3.53;0.57;10.6;5 874 | 7.3;0.35;0.24;2;0.067;28;48;0.99576;3.43;0.54;10;4 875 | 9.1;0.21;0.37;1.6;0.067;6;10;0.99552;3.23;0.58;11.1;7 876 | 10.4;0.38;0.46;2.1;0.104;6;10;0.99664;3.12;0.65;11.8;7 877 | 8.8;0.31;0.4;2.8;0.109;7;16;0.99614;3.31;0.79;11.8;7 878 | 7.1;0.47;0;2.2;0.067;7;14;0.99517;3.4;0.58;10.9;4 879 | 7.7;0.715;0.01;2.1;0.064;31;43;0.99371;3.41;0.57;11.8;6 880 | 8.8;0.61;0.19;4;0.094;30;69;0.99787;3.22;0.5;10;6 881 | 7.2;0.6;0.04;2.5;0.076;18;88;0.99745;3.53;0.55;9.5;5 882 | 9.2;0.56;0.18;1.6;0.078;10;21;0.99576;3.15;0.49;9.9;5 883 | 7.6;0.715;0;2.1;0.068;30;35;0.99533;3.48;0.65;11.4;6 884 | 8.4;0.31;0.29;3.1;0.194;14;26;0.99536;3.22;0.78;12;6 885 | 7.2;0.6;0.04;2.5;0.076;18;88;0.99745;3.53;0.55;9.5;5 886 | 8.8;0.61;0.19;4;0.094;30;69;0.99787;3.22;0.5;10;6 887 | 8.9;0.75;0.14;2.5;0.086;9;30;0.99824;3.34;0.64;10.5;5 888 | 9;0.8;0.12;2.4;0.083;8;28;0.99836;3.33;0.65;10.4;6 889 | 10.7;0.52;0.38;2.6;0.066;29;56;0.99577;3.15;0.79;12.1;7 890 | 6.8;0.57;0;2.5;0.072;32;64;0.99491;3.43;0.56;11.2;6 891 | 10.7;0.9;0.34;6.6;0.112;23;99;1.00289;3.22;0.68;9.3;5 892 | 7.2;0.34;0.24;2;0.071;30;52;0.99576;3.44;0.58;10.1;5 893 | 7.2;0.66;0.03;2.3;0.078;16;86;0.99743;3.53;0.57;9.7;5 894 | 10.1;0.45;0.23;1.9;0.082;10;18;0.99774;3.22;0.65;9.3;6 895 | 7.2;0.66;0.03;2.3;0.078;16;86;0.99743;3.53;0.57;9.7;5 896 | 7.2;0.63;0.03;2.2;0.08;17;88;0.99745;3.53;0.58;9.8;6 897 | 7.1;0.59;0.01;2.3;0.08;27;43;0.9955;3.42;0.58;10.7;6 898 | 8.3;0.31;0.39;2.4;0.078;17;43;0.99444;3.31;0.77;12.5;7 899 | 7.1;0.59;0.01;2.3;0.08;27;43;0.9955;3.42;0.58;10.7;6 900 | 8.3;0.31;0.39;2.4;0.078;17;43;0.99444;3.31;0.77;12.5;7 901 | 8.3;1.02;0.02;3.4;0.084;6;11;0.99892;3.48;0.49;11;3 902 | 8.9;0.31;0.36;2.6;0.056;10;39;0.99562;3.4;0.69;11.8;5 903 | 7.4;0.635;0.1;2.4;0.08;16;33;0.99736;3.58;0.69;10.8;7 904 | 7.4;0.635;0.1;2.4;0.08;16;33;0.99736;3.58;0.69;10.8;7 905 | 6.8;0.59;0.06;6;0.06;11;18;0.9962;3.41;0.59;10.8;7 906 | 6.8;0.59;0.06;6;0.06;11;18;0.9962;3.41;0.59;10.8;7 907 | 9.2;0.58;0.2;3;0.081;15;115;0.998;3.23;0.59;9.5;5 908 | 7.2;0.54;0.27;2.6;0.084;12;78;0.9964;3.39;0.71;11;5 909 | 6.1;0.56;0;2.2;0.079;6;9;0.9948;3.59;0.54;11.5;6 910 | 7.4;0.52;0.13;2.4;0.078;34;61;0.99528;3.43;0.59;10.8;6 911 | 7.3;0.305;0.39;1.2;0.059;7;11;0.99331;3.29;0.52;11.5;6 912 | 9.3;0.38;0.48;3.8;0.132;3;11;0.99577;3.23;0.57;13.2;6 913 | 9.1;0.28;0.46;9;0.114;3;9;0.99901;3.18;0.6;10.9;6 914 | 10;0.46;0.44;2.9;0.065;4;8;0.99674;3.33;0.62;12.2;6 915 | 9.4;0.395;0.46;4.6;0.094;3;10;0.99639;3.27;0.64;12.2;7 916 | 7.3;0.305;0.39;1.2;0.059;7;11;0.99331;3.29;0.52;11.5;6 917 | 8.6;0.315;0.4;2.2;0.079;3;6;0.99512;3.27;0.67;11.9;6 918 | 5.3;0.715;0.19;1.5;0.161;7;62;0.99395;3.62;0.61;11;5 919 | 6.8;0.41;0.31;8.8;0.084;26;45;0.99824;3.38;0.64;10.1;6 920 | 8.4;0.36;0.32;2.2;0.081;32;79;0.9964;3.3;0.72;11;6 921 | 8.4;0.62;0.12;1.8;0.072;38;46;0.99504;3.38;0.89;11.8;6 922 | 9.6;0.41;0.37;2.3;0.091;10;23;0.99786;3.24;0.56;10.5;5 923 | 8.4;0.36;0.32;2.2;0.081;32;79;0.9964;3.3;0.72;11;6 924 | 8.4;0.62;0.12;1.8;0.072;38;46;0.99504;3.38;0.89;11.8;6 925 | 6.8;0.41;0.31;8.8;0.084;26;45;0.99824;3.38;0.64;10.1;6 926 | 8.6;0.47;0.27;2.3;0.055;14;28;0.99516;3.18;0.8;11.2;5 927 | 8.6;0.22;0.36;1.9;0.064;53;77;0.99604;3.47;0.87;11;7 928 | 9.4;0.24;0.33;2.3;0.061;52;73;0.99786;3.47;0.9;10.2;6 929 | 8.4;0.67;0.19;2.2;0.093;11;75;0.99736;3.2;0.59;9.2;4 930 | 8.6;0.47;0.27;2.3;0.055;14;28;0.99516;3.18;0.8;11.2;5 931 | 8.7;0.33;0.38;3.3;0.063;10;19;0.99468;3.3;0.73;12;7 932 | 6.6;0.61;0.01;1.9;0.08;8;25;0.99746;3.69;0.73;10.5;5 933 | 7.4;0.61;0.01;2;0.074;13;38;0.99748;3.48;0.65;9.8;5 934 | 7.6;0.4;0.29;1.9;0.078;29;66;0.9971;3.45;0.59;9.5;6 935 | 7.4;0.61;0.01;2;0.074;13;38;0.99748;3.48;0.65;9.8;5 936 | 6.6;0.61;0.01;1.9;0.08;8;25;0.99746;3.69;0.73;10.5;5 937 | 8.8;0.3;0.38;2.3;0.06;19;72;0.99543;3.39;0.72;11.8;6 938 | 8.8;0.3;0.38;2.3;0.06;19;72;0.99543;3.39;0.72;11.8;6 939 | 12;0.63;0.5;1.4;0.071;6;26;0.99791;3.07;0.6;10.4;4 940 | 7.2;0.38;0.38;2.8;0.068;23;42;0.99356;3.34;0.72;12.9;7 941 | 6.2;0.46;0.17;1.6;0.073;7;11;0.99425;3.61;0.54;11.4;5 942 | 9.6;0.33;0.52;2.2;0.074;13;25;0.99509;3.36;0.76;12.4;7 943 | 9.9;0.27;0.49;5;0.082;9;17;0.99484;3.19;0.52;12.5;7 944 | 10.1;0.43;0.4;2.6;0.092;13;52;0.99834;3.22;0.64;10;7 945 | 9.8;0.5;0.34;2.3;0.094;10;45;0.99864;3.24;0.6;9.7;7 946 | 8.3;0.3;0.49;3.8;0.09;11;24;0.99498;3.27;0.64;12.1;7 947 | 10.2;0.44;0.42;2;0.071;7;20;0.99566;3.14;0.79;11.1;7 948 | 10.2;0.44;0.58;4.1;0.092;11;24;0.99745;3.29;0.99;12;7 949 | 8.3;0.28;0.48;2.1;0.093;6;12;0.99408;3.26;0.62;12.4;7 950 | 8.9;0.12;0.45;1.8;0.075;10;21;0.99552;3.41;0.76;11.9;7 951 | 8.9;0.12;0.45;1.8;0.075;10;21;0.99552;3.41;0.76;11.9;7 952 | 8.9;0.12;0.45;1.8;0.075;10;21;0.99552;3.41;0.76;11.9;7 953 | 8.3;0.28;0.48;2.1;0.093;6;12;0.99408;3.26;0.62;12.4;7 954 | 8.2;0.31;0.4;2.2;0.058;6;10;0.99536;3.31;0.68;11.2;7 955 | 10.2;0.34;0.48;2.1;0.052;5;9;0.99458;3.2;0.69;12.1;7 956 | 7.6;0.43;0.4;2.7;0.082;6;11;0.99538;3.44;0.54;12.2;6 957 | 8.5;0.21;0.52;1.9;0.09;9;23;0.99648;3.36;0.67;10.4;5 958 | 9;0.36;0.52;2.1;0.111;5;10;0.99568;3.31;0.62;11.3;6 959 | 9.5;0.37;0.52;2;0.088;12;51;0.99613;3.29;0.58;11.1;6 960 | 6.4;0.57;0.12;2.3;0.12;25;36;0.99519;3.47;0.71;11.3;7 961 | 8;0.59;0.05;2;0.089;12;32;0.99735;3.36;0.61;10;5 962 | 8.5;0.47;0.27;1.9;0.058;18;38;0.99518;3.16;0.85;11.1;6 963 | 7.1;0.56;0.14;1.6;0.078;7;18;0.99592;3.27;0.62;9.3;5 964 | 6.6;0.57;0.02;2.1;0.115;6;16;0.99654;3.38;0.69;9.5;5 965 | 8.8;0.27;0.39;2;0.1;20;27;0.99546;3.15;0.69;11.2;6 966 | 8.5;0.47;0.27;1.9;0.058;18;38;0.99518;3.16;0.85;11.1;6 967 | 8.3;0.34;0.4;2.4;0.065;24;48;0.99554;3.34;0.86;11;6 968 | 9;0.38;0.41;2.4;0.103;6;10;0.99604;3.13;0.58;11.9;7 969 | 8.5;0.66;0.2;2.1;0.097;23;113;0.99733;3.13;0.48;9.2;5 970 | 9;0.4;0.43;2.4;0.068;29;46;0.9943;3.2;0.6;12.2;6 971 | 6.7;0.56;0.09;2.9;0.079;7;22;0.99669;3.46;0.61;10.2;5 972 | 10.4;0.26;0.48;1.9;0.066;6;10;0.99724;3.33;0.87;10.9;6 973 | 10.4;0.26;0.48;1.9;0.066;6;10;0.99724;3.33;0.87;10.9;6 974 | 10.1;0.38;0.5;2.4;0.104;6;13;0.99643;3.22;0.65;11.6;7 975 | 8.5;0.34;0.44;1.7;0.079;6;12;0.99605;3.52;0.63;10.7;5 976 | 8.8;0.33;0.41;5.9;0.073;7;13;0.99658;3.3;0.62;12.1;7 977 | 7.2;0.41;0.3;2.1;0.083;35;72;0.997;3.44;0.52;9.4;5 978 | 7.2;0.41;0.3;2.1;0.083;35;72;0.997;3.44;0.52;9.4;5 979 | 8.4;0.59;0.29;2.6;0.109;31;119;0.99801;3.15;0.5;9.1;5 980 | 7;0.4;0.32;3.6;0.061;9;29;0.99416;3.28;0.49;11.3;7 981 | 12.2;0.45;0.49;1.4;0.075;3;6;0.9969;3.13;0.63;10.4;5 982 | 9.1;0.5;0.3;1.9;0.065;8;17;0.99774;3.32;0.71;10.5;6 983 | 9.5;0.86;0.26;1.9;0.079;13;28;0.99712;3.25;0.62;10;5 984 | 7.3;0.52;0.32;2.1;0.07;51;70;0.99418;3.34;0.82;12.9;6 985 | 9.1;0.5;0.3;1.9;0.065;8;17;0.99774;3.32;0.71;10.5;6 986 | 12.2;0.45;0.49;1.4;0.075;3;6;0.9969;3.13;0.63;10.4;5 987 | 7.4;0.58;0;2;0.064;7;11;0.99562;3.45;0.58;11.3;6 988 | 9.8;0.34;0.39;1.4;0.066;3;7;0.9947;3.19;0.55;11.4;7 989 | 7.1;0.36;0.3;1.6;0.08;35;70;0.99693;3.44;0.5;9.4;5 990 | 7.7;0.39;0.12;1.7;0.097;19;27;0.99596;3.16;0.49;9.4;5 991 | 9.7;0.295;0.4;1.5;0.073;14;21;0.99556;3.14;0.51;10.9;6 992 | 7.7;0.39;0.12;1.7;0.097;19;27;0.99596;3.16;0.49;9.4;5 993 | 7.1;0.34;0.28;2;0.082;31;68;0.99694;3.45;0.48;9.4;5 994 | 6.5;0.4;0.1;2;0.076;30;47;0.99554;3.36;0.48;9.4;6 995 | 7.1;0.34;0.28;2;0.082;31;68;0.99694;3.45;0.48;9.4;5 996 | 10;0.35;0.45;2.5;0.092;20;88;0.99918;3.15;0.43;9.4;5 997 | 7.7;0.6;0.06;2;0.079;19;41;0.99697;3.39;0.62;10.1;6 998 | 5.6;0.66;0;2.2;0.087;3;11;0.99378;3.71;0.63;12.8;7 999 | 5.6;0.66;0;2.2;0.087;3;11;0.99378;3.71;0.63;12.8;7 1000 | 8.9;0.84;0.34;1.4;0.05;4;10;0.99554;3.12;0.48;9.1;6 1001 | 6.4;0.69;0;1.65;0.055;7;12;0.99162;3.47;0.53;12.9;6 1002 | 7.5;0.43;0.3;2.2;0.062;6;12;0.99495;3.44;0.72;11.5;7 1003 | 9.9;0.35;0.38;1.5;0.058;31;47;0.99676;3.26;0.82;10.6;7 1004 | 9.1;0.29;0.33;2.05;0.063;13;27;0.99516;3.26;0.84;11.7;7 1005 | 6.8;0.36;0.32;1.8;0.067;4;8;0.9928;3.36;0.55;12.8;7 1006 | 8.2;0.43;0.29;1.6;0.081;27;45;0.99603;3.25;0.54;10.3;5 1007 | 6.8;0.36;0.32;1.8;0.067;4;8;0.9928;3.36;0.55;12.8;7 1008 | 9.1;0.29;0.33;2.05;0.063;13;27;0.99516;3.26;0.84;11.7;7 1009 | 9.1;0.3;0.34;2;0.064;12;25;0.99516;3.26;0.84;11.7;7 1010 | 8.9;0.35;0.4;3.6;0.11;12;24;0.99549;3.23;0.7;12;7 1011 | 9.6;0.5;0.36;2.8;0.116;26;55;0.99722;3.18;0.68;10.9;5 1012 | 8.9;0.28;0.45;1.7;0.067;7;12;0.99354;3.25;0.55;12.3;7 1013 | 8.9;0.32;0.31;2;0.088;12;19;0.9957;3.17;0.55;10.4;6 1014 | 7.7;1.005;0.15;2.1;0.102;11;32;0.99604;3.23;0.48;10;5 1015 | 7.5;0.71;0;1.6;0.092;22;31;0.99635;3.38;0.58;10;6 1016 | 8;0.58;0.16;2;0.12;3;7;0.99454;3.22;0.58;11.2;6 1017 | 10.5;0.39;0.46;2.2;0.075;14;27;0.99598;3.06;0.84;11.4;6 1018 | 8.9;0.38;0.4;2.2;0.068;12;28;0.99486;3.27;0.75;12.6;7 1019 | 8;0.18;0.37;0.9;0.049;36;109;0.99007;2.89;0.44;12.7;6 1020 | 8;0.18;0.37;0.9;0.049;36;109;0.99007;2.89;0.44;12.7;6 1021 | 7;0.5;0.14;1.8;0.078;10;23;0.99636;3.53;0.61;10.4;5 1022 | 11.3;0.36;0.66;2.4;0.123;3;8;0.99642;3.2;0.53;11.9;6 1023 | 11.3;0.36;0.66;2.4;0.123;3;8;0.99642;3.2;0.53;11.9;6 1024 | 7;0.51;0.09;2.1;0.062;4;9;0.99584;3.35;0.54;10.5;5 1025 | 8.2;0.32;0.42;2.3;0.098;3;9;0.99506;3.27;0.55;12.3;6 1026 | 7.7;0.58;0.01;1.8;0.088;12;18;0.99568;3.32;0.56;10.5;7 1027 | 8.6;0.83;0;2.8;0.095;17;43;0.99822;3.33;0.6;10.4;6 1028 | 7.9;0.31;0.32;1.9;0.066;14;36;0.99364;3.41;0.56;12.6;6 1029 | 6.4;0.795;0;2.2;0.065;28;52;0.99378;3.49;0.52;11.6;5 1030 | 7.2;0.34;0.21;2.5;0.075;41;68;0.99586;3.37;0.54;10.1;6 1031 | 7.7;0.58;0.01;1.8;0.088;12;18;0.99568;3.32;0.56;10.5;7 1032 | 7.1;0.59;0;2.1;0.091;9;14;0.99488;3.42;0.55;11.5;7 1033 | 7.3;0.55;0.01;1.8;0.093;9;15;0.99514;3.35;0.58;11;7 1034 | 8.1;0.82;0;4.1;0.095;5;14;0.99854;3.36;0.53;9.6;5 1035 | 7.5;0.57;0.08;2.6;0.089;14;27;0.99592;3.3;0.59;10.4;6 1036 | 8.9;0.745;0.18;2.5;0.077;15;48;0.99739;3.2;0.47;9.7;6 1037 | 10.1;0.37;0.34;2.4;0.085;5;17;0.99683;3.17;0.65;10.6;7 1038 | 7.6;0.31;0.34;2.5;0.082;26;35;0.99356;3.22;0.59;12.5;7 1039 | 7.3;0.91;0.1;1.8;0.074;20;56;0.99672;3.35;0.56;9.2;5 1040 | 8.7;0.41;0.41;6.2;0.078;25;42;0.9953;3.24;0.77;12.6;7 1041 | 8.9;0.5;0.21;2.2;0.088;21;39;0.99692;3.33;0.83;11.1;6 1042 | 7.4;0.965;0;2.2;0.088;16;32;0.99756;3.58;0.67;10.2;5 1043 | 6.9;0.49;0.19;1.7;0.079;13;26;0.99547;3.38;0.64;9.8;6 1044 | 8.9;0.5;0.21;2.2;0.088;21;39;0.99692;3.33;0.83;11.1;6 1045 | 9.5;0.39;0.41;8.9;0.069;18;39;0.99859;3.29;0.81;10.9;7 1046 | 6.4;0.39;0.33;3.3;0.046;12;53;0.99294;3.36;0.62;12.2;6 1047 | 6.9;0.44;0;1.4;0.07;32;38;0.99438;3.32;0.58;11.4;6 1048 | 7.6;0.78;0;1.7;0.076;33;45;0.99612;3.31;0.62;10.7;6 1049 | 7.1;0.43;0.17;1.8;0.082;27;51;0.99634;3.49;0.64;10.4;5 1050 | 9.3;0.49;0.36;1.7;0.081;3;14;0.99702;3.27;0.78;10.9;6 1051 | 9.3;0.5;0.36;1.8;0.084;6;17;0.99704;3.27;0.77;10.8;6 1052 | 7.1;0.43;0.17;1.8;0.082;27;51;0.99634;3.49;0.64;10.4;5 1053 | 8.5;0.46;0.59;1.4;0.414;16;45;0.99702;3.03;1.34;9.2;5 1054 | 5.6;0.605;0.05;2.4;0.073;19;25;0.99258;3.56;0.55;12.9;5 1055 | 8.3;0.33;0.42;2.3;0.07;9;20;0.99426;3.38;0.77;12.7;7 1056 | 8.2;0.64;0.27;2;0.095;5;77;0.99747;3.13;0.62;9.1;6 1057 | 8.2;0.64;0.27;2;0.095;5;77;0.99747;3.13;0.62;9.1;6 1058 | 8.9;0.48;0.53;4;0.101;3;10;0.99586;3.21;0.59;12.1;7 1059 | 7.6;0.42;0.25;3.9;0.104;28;90;0.99784;3.15;0.57;9.1;5 1060 | 9.9;0.53;0.57;2.4;0.093;30;52;0.9971;3.19;0.76;11.6;7 1061 | 8.9;0.48;0.53;4;0.101;3;10;0.99586;3.21;0.59;12.1;7 1062 | 11.6;0.23;0.57;1.8;0.074;3;8;0.9981;3.14;0.7;9.9;6 1063 | 9.1;0.4;0.5;1.8;0.071;7;16;0.99462;3.21;0.69;12.5;8 1064 | 8;0.38;0.44;1.9;0.098;6;15;0.9956;3.3;0.64;11.4;6 1065 | 10.2;0.29;0.65;2.4;0.075;6;17;0.99565;3.22;0.63;11.8;6 1066 | 8.2;0.74;0.09;2;0.067;5;10;0.99418;3.28;0.57;11.8;6 1067 | 7.7;0.61;0.18;2.4;0.083;6;20;0.9963;3.29;0.6;10.2;6 1068 | 6.6;0.52;0.08;2.4;0.07;13;26;0.99358;3.4;0.72;12.5;7 1069 | 11.1;0.31;0.53;2.2;0.06;3;10;0.99572;3.02;0.83;10.9;7 1070 | 11.1;0.31;0.53;2.2;0.06;3;10;0.99572;3.02;0.83;10.9;7 1071 | 8;0.62;0.35;2.8;0.086;28;52;0.997;3.31;0.62;10.8;5 1072 | 9.3;0.33;0.45;1.5;0.057;19;37;0.99498;3.18;0.89;11.1;7 1073 | 7.5;0.77;0.2;8.1;0.098;30;92;0.99892;3.2;0.58;9.2;5 1074 | 7.2;0.35;0.26;1.8;0.083;33;75;0.9968;3.4;0.58;9.5;6 1075 | 8;0.62;0.33;2.7;0.088;16;37;0.9972;3.31;0.58;10.7;6 1076 | 7.5;0.77;0.2;8.1;0.098;30;92;0.99892;3.2;0.58;9.2;5 1077 | 9.1;0.25;0.34;2;0.071;45;67;0.99769;3.44;0.86;10.2;7 1078 | 9.9;0.32;0.56;2;0.073;3;8;0.99534;3.15;0.73;11.4;6 1079 | 8.6;0.37;0.65;6.4;0.08;3;8;0.99817;3.27;0.58;11;5 1080 | 8.6;0.37;0.65;6.4;0.08;3;8;0.99817;3.27;0.58;11;5 1081 | 7.9;0.3;0.68;8.3;0.05;37.5;278;0.99316;3.01;0.51;12.3;7 1082 | 10.3;0.27;0.56;1.4;0.047;3;8;0.99471;3.16;0.51;11.8;6 1083 | 7.9;0.3;0.68;8.3;0.05;37.5;289;0.99316;3.01;0.51;12.3;7 1084 | 7.2;0.38;0.3;1.8;0.073;31;70;0.99685;3.42;0.59;9.5;6 1085 | 8.7;0.42;0.45;2.4;0.072;32;59;0.99617;3.33;0.77;12;6 1086 | 7.2;0.38;0.3;1.8;0.073;31;70;0.99685;3.42;0.59;9.5;6 1087 | 6.8;0.48;0.08;1.8;0.074;40;64;0.99529;3.12;0.49;9.6;5 1088 | 8.5;0.34;0.4;4.7;0.055;3;9;0.99738;3.38;0.66;11.6;7 1089 | 7.9;0.19;0.42;1.6;0.057;18;30;0.994;3.29;0.69;11.2;6 1090 | 11.6;0.41;0.54;1.5;0.095;22;41;0.99735;3.02;0.76;9.9;7 1091 | 11.6;0.41;0.54;1.5;0.095;22;41;0.99735;3.02;0.76;9.9;7 1092 | 10;0.26;0.54;1.9;0.083;42;74;0.99451;2.98;0.63;11.8;8 1093 | 7.9;0.34;0.42;2;0.086;8;19;0.99546;3.35;0.6;11.4;6 1094 | 7;0.54;0.09;2;0.081;10;16;0.99479;3.43;0.59;11.5;6 1095 | 9.2;0.31;0.36;2.2;0.079;11;31;0.99615;3.33;0.86;12;7 1096 | 6.6;0.725;0.09;5.5;0.117;9;17;0.99655;3.35;0.49;10.8;6 1097 | 9.4;0.4;0.47;2.5;0.087;6;20;0.99772;3.15;0.5;10.5;5 1098 | 6.6;0.725;0.09;5.5;0.117;9;17;0.99655;3.35;0.49;10.8;6 1099 | 8.6;0.52;0.38;1.5;0.096;5;18;0.99666;3.2;0.52;9.4;5 1100 | 8;0.31;0.45;2.1;0.216;5;16;0.99358;3.15;0.81;12.5;7 1101 | 8.6;0.52;0.38;1.5;0.096;5;18;0.99666;3.2;0.52;9.4;5 1102 | 8.4;0.34;0.42;2.1;0.072;23;36;0.99392;3.11;0.78;12.4;6 1103 | 7.4;0.49;0.27;2.1;0.071;14;25;0.99388;3.35;0.63;12;6 1104 | 6.1;0.48;0.09;1.7;0.078;18;30;0.99402;3.45;0.54;11.2;6 1105 | 7.4;0.49;0.27;2.1;0.071;14;25;0.99388;3.35;0.63;12;6 1106 | 8;0.48;0.34;2.2;0.073;16;25;0.9936;3.28;0.66;12.4;6 1107 | 6.3;0.57;0.28;2.1;0.048;13;49;0.99374;3.41;0.6;12.8;5 1108 | 8.2;0.23;0.42;1.9;0.069;9;17;0.99376;3.21;0.54;12.3;6 1109 | 9.1;0.3;0.41;2;0.068;10;24;0.99523;3.27;0.85;11.7;7 1110 | 8.1;0.78;0.1;3.3;0.09;4;13;0.99855;3.36;0.49;9.5;5 1111 | 10.8;0.47;0.43;2.1;0.171;27;66;0.9982;3.17;0.76;10.8;6 1112 | 8.3;0.53;0;1.4;0.07;6;14;0.99593;3.25;0.64;10;6 1113 | 5.4;0.42;0.27;2;0.092;23;55;0.99471;3.78;0.64;12.3;7 1114 | 7.9;0.33;0.41;1.5;0.056;6;35;0.99396;3.29;0.71;11;6 1115 | 8.9;0.24;0.39;1.6;0.074;3;10;0.99698;3.12;0.59;9.5;6 1116 | 5;0.4;0.5;4.3;0.046;29;80;0.9902;3.49;0.66;13.6;6 1117 | 7;0.69;0.07;2.5;0.091;15;21;0.99572;3.38;0.6;11.3;6 1118 | 7;0.69;0.07;2.5;0.091;15;21;0.99572;3.38;0.6;11.3;6 1119 | 7;0.69;0.07;2.5;0.091;15;21;0.99572;3.38;0.6;11.3;6 1120 | 7.1;0.39;0.12;2.1;0.065;14;24;0.99252;3.3;0.53;13.3;6 1121 | 5.6;0.66;0;2.5;0.066;7;15;0.99256;3.52;0.58;12.9;5 1122 | 7.9;0.54;0.34;2.5;0.076;8;17;0.99235;3.2;0.72;13.1;8 1123 | 6.6;0.5;0;1.8;0.062;21;28;0.99352;3.44;0.55;12.3;6 1124 | 6.3;0.47;0;1.4;0.055;27;33;0.9922;3.45;0.48;12.3;6 1125 | 10.7;0.4;0.37;1.9;0.081;17;29;0.99674;3.12;0.65;11.2;6 1126 | 6.5;0.58;0;2.2;0.096;3;13;0.99557;3.62;0.62;11.5;4 1127 | 8.8;0.24;0.35;1.7;0.055;13;27;0.99394;3.14;0.59;11.3;7 1128 | 5.8;0.29;0.26;1.7;0.063;3;11;0.9915;3.39;0.54;13.5;6 1129 | 6.3;0.76;0;2.9;0.072;26;52;0.99379;3.51;0.6;11.5;6 1130 | 10;0.43;0.33;2.7;0.095;28;89;0.9984;3.22;0.68;10;5 1131 | 10.5;0.43;0.35;3.3;0.092;24;70;0.99798;3.21;0.69;10.5;6 1132 | 9.1;0.6;0;1.9;0.058;5;10;0.9977;3.18;0.63;10.4;6 1133 | 5.9;0.19;0.21;1.7;0.045;57;135;0.99341;3.32;0.44;9.5;5 1134 | 7.4;0.36;0.34;1.8;0.075;18;38;0.9933;3.38;0.88;13.6;7 1135 | 7.2;0.48;0.07;5.5;0.089;10;18;0.99684;3.37;0.68;11.2;7 1136 | 8.5;0.28;0.35;1.7;0.061;6;15;0.99524;3.3;0.74;11.8;7 1137 | 8;0.25;0.43;1.7;0.067;22;50;0.9946;3.38;0.6;11.9;6 1138 | 10.4;0.52;0.45;2;0.08;6;13;0.99774;3.22;0.76;11.4;6 1139 | 10.4;0.52;0.45;2;0.08;6;13;0.99774;3.22;0.76;11.4;6 1140 | 7.5;0.41;0.15;3.7;0.104;29;94;0.99786;3.14;0.58;9.1;5 1141 | 8.2;0.51;0.24;2;0.079;16;86;0.99764;3.34;0.64;9.5;6 1142 | 7.3;0.4;0.3;1.7;0.08;33;79;0.9969;3.41;0.65;9.5;6 1143 | 8.2;0.38;0.32;2.5;0.08;24;71;0.99624;3.27;0.85;11;6 1144 | 6.9;0.45;0.11;2.4;0.043;6;12;0.99354;3.3;0.65;11.4;6 1145 | 7;0.22;0.3;1.8;0.065;16;20;0.99672;3.61;0.82;10;6 1146 | 7.3;0.32;0.23;2.3;0.066;35;70;0.99588;3.43;0.62;10.1;5 1147 | 8.2;0.2;0.43;2.5;0.076;31;51;0.99672;3.53;0.81;10.4;6 1148 | 7.8;0.5;0.12;1.8;0.178;6;21;0.996;3.28;0.87;9.8;6 1149 | 10;0.41;0.45;6.2;0.071;6;14;0.99702;3.21;0.49;11.8;7 1150 | 7.8;0.39;0.42;2;0.086;9;21;0.99526;3.39;0.66;11.6;6 1151 | 10;0.35;0.47;2;0.061;6;11;0.99585;3.23;0.52;12;6 1152 | 8.2;0.33;0.32;2.8;0.067;4;12;0.99473;3.3;0.76;12.8;7 1153 | 6.1;0.58;0.23;2.5;0.044;16;70;0.99352;3.46;0.65;12.5;6 1154 | 8.3;0.6;0.25;2.2;0.118;9;38;0.99616;3.15;0.53;9.8;5 1155 | 9.6;0.42;0.35;2.1;0.083;17;38;0.99622;3.23;0.66;11.1;6 1156 | 6.6;0.58;0;2.2;0.1;50;63;0.99544;3.59;0.68;11.4;6 1157 | 8.3;0.6;0.25;2.2;0.118;9;38;0.99616;3.15;0.53;9.8;5 1158 | 8.5;0.18;0.51;1.75;0.071;45;88;0.99524;3.33;0.76;11.8;7 1159 | 5.1;0.51;0.18;2.1;0.042;16;101;0.9924;3.46;0.87;12.9;7 1160 | 6.7;0.41;0.43;2.8;0.076;22;54;0.99572;3.42;1.16;10.6;6 1161 | 10.2;0.41;0.43;2.2;0.11;11;37;0.99728;3.16;0.67;10.8;5 1162 | 10.6;0.36;0.57;2.3;0.087;6;20;0.99676;3.14;0.72;11.1;7 1163 | 8.8;0.45;0.43;1.4;0.076;12;21;0.99551;3.21;0.75;10.2;6 1164 | 8.5;0.32;0.42;2.3;0.075;12;19;0.99434;3.14;0.71;11.8;7 1165 | 9;0.785;0.24;1.7;0.078;10;21;0.99692;3.29;0.67;10;5 1166 | 9;0.785;0.24;1.7;0.078;10;21;0.99692;3.29;0.67;10;5 1167 | 8.5;0.44;0.5;1.9;0.369;15;38;0.99634;3.01;1.1;9.4;5 1168 | 9.9;0.54;0.26;2;0.111;7;60;0.99709;2.94;0.98;10.2;5 1169 | 8.2;0.33;0.39;2.5;0.074;29;48;0.99528;3.32;0.88;12.4;7 1170 | 6.5;0.34;0.27;2.8;0.067;8;44;0.99384;3.21;0.56;12;6 1171 | 7.6;0.5;0.29;2.3;0.086;5;14;0.99502;3.32;0.62;11.5;6 1172 | 9.2;0.36;0.34;1.6;0.062;5;12;0.99667;3.2;0.67;10.5;6 1173 | 7.1;0.59;0;2.2;0.078;26;44;0.99522;3.42;0.68;10.8;6 1174 | 9.7;0.42;0.46;2.1;0.074;5;16;0.99649;3.27;0.74;12.3;6 1175 | 7.6;0.36;0.31;1.7;0.079;26;65;0.99716;3.46;0.62;9.5;6 1176 | 7.6;0.36;0.31;1.7;0.079;26;65;0.99716;3.46;0.62;9.5;6 1177 | 6.5;0.61;0;2.2;0.095;48;59;0.99541;3.61;0.7;11.5;6 1178 | 6.5;0.88;0.03;5.6;0.079;23;47;0.99572;3.58;0.5;11.2;4 1179 | 7.1;0.66;0;2.4;0.052;6;11;0.99318;3.35;0.66;12.7;7 1180 | 5.6;0.915;0;2.1;0.041;17;78;0.99346;3.68;0.73;11.4;5 1181 | 8.2;0.35;0.33;2.4;0.076;11;47;0.99599;3.27;0.81;11;6 1182 | 8.2;0.35;0.33;2.4;0.076;11;47;0.99599;3.27;0.81;11;6 1183 | 9.8;0.39;0.43;1.65;0.068;5;11;0.99478;3.19;0.46;11.4;5 1184 | 10.2;0.4;0.4;2.5;0.068;41;54;0.99754;3.38;0.86;10.5;6 1185 | 6.8;0.66;0.07;1.6;0.07;16;61;0.99572;3.29;0.6;9.3;5 1186 | 6.7;0.64;0.23;2.1;0.08;11;119;0.99538;3.36;0.7;10.9;5 1187 | 7;0.43;0.3;2;0.085;6;39;0.99346;3.33;0.46;11.9;6 1188 | 6.6;0.8;0.03;7.8;0.079;6;12;0.9963;3.52;0.5;12.2;5 1189 | 7;0.43;0.3;2;0.085;6;39;0.99346;3.33;0.46;11.9;6 1190 | 6.7;0.64;0.23;2.1;0.08;11;119;0.99538;3.36;0.7;10.9;5 1191 | 8.8;0.955;0.05;1.8;0.075;5;19;0.99616;3.3;0.44;9.6;4 1192 | 9.1;0.4;0.57;4.6;0.08;6;20;0.99652;3.28;0.57;12.5;6 1193 | 6.5;0.885;0;2.3;0.166;6;12;0.99551;3.56;0.51;10.8;5 1194 | 7.2;0.25;0.37;2.5;0.063;11;41;0.99439;3.52;0.8;12.4;7 1195 | 6.4;0.885;0;2.3;0.166;6;12;0.99551;3.56;0.51;10.8;5 1196 | 7;0.745;0.12;1.8;0.114;15;64;0.99588;3.22;0.59;9.5;6 1197 | 6.2;0.43;0.22;1.8;0.078;21;56;0.99633;3.52;0.6;9.5;6 1198 | 7.9;0.58;0.23;2.3;0.076;23;94;0.99686;3.21;0.58;9.5;6 1199 | 7.7;0.57;0.21;1.5;0.069;4;9;0.99458;3.16;0.54;9.8;6 1200 | 7.7;0.26;0.26;2;0.052;19;77;0.9951;3.15;0.79;10.9;6 1201 | 7.9;0.58;0.23;2.3;0.076;23;94;0.99686;3.21;0.58;9.5;6 1202 | 7.7;0.57;0.21;1.5;0.069;4;9;0.99458;3.16;0.54;9.8;6 1203 | 7.9;0.34;0.36;1.9;0.065;5;10;0.99419;3.27;0.54;11.2;7 1204 | 8.6;0.42;0.39;1.8;0.068;6;12;0.99516;3.35;0.69;11.7;8 1205 | 9.9;0.74;0.19;5.8;0.111;33;76;0.99878;3.14;0.55;9.4;5 1206 | 7.2;0.36;0.46;2.1;0.074;24;44;0.99534;3.4;0.85;11;7 1207 | 7.2;0.36;0.46;2.1;0.074;24;44;0.99534;3.4;0.85;11;7 1208 | 7.2;0.36;0.46;2.1;0.074;24;44;0.99534;3.4;0.85;11;7 1209 | 9.9;0.72;0.55;1.7;0.136;24;52;0.99752;3.35;0.94;10;5 1210 | 7.2;0.36;0.46;2.1;0.074;24;44;0.99534;3.4;0.85;11;7 1211 | 6.2;0.39;0.43;2;0.071;14;24;0.99428;3.45;0.87;11.2;7 1212 | 6.8;0.65;0.02;2.1;0.078;8;15;0.99498;3.35;0.62;10.4;6 1213 | 6.6;0.44;0.15;2.1;0.076;22;53;0.9957;3.32;0.62;9.3;5 1214 | 6.8;0.65;0.02;2.1;0.078;8;15;0.99498;3.35;0.62;10.4;6 1215 | 9.6;0.38;0.42;1.9;0.071;5;13;0.99659;3.15;0.75;10.5;6 1216 | 10.2;0.33;0.46;1.9;0.081;6;9;0.99628;3.1;0.48;10.4;6 1217 | 8.8;0.27;0.46;2.1;0.095;20;29;0.99488;3.26;0.56;11.3;6 1218 | 7.9;0.57;0.31;2;0.079;10;79;0.99677;3.29;0.69;9.5;6 1219 | 8.2;0.34;0.37;1.9;0.057;43;74;0.99408;3.23;0.81;12;6 1220 | 8.2;0.4;0.31;1.9;0.082;8;24;0.996;3.24;0.69;10.6;6 1221 | 9;0.39;0.4;1.3;0.044;25;50;0.99478;3.2;0.83;10.9;6 1222 | 10.9;0.32;0.52;1.8;0.132;17;44;0.99734;3.28;0.77;11.5;6 1223 | 10.9;0.32;0.52;1.8;0.132;17;44;0.99734;3.28;0.77;11.5;6 1224 | 8.1;0.53;0.22;2.2;0.078;33;89;0.99678;3.26;0.46;9.6;6 1225 | 10.5;0.36;0.47;2.2;0.074;9;23;0.99638;3.23;0.76;12;6 1226 | 12.6;0.39;0.49;2.5;0.08;8;20;0.9992;3.07;0.82;10.3;6 1227 | 9.2;0.46;0.23;2.6;0.091;18;77;0.99922;3.15;0.51;9.4;5 1228 | 7.5;0.58;0.03;4.1;0.08;27;46;0.99592;3.02;0.47;9.2;5 1229 | 9;0.58;0.25;2;0.104;8;21;0.99769;3.27;0.72;9.6;5 1230 | 5.1;0.42;0;1.8;0.044;18;88;0.99157;3.68;0.73;13.6;7 1231 | 7.6;0.43;0.29;2.1;0.075;19;66;0.99718;3.4;0.64;9.5;5 1232 | 7.7;0.18;0.34;2.7;0.066;15;58;0.9947;3.37;0.78;11.8;6 1233 | 7.8;0.815;0.01;2.6;0.074;48;90;0.99621;3.38;0.62;10.8;5 1234 | 7.6;0.43;0.29;2.1;0.075;19;66;0.99718;3.4;0.64;9.5;5 1235 | 10.2;0.23;0.37;2.2;0.057;14;36;0.99614;3.23;0.49;9.3;4 1236 | 7.1;0.75;0.01;2.2;0.059;11;18;0.99242;3.39;0.4;12.8;6 1237 | 6;0.33;0.32;12.9;0.054;6;113;0.99572;3.3;0.56;11.5;4 1238 | 7.8;0.55;0;1.7;0.07;7;17;0.99659;3.26;0.64;9.4;6 1239 | 7.1;0.75;0.01;2.2;0.059;11;18;0.99242;3.39;0.4;12.8;6 1240 | 8.1;0.73;0;2.5;0.081;12;24;0.99798;3.38;0.46;9.6;4 1241 | 6.5;0.67;0;4.3;0.057;11;20;0.99488;3.45;0.56;11.8;4 1242 | 7.5;0.61;0.2;1.7;0.076;36;60;0.99494;3.1;0.4;9.3;5 1243 | 9.8;0.37;0.39;2.5;0.079;28;65;0.99729;3.16;0.59;9.8;5 1244 | 9;0.4;0.41;2;0.058;15;40;0.99414;3.22;0.6;12.2;6 1245 | 8.3;0.56;0.22;2.4;0.082;10;86;0.9983;3.37;0.62;9.5;5 1246 | 5.9;0.29;0.25;13.4;0.067;72;160;0.99721;3.33;0.54;10.3;6 1247 | 7.4;0.55;0.19;1.8;0.082;15;34;0.99655;3.49;0.68;10.5;5 1248 | 7.4;0.74;0.07;1.7;0.086;15;48;0.99502;3.12;0.48;10;5 1249 | 7.4;0.55;0.19;1.8;0.082;15;34;0.99655;3.49;0.68;10.5;5 1250 | 6.9;0.41;0.33;2.2;0.081;22;36;0.9949;3.41;0.75;11.1;6 1251 | 7.1;0.6;0.01;2.3;0.079;24;37;0.99514;3.4;0.61;10.9;6 1252 | 7.1;0.6;0.01;2.3;0.079;24;37;0.99514;3.4;0.61;10.9;6 1253 | 7.5;0.58;0.14;2.2;0.077;27;60;0.9963;3.28;0.59;9.8;5 1254 | 7.1;0.72;0;1.8;0.123;6;14;0.99627;3.45;0.58;9.8;5 1255 | 7.9;0.66;0;1.4;0.096;6;13;0.99569;3.43;0.58;9.5;5 1256 | 7.8;0.7;0.06;1.9;0.079;20;35;0.99628;3.4;0.69;10.9;5 1257 | 6.1;0.64;0.02;2.4;0.069;26;46;0.99358;3.47;0.45;11;5 1258 | 7.5;0.59;0.22;1.8;0.082;43;60;0.99499;3.1;0.42;9.2;5 1259 | 7;0.58;0.28;4.8;0.085;12;69;0.99633;3.32;0.7;11;6 1260 | 6.8;0.64;0;2.7;0.123;15;33;0.99538;3.44;0.63;11.3;6 1261 | 6.8;0.64;0;2.7;0.123;15;33;0.99538;3.44;0.63;11.3;6 1262 | 8.6;0.635;0.68;1.8;0.403;19;56;0.99632;3.02;1.15;9.3;5 1263 | 6.3;1.02;0;2;0.083;17;24;0.99437;3.59;0.55;11.2;4 1264 | 9.8;0.45;0.38;2.5;0.081;34;66;0.99726;3.15;0.58;9.8;5 1265 | 8.2;0.78;0;2.2;0.089;13;26;0.9978;3.37;0.46;9.6;4 1266 | 8.5;0.37;0.32;1.8;0.066;26;51;0.99456;3.38;0.72;11.8;6 1267 | 7.2;0.57;0.05;2.3;0.081;16;36;0.99564;3.38;0.6;10.3;6 1268 | 7.2;0.57;0.05;2.3;0.081;16;36;0.99564;3.38;0.6;10.3;6 1269 | 10.4;0.43;0.5;2.3;0.068;13;19;0.996;3.1;0.87;11.4;6 1270 | 6.9;0.41;0.31;2;0.079;21;51;0.99668;3.47;0.55;9.5;6 1271 | 5.5;0.49;0.03;1.8;0.044;28;87;0.9908;3.5;0.82;14;8 1272 | 5;0.38;0.01;1.6;0.048;26;60;0.99084;3.7;0.75;14;6 1273 | 7.3;0.44;0.2;1.6;0.049;24;64;0.9935;3.38;0.57;11.7;6 1274 | 5.9;0.46;0;1.9;0.077;25;44;0.99385;3.5;0.53;11.2;5 1275 | 7.5;0.58;0.2;2;0.073;34;44;0.99494;3.1;0.43;9.3;5 1276 | 7.8;0.58;0.13;2.1;0.102;17;36;0.9944;3.24;0.53;11.2;6 1277 | 8;0.715;0.22;2.3;0.075;13;81;0.99688;3.24;0.54;9.5;6 1278 | 8.5;0.4;0.4;6.3;0.05;3;10;0.99566;3.28;0.56;12;4 1279 | 7;0.69;0;1.9;0.114;3;10;0.99636;3.35;0.6;9.7;6 1280 | 8;0.715;0.22;2.3;0.075;13;81;0.99688;3.24;0.54;9.5;6 1281 | 9.8;0.3;0.39;1.7;0.062;3;9;0.9948;3.14;0.57;11.5;7 1282 | 7.1;0.46;0.2;1.9;0.077;28;54;0.9956;3.37;0.64;10.4;6 1283 | 7.1;0.46;0.2;1.9;0.077;28;54;0.9956;3.37;0.64;10.4;6 1284 | 7.9;0.765;0;2;0.084;9;22;0.99619;3.33;0.68;10.9;6 1285 | 8.7;0.63;0.28;2.7;0.096;17;69;0.99734;3.26;0.63;10.2;6 1286 | 7;0.42;0.19;2.3;0.071;18;36;0.99476;3.39;0.56;10.9;5 1287 | 11.3;0.37;0.5;1.8;0.09;20;47;0.99734;3.15;0.57;10.5;5 1288 | 7.1;0.16;0.44;2.5;0.068;17;31;0.99328;3.35;0.54;12.4;6 1289 | 8;0.6;0.08;2.6;0.056;3;7;0.99286;3.22;0.37;13;5 1290 | 7;0.6;0.3;4.5;0.068;20;110;0.99914;3.3;1.17;10.2;5 1291 | 7;0.6;0.3;4.5;0.068;20;110;0.99914;3.3;1.17;10.2;5 1292 | 7.6;0.74;0;1.9;0.1;6;12;0.99521;3.36;0.59;11;5 1293 | 8.2;0.635;0.1;2.1;0.073;25;60;0.99638;3.29;0.75;10.9;6 1294 | 5.9;0.395;0.13;2.4;0.056;14;28;0.99362;3.62;0.67;12.4;6 1295 | 7.5;0.755;0;1.9;0.084;6;12;0.99672;3.34;0.49;9.7;4 1296 | 8.2;0.635;0.1;2.1;0.073;25;60;0.99638;3.29;0.75;10.9;6 1297 | 6.6;0.63;0;4.3;0.093;51;77.5;0.99558;3.2;0.45;9.5;5 1298 | 6.6;0.63;0;4.3;0.093;51;77.5;0.99558;3.2;0.45;9.5;5 1299 | 7.2;0.53;0.14;2.1;0.064;15;29;0.99323;3.35;0.61;12.1;6 1300 | 5.7;0.6;0;1.4;0.063;11;18;0.99191;3.45;0.56;12.2;6 1301 | 7.6;1.58;0;2.1;0.137;5;9;0.99476;3.5;0.4;10.9;3 1302 | 5.2;0.645;0;2.15;0.08;15;28;0.99444;3.78;0.61;12.5;6 1303 | 6.7;0.86;0.07;2;0.1;20;57;0.99598;3.6;0.74;11.7;6 1304 | 9.1;0.37;0.32;2.1;0.064;4;15;0.99576;3.3;0.8;11.2;6 1305 | 8;0.28;0.44;1.8;0.081;28;68;0.99501;3.36;0.66;11.2;5 1306 | 7.6;0.79;0.21;2.3;0.087;21;68;0.9955;3.12;0.44;9.2;5 1307 | 7.5;0.61;0.26;1.9;0.073;24;88;0.99612;3.3;0.53;9.8;5 1308 | 9.7;0.69;0.32;2.5;0.088;22;91;0.9979;3.29;0.62;10.1;5 1309 | 6.8;0.68;0.09;3.9;0.068;15;29;0.99524;3.41;0.52;11.1;4 1310 | 9.7;0.69;0.32;2.5;0.088;22;91;0.9979;3.29;0.62;10.1;5 1311 | 7;0.62;0.1;1.4;0.071;27;63;0.996;3.28;0.61;9.2;5 1312 | 7.5;0.61;0.26;1.9;0.073;24;88;0.99612;3.3;0.53;9.8;5 1313 | 6.5;0.51;0.15;3;0.064;12;27;0.9929;3.33;0.59;12.8;6 1314 | 8;1.18;0.21;1.9;0.083;14;41;0.99532;3.34;0.47;10.5;5 1315 | 7;0.36;0.21;2.3;0.086;20;65;0.99558;3.4;0.54;10.1;6 1316 | 7;0.36;0.21;2.4;0.086;24;69;0.99556;3.4;0.53;10.1;6 1317 | 7.5;0.63;0.27;2;0.083;17;91;0.99616;3.26;0.58;9.8;6 1318 | 5.4;0.74;0;1.2;0.041;16;46;0.99258;4.01;0.59;12.5;6 1319 | 9.9;0.44;0.46;2.2;0.091;10;41;0.99638;3.18;0.69;11.9;6 1320 | 7.5;0.63;0.27;2;0.083;17;91;0.99616;3.26;0.58;9.8;6 1321 | 9.1;0.76;0.68;1.7;0.414;18;64;0.99652;2.9;1.33;9.1;6 1322 | 9.7;0.66;0.34;2.6;0.094;12;88;0.99796;3.26;0.66;10.1;5 1323 | 5;0.74;0;1.2;0.041;16;46;0.99258;4.01;0.59;12.5;6 1324 | 9.1;0.34;0.42;1.8;0.058;9;18;0.99392;3.18;0.55;11.4;5 1325 | 9.1;0.36;0.39;1.8;0.06;21;55;0.99495;3.18;0.82;11;7 1326 | 6.7;0.46;0.24;1.7;0.077;18;34;0.9948;3.39;0.6;10.6;6 1327 | 6.7;0.46;0.24;1.7;0.077;18;34;0.9948;3.39;0.6;10.6;6 1328 | 6.7;0.46;0.24;1.7;0.077;18;34;0.9948;3.39;0.6;10.6;6 1329 | 6.7;0.46;0.24;1.7;0.077;18;34;0.9948;3.39;0.6;10.6;6 1330 | 6.5;0.52;0.11;1.8;0.073;13;38;0.9955;3.34;0.52;9.3;5 1331 | 7.4;0.6;0.26;2.1;0.083;17;91;0.99616;3.29;0.56;9.8;6 1332 | 7.4;0.6;0.26;2.1;0.083;17;91;0.99616;3.29;0.56;9.8;6 1333 | 7.8;0.87;0.26;3.8;0.107;31;67;0.99668;3.26;0.46;9.2;5 1334 | 8.4;0.39;0.1;1.7;0.075;6;25;0.99581;3.09;0.43;9.7;6 1335 | 9.1;0.775;0.22;2.2;0.079;12;48;0.9976;3.18;0.51;9.6;5 1336 | 7.2;0.835;0;2;0.166;4;11;0.99608;3.39;0.52;10;5 1337 | 6.6;0.58;0.02;2.4;0.069;19;40;0.99387;3.38;0.66;12.6;6 1338 | 6;0.5;0;1.4;0.057;15;26;0.99448;3.36;0.45;9.5;5 1339 | 6;0.5;0;1.4;0.057;15;26;0.99448;3.36;0.45;9.5;5 1340 | 6;0.5;0;1.4;0.057;15;26;0.99448;3.36;0.45;9.5;5 1341 | 7.5;0.51;0.02;1.7;0.084;13;31;0.99538;3.36;0.54;10.5;6 1342 | 7.5;0.51;0.02;1.7;0.084;13;31;0.99538;3.36;0.54;10.5;6 1343 | 7.5;0.51;0.02;1.7;0.084;13;31;0.99538;3.36;0.54;10.5;6 1344 | 7.6;0.54;0.02;1.7;0.085;17;31;0.99589;3.37;0.51;10.4;6 1345 | 7.5;0.51;0.02;1.7;0.084;13;31;0.99538;3.36;0.54;10.5;6 1346 | 11.5;0.42;0.48;2.6;0.077;8;20;0.99852;3.09;0.53;11;5 1347 | 8.2;0.44;0.24;2.3;0.063;10;28;0.99613;3.25;0.53;10.2;6 1348 | 6.1;0.59;0.01;2.1;0.056;5;13;0.99472;3.52;0.56;11.4;5 1349 | 7.2;0.655;0.03;1.8;0.078;7;12;0.99587;3.34;0.39;9.5;5 1350 | 7.2;0.655;0.03;1.8;0.078;7;12;0.99587;3.34;0.39;9.5;5 1351 | 6.9;0.57;0;2.8;0.081;21;41;0.99518;3.41;0.52;10.8;5 1352 | 9;0.6;0.29;2;0.069;32;73;0.99654;3.34;0.57;10;5 1353 | 7.2;0.62;0.01;2.3;0.065;8;46;0.99332;3.32;0.51;11.8;6 1354 | 7.6;0.645;0.03;1.9;0.086;14;57;0.9969;3.37;0.46;10.3;5 1355 | 7.6;0.645;0.03;1.9;0.086;14;57;0.9969;3.37;0.46;10.3;5 1356 | 7.2;0.58;0.03;2.3;0.077;7;28;0.99568;3.35;0.52;10;5 1357 | 6.1;0.32;0.25;1.8;0.086;5;32;0.99464;3.36;0.44;10.1;5 1358 | 6.1;0.34;0.25;1.8;0.084;4;28;0.99464;3.36;0.44;10.1;5 1359 | 7.3;0.43;0.24;2.5;0.078;27;67;0.99648;3.6;0.59;11.1;6 1360 | 7.4;0.64;0.17;5.4;0.168;52;98;0.99736;3.28;0.5;9.5;5 1361 | 11.6;0.475;0.4;1.4;0.091;6;28;0.99704;3.07;0.65;10.0333333333333;6 1362 | 9.2;0.54;0.31;2.3;0.112;11;38;0.99699;3.24;0.56;10.9;5 1363 | 8.3;0.85;0.14;2.5;0.093;13;54;0.99724;3.36;0.54;10.1;5 1364 | 11.6;0.475;0.4;1.4;0.091;6;28;0.99704;3.07;0.65;10.0333333333333;6 1365 | 8;0.83;0.27;2;0.08;11;63;0.99652;3.29;0.48;9.8;4 1366 | 7.2;0.605;0.02;1.9;0.096;10;31;0.995;3.46;0.53;11.8;6 1367 | 7.8;0.5;0.09;2.2;0.115;10;42;0.9971;3.18;0.62;9.5;5 1368 | 7.3;0.74;0.08;1.7;0.094;10;45;0.99576;3.24;0.5;9.8;5 1369 | 6.9;0.54;0.3;2.2;0.088;9;105;0.99725;3.25;1.18;10.5;6 1370 | 8;0.77;0.32;2.1;0.079;16;74;0.99656;3.27;0.5;9.8;6 1371 | 6.6;0.61;0;1.6;0.069;4;8;0.99396;3.33;0.37;10.4;4 1372 | 8.7;0.78;0.51;1.7;0.415;12;66;0.99623;3;1.17;9.2;5 1373 | 7.5;0.58;0.56;3.1;0.153;5;14;0.99476;3.21;1.03;11.6;6 1374 | 8.7;0.78;0.51;1.7;0.415;12;66;0.99623;3;1.17;9.2;5 1375 | 7.7;0.75;0.27;3.8;0.11;34;89;0.99664;3.24;0.45;9.3;5 1376 | 6.8;0.815;0;1.2;0.267;16;29;0.99471;3.32;0.51;9.8;3 1377 | 7.2;0.56;0.26;2;0.083;13;100;0.99586;3.26;0.52;9.9;5 1378 | 8.2;0.885;0.2;1.4;0.086;7;31;0.9946;3.11;0.46;10;5 1379 | 5.2;0.49;0.26;2.3;0.09;23;74;0.9953;3.71;0.62;12.2;6 1380 | 7.2;0.45;0.15;2;0.078;10;28;0.99609;3.29;0.51;9.9;6 1381 | 7.5;0.57;0.02;2.6;0.077;11;35;0.99557;3.36;0.62;10.8;6 1382 | 7.5;0.57;0.02;2.6;0.077;11;35;0.99557;3.36;0.62;10.8;6 1383 | 6.8;0.83;0.09;1.8;0.074;4;25;0.99534;3.38;0.45;9.6;5 1384 | 8;0.6;0.22;2.1;0.08;25;105;0.99613;3.3;0.49;9.9;5 1385 | 8;0.6;0.22;2.1;0.08;25;105;0.99613;3.3;0.49;9.9;5 1386 | 7.1;0.755;0.15;1.8;0.107;20;84;0.99593;3.19;0.5;9.5;5 1387 | 8;0.81;0.25;3.4;0.076;34;85;0.99668;3.19;0.42;9.2;5 1388 | 7.4;0.64;0.07;1.8;0.1;8;23;0.9961;3.3;0.58;9.6;5 1389 | 7.4;0.64;0.07;1.8;0.1;8;23;0.9961;3.3;0.58;9.6;5 1390 | 6.6;0.64;0.31;6.1;0.083;7;49;0.99718;3.35;0.68;10.3;5 1391 | 6.7;0.48;0.02;2.2;0.08;36;111;0.99524;3.1;0.53;9.7;5 1392 | 6;0.49;0;2.3;0.068;15;33;0.99292;3.58;0.59;12.5;6 1393 | 8;0.64;0.22;2.4;0.094;5;33;0.99612;3.37;0.58;11;5 1394 | 7.1;0.62;0.06;1.3;0.07;5;12;0.9942;3.17;0.48;9.8;5 1395 | 8;0.52;0.25;2;0.078;19;59;0.99612;3.3;0.48;10.2;5 1396 | 6.4;0.57;0.14;3.9;0.07;27;73;0.99669;3.32;0.48;9.2;5 1397 | 8.6;0.685;0.1;1.6;0.092;3;12;0.99745;3.31;0.65;9.55;6 1398 | 8.7;0.675;0.1;1.6;0.09;4;11;0.99745;3.31;0.65;9.55;5 1399 | 7.3;0.59;0.26;2;0.08;17;104;0.99584;3.28;0.52;9.9;5 1400 | 7;0.6;0.12;2.2;0.083;13;28;0.9966;3.52;0.62;10.2;7 1401 | 7.2;0.67;0;2.2;0.068;10;24;0.9956;3.42;0.72;11.1;6 1402 | 7.9;0.69;0.21;2.1;0.08;33;141;0.9962;3.25;0.51;9.9;5 1403 | 7.9;0.69;0.21;2.1;0.08;33;141;0.9962;3.25;0.51;9.9;5 1404 | 7.6;0.3;0.42;2;0.052;6;24;0.9963;3.44;0.82;11.9;6 1405 | 7.2;0.33;0.33;1.7;0.061;3;13;0.996;3.23;1.1;10;8 1406 | 8;0.5;0.39;2.6;0.082;12;46;0.9985;3.43;0.62;10.7;6 1407 | 7.7;0.28;0.3;2;0.062;18;34;0.9952;3.28;0.9;11.3;7 1408 | 8.2;0.24;0.34;5.1;0.062;8;22;0.9974;3.22;0.94;10.9;6 1409 | 6;0.51;0;2.1;0.064;40;54;0.995;3.54;0.93;10.7;6 1410 | 8.1;0.29;0.36;2.2;0.048;35;53;0.995;3.27;1.01;12.4;7 1411 | 6;0.51;0;2.1;0.064;40;54;0.995;3.54;0.93;10.7;6 1412 | 6.6;0.96;0;1.8;0.082;5;16;0.9936;3.5;0.44;11.9;6 1413 | 6.4;0.47;0.4;2.4;0.071;8;19;0.9963;3.56;0.73;10.6;6 1414 | 8.2;0.24;0.34;5.1;0.062;8;22;0.9974;3.22;0.94;10.9;6 1415 | 9.9;0.57;0.25;2;0.104;12;89;0.9963;3.04;0.9;10.1;5 1416 | 10;0.32;0.59;2.2;0.077;3;15;0.9994;3.2;0.78;9.6;5 1417 | 6.2;0.58;0;1.6;0.065;8;18;0.9966;3.56;0.84;9.4;5 1418 | 10;0.32;0.59;2.2;0.077;3;15;0.9994;3.2;0.78;9.6;5 1419 | 7.3;0.34;0.33;2.5;0.064;21;37;0.9952;3.35;0.77;12.1;7 1420 | 7.8;0.53;0.01;1.6;0.077;3;19;0.995;3.16;0.46;9.8;5 1421 | 7.7;0.64;0.21;2.2;0.077;32;133;0.9956;3.27;0.45;9.9;5 1422 | 7.8;0.53;0.01;1.6;0.077;3;19;0.995;3.16;0.46;9.8;5 1423 | 7.5;0.4;0.18;1.6;0.079;24;58;0.9965;3.34;0.58;9.4;5 1424 | 7;0.54;0;2.1;0.079;39;55;0.9956;3.39;0.84;11.4;6 1425 | 6.4;0.53;0.09;3.9;0.123;14;31;0.9968;3.5;0.67;11;4 1426 | 8.3;0.26;0.37;1.4;0.076;8;23;0.9974;3.26;0.7;9.6;6 1427 | 8.3;0.26;0.37;1.4;0.076;8;23;0.9974;3.26;0.7;9.6;6 1428 | 7.7;0.23;0.37;1.8;0.046;23;60;0.9971;3.41;0.71;12.1;6 1429 | 7.6;0.41;0.33;2.5;0.078;6;23;0.9957;3.3;0.58;11.2;5 1430 | 7.8;0.64;0;1.9;0.072;27;55;0.9962;3.31;0.63;11;5 1431 | 7.9;0.18;0.4;2.2;0.049;38;67;0.996;3.33;0.93;11.3;5 1432 | 7.4;0.41;0.24;1.8;0.066;18;47;0.9956;3.37;0.62;10.4;5 1433 | 7.6;0.43;0.31;2.1;0.069;13;74;0.9958;3.26;0.54;9.9;6 1434 | 5.9;0.44;0;1.6;0.042;3;11;0.9944;3.48;0.85;11.7;6 1435 | 6.1;0.4;0.16;1.8;0.069;11;25;0.9955;3.42;0.74;10.1;7 1436 | 10.2;0.54;0.37;15.4;0.214;55;95;1.00369;3.18;0.77;9;6 1437 | 10.2;0.54;0.37;15.4;0.214;55;95;1.00369;3.18;0.77;9;6 1438 | 10;0.38;0.38;1.6;0.169;27;90;0.99914;3.15;0.65;8.5;5 1439 | 6.8;0.915;0.29;4.8;0.07;15;39;0.99577;3.53;0.54;11.1;5 1440 | 7;0.59;0;1.7;0.052;3;8;0.996;3.41;0.47;10.3;5 1441 | 7.3;0.67;0.02;2.2;0.072;31;92;0.99566;3.32;0.68;11.0666666666667;6 1442 | 7.2;0.37;0.32;2;0.062;15;28;0.9947;3.23;0.73;11.3;7 1443 | 7.4;0.785;0.19;5.2;0.094;19;98;0.99713;3.16;0.52;9.56666666666667;6 1444 | 6.9;0.63;0.02;1.9;0.078;18;30;0.99712;3.4;0.75;9.8;5 1445 | 6.9;0.58;0.2;1.75;0.058;8;22;0.99322;3.38;0.49;11.7;5 1446 | 7.3;0.67;0.02;2.2;0.072;31;92;0.99566;3.32;0.68;11.1;6 1447 | 7.4;0.785;0.19;5.2;0.094;19;98;0.99713;3.16;0.52;9.6;6 1448 | 6.9;0.63;0.02;1.9;0.078;18;30;0.99712;3.4;0.75;9.8;5 1449 | 6.8;0.67;0;1.9;0.08;22;39;0.99701;3.4;0.74;9.7;5 1450 | 6.9;0.58;0.01;1.9;0.08;40;54;0.99683;3.4;0.73;9.7;5 1451 | 7.2;0.38;0.31;2;0.056;15;29;0.99472;3.23;0.76;11.3;8 1452 | 7.2;0.37;0.32;2;0.062;15;28;0.9947;3.23;0.73;11.3;7 1453 | 7.8;0.32;0.44;2.7;0.104;8;17;0.99732;3.33;0.78;11;7 1454 | 6.6;0.58;0.02;2;0.062;37;53;0.99374;3.35;0.76;11.6;7 1455 | 7.6;0.49;0.33;1.9;0.074;27;85;0.99706;3.41;0.58;9;5 1456 | 11.7;0.45;0.63;2.2;0.073;7;23;0.99974;3.21;0.69;10.9;6 1457 | 6.5;0.9;0;1.6;0.052;9;17;0.99467;3.5;0.63;10.9;6 1458 | 6;0.54;0.06;1.8;0.05;38;89;0.99236;3.3;0.5;10.55;6 1459 | 7.6;0.49;0.33;1.9;0.074;27;85;0.99706;3.41;0.58;9;5 1460 | 8.4;0.29;0.4;1.7;0.067;8;20;0.99603;3.39;0.6;10.5;5 1461 | 7.9;0.2;0.35;1.7;0.054;7;15;0.99458;3.32;0.8;11.9;7 1462 | 6.4;0.42;0.09;2.3;0.054;34;64;0.99724;3.41;0.68;10.4;6 1463 | 6.2;0.785;0;2.1;0.06;6;13;0.99664;3.59;0.61;10;4 1464 | 6.8;0.64;0.03;2.3;0.075;14;31;0.99545;3.36;0.58;10.4;6 1465 | 6.9;0.63;0.01;2.4;0.076;14;39;0.99522;3.34;0.53;10.8;6 1466 | 6.8;0.59;0.1;1.7;0.063;34;53;0.9958;3.41;0.67;9.7;5 1467 | 6.8;0.59;0.1;1.7;0.063;34;53;0.9958;3.41;0.67;9.7;5 1468 | 7.3;0.48;0.32;2.1;0.062;31;54;0.99728;3.3;0.65;10;7 1469 | 6.7;1.04;0.08;2.3;0.067;19;32;0.99648;3.52;0.57;11;4 1470 | 7.3;0.48;0.32;2.1;0.062;31;54;0.99728;3.3;0.65;10;7 1471 | 7.3;0.98;0.05;2.1;0.061;20;49;0.99705;3.31;0.55;9.7;3 1472 | 10;0.69;0.11;1.4;0.084;8;24;0.99578;2.88;0.47;9.7;5 1473 | 6.7;0.7;0.08;3.75;0.067;8;16;0.99334;3.43;0.52;12.6;5 1474 | 7.6;0.35;0.6;2.6;0.073;23;44;0.99656;3.38;0.79;11.1;6 1475 | 6.1;0.6;0.08;1.8;0.071;14;45;0.99336;3.38;0.54;11;5 1476 | 9.9;0.5;0.5;13.8;0.205;48;82;1.00242;3.16;0.75;8.8;5 1477 | 5.3;0.47;0.11;2.2;0.048;16;89;0.99182;3.54;0.88;13.5666666666667;7 1478 | 9.9;0.5;0.5;13.8;0.205;48;82;1.00242;3.16;0.75;8.8;5 1479 | 5.3;0.47;0.11;2.2;0.048;16;89;0.99182;3.54;0.88;13.6;7 1480 | 7.1;0.875;0.05;5.7;0.082;3;14;0.99808;3.4;0.52;10.2;3 1481 | 8.2;0.28;0.6;3;0.104;10;22;0.99828;3.39;0.68;10.6;5 1482 | 5.6;0.62;0.03;1.5;0.08;6;13;0.99498;3.66;0.62;10.1;4 1483 | 8.2;0.28;0.6;3;0.104;10;22;0.99828;3.39;0.68;10.6;5 1484 | 7.2;0.58;0.54;2.1;0.114;3;9;0.99719;3.33;0.57;10.3;4 1485 | 8.1;0.33;0.44;1.5;0.042;6;12;0.99542;3.35;0.61;10.7;5 1486 | 6.8;0.91;0.06;2;0.06;4;11;0.99592;3.53;0.64;10.9;4 1487 | 7;0.655;0.16;2.1;0.074;8;25;0.99606;3.37;0.55;9.7;5 1488 | 6.8;0.68;0.21;2.1;0.07;9;23;0.99546;3.38;0.6;10.3;5 1489 | 6;0.64;0.05;1.9;0.066;9;17;0.99496;3.52;0.78;10.6;5 1490 | 5.6;0.54;0.04;1.7;0.049;5;13;0.9942;3.72;0.58;11.4;5 1491 | 6.2;0.57;0.1;2.1;0.048;4;11;0.99448;3.44;0.76;10.8;6 1492 | 7.1;0.22;0.49;1.8;0.039;8;18;0.99344;3.39;0.56;12.4;6 1493 | 5.6;0.54;0.04;1.7;0.049;5;13;0.9942;3.72;0.58;11.4;5 1494 | 6.2;0.65;0.06;1.6;0.05;6;18;0.99348;3.57;0.54;11.95;5 1495 | 7.7;0.54;0.26;1.9;0.089;23;147;0.99636;3.26;0.59;9.7;5 1496 | 6.4;0.31;0.09;1.4;0.066;15;28;0.99459;3.42;0.7;10;7 1497 | 7;0.43;0.02;1.9;0.08;15;28;0.99492;3.35;0.81;10.6;6 1498 | 7.7;0.54;0.26;1.9;0.089;23;147;0.99636;3.26;0.59;9.7;5 1499 | 6.9;0.74;0.03;2.3;0.054;7;16;0.99508;3.45;0.63;11.5;6 1500 | 6.6;0.895;0.04;2.3;0.068;7;13;0.99582;3.53;0.58;10.8;6 1501 | 6.9;0.74;0.03;2.3;0.054;7;16;0.99508;3.45;0.63;11.5;6 1502 | 7.5;0.725;0.04;1.5;0.076;8;15;0.99508;3.26;0.53;9.6;5 1503 | 7.8;0.82;0.29;4.3;0.083;21;64;0.99642;3.16;0.53;9.4;5 1504 | 7.3;0.585;0.18;2.4;0.078;15;60;0.99638;3.31;0.54;9.8;5 1505 | 6.2;0.44;0.39;2.5;0.077;6;14;0.99555;3.51;0.69;11;6 1506 | 7.5;0.38;0.57;2.3;0.106;5;12;0.99605;3.36;0.55;11.4;6 1507 | 6.7;0.76;0.02;1.8;0.078;6;12;0.996;3.55;0.63;9.95;3 1508 | 6.8;0.81;0.05;2;0.07;6;14;0.99562;3.51;0.66;10.8;6 1509 | 7.5;0.38;0.57;2.3;0.106;5;12;0.99605;3.36;0.55;11.4;6 1510 | 7.1;0.27;0.6;2.1;0.074;17;25;0.99814;3.38;0.72;10.6;6 1511 | 7.9;0.18;0.4;1.8;0.062;7;20;0.9941;3.28;0.7;11.1;5 1512 | 6.4;0.36;0.21;2.2;0.047;26;48;0.99661;3.47;0.77;9.7;6 1513 | 7.1;0.69;0.04;2.1;0.068;19;27;0.99712;3.44;0.67;9.8;5 1514 | 6.4;0.79;0.04;2.2;0.061;11;17;0.99588;3.53;0.65;10.4;6 1515 | 6.4;0.56;0.15;1.8;0.078;17;65;0.99294;3.33;0.6;10.5;6 1516 | 6.9;0.84;0.21;4.1;0.074;16;65;0.99842;3.53;0.72;9.23333333333333;6 1517 | 6.9;0.84;0.21;4.1;0.074;16;65;0.99842;3.53;0.72;9.25;6 1518 | 6.1;0.32;0.25;2.3;0.071;23;58;0.99633;3.42;0.97;10.6;5 1519 | 6.5;0.53;0.06;2;0.063;29;44;0.99489;3.38;0.83;10.3;6 1520 | 7.4;0.47;0.46;2.2;0.114;7;20;0.99647;3.32;0.63;10.5;5 1521 | 6.6;0.7;0.08;2.6;0.106;14;27;0.99665;3.44;0.58;10.2;5 1522 | 6.5;0.53;0.06;2;0.063;29;44;0.99489;3.38;0.83;10.3;6 1523 | 6.9;0.48;0.2;1.9;0.082;9;23;0.99585;3.39;0.43;9.05;4 1524 | 6.1;0.32;0.25;2.3;0.071;23;58;0.99633;3.42;0.97;10.6;5 1525 | 6.8;0.48;0.25;2;0.076;29;61;0.9953;3.34;0.6;10.4;5 1526 | 6;0.42;0.19;2;0.075;22;47;0.99522;3.39;0.78;10;6 1527 | 6.7;0.48;0.08;2.1;0.064;18;34;0.99552;3.33;0.64;9.7;5 1528 | 6.8;0.47;0.08;2.2;0.064;18;38;0.99553;3.3;0.65;9.6;6 1529 | 7.1;0.53;0.07;1.7;0.071;15;24;0.9951;3.29;0.66;10.8;6 1530 | 7.9;0.29;0.49;2.2;0.096;21;59;0.99714;3.31;0.67;10.1;6 1531 | 7.1;0.69;0.08;2.1;0.063;42;52;0.99608;3.42;0.6;10.2;6 1532 | 6.6;0.44;0.09;2.2;0.063;9;18;0.99444;3.42;0.69;11.3;6 1533 | 6.1;0.705;0.1;2.8;0.081;13;28;0.99631;3.6;0.66;10.2;5 1534 | 7.2;0.53;0.13;2;0.058;18;22;0.99573;3.21;0.68;9.9;6 1535 | 8;0.39;0.3;1.9;0.074;32;84;0.99717;3.39;0.61;9;5 1536 | 6.6;0.56;0.14;2.4;0.064;13;29;0.99397;3.42;0.62;11.7;7 1537 | 7;0.55;0.13;2.2;0.075;15;35;0.9959;3.36;0.59;9.7;6 1538 | 6.1;0.53;0.08;1.9;0.077;24;45;0.99528;3.6;0.68;10.3;6 1539 | 5.4;0.58;0.08;1.9;0.059;20;31;0.99484;3.5;0.64;10.2;6 1540 | 6.2;0.64;0.09;2.5;0.081;15;26;0.99538;3.57;0.63;12;5 1541 | 7.2;0.39;0.32;1.8;0.065;34;60;0.99714;3.46;0.78;9.9;5 1542 | 6.2;0.52;0.08;4.4;0.071;11;32;0.99646;3.56;0.63;11.6;6 1543 | 7.4;0.25;0.29;2.2;0.054;19;49;0.99666;3.4;0.76;10.9;7 1544 | 6.7;0.855;0.02;1.9;0.064;29;38;0.99472;3.3;0.56;10.75;6 1545 | 11.1;0.44;0.42;2.2;0.064;14;19;0.99758;3.25;0.57;10.4;6 1546 | 8.4;0.37;0.43;2.3;0.063;12;19;0.9955;3.17;0.81;11.2;7 1547 | 6.5;0.63;0.33;1.8;0.059;16;28;0.99531;3.36;0.64;10.1;6 1548 | 7;0.57;0.02;2;0.072;17;26;0.99575;3.36;0.61;10.2;5 1549 | 6.3;0.6;0.1;1.6;0.048;12;26;0.99306;3.55;0.51;12.1;5 1550 | 11.2;0.4;0.5;2;0.099;19;50;0.99783;3.1;0.58;10.4;5 1551 | 7.4;0.36;0.3;1.8;0.074;17;24;0.99419;3.24;0.7;11.4;8 1552 | 7.1;0.68;0;2.3;0.087;17;26;0.99783;3.45;0.53;9.5;5 1553 | 7.1;0.67;0;2.3;0.083;18;27;0.99768;3.44;0.54;9.4;5 1554 | 6.3;0.68;0.01;3.7;0.103;32;54;0.99586;3.51;0.66;11.3;6 1555 | 7.3;0.735;0;2.2;0.08;18;28;0.99765;3.41;0.6;9.4;5 1556 | 6.6;0.855;0.02;2.4;0.062;15;23;0.99627;3.54;0.6;11;6 1557 | 7;0.56;0.17;1.7;0.065;15;24;0.99514;3.44;0.68;10.55;7 1558 | 6.6;0.88;0.04;2.2;0.066;12;20;0.99636;3.53;0.56;9.9;5 1559 | 6.6;0.855;0.02;2.4;0.062;15;23;0.99627;3.54;0.6;11;6 1560 | 6.9;0.63;0.33;6.7;0.235;66;115;0.99787;3.22;0.56;9.5;5 1561 | 7.8;0.6;0.26;2;0.08;31;131;0.99622;3.21;0.52;9.9;5 1562 | 7.8;0.6;0.26;2;0.08;31;131;0.99622;3.21;0.52;9.9;5 1563 | 7.8;0.6;0.26;2;0.08;31;131;0.99622;3.21;0.52;9.9;5 1564 | 7.2;0.695;0.13;2;0.076;12;20;0.99546;3.29;0.54;10.1;5 1565 | 7.2;0.695;0.13;2;0.076;12;20;0.99546;3.29;0.54;10.1;5 1566 | 7.2;0.695;0.13;2;0.076;12;20;0.99546;3.29;0.54;10.1;5 1567 | 6.7;0.67;0.02;1.9;0.061;26;42;0.99489;3.39;0.82;10.9;6 1568 | 6.7;0.16;0.64;2.1;0.059;24;52;0.99494;3.34;0.71;11.2;6 1569 | 7.2;0.695;0.13;2;0.076;12;20;0.99546;3.29;0.54;10.1;5 1570 | 7;0.56;0.13;1.6;0.077;25;42;0.99629;3.34;0.59;9.2;5 1571 | 6.2;0.51;0.14;1.9;0.056;15;34;0.99396;3.48;0.57;11.5;6 1572 | 6.4;0.36;0.53;2.2;0.23;19;35;0.9934;3.37;0.93;12.4;6 1573 | 6.4;0.38;0.14;2.2;0.038;15;25;0.99514;3.44;0.65;11.1;6 1574 | 7.3;0.69;0.32;2.2;0.069;35;104;0.99632;3.33;0.51;9.5;5 1575 | 6;0.58;0.2;2.4;0.075;15;50;0.99467;3.58;0.67;12.5;6 1576 | 5.6;0.31;0.78;13.9;0.074;23;92;0.99677;3.39;0.48;10.5;6 1577 | 7.5;0.52;0.4;2.2;0.06;12;20;0.99474;3.26;0.64;11.8;6 1578 | 8;0.3;0.63;1.6;0.081;16;29;0.99588;3.3;0.78;10.8;6 1579 | 6.2;0.7;0.15;5.1;0.076;13;27;0.99622;3.54;0.6;11.9;6 1580 | 6.8;0.67;0.15;1.8;0.118;13;20;0.9954;3.42;0.67;11.3;6 1581 | 6.2;0.56;0.09;1.7;0.053;24;32;0.99402;3.54;0.6;11.3;5 1582 | 7.4;0.35;0.33;2.4;0.068;9;26;0.9947;3.36;0.6;11.9;6 1583 | 6.2;0.56;0.09;1.7;0.053;24;32;0.99402;3.54;0.6;11.3;5 1584 | 6.1;0.715;0.1;2.6;0.053;13;27;0.99362;3.57;0.5;11.9;5 1585 | 6.2;0.46;0.29;2.1;0.074;32;98;0.99578;3.33;0.62;9.8;5 1586 | 6.7;0.32;0.44;2.4;0.061;24;34;0.99484;3.29;0.8;11.6;7 1587 | 7.2;0.39;0.44;2.6;0.066;22;48;0.99494;3.3;0.84;11.5;6 1588 | 7.5;0.31;0.41;2.4;0.065;34;60;0.99492;3.34;0.85;11.4;6 1589 | 5.8;0.61;0.11;1.8;0.066;18;28;0.99483;3.55;0.66;10.9;6 1590 | 7.2;0.66;0.33;2.5;0.068;34;102;0.99414;3.27;0.78;12.8;6 1591 | 6.6;0.725;0.2;7.8;0.073;29;79;0.9977;3.29;0.54;9.2;5 1592 | 6.3;0.55;0.15;1.8;0.077;26;35;0.99314;3.32;0.82;11.6;6 1593 | 5.4;0.74;0.09;1.7;0.089;16;26;0.99402;3.67;0.56;11.6;6 1594 | 6.3;0.51;0.13;2.3;0.076;29;40;0.99574;3.42;0.75;11;6 1595 | 6.8;0.62;0.08;1.9;0.068;28;38;0.99651;3.42;0.82;9.5;6 1596 | 6.2;0.6;0.08;2;0.09;32;44;0.9949;3.45;0.58;10.5;5 1597 | 5.9;0.55;0.1;2.2;0.062;39;51;0.99512;3.52;0.76;11.2;6 1598 | 6.3;0.51;0.13;2.3;0.076;29;40;0.99574;3.42;0.75;11;6 1599 | 5.9;0.645;0.12;2;0.075;32;44;0.99547;3.57;0.71;10.2;5 1600 | 6;0.31;0.47;3.6;0.067;18;42;0.99549;3.39;0.66;11;6 1601 | -------------------------------------------------------------------------------- /Supervised Learning/Logistic Regression/movie/movie.py: -------------------------------------------------------------------------------- 1 | 2 | ################################################################################################################## 3 | # # 4 | # UDER CONSTRUCTION # 5 | # # 6 | ################################################################################################################## 7 | 8 | 9 | import pandas as pd 10 | from sklearn.feature_extraction.text import TfidfVectorizer 11 | from sklearn.linear_model.logistic import LogisticRegression 12 | from sklearn.cross_validation import train_test_split 13 | from sklearn.metrics.metrics import classification_report,accuracy_score,confusion_matrix 14 | from sklearn.pipeline import Pipeline 15 | from sklearn.grid_search import GridSearchCV 16 | 17 | 18 | 19 | 20 | 21 | # print df 22 | # print df.describe() 23 | # print df.count() 24 | # print df.head() 25 | 26 | # print df['Phrase'].head(10) 27 | # 28 | # print df['Sentiment'].describe() 29 | # print df['Sentiment'].value_counts() 30 | # print df['Sentiment'].count() 31 | # 32 | # print df['Sentiment'].value_counts()/df['Sentiment'].count() 33 | 34 | def main(): 35 | pipeline = Pipeline([ 36 | ('vect',TfidfVectorizer(stop_words='english')), 37 | ('clf',LogisticRegression()) 38 | ]) 39 | 40 | parameters = { 41 | 'vect__max_df':(0.25,0.5), 42 | 'vect__ngram_range':((1,1),(1,2)), 43 | 'vect__use_idf':(True,False), 44 | 'clf__C':(0.1,1,10), 45 | } 46 | 47 | df =pd.read_csv("train.tsv",header=0,delimiter='\t') 48 | X,y = df['Phrase'],df['Sentiment'].as_matrix() 49 | X_train,X_test,Y_train,Y_test = train_test_split(X,y,train_size=0.5) 50 | grid_search =GridSearchCV(pipeline,parameters,n_jobs=3,verbose=1,scoring='accuracy') 51 | grid_search.fit(X_train,Y_train) 52 | print "Best score",grid_search.best_score_ 53 | print "Best parameters set:" 54 | best_parameters = grid_search.best_estimator_.get_params() 55 | for param_name in sorted(parameters.keys()): 56 | print param_name,best_parameters[param_name] 57 | 58 | if __name__ == '__main__': 59 | main() 60 | -------------------------------------------------------------------------------- /Supervised Learning/Logistic Regression/movie/test.tsv.zip: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/ayush1997/Practical-MachineLearning/c616e26b1b4515e0c4496625b9ff99b463ff0427/Supervised Learning/Logistic Regression/movie/test.tsv.zip -------------------------------------------------------------------------------- /Supervised Learning/Logistic Regression/movie/train.tsv.zip: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/ayush1997/Practical-MachineLearning/c616e26b1b4515e0c4496625b9ff99b463ff0427/Supervised Learning/Logistic Regression/movie/train.tsv.zip -------------------------------------------------------------------------------- /Supervised Learning/Logistic Regression/seeds/seed.csv: -------------------------------------------------------------------------------- 1 | 15.26,14.84,0.871,5.763,3.312,2.221,5.22,1 2 | 14.88,14.57,0.8811,5.554,3.333,1.018,4.956,1 3 | 14.29,14.09,0.905,5.291,3.337,2.699,4.825,1 4 | 13.84,13.94,0.8955,5.324,3.379,2.259,4.805,1 5 | 16.14,14.99,0.9034,5.658,3.562,1.355,5.175,1 6 | 14.38,14.21,0.8951,5.386,3.312,2.462,4.956,1 7 | 14.69,14.49,0.8799,5.563,3.259,3.586,5.219,1 8 | 14.11,14.1,0.8911,5.42,3.302,2.7,5,1 9 | 16.63,15.46,0.8747,6.053,3.465,2.04,5.877,1 10 | 16.44,15.25,0.888,5.884,3.505,1.969,5.533,1 11 | 15.26,14.85,0.8696,5.714,3.242,4.543,5.314,1 12 | 14.03,14.16,0.8796,5.438,3.201,1.717,5.001,1 13 | 13.89,14.02,0.888,5.439,3.199,3.986,4.738,1 14 | 13.78,14.06,0.8759,5.479,3.156,3.136,4.872,1 15 | 13.74,14.05,0.8744,5.482,3.114,2.932,4.825,1 16 | 14.59,14.28,0.8993,5.351,3.333,4.185,4.781,1 17 | 13.99,13.83,0.9183,5.119,3.383,5.234,4.781,1 18 | 15.69,14.75,0.9058,5.527,3.514,1.599,5.046,1 19 | 14.7,14.21,0.9153,5.205,3.466,1.767,4.649,1 20 | 12.72,13.57,0.8686,5.226,3.049,4.102,4.914,1 21 | 14.16,14.4,0.8584,5.658,3.129,3.072,5.176,1 22 | 14.11,14.26,0.8722,5.52,3.168,2.688,5.219,1 23 | 15.88,14.9,0.8988,5.618,3.507,0.7651,5.091,1 24 | 12.08,13.23,0.8664,5.099,2.936,1.415,4.961,1 25 | 15.01,14.76,0.8657,5.789,3.245,1.791,5.001,1 26 | 16.19,15.16,0.8849,5.833,3.421,0.903,5.307,1 27 | 13.02,13.76,0.8641,5.395,3.026,3.373,4.825,1 28 | 12.74,13.67,0.8564,5.395,2.956,2.504,4.869,1 29 | 14.11,14.18,0.882,5.541,3.221,2.754,5.038,1 30 | 13.45,14.02,0.8604,5.516,3.065,3.531,5.097,1 31 | 13.16,13.82,0.8662,5.454,2.975,0.8551,5.056,1 32 | 15.49,14.94,0.8724,5.757,3.371,3.412,5.228,1 33 | 14.09,14.41,0.8529,5.717,3.186,3.92,5.299,1 34 | 13.94,14.17,0.8728,5.585,3.15,2.124,5.012,1 35 | 15.05,14.68,0.8779,5.712,3.328,2.129,5.36,1 36 | 16.12,15,0.9,5.709,3.485,2.27,5.443,1 37 | 16.2,15.27,0.8734,5.826,3.464,2.823,5.527,1 38 | 17.08,15.38,0.9079,5.832,3.683,2.956,5.484,1 39 | 14.8,14.52,0.8823,5.656,3.288,3.112,5.309,1 40 | 14.28,14.17,0.8944,5.397,3.298,6.685,5.001,1 41 | 13.54,13.85,0.8871,5.348,3.156,2.587,5.178,1 42 | 13.5,13.85,0.8852,5.351,3.158,2.249,5.176,1 43 | 13.16,13.55,0.9009,5.138,3.201,2.461,4.783,1 44 | 15.5,14.86,0.882,5.877,3.396,4.711,5.528,1 45 | 15.11,14.54,0.8986,5.579,3.462,3.128,5.18,1 46 | 13.8,14.04,0.8794,5.376,3.155,1.56,4.961,1 47 | 15.36,14.76,0.8861,5.701,3.393,1.367,5.132,1 48 | 14.99,14.56,0.8883,5.57,3.377,2.958,5.175,1 49 | 14.79,14.52,0.8819,5.545,3.291,2.704,5.111,1 50 | 14.86,14.67,0.8676,5.678,3.258,2.129,5.351,1 51 | 14.43,14.4,0.8751,5.585,3.272,3.975,5.144,1 52 | 15.78,14.91,0.8923,5.674,3.434,5.593,5.136,1 53 | 14.49,14.61,0.8538,5.715,3.113,4.116,5.396,1 54 | 14.33,14.28,0.8831,5.504,3.199,3.328,5.224,1 55 | 14.52,14.6,0.8557,5.741,3.113,1.481,5.487,1 56 | 15.03,14.77,0.8658,5.702,3.212,1.933,5.439,1 57 | 14.46,14.35,0.8818,5.388,3.377,2.802,5.044,1 58 | 14.92,14.43,0.9006,5.384,3.412,1.142,5.088,1 59 | 15.38,14.77,0.8857,5.662,3.419,1.999,5.222,1 60 | 12.11,13.47,0.8392,5.159,3.032,1.502,4.519,1 61 | 11.42,12.86,0.8683,5.008,2.85,2.7,4.607,1 62 | 11.23,12.63,0.884,4.902,2.879,2.269,4.703,1 63 | 12.36,13.19,0.8923,5.076,3.042,3.22,4.605,1 64 | 13.22,13.84,0.868,5.395,3.07,4.157,5.088,1 65 | 12.78,13.57,0.8716,5.262,3.026,1.176,4.782,1 66 | 12.88,13.5,0.8879,5.139,3.119,2.352,4.607,1 67 | 14.34,14.37,0.8726,5.63,3.19,1.313,5.15,1 68 | 14.01,14.29,0.8625,5.609,3.158,2.217,5.132,1 69 | 14.37,14.39,0.8726,5.569,3.153,1.464,5.3,1 70 | 12.73,13.75,0.8458,5.412,2.882,3.533,5.067,1 71 | 17.63,15.98,0.8673,6.191,3.561,4.076,6.06,2 72 | 16.84,15.67,0.8623,5.998,3.484,4.675,5.877,2 73 | 17.26,15.73,0.8763,5.978,3.594,4.539,5.791,2 74 | 19.11,16.26,0.9081,6.154,3.93,2.936,6.079,2 75 | 16.82,15.51,0.8786,6.017,3.486,4.004,5.841,2 76 | 16.77,15.62,0.8638,5.927,3.438,4.92,5.795,2 77 | 17.32,15.91,0.8599,6.064,3.403,3.824,5.922,2 78 | 20.71,17.23,0.8763,6.579,3.814,4.451,6.451,2 79 | 18.94,16.49,0.875,6.445,3.639,5.064,6.362,2 80 | 17.12,15.55,0.8892,5.85,3.566,2.858,5.746,2 81 | 16.53,15.34,0.8823,5.875,3.467,5.532,5.88,2 82 | 18.72,16.19,0.8977,6.006,3.857,5.324,5.879,2 83 | 20.2,16.89,0.8894,6.285,3.864,5.173,6.187,2 84 | 19.57,16.74,0.8779,6.384,3.772,1.472,6.273,2 85 | 19.51,16.71,0.878,6.366,3.801,2.962,6.185,2 86 | 18.27,16.09,0.887,6.173,3.651,2.443,6.197,2 87 | 18.88,16.26,0.8969,6.084,3.764,1.649,6.109,2 88 | 18.98,16.66,0.859,6.549,3.67,3.691,6.498,2 89 | 21.18,17.21,0.8989,6.573,4.033,5.78,6.231,2 90 | 20.88,17.05,0.9031,6.45,4.032,5.016,6.321,2 91 | 20.1,16.99,0.8746,6.581,3.785,1.955,6.449,2 92 | 18.76,16.2,0.8984,6.172,3.796,3.12,6.053,2 93 | 18.81,16.29,0.8906,6.272,3.693,3.237,6.053,2 94 | 18.59,16.05,0.9066,6.037,3.86,6.001,5.877,2 95 | 18.36,16.52,0.8452,6.666,3.485,4.933,6.448,2 96 | 16.87,15.65,0.8648,6.139,3.463,3.696,5.967,2 97 | 19.31,16.59,0.8815,6.341,3.81,3.477,6.238,2 98 | 18.98,16.57,0.8687,6.449,3.552,2.144,6.453,2 99 | 18.17,16.26,0.8637,6.271,3.512,2.853,6.273,2 100 | 18.72,16.34,0.881,6.219,3.684,2.188,6.097,2 101 | 16.41,15.25,0.8866,5.718,3.525,4.217,5.618,2 102 | 17.99,15.86,0.8992,5.89,3.694,2.068,5.837,2 103 | 19.46,16.5,0.8985,6.113,3.892,4.308,6.009,2 104 | 19.18,16.63,0.8717,6.369,3.681,3.357,6.229,2 105 | 18.95,16.42,0.8829,6.248,3.755,3.368,6.148,2 106 | 18.83,16.29,0.8917,6.037,3.786,2.553,5.879,2 107 | 18.85,16.17,0.9056,6.152,3.806,2.843,6.2,2 108 | 17.63,15.86,0.88,6.033,3.573,3.747,5.929,2 109 | 19.94,16.92,0.8752,6.675,3.763,3.252,6.55,2 110 | 18.55,16.22,0.8865,6.153,3.674,1.738,5.894,2 111 | 18.45,16.12,0.8921,6.107,3.769,2.235,5.794,2 112 | 19.38,16.72,0.8716,6.303,3.791,3.678,5.965,2 113 | 19.13,16.31,0.9035,6.183,3.902,2.109,5.924,2 114 | 19.14,16.61,0.8722,6.259,3.737,6.682,6.053,2 115 | 20.97,17.25,0.8859,6.563,3.991,4.677,6.316,2 116 | 19.06,16.45,0.8854,6.416,3.719,2.248,6.163,2 117 | 18.96,16.2,0.9077,6.051,3.897,4.334,5.75,2 118 | 19.15,16.45,0.889,6.245,3.815,3.084,6.185,2 119 | 18.89,16.23,0.9008,6.227,3.769,3.639,5.966,2 120 | 20.03,16.9,0.8811,6.493,3.857,3.063,6.32,2 121 | 20.24,16.91,0.8897,6.315,3.962,5.901,6.188,2 122 | 18.14,16.12,0.8772,6.059,3.563,3.619,6.011,2 123 | 16.17,15.38,0.8588,5.762,3.387,4.286,5.703,2 124 | 18.43,15.97,0.9077,5.98,3.771,2.984,5.905,2 125 | 15.99,14.89,0.9064,5.363,3.582,3.336,5.144,2 126 | 18.75,16.18,0.8999,6.111,3.869,4.188,5.992,2 127 | 18.65,16.41,0.8698,6.285,3.594,4.391,6.102,2 128 | 17.98,15.85,0.8993,5.979,3.687,2.257,5.919,2 129 | 20.16,17.03,0.8735,6.513,3.773,1.91,6.185,2 130 | 17.55,15.66,0.8991,5.791,3.69,5.366,5.661,2 131 | 18.3,15.89,0.9108,5.979,3.755,2.837,5.962,2 132 | 18.94,16.32,0.8942,6.144,3.825,2.908,5.949,2 133 | 15.38,14.9,0.8706,5.884,3.268,4.462,5.795,2 134 | 16.16,15.33,0.8644,5.845,3.395,4.266,5.795,2 135 | 15.56,14.89,0.8823,5.776,3.408,4.972,5.847,2 136 | 15.38,14.66,0.899,5.477,3.465,3.6,5.439,2 137 | 17.36,15.76,0.8785,6.145,3.574,3.526,5.971,2 138 | 15.57,15.15,0.8527,5.92,3.231,2.64,5.879,2 139 | 15.6,15.11,0.858,5.832,3.286,2.725,5.752,2 140 | 16.23,15.18,0.885,5.872,3.472,3.769,5.922,2 141 | 13.07,13.92,0.848,5.472,2.994,5.304,5.395,3 142 | 13.32,13.94,0.8613,5.541,3.073,7.035,5.44,3 143 | 13.34,13.95,0.862,5.389,3.074,5.995,5.307,3 144 | 12.22,13.32,0.8652,5.224,2.967,5.469,5.221,3 145 | 11.82,13.4,0.8274,5.314,2.777,4.471,5.178,3 146 | 11.21,13.13,0.8167,5.279,2.687,6.169,5.275,3 147 | 11.43,13.13,0.8335,5.176,2.719,2.221,5.132,3 148 | 12.49,13.46,0.8658,5.267,2.967,4.421,5.002,3 149 | 12.7,13.71,0.8491,5.386,2.911,3.26,5.316,3 150 | 10.79,12.93,0.8107,5.317,2.648,5.462,5.194,3 151 | 11.83,13.23,0.8496,5.263,2.84,5.195,5.307,3 152 | 12.01,13.52,0.8249,5.405,2.776,6.992,5.27,3 153 | 12.26,13.6,0.8333,5.408,2.833,4.756,5.36,3 154 | 11.18,13.04,0.8266,5.22,2.693,3.332,5.001,3 155 | 11.36,13.05,0.8382,5.175,2.755,4.048,5.263,3 156 | 11.19,13.05,0.8253,5.25,2.675,5.813,5.219,3 157 | 11.34,12.87,0.8596,5.053,2.849,3.347,5.003,3 158 | 12.13,13.73,0.8081,5.394,2.745,4.825,5.22,3 159 | 11.75,13.52,0.8082,5.444,2.678,4.378,5.31,3 160 | 11.49,13.22,0.8263,5.304,2.695,5.388,5.31,3 161 | 12.54,13.67,0.8425,5.451,2.879,3.082,5.491,3 162 | 12.02,13.33,0.8503,5.35,2.81,4.271,5.308,3 163 | 12.05,13.41,0.8416,5.267,2.847,4.988,5.046,3 164 | 12.55,13.57,0.8558,5.333,2.968,4.419,5.176,3 165 | 11.14,12.79,0.8558,5.011,2.794,6.388,5.049,3 166 | 12.1,13.15,0.8793,5.105,2.941,2.201,5.056,3 167 | 12.44,13.59,0.8462,5.319,2.897,4.924,5.27,3 168 | 12.15,13.45,0.8443,5.417,2.837,3.638,5.338,3 169 | 11.35,13.12,0.8291,5.176,2.668,4.337,5.132,3 170 | 11.24,13,0.8359,5.09,2.715,3.521,5.088,3 171 | 11.02,13,0.8189,5.325,2.701,6.735,5.163,3 172 | 11.55,13.1,0.8455,5.167,2.845,6.715,4.956,3 173 | 11.27,12.97,0.8419,5.088,2.763,4.309,5,3 174 | 11.4,13.08,0.8375,5.136,2.763,5.588,5.089,3 175 | 10.83,12.96,0.8099,5.278,2.641,5.182,5.185,3 176 | 10.8,12.57,0.859,4.981,2.821,4.773,5.063,3 177 | 11.26,13.01,0.8355,5.186,2.71,5.335,5.092,3 178 | 10.74,12.73,0.8329,5.145,2.642,4.702,4.963,3 179 | 11.48,13.05,0.8473,5.18,2.758,5.876,5.002,3 180 | 12.21,13.47,0.8453,5.357,2.893,1.661,5.178,3 181 | 11.41,12.95,0.856,5.09,2.775,4.957,4.825,3 182 | 12.46,13.41,0.8706,5.236,3.017,4.987,5.147,3 183 | 12.19,13.36,0.8579,5.24,2.909,4.857,5.158,3 184 | 11.65,13.07,0.8575,5.108,2.85,5.209,5.135,3 185 | 12.89,13.77,0.8541,5.495,3.026,6.185,5.316,3 186 | 11.56,13.31,0.8198,5.363,2.683,4.062,5.182,3 187 | 11.81,13.45,0.8198,5.413,2.716,4.898,5.352,3 188 | 10.91,12.8,0.8372,5.088,2.675,4.179,4.956,3 189 | 11.23,12.82,0.8594,5.089,2.821,7.524,4.957,3 190 | 10.59,12.41,0.8648,4.899,2.787,4.975,4.794,3 191 | 10.93,12.8,0.839,5.046,2.717,5.398,5.045,3 192 | 11.27,12.86,0.8563,5.091,2.804,3.985,5.001,3 193 | 11.87,13.02,0.8795,5.132,2.953,3.597,5.132,3 194 | 10.82,12.83,0.8256,5.18,2.63,4.853,5.089,3 195 | 12.11,13.27,0.8639,5.236,2.975,4.132,5.012,3 196 | 12.8,13.47,0.886,5.16,3.126,4.873,4.914,3 197 | 12.79,13.53,0.8786,5.224,3.054,5.483,4.958,3 198 | 13.37,13.78,0.8849,5.32,3.128,4.67,5.091,3 199 | 12.62,13.67,0.8481,5.41,2.911,3.306,5.231,3 200 | 12.76,13.38,0.8964,5.073,3.155,2.828,4.83,3 201 | 12.38,13.44,0.8609,5.219,2.989,5.472,5.045,3 202 | 12.67,13.32,0.8977,4.984,3.135,2.3,4.745,3 203 | 11.18,12.72,0.868,5.009,2.81,4.051,4.828,3 204 | 12.7,13.41,0.8874,5.183,3.091,8.456,5,3 205 | 12.37,13.47,0.8567,5.204,2.96,3.919,5.001,3 206 | 12.19,13.2,0.8783,5.137,2.981,3.631,4.87,3 207 | 11.23,12.88,0.8511,5.14,2.795,4.325,5.003,3 208 | 13.2,13.66,0.8883,5.236,3.232,8.315,5.056,3 209 | 11.84,13.21,0.8521,5.175,2.836,3.598,5.044,3 210 | 12.3,13.34,0.8684,5.243,2.974,5.637,5.063,3 211 | -------------------------------------------------------------------------------- /Supervised Learning/Logistic Regression/seeds/seed.py: -------------------------------------------------------------------------------- 1 | import pandas as pd 2 | import numpy as np 3 | import matplotlib.pyplot as plt 4 | from scipy.stats import pointbiserialr, spearmanr 5 | from sklearn.linear_model import LogisticRegression 6 | from sklearn import cross_validation 7 | from sklearn.cross_validation import train_test_split 8 | from sklearn.pipeline import Pipeline 9 | from sklearn.grid_search import GridSearchCV 10 | from sklearn.metrics.metrics import accuracy_score,classification_report 11 | from sklearn.multiclass import OneVsRestClassifier 12 | 13 | def load(): 14 | df = pd.read_csv("seed.csv",delimiter=",",names=["area","perimeter","compactness","length","width","asymm","kernel","seed"]) 15 | print df.head() 16 | print df.describe() 17 | return df 18 | 19 | def scatter_plot(df): 20 | plt.subplot(4,2,1) 21 | columns = df.columns.values 22 | 23 | subplot_counter = 1 24 | for c in columns: 25 | x = df[c] 26 | y = df["seed"] 27 | plt.subplot(4,2,subplot_counter) 28 | plt.scatter(x,y) 29 | plt.axis("tight") 30 | # plt.title('Feature Selection', fontsize=14) 31 | plt.xlabel(c, fontsize=12) 32 | plt.ylabel("seed", fontsize=12) 33 | subplot_counter+=1 34 | plt.show() 35 | 36 | def feature_selection(df): 37 | param_df=df.columns.values 38 | print param_df 39 | scores = [] 40 | scoreCV =[] 41 | for j in range(5): 42 | scores = [] 43 | scoreCV=[] 44 | for i in range(0,len(param_df)-1): 45 | # print df[:,0:i+1:] 46 | X = df.ix[:,0:(i+1)] 47 | # print X 48 | y = df["seed"] 49 | clf = LogisticRegression() 50 | scoreCV = cross_validation.cross_val_score(clf, X, y, cv=3) 51 | 52 | print np.mean(scoreCV) 53 | scores.append(np.mean(scoreCV)) 54 | 55 | plt.figure(figsize=(15,5)) 56 | plt.plot(range(1,len(scores)+1),scores, '.-') 57 | plt.axis("tight") 58 | plt.title('Feature Selection', fontsize=14) 59 | plt.xlabel('# Features', fontsize=12) 60 | plt.ylabel('Score', fontsize=12) 61 | plt.show() 62 | 63 | 64 | 65 | def correlation(df): 66 | columns = df.columns.values 67 | print columns 68 | param = [] 69 | correlation=[] 70 | abs_corr=[] 71 | 72 | for c in columns: 73 | corr = spearmanr(df['seed'],df[c])[0] 74 | correlation.append(corr) 75 | param.append(c) 76 | abs_corr.append(abs(corr)) 77 | print correlation 78 | #create data frame 79 | param_cor = pd.DataFrame({'correlation':correlation,'parameter':param, 'abs_corr':abs_corr}) 80 | paramc_cor=param_cor.sort_values(by=['abs_corr'], ascending=False) 81 | param_cor=param_cor.set_index('parameter') 82 | 83 | 84 | print param_cor 85 | 86 | def evaluate(df): 87 | X = df.ix[:,0:7] 88 | y = df["seed"] 89 | X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.1, random_state=42) 90 | print len(X_train) 91 | 92 | y_test = np.array(y_test) 93 | clf = LogisticRegression() 94 | clf.fit(X_train,y_train) 95 | 96 | print "------------",clf.predict_proba(X_test) 97 | print clf.get_params() 98 | 99 | pipeline= Pipeline([ 100 | ('clf',LogisticRegression()) 101 | ]) 102 | 103 | parameters={ 104 | 105 | 106 | } 107 | grid_search = GridSearchCV(pipeline,parameters,n_jobs=1,verbose=1) 108 | 109 | grid_search.fit(X_train,y_train) 110 | 111 | 112 | print "Best score:",grid_search.best_score_ 113 | print "Best parameters set:" 114 | best_parameters = grid_search.best_estimator_.get_params() 115 | 116 | for param_name in sorted(parameters.keys()): 117 | print (param_name,best_parameters[param_name]) 118 | 119 | prediction = grid_search.predict(X_test) 120 | for i,pred in enumerate(prediction): 121 | print "original:",y_test[i],"predicted",pred 122 | print grid_search.score(X_test,y_test) 123 | print accuracy_score(y_test,prediction) 124 | print "classification_report",classification_report(y_test,prediction) 125 | clf_pred = clf.predict(X_test) 126 | for i,pred in enumerate(clf_pred): 127 | print "original:",y_test[i],"predicted",pred 128 | print accuracy_score(y_test,clf_pred) 129 | print clf.score(X_test,y_test) 130 | 131 | 132 | if __name__ == '__main__': 133 | df = load() 134 | # correlation(df) 135 | # scatter_plot(df) 136 | feature_selection(df) 137 | evaluate(df) 138 | -------------------------------------------------------------------------------- /Supervised Learning/Logistic Regression/spam/readme: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/ayush1997/Practical-MachineLearning/c616e26b1b4515e0c4496625b9ff99b463ff0427/Supervised Learning/Logistic Regression/spam/readme -------------------------------------------------------------------------------- /Supervised Learning/Logistic Regression/spam/spam.py: -------------------------------------------------------------------------------- 1 | ################################################################################################################## 2 | # A Logistic regression modlto classify the messages as spams and hams. # 3 | # # 4 | # dataset source : www.kaggle.com/c/sentiment-analysis-on-movie-reviews/data # 5 | ################################################################################################################## 6 | 7 | 8 | 9 | import pandas as pd 10 | import numpy as np 11 | from sklearn.feature_extraction.text import TfidfVectorizer 12 | from sklearn.linear_model.logistic import LogisticRegression 13 | from sklearn.cross_validation import train_test_split, cross_val_score 14 | from sklearn.metrics import accuracy_score 15 | 16 | df = pd.read_csv('SMSSpamCollection',delimiter='\t',header=None) 17 | 18 | # print df 19 | # print df.head() 20 | 21 | print "Number of spam messages", df[df[0]=='spam'][0].count() 22 | print "Number of ham messages", df[df[0]=='ham'][0].count() 23 | 24 | 25 | # print type(df[0]) 26 | X_train_raw,X_test_raw,Y_train,Y_test = train_test_split(df[1],df[0]) 27 | 28 | print X_test_raw 29 | print Y_train 30 | 31 | vectorizer = TfidfVectorizer() 32 | X_train =vectorizer.fit_transform(X_train_raw) 33 | X_test = vectorizer.transform(X_test_raw) 34 | 35 | print X_train 36 | print "test",X_test 37 | 38 | classifier = LogisticRegression() 39 | classifier.fit(X_train,Y_train) 40 | predictions = classifier.predict(X_test) 41 | 42 | X_test_raw = list(X_test_raw) 43 | 44 | for i,prediction in enumerate(predictions[:5]): 45 | print "Prediction :",prediction,"messages:",X_test_raw[i] 46 | 47 | print "accuracy_score:",accuracy_score(Y_test,predictions) 48 | 49 | 50 | scores = cross_val_score(classifier,X_train,Y_train,cv=5) 51 | print np.mean(scores),scores 52 | 53 | 54 | 55 | 56 | # performance metrics 57 | 58 | # from sklearn.metrics import confusion_matrix 59 | # import matplotlib.pyplot as plt 60 | # 61 | # y_test = [0,0,0,0,0,1,1,1,1,1] 62 | # y_pred = [0,1,0,0,0,0,0,1,1,1] 63 | # 64 | # confusion_matrix = confusion_matrix(y_test,y_pred) 65 | # print confusion_matrix 66 | # 67 | # plt.matshow(confusion_matrix) 68 | # plt.title('confusion matric') 69 | # plt.colorbar() 70 | # 71 | # plt.ylabel('True label') 72 | # plt.xlabel('Predicted label') 73 | # 74 | # plt.show() 75 | -------------------------------------------------------------------------------- /Supervised Learning/svm/data/mnist/mldata/mnist-original.mat: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/ayush1997/Practical-MachineLearning/c616e26b1b4515e0c4496625b9ff99b463ff0427/Supervised Learning/svm/data/mnist/mldata/mnist-original.mat -------------------------------------------------------------------------------- /Supervised Learning/svm/digit.py: -------------------------------------------------------------------------------- 1 | import matplotlib.pyplot as plt 2 | from sklearn.datasets import fetch_mldata 3 | import matplotlib.cm as cm 4 | from sklearn.pipeline import Pipeline 5 | from sklearn.preprocessing import scale 6 | from sklearn.cross_validation import train_test_split 7 | from sklearn.grid_search import GridSearchCV 8 | from sklearn.svm import SVC 9 | from sklearn.metrics import classification_report 10 | 11 | 12 | digits = fetch_mldata('MNIST original',data_home='data/mnist').data 13 | 14 | print digits[8000] 15 | print len(digits[0]) 16 | 17 | # counter = 1 18 | # for i in range(1,4): 19 | # for j in range(1,6): 20 | # plt.subplot(3,5,counter) 21 | # plt.imshow(digits[(i-1)*8000+j].reshape((28,28)),cmap=cm.Greys_r) 22 | # plt.axis('off') 23 | # counter +=1 24 | # plt.show() 25 | 26 | if __name__ == '__main__': 27 | data = fetch_mldata('MNIST original',data_home='data/mnist') 28 | X,y = data.data,data.target 29 | X = X/255.0*2 -1 30 | 31 | X_train,X_test,y_train,y_test = train_test_split(X,y) 32 | pipeline=Pipeline([ 33 | ('clf',SVC(kernel='rbf',gamma=0.01,C=100)) 34 | ]) 35 | print X_train.shape 36 | parameters = { 37 | 'clf__gamma':(0.01,0.03,0.1,0.3,1), 38 | 'clf__C':(0.1,0.3,1,3,10,30), 39 | } 40 | 41 | grid_search = GridSearchCV(pipeline,parameters,n_jobs=2,verbose=1,scoring="accuracy") 42 | grid_search.fit(X_train[:10000],y_train[:10000]) 43 | print 'Bets score'.grid_search.best_score_ 44 | print 'best parameters set' 45 | best_parameters = grid_search.best_estimator_.get_params() 46 | 47 | for param_name in sorted(parameters.keys()): 48 | print param_name,best_parameters[param_name] 49 | predictions = grid_search.predict(X_test) 50 | print classification_report(y_test,predictions) 51 | -------------------------------------------------------------------------------- /Unsupervised Learning/K-means/dog-vs-cats/dvsc.py: -------------------------------------------------------------------------------- 1 | ################################################################################################################## 2 | # An kmeans clustering model for classifying the images as dog or cat # 3 | # # 4 | # dataset source : www.kaggle.com/c/dogs-vs-cats/data # 5 | ################################################################################################################### 6 | 7 | 8 | import numpy as np 9 | import mahotas as mh 10 | from mahotas.features import surf 11 | from sklearn.linear_model import LogisticRegression 12 | from sklearn.metrics import * 13 | from sklearn.cluster import MiniBatchKMeans 14 | import glob 15 | 16 | all_instance_filenames=[] 17 | all_instance_targets = [] 18 | #glob is Unix style pathname pattern expansion-regex for path name,return string for the path name matched.Results are in arbitrary order 19 | #we are makng list of all the file names and target variables.Dog=0 and cat=1 20 | for f in glob.glob('train/*.jpg'): 21 | target = 1 if 'cat' in f else 0 22 | all_instance_filenames.append(f) 23 | all_instance_targets.append(target) 24 | 25 | 26 | 27 | all_instance_filenames = all_instance_filenames[:100] 28 | all_instance_targets = all_instance_targets[:100] 29 | # print all_instance_filenames 30 | # print all_instance_targets 31 | 32 | 33 | #surf features are made using mahotas 34 | surf_features = [] 35 | counter = 0 36 | for f in all_instance_filenames: 37 | print 'reading image:',f 38 | image =mh.imread(f,as_grey=True) 39 | surf_features.append(surf.surf(image)[:,5:]) 40 | # original_dimensions = tuple(image.shape) 41 | # print original_dimensions 42 | # print image 43 | # print image[0] 44 | # print len(image[0]) 45 | # print len(surf.surf(image)[:,5:][0]) 46 | # print surf.surf(image)[0] 47 | # print surf.surf(image) 48 | 49 | # print surf_features[3:] 50 | 51 | #60% data for training 52 | #testing and trainig data made 53 | train_len = int(len(all_instance_filenames) * .60) 54 | 55 | X_train_surf_features = np.concatenate(surf_features[:train_len]) 56 | X_test_surf_features = np.concatenate(surf_features[train_len:]) 57 | y_train = all_instance_targets[:train_len] 58 | y_test = all_instance_targets[train_len:] 59 | 60 | n_clusters = 300 61 | print 'clustering',len(X_train_surf_features),'features' 62 | estimator = MiniBatchKMeans(n_clusters=n_clusters) 63 | estimator.fit_transform(X_train_surf_features) 64 | 65 | X_train = [] 66 | for instance in surf_features[:train_len]: 67 | clusters = estimator.predict(instance) 68 | features = np.bincount(clusters) 69 | if len(features) < n_clusters: 70 | features = np.append(features,np.zeros((1,n_clusters-len(features)))) 71 | X_train.append(features) 72 | 73 | X_test = [] 74 | for instance in surf_features[train_len:]: 75 | clusters = estimator.predict(instance) 76 | features = np.bincount(clusters) 77 | if len(features) < n_clusters: 78 | features = np.append(features,np.zeros((1,n_clusters-len(features)))) 79 | X_test.append(features) 80 | 81 | clf = LogisticRegression(C=0.001,penalty='12') 82 | clf.fit_transform(X_train,y_train) 83 | predictions = clf.predict(X_test) 84 | 85 | print "precision:",precision_score(y_test,predictions) 86 | print "Recall:",recall_score(y_test,predictions) 87 | print "accuracy",accuracy_score(y_test,predictions) 88 | -------------------------------------------------------------------------------- /Unsupervised Learning/K-means/image-compression/image.py: -------------------------------------------------------------------------------- 1 | ############################################################################################## 2 | # # 3 | # A kmean image quantisation model which compresses the images but in not lossless # 4 | # # 5 | ############################################################################################## 6 | 7 | 8 | import numpy as np 9 | import matplotlib.pyplot as plt 10 | from sklearn.cluster import KMeans 11 | from sklearn.utils import shuffle 12 | import mahotas as mh 13 | import png 14 | 15 | #read and flatten image 16 | 17 | original_img = np.array(mh.imread('new.jpg'),dtype=np.float64)/255 18 | original_dimensions = tuple(original_img.shape) 19 | width,height,depth = tuple(original_img.shape) 20 | image_flattened = np.reshape(original_img,(width*height,depth)) 21 | 22 | 23 | # print original_img 24 | print original_img[0] 25 | print len(original_img[0]) 26 | print original_dimensions 27 | print width,height,depth 28 | 29 | #randomly pcked 1000 colors 30 | image_array_sample = shuffle(image_flattened,random_state=0)[:1000] 31 | 32 | 33 | estimator = KMeans(n_clusters=64,random_state=0) 34 | estimator.fit(image_array_sample) 35 | 36 | cluster_assignments = estimator.predict(image_flattened) 37 | # print cluster_assignments[:10000] 38 | 39 | compressed_palette = estimator.cluster_centers_ 40 | compressed_img = np.zeros((width,height,compressed_palette.shape[1])) 41 | 42 | # print len(compressed_palette) 43 | # print compressed_img 44 | 45 | label_idx = 0 46 | 47 | for i in range(width): 48 | for j in range(height): 49 | compressed_img[i][j] =compressed_palette[cluster_assignments[label_idx]] 50 | label_idx+=1 51 | 52 | # print compressed_img*255 53 | # png.from_array(compressed_img, 'L').save("small_smiley.png") 54 | plt.subplot(122) 55 | plt.title('orignal image') 56 | plt.imshow(original_img) 57 | plt.axis('off') 58 | plt.subplot(121) 59 | plt.title('compressed') 60 | plt.imshow(compressed_img) 61 | plt.axis('off') 62 | plt.show() 63 | -------------------------------------------------------------------------------- /Unsupervised Learning/K-means/image-compression/new.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/ayush1997/Practical-MachineLearning/c616e26b1b4515e0c4496625b9ff99b463ff0427/Unsupervised Learning/K-means/image-compression/new.jpg -------------------------------------------------------------------------------- /cheatsheet.txt: -------------------------------------------------------------------------------- 1 | ################################################################################################## 2 | # # 3 | # collection of some useful pandas,Numpy and matplotlib function useful in times of data wrangling and processing. # # # 4 | ################################################################################################## 5 | 6 | 7 | import pandas as pd 8 | 9 | ---make data frame--- 10 | df = pd.read_csv('train.csv',delimiter="\t",header=0,names=[]) 11 | 12 | df.dtypes 13 | 14 | df.head() --> print top 5 data 15 | 16 | df.columns.values ---> all columns names as list 17 | 18 | df["column_name"].median() 19 | 20 | df['colum_name'] -->>dtype of series 21 | df[["co1","col2","col3"]] 22 | 23 | df["new column"] = value 24 | df.info() 25 | 26 | df.describe() 27 | 28 | df.describe()["column_name"] or df["column_name"].describe() 29 | 30 | df['column_name'] = df.['column_name'].fillna(value) --> to replace empty or nan 31 | 32 | df.loc[df["column_name"]=="male","column_name"]=0 -->to locate and replace male with o i nsex column 33 | 34 | df["column_name"].unique() -->gives all the unique values in embarked column 35 | 36 | df[df['Age'] > 60] 37 | df[df['Age'] > 60][['Sex', 'Pclass', 'Age', 'Survived']] 38 | len(df[ (df['Sex'] == 'male') & (df['Pclass'] == i) ]) 39 | df['Gender'] = df['Sex'].map( {'female': 0, 'male': 1} ).astype(int) 40 | 41 | df.drop([col1,col2,....],axis=1(alg column)/0(alf row)) --> todelte columns 42 | 43 | df.values -->covert df to numpy ARRAY 44 | np.array(df) 45 | 46 | 47 | 48 | 49 | -----------------NUMPY------------------------------- 50 | 2d vector space 51 | 52 | x = np.array(x) 53 | 54 | x = [ 55 | [1,2,3], 56 | [4,5,6] 57 | ] 58 | 59 | x[0] --> [1,2,3] or x[:][0] 60 | x[0][0] --.[1] 61 | 62 | x[:] or x 63 | 64 | x[::,2] --> This outputs the 3rd column x[row,column] 65 | 66 | x[::,1:4] -->This output the column values from 1 to 3rd column for all rows 67 | 68 | x.reshape(-1,2) --> -1 adjusts the shape according to other dimensions 69 | x.shape 70 | 71 | 72 | 73 | 74 | ----------------MATPLOTLIB---------------------------------------------- 75 | 76 | 77 | 78 | 79 | 80 | ---------------------- TENSORFLOW ---------------------------------------- 81 | 82 | # Create a variable. 83 | w = tf.Variable(, name=) 84 | 85 | tf.placeholder(dtype, shape=None, name=None) 86 | 87 | tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None) 88 | 89 | tf.zeros(shape, dtype=tf.float32, name=None) 90 | 91 | tf.nn.relu(features, name=None) 92 | features: A Tensor. Must be one of the following types: float32, float64, int32, int64, uint8, int16, int8, uint16, half. 93 | 94 | tf.matmul(mat1,mat2) 95 | 96 | tf.nn.sparse_softmax_cross_entropy_with_logits(logits, labels, name=None) 97 | logits must have the shape [batch_size, num_classes] and dtype float32 or float64. 98 | labels must have the shape [batch_size] and dtype int32 or int64. 99 | 100 | tf.scalar_summary(tags, values, collections=None, name=None) 101 | tags: A string Tensor. Tags for the summaries. 102 | values: A real numeric Tensor. Values for the summaries. 103 | collections: Optional list of graph collections keys. The new summary op is added to these collections. Defaults to [GraphKeys.SUMMARIES]. 104 | name: A name for the operation (optional). 105 | 106 | tf.train.GradientDescentOptimizer(learning_rate, use_locking=False, name='GradientDescent') 107 | learning_rate: A Tensor or a floating point value. The learning rate to use. 108 | use_locking: If True use locks for update operations. 109 | name: Optional name prefix for the operations created when applying gradients. Defaults to "GradientDescent". 110 | 111 | 112 | sess = tf.Session(graph = ) 113 | computed_x = sess.run(x) 114 | or 115 | computed_x = x.eval() 116 | 117 | sess = tf.InteractiveSession() 118 | 119 | g = tf.get_default_graph() ------>defaut graph in tensorflow all operation added to it 120 | 121 | g1 = tf.Graph() 122 | 123 | g1.get_operations().name 124 | 125 | with g1.as_default(): 126 | c = tf.constant(30.0) 127 | 128 | w = g.get_tensor_by_name('layer1/W:0') 129 | with tf.name_scope(name): 130 | a = tf.convert_to_tensor(a, name="a") -->name/a:0 131 | b = tf.convert_to_tensor(b, name="b") 132 | --------convolutions-------------------------------- 133 | 134 | tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, name=None) 135 | 136 | input = [batch, in_height, in_width, in_channels] 137 | filter = [filter_height, filter_width, in_channels, out_channels] 138 | strides = [1,1,1,1] or [1,2,2,1] 139 | [input,stride_height,stride_width,channel] 140 | padding = 'VALID'-> size will change 141 | 'SAME' -> 0 padded to retain n the original shape 142 | -------------------------------------------------------------------------------- /neural-networks/mmnist.py: -------------------------------------------------------------------------------- 1 | from sklearn.datasets import fetch_mldata 2 | from sklearn.preprocessing import OneHotEncoder 3 | import matplotlib.pyplot as plt 4 | import numpy as np 5 | import tensorflow as tf 6 | from tensorflow.examples.tutorials.mnist import input_data 7 | mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) 8 | 9 | print mnist.train.images.shape 10 | print mnist.train.labels.shape 11 | 12 | # 13 | # mnist = fetch_mldata('MNIST original') 14 | # X_train = mnist.data 15 | # print X_train.shape 16 | # y = mnist.target.reshape(-1,1) 17 | # enc = OneHotEncoder() 18 | # Y = enc.fit_transform(y).toarray() 19 | # print Y.shape 20 | 21 | # x_o = X_train 22 | # y_o = Y 23 | def plot_image(): 24 | print X_train[0] 25 | plt.imshow(np.reshape(X_train[0],(28,28)),cmap="gray") 26 | plt.show() 27 | 28 | # plot_image() 29 | # X_train = X_train[:50000] 30 | # Y = Y[:50000] 31 | # X_valid = x_o[50000:] 32 | # Y_valid = y_o[50000:] 33 | # print X_valid.shape 34 | # 35 | # batch_x=[] 36 | # batch_y=[] 37 | # batch_size = 50 38 | # n_epochs = 5 39 | # 40 | # i=0 41 | # j=batch_size 42 | # batch_x =[] 43 | # batch_y = [] 44 | # 45 | # for _ in range(X_train.shape[0]/batch_size): 46 | # batch_x.append(X_train[i:j]) 47 | # batch_y.append(Y[i:j]) 48 | # i = i+batch_size 49 | # j = j+batch_size 50 | # 51 | # print np.array(batch_x).shape 52 | # print np.array(batch_y).shape 53 | # 54 | # for i in batch_x: 55 | # print i 56 | 57 | n_input =784 58 | n_output =10 59 | 60 | g = tf.get_default_graph() 61 | 62 | X = tf.placeholder(tf.float32,[None,n_input]) 63 | Y = tf.placeholder(tf.float32,[None,n_output]) 64 | 65 | with tf.name_scope('inits'): 66 | W = tf.get_variable( 67 | name="W", 68 | shape=[n_input, n_output], 69 | dtype=tf.float32, 70 | initializer=tf.contrib.layers.xavier_initializer()) 71 | 72 | b = tf.get_variable( 73 | name='b', 74 | shape=[n_output], 75 | dtype=tf.float32, 76 | initializer=tf.constant_initializer(0.0)) 77 | 78 | h = tf.nn.bias_add( 79 | name='h', 80 | value=tf.matmul(X, W), 81 | bias=b) 82 | 83 | 84 | Y_pred = tf.nn.softmax(h) 85 | 86 | cross_entropy = -tf.reduce_sum(Y * tf.log(Y_pred + 1e-12)) 87 | # cross_entropy = tf.nn.softmax_cross_entropy_with_logits(Y_pred,Y) 88 | optimizer = tf.train.AdamOptimizer(0.001).minimize(cross_entropy) 89 | 90 | #Monitor accuracy 91 | predicted_y = tf.argmax(Y_pred, 1) 92 | actual_y = tf.argmax(Y, 1) 93 | 94 | correct_prediction = tf.equal(predicted_y, actual_y) 95 | accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) 96 | 97 | sess = tf.Session() 98 | sess.run(tf.initialize_all_variables()) 99 | 100 | n_epochs=3 101 | for epoch in range(n_epochs): 102 | for i in range(1000): 103 | batch_xs, batch_ys = mnist.train.next_batch(100) 104 | sess.run(optimizer, feed_dict={X: batch_xs, Y: batch_ys}) 105 | 106 | 107 | print str(epoch) + "-------------------------------------" 108 | print(sess.run(accuracy, feed_dict={X: mnist.test.images,Y: mnist.test.labels})) 109 | 110 | # o = [op.name for op in g.get_operations()] 111 | # for i in o: 112 | # print i 113 | W = g.get_tensor_by_name('W:0') 114 | W_arr = np.array(W.eval(session=sess)) 115 | print(W_arr.shape) 116 | print W_arr[:,0] 117 | plt.imshow(W_arr[:,0].reshape(28,28),cmap='gray') 118 | plt.show() 119 | # fig, ax = plt.subplots(1, 10, figsize=(20, 3)) 120 | # for col_i in range(10): 121 | # ax[col_i].imshow(W_arr[:, col_i].reshape((28, 28)), cmap='coolwarm') 122 | # plt.show() 123 | -------------------------------------------------------------------------------- /neural-networks/mnist_cnn.py: -------------------------------------------------------------------------------- 1 | import tensorflow as tf 2 | import numpy as np 3 | 4 | from sklearn.datasets import fetch_mldata 5 | from sklearn.preprocessing import OneHotEncoder 6 | import matplotlib.pyplot as plt 7 | import numpy as np 8 | import tensorflow as tf 9 | from tensorflow.examples.tutorials.mnist import input_data 10 | mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) 11 | 12 | g = tf.get_default_graph() 13 | 14 | X = tf.placeholder(tf.float32,[None,784]) 15 | Y = tf.placeholder(tf.float32,[None,10]) 16 | 17 | X_tensor = tf.reshape(X,[-1,28,28,1]) 18 | 19 | with tf.name_scope("layer1"): 20 | 21 | filter_size = 5 22 | num_filteres_in = 1 23 | num_filteres_out = 32 24 | 25 | W_1 = tf.get_variable( 26 | name='W1', 27 | shape=[filter_size,filter_size,num_filteres_in,num_filteres_out], 28 | initializer =tf.random_normal_initializer() 29 | ) 30 | 31 | b_1 = tf.get_variable( 32 | name='b1', 33 | shape=[num_filteres_out], 34 | initializer=tf.constant_initializer() 35 | ) 36 | 37 | h_1 = tf.nn.relu( 38 | tf.nn.bias_add( 39 | tf.nn.conv2d(input=X_tensor, 40 | filter=W_1, 41 | strides=[1, 2, 2, 1], 42 | padding='SAME'), 43 | b_1)) 44 | 45 | 46 | 47 | with tf.name_scope("layer2"): 48 | n_filters_in = 32 49 | n_filters_out = 64 50 | W_2 = tf.get_variable( 51 | name='W2', 52 | shape=[filter_size, filter_size, n_filters_in, n_filters_out], 53 | initializer=tf.random_normal_initializer()) 54 | b_2 = tf.get_variable( 55 | name='b2', 56 | shape=[n_filters_out], 57 | initializer=tf.constant_initializer()) 58 | h_2 = tf.nn.relu( 59 | tf.nn.bias_add( 60 | tf.nn.conv2d(input=h_1, 61 | filter=W_2, 62 | strides=[1, 2, 2, 1], 63 | padding='SAME'), 64 | b_2)) 65 | 66 | 67 | # We'll now reshape so we can connect to a fully-connected/linear layer: 68 | h_2_flat = tf.reshape(h_2, [-1, 7 * 7 * n_filters_out]) 69 | 70 | with tf.name_scope('fc_1'): 71 | W_3 = tf.get_variable( 72 | name="W_3", 73 | shape=[7 * 7 * n_filters_out, 128], 74 | dtype=tf.float32, 75 | initializer=tf.contrib.layers.xavier_initializer()) 76 | 77 | b_3 = tf.get_variable( 78 | name='b_3', 79 | shape=[128], 80 | dtype=tf.float32, 81 | initializer=tf.constant_initializer(0.0)) 82 | 83 | h_3 = tf.nn.relu( 84 | tf.nn.bias_add( 85 | name='h_3', 86 | value=tf.matmul(h_2_flat, W_3), 87 | bias=b_3)) 88 | 89 | n_output = 10 90 | with tf.name_scope('fc_2'): 91 | W_4 = tf.get_variable( 92 | name="W", 93 | shape=[128,n_output], 94 | dtype=tf.float32, 95 | initializer=tf.contrib.layers.xavier_initializer()) 96 | 97 | b_4 = tf.get_variable( 98 | name='b', 99 | shape=[10], 100 | dtype=tf.float32, 101 | initializer=tf.constant_initializer(0.0)) 102 | 103 | Y_pred = tf.nn.softmax( 104 | tf.nn.bias_add( 105 | name='h', 106 | value=tf.matmul(h_3, W_4), 107 | bias=b_4)) 108 | 109 | 110 | cross_entropy = -tf.reduce_sum(Y * tf.log(Y_pred + 1e-12)) 111 | optimizer = tf.train.AdamOptimizer(0.001).minimize(cross_entropy) 112 | 113 | predicted_y = tf.argmax(Y_pred, 1) 114 | actual_y = tf.argmax(Y, 1) 115 | 116 | correct_prediction = tf.equal(predicted_y, actual_y) 117 | accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) 118 | 119 | sess = tf.Session() 120 | sess.run(tf.initialize_all_variables()) 121 | 122 | # o = [op.name for op in g.get_operations()] 123 | # for i in o: 124 | # print i 125 | 126 | n_epochs=3 127 | for epoch in range(n_epochs): 128 | for i in range(1000): 129 | batch_xs, batch_ys = mnist.train.next_batch(100) 130 | sess.run(optimizer, feed_dict={X: batch_xs, Y: batch_ys}) 131 | if i%300==0: 132 | print(sess.run(accuracy, feed_dict={X: mnist.test.images,Y: mnist.test.labels})) 133 | # W1 = g.get_tensor_by_name('W1:0') 134 | # W1 = np.array(W1.eval(session=sess)) 135 | # print W1.shape 136 | # print W1[0][0][0][0] 137 | # print(W1[:,:,:,0].reshape(5,5).shape) 138 | # 139 | # print W1[:,:,:,0].reshape(5,5) 140 | # print W1[:,:,:,0] 141 | print str(epoch) + "-------------------------------------" 142 | print(sess.run(accuracy, feed_dict={X: mnist.test.images,Y: mnist.test.labels})) 143 | 144 | 145 | W1 = g.get_tensor_by_name('W1:0') 146 | W1 = np.array(W1.eval(session=sess)) 147 | 148 | fig, ax = plt.subplots(1, 32, figsize=(20, 3)) 149 | for col_i in range(32): 150 | ax[col_i].imshow(W1[:,:,:,col_i].reshape((5,5)), cmap='coolwarm') 151 | plt.show() 152 | -------------------------------------------------------------------------------- /new.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/ayush1997/Practical-MachineLearning/c616e26b1b4515e0c4496625b9ff99b463ff0427/new.jpg -------------------------------------------------------------------------------- /try_ml.py: -------------------------------------------------------------------------------- 1 | #################################################################################### 2 | # # 3 | # These are some basic starter code for different models # 4 | # # 5 | #################################################################################### 6 | 7 | 8 | 9 | 10 | 11 | ''' 12 | =============================== 13 | linear regression using covariance and variance 14 | =============================== 15 | ''' 16 | # import matplotlib.pyplot as plt 17 | # from sklearn.linear_model import LinearRegression 18 | # import numpy as np 19 | # 20 | # X = [[6],[8],[10],[14],[18]] 21 | # y = [[7],[9],[13],[17.5],[18]] 22 | # 23 | # plt.figure() 24 | # plt.xlabel("diameter in inches") 25 | # plt.ylabel("price in dollar") 26 | # plt.plot(X,y,'k.') 27 | # 28 | # model = LinearRegression() 29 | # model.fit(X,y) 30 | # 31 | # #mean 32 | # print "prdicted is", model.predict(X) 33 | # print "r squared is ", np.mean((model.predict(X)-y)**2) 34 | # 35 | # #variance 36 | # print np.var(X,ddof=1) 37 | # 38 | # #covariance 39 | # print np.cov([6,8,10,14,18],[7,9,13,17.5,18])[0][1] 40 | # plt.axis([0,25,0,25]) 41 | # plt.grid(True) 42 | # plt.show() 43 | 44 | ''' 45 | =============================== 46 | multivariate and normal eq 47 | =============================== 48 | ''' 49 | 50 | # from numpy.linalg import inv 51 | # from numpy import dot, transpose 52 | # X= [[1,6,2],[1,8,1],[1,10,0],[1,14,2],[1,18,0]] 53 | # Y =[[7],[9],[13],[17.5],[18]] 54 | # 55 | # b = dot(inv(dot(transpose(X),X)),dot(transpose(X),Y)) 56 | # print b 57 | # X_test = [[1,8,2],[1,9,0],[1,11,2],[1,16,2],[1,12,0]] 58 | # 59 | # pred_y = dot(X_test,b) 60 | # 61 | # print "predicted manually with normal equation" 62 | # print pred_y 63 | # 64 | # 65 | # from sklearn.linear_model import LinearRegression 66 | # 67 | # X_train= [[6,2],[8,1],[10,0],[14,2],[18,0]] 68 | # Y_train =[[7],[9],[13],[17.5],[18]] 69 | # 70 | # model = LinearRegression() 71 | # model.fit(X_train,Y_train) 72 | # 73 | # 74 | # X_test = [[8,2],[9,0],[11,2],[16,2],[12,0]] 75 | # Y_test = [[11],[8.5],[15],[18],[11]] 76 | # 77 | # print "prdicted using sklearn" 78 | # prediction = model.predict(X_test) 79 | # print prediction 80 | # 81 | # for i,pred in enumerate(prediction): 82 | # print "prdiction=",pred,"original=",Y_test[i] 83 | 84 | ''' 85 | =============================== 86 | polynomial regression 87 | =============================== 88 | ''' 89 | 90 | # import numpy as np 91 | # import matplotlib.pyplot as plt 92 | # from sklearn.linear_model import LinearRegression 93 | # from sklearn.preprocessing import PolynomialFeatures 94 | # 95 | # X_train = [[6],[8],[10],[14],[18]] 96 | # Y_train = [[7],[9],[13],[17.5],[18]] 97 | # 98 | # X_test= [[6],[8],[11],[16]] 99 | # Y_test =[[8],[12],[15],[18]] 100 | # 101 | # regressor =LinearRegression() 102 | # regressor.fit(X_train,Y_train) 103 | # 104 | # xx = np.linspace(0,26,100) 105 | # yy = regressor.predict(xx.reshape(xx.shape[0],1)) 106 | # 107 | # plt.plot(xx,yy) 108 | 109 | ''' 110 | =============================== 111 | pixel intensities 112 | =============================== 113 | ''' 114 | 115 | # from sklearn import datasets 116 | # digits = datasets.load_digits() 117 | # print digits 118 | # print "Digigt:",digits.target[3] 119 | # print digits.images[3] 120 | # print "feature vector:", digits.images[3].reshape(-1,64) 121 | 122 | # import numpy as nps 123 | # from skimage.feature import corner_harris,corner_peaks 124 | # from skimage.color import rgb2gray 125 | # import matplotlib.pyplot as plt 126 | # import skimage.io as io 127 | # from skimage.exposure import equalize_hist 128 | # 129 | # def show_corners(corners,image): 130 | # fig = plt.figure() 131 | # plt.gray() 132 | # plt.imshow(image) 133 | # y_corner,x_corner = zip(*corners) 134 | # plt.plot(x_corner,y_corner,'or') 135 | # plt.xlim(0,image.shape[1]) 136 | # plt.ylim(image.shape[0],0) 137 | # fig.set_size_inches(nps.array(fig.get_size_inches())*1.5) 138 | # plt.show() 139 | # 140 | # image =io.imread('new.jpg') 141 | # image = equalize_hist(rgb2gray(image)) 142 | # corners =corner_peaks(corner_harris(image),min_distance=2) 143 | # show_corners(corners,image) 144 | 145 | 146 | ''' 147 | =============================== 148 | bag of words 149 | =============================== 150 | ''' 151 | # from sklearn.feature_extraction.text import CountVectorizer 152 | # corpus=["UNC played Duke in basketball,Duke lost the basketball game,the game was fixed"] 153 | # 154 | # vectorizer = CountVectorizer(stop_words="english") 155 | # print vectorizer.fit_transform(corpus).todense() 156 | # print vectorizer.vocabulary_ 157 | 158 | 159 | 160 | 161 | ''' 162 | =============================== 163 | kmeans 164 | =============================== 165 | ''' 166 | # import numpy as np 167 | # from sklearn.cluster import KMeans 168 | # from sklearn import metrics 169 | # import matplotlib.pyplot as plt 170 | # plt.subplot(3,2,1) 171 | # x1 = np.array([1,2,3,1,5,6,5,5,6,7,8,9,7,9]) 172 | # x2 = np.array([1,3,2,2,8,6,7,6,7,1,2,1,1,3]) 173 | # 174 | # X = np.array(zip(x1,x2)).reshape(len(x1),2) 175 | # print X 176 | # 177 | # plt.xlim(0,10) 178 | # plt.ylim(0,10) 179 | # plt.title('instnces') 180 | # 181 | # plt.scatter(x1,x2) 182 | # 183 | # # plt.show() 184 | # 185 | # colors = ['b','g','r','c','m','y','k','b'] 186 | # markers = ['o','s','D','v','^','p','*','+'] 187 | # tests =[2,3,4,5,8] 188 | # 189 | # subplot_counter = 1 190 | # for t in tests: 191 | # subplot_counter+=1 192 | # plt.subplot(3,2,subplot_counter) 193 | # kmeans_model = KMeans(n_clusters=t).fit(X) 194 | # for i,l in enumerate(kmeans_model.labels_): 195 | # plt.plot(x1[i],x2[i],color=colors[l],marker = markers[l],ls='None') 196 | # plt.xlim([0,10]) 197 | # plt.ylim([0,10]) 198 | # plt.title('k=%s, silhoutee=%0.3f' %(t,metrics.silhouetee_score(X,kmeans_model.labels_,metric='euclidian'))) 199 | # plt.show() 200 | # 201 | 202 | #suft feature extraction 203 | 204 | # import mahotas as mh 205 | # from mahotas.features import surf 206 | # 207 | # image = mh.imread('new.jpg',as_grey=True) 208 | # print 'The first SURF description:',surf.surf(image)[0] 209 | # print 'extracted SURF description',len(surf.surf(image)[0]) 210 | 211 | ''' 212 | =============================== 213 | pca 214 | =============================== 215 | ''' 216 | import matplotlib.pyplot as plt 217 | from sklearn.decomposition import PCA 218 | from sklearn.datasets import load_iris 219 | 220 | data = load_iris() 221 | y = data.target 222 | X = data.data 223 | 224 | # print y 225 | print X 226 | 227 | pca = PCA(n_components=2) 228 | reduced_x = pca.fit_transform(X) 229 | 230 | print reduced_x 231 | red_x,red_y = [],[] 232 | blue_x,blue_y = [],[] 233 | green_x,green_y = [],[] 234 | 235 | for i in range(len(reduced_x)): 236 | if y[i] ==0: 237 | red_x.append(reduced_x[i][0]) 238 | red_y.append(reduced_x[i][1]) 239 | elif y[i]==1: 240 | blue_x.append(reduced_x[i][0]) 241 | blue_y.append(reduced_x[i][1]) 242 | else: 243 | green_x.append(reduced_x[i][0]) 244 | green_y.append(reduced_x[i][1]) 245 | 246 | plt.scatter(red_x,red_y,c='r',marker='x') 247 | plt.scatter(blue_x,blue_y,c='b',marker='D') 248 | plt.scatter(green_x,green_y,c='g',marker='.') 249 | plt.show() 250 | --------------------------------------------------------------------------------