├── README.md ├── rmsProp.py ├── sgd.py ├── adam.py ├── genetic_algorithm_code.py ├── genetic_adam.py └── diabetes.txt /README.md: -------------------------------------------------------------------------------- 1 | # Genetic_Algorithm 2 | 3 | The main driver code is `genetic_algorithm_code.py`, and you'll need `diabetes.txt` as input data set as well. 4 | Feel free to try on other algorithms (optimizers) to see improvement in accuracy. 5 | 6 | You may also refer to the [blog post](https://medium.com/swlh/genetic-algorithm-in-artificial-neural-network-5f5b9c9467d0) 7 | -------------------------------------------------------------------------------- /rmsProp.py: -------------------------------------------------------------------------------- 1 | import pandas as pd 2 | import numpy as np 3 | import random 4 | from sklearn.metrics import accuracy_score 5 | from keras.models import Sequential 6 | from keras.layers import Dense 7 | from keras import optimizers 8 | import logging 9 | import matplotlib.pyplot as plt 10 | 11 | logging.basicConfig(level=logging.DEBUG, 12 | format='%(asctime)s %(message)s', 13 | handlers=[logging.FileHandler("gnn.log"), 14 | logging.StreamHandler()]) 15 | 16 | # Read Data 17 | df = pd.read_table('./diabetes.txt',header=None,encoding='gb2312',sep='\t') 18 | df.astype(float) 19 | # remove redundant col which is the opposite value of the 10th col 20 | df.pop(10) 21 | # remove first col of bias = 1 22 | df.pop(0) 23 | # the label column 24 | label = df.pop(9) 25 | 26 | # train feature 27 | train_feature = df[:576] 28 | # train label 29 | train_label = label[:576] 30 | # test feature 31 | test_feature = df[576:] 32 | # test label 33 | test_label = label[576:] 34 | 35 | model = Sequential([ 36 | Dense(6, input_shape=(8,), activation='sigmoid', bias_initializer='ones', kernel_initializer='random_uniform'), 37 | Dense(6, activation='sigmoid'), 38 | Dense(4, activation='sigmoid'), 39 | Dense(1, activation='sigmoid') 40 | ]) 41 | 42 | 43 | model.compile(optimizer=optimizers.RMSprop(learning_rate=0.001, rho=0.9), 44 | loss='mean_squared_error', 45 | metrics=['accuracy']) 46 | 47 | epochs = 1000 48 | history = model.fit(train_feature.values, train_label.values, epochs=epochs) 49 | 50 | plt.plot(history.history['accuracy']) 51 | plt.plot(history.history['loss']) 52 | plt.ylabel('accuracy') 53 | plt.xlabel('epoch') 54 | 55 | test_loss, test_acc = model.evaluate(test_feature, test_label, verbose=2) 56 | print('\nTest accuracy:', test_acc) 57 | -------------------------------------------------------------------------------- /sgd.py: -------------------------------------------------------------------------------- 1 | import pandas as pd 2 | import numpy as np 3 | import random 4 | from sklearn.metrics import accuracy_score 5 | from keras.models import Sequential 6 | from keras.layers import Dense 7 | from keras import optimizers 8 | import logging 9 | import matplotlib.pyplot as plt 10 | 11 | logging.basicConfig(level=logging.DEBUG, 12 | format='%(asctime)s %(message)s', 13 | handlers=[logging.FileHandler("gnn.log"), 14 | logging.StreamHandler()]) 15 | 16 | # Read Data 17 | df = pd.read_table('./diabetes.txt',header=None,encoding='gb2312',sep='\t') 18 | df.astype(float) 19 | # remove redundant col which is the opposite value of the 10th col 20 | df.pop(10) 21 | # remove first col of bias = 1 22 | df.pop(0) 23 | # the label column 24 | label = df.pop(9) 25 | 26 | # train feature 27 | train_feature = df[:576] 28 | # train label 29 | train_label = label[:576] 30 | # test feature 31 | test_feature = df[576:] 32 | # test label 33 | test_label = label[576:] 34 | 35 | model = Sequential([ 36 | Dense(6, input_shape=(8,), activation='sigmoid', bias_initializer='ones', kernel_initializer='random_uniform'), 37 | Dense(6, activation='sigmoid'), 38 | Dense(4, activation='sigmoid'), 39 | Dense(1, activation='sigmoid') 40 | ]) 41 | 42 | 43 | model.compile(optimizer=optimizers.SGD(learning_rate=0.01, momentum=0.0, nesterov=False), 44 | loss='mean_squared_error', 45 | metrics=['accuracy']) 46 | 47 | epochs = 1000 48 | history = model.fit(train_feature.values, train_label.values, epochs=epochs) 49 | 50 | plt.plot(history.history['accuracy']) 51 | plt.plot(history.history['loss']) 52 | plt.ylabel('accuracy') 53 | plt.xlabel('epoch') 54 | 55 | test_loss, test_acc = model.evaluate(test_feature, test_label, verbose=2) 56 | print('\nTest accuracy:', test_acc) 57 | -------------------------------------------------------------------------------- /adam.py: -------------------------------------------------------------------------------- 1 | import pandas as pd 2 | import numpy as np 3 | import random 4 | from sklearn.metrics import accuracy_score 5 | from keras.models import Sequential 6 | from keras.layers import Dense 7 | from keras import optimizers 8 | import logging 9 | import matplotlib.pyplot as plt 10 | 11 | logging.basicConfig(level=logging.DEBUG, 12 | format='%(asctime)s %(message)s', 13 | handlers=[logging.FileHandler("gnn.log"), 14 | logging.StreamHandler()]) 15 | 16 | # Read Data 17 | df = pd.read_table('./diabetes.txt',header=None,encoding='gb2312',sep='\t') 18 | df.astype(float) 19 | # remove redundant col which is the opposite value of the 10th col 20 | df.pop(10) 21 | # remove first col of bias = 1 22 | df.pop(0) 23 | # the label column 24 | label = df.pop(9) 25 | 26 | # train feature 27 | train_feature = df[:576] 28 | # train label 29 | train_label = label[:576] 30 | # test feature 31 | test_feature = df[576:] 32 | # test label 33 | test_label = label[576:] 34 | 35 | model = Sequential([ 36 | Dense(6, input_shape=(8,), activation='sigmoid', bias_initializer='ones', kernel_initializer='random_uniform'), 37 | Dense(6, activation='sigmoid'), 38 | Dense(4, activation='sigmoid'), 39 | Dense(1, activation='sigmoid') 40 | ]) 41 | 42 | 43 | model.compile(optimizer=optimizers.Adam(learning_rate=0.001, beta_1=0.9, beta_2=0.999, amsgrad=False), 44 | loss='mean_squared_error', 45 | metrics=['accuracy']) 46 | 47 | epochs = 1000 48 | history = model.fit(train_feature.values, train_label.values, epochs=epochs) 49 | 50 | plt.plot(history.history['accuracy']) 51 | plt.plot(history.history['loss']) 52 | plt.ylabel('accuracy') 53 | plt.xlabel('epoch') 54 | 55 | test_loss, test_acc = model.evaluate(test_feature, test_label, verbose=2) 56 | print('\nTest accuracy:', test_acc) 57 | -------------------------------------------------------------------------------- /genetic_algorithm_code.py: -------------------------------------------------------------------------------- 1 | import random 2 | import logging 3 | import pandas as pd 4 | import numpy as np 5 | from sklearn.metrics import accuracy_score 6 | from keras.models import Sequential 7 | from keras.layers import Dense 8 | from keras import optimizers 9 | 10 | logging.basicConfig(level=logging.DEBUG, 11 | format='%(asctime)s %(message)s', 12 | handlers=[logging.FileHandler("ann_test.log"), 13 | logging.StreamHandler()]) 14 | 15 | class ANN(Sequential): 16 | 17 | def __init__(self, child_weights=None): 18 | super().__init__() 19 | 20 | if child_weights is None: 21 | layer1 = Dense(8, input_shape=(8,), activation='sigmoid') 22 | layer2 = Dense(1, activation='sigmoid') 23 | self.add(layer1) 24 | self.add(layer2) 25 | else: 26 | self.add( 27 | Dense( 28 | 8, 29 | input_shape=(8,), 30 | activation='sigmoid', 31 | weights=[child_weights[0], np.ones(8)]) 32 | ) 33 | self.add( 34 | Dense( 35 | 1, 36 | activation='sigmoid', 37 | weights=[child_weights[1], np.zeros(1)]) 38 | ) 39 | 40 | def forward_propagation(self, train_feature, train_label): 41 | predict_label = self.predict(train_feature.values) 42 | self.fitness = accuracy_score(train_label, predict_label.round()) 43 | 44 | def crossover(nn1, nn2): 45 | 46 | nn1_weights = [] 47 | nn2_weights = [] 48 | child_weights = [] 49 | 50 | for layer in nn1.layers: 51 | nn1_weights.append(layer.get_weights()[0]) 52 | 53 | for layer in nn2.layers: 54 | nn2_weights.append(layer.get_weights()[0]) 55 | 56 | for i in range(len(nn1_weights)): 57 | # Get single point to split the matrix in parents based on # of cols 58 | split = random.randint(0, np.shape(nn1_weights[i])[1]-1) 59 | # Iterate through after a single point and set the remaing cols to nn_2 60 | for j in range(split, np.shape(nn1_weights[i])[1]-1): 61 | nn1_weights[i][:, j] = nn2_weights[i][:, j] 62 | 63 | child_weights.append(nn1_weights[i]) 64 | 65 | mutation(child_weights) 66 | 67 | child = ANN(child_weights) 68 | return child 69 | 70 | def mutation(child_weights): 71 | selection = random.randint(0, len(child_weights)-1) 72 | mut = random.uniform(0, 1) 73 | if mut <= .05: 74 | child_weights[selection] *= random.randint(2, 5) 75 | else: 76 | pass 77 | 78 | # Preprocess Data 79 | df = pd.read_table('./diabetes.txt',header=None,encoding='gb2312',sep='\t') 80 | df.astype(float) 81 | # remove redundant col which is the opposite value of the 10th col 82 | df.pop(10) 83 | # remove first col of bias = 1 84 | df.pop(0) 85 | # the label column 86 | label = df.pop(9) 87 | # train feature 88 | train_feature = df[:576] 89 | # train label 90 | train_label = label[:576] 91 | # test feature 92 | test_feature = df[576:] 93 | # test label 94 | test_label = label[576:] 95 | 96 | # store all active ANNs 97 | networks = [] 98 | pool = [] 99 | # Generation counter 100 | generation = 0 101 | # Initial Population 102 | population = 10 103 | for i in range(population): 104 | networks.append(ANN()) 105 | # Track Max Fitness 106 | max_fitness = 0 107 | # Store Max Fitness Weights 108 | optimal_weights = [] 109 | 110 | epochs = 10 111 | # Evolution Loop 112 | for i in range(epochs): 113 | generation += 1 114 | logging.debug("Generation: " + str(generation) + "\r\n") 115 | 116 | for ann in networks: 117 | # Propagate to calculate fitness score 118 | ann.forward_propagation(train_feature, train_label) 119 | # Add to pool after calculating fitness 120 | pool.append(ann) 121 | 122 | # Clear for propagation of next children 123 | networks.clear() 124 | 125 | # Sort anns by fitness 126 | pool = sorted(pool, key=lambda x: x.fitness) 127 | pool.reverse() 128 | 129 | # Find Max Fitness and Log Associated Weights 130 | for i in range(len(pool)): 131 | if pool[i].fitness > max_fitness: 132 | max_fitness = pool[i].fitness 133 | 134 | logging.debug("Max Fitness: " + str(max_fitness) + "\r\n") 135 | 136 | # Iterate through layers, get weights, and append to optimal 137 | optimal_weights = [] 138 | for layer in pool[i].layers: 139 | optimal_weights.append(layer.get_weights()[0]) 140 | logging.debug('optimal_weights: ' + str(optimal_weights)+"\r\n") 141 | 142 | # Crossover: top 5 randomly select 2 partners 143 | for i in range(5): 144 | for j in range(2): 145 | # Create a child and add to networks 146 | temp = crossover(pool[i], random.choice(pool)) 147 | # Add to networks to calculate fitness score next iteration 148 | networks.append(temp) 149 | 150 | # Create a Genetic Neural Network with optimal initial weights 151 | ann = ANN(optimal_weights) 152 | predict_label = ann.predict(test_feature.values) 153 | print('Test Accuracy: %.2f' % accuracy_score(test_label, predict_label.round())) -------------------------------------------------------------------------------- /genetic_adam.py: -------------------------------------------------------------------------------- 1 | import random 2 | import logging 3 | import pandas as pd 4 | import numpy as np 5 | from sklearn.metrics import accuracy_score 6 | from keras.models import Sequential 7 | from keras.layers import Dense 8 | from keras import optimizers 9 | 10 | logging.basicConfig(level=logging.DEBUG, 11 | format='%(asctime)s %(message)s', 12 | handlers=[logging.FileHandler("ga+adam.log"), 13 | logging.StreamHandler()]) 14 | 15 | class ANN(Sequential): 16 | 17 | def __init__(self, child_weights=None): 18 | super().__init__() 19 | 20 | if child_weights is None: 21 | layer1 = Dense(6, input_shape=(8,), activation='sigmoid') 22 | layer2 = Dense(6, activation='sigmoid') 23 | layer3 = Dense(4, activation='sigmoid') 24 | layer4 = Dense(1, activation='sigmoid') 25 | self.add(layer1) 26 | self.add(layer2) 27 | self.add(layer3) 28 | self.add(layer4) 29 | else: 30 | self.add( 31 | Dense( 32 | 6, 33 | input_shape=(8,), 34 | activation='sigmoid', 35 | weights=[child_weights[0], np.ones(6)]) 36 | ) 37 | self.add( 38 | Dense( 39 | 6, 40 | activation='sigmoid', 41 | weights=[child_weights[1], np.zeros(6)]) 42 | ) 43 | self.add( 44 | Dense( 45 | 4, 46 | activation='sigmoid', 47 | weights=[child_weights[2], np.zeros(4)]) 48 | ) 49 | self.add( 50 | Dense( 51 | 1, 52 | activation='sigmoid', 53 | weights=[child_weights[3], np.zeros(1)]) 54 | ) 55 | 56 | def forward_propagation(self, train_feature, train_label): 57 | predict_label = self.predict(train_feature.values) 58 | self.fitness = accuracy_score(train_label, predict_label.round()) 59 | 60 | def compile_train(self, epochs): 61 | self.compile( 62 | optimizer=optimizers.Adam(learning_rate=0.001, beta_1=0.9, beta_2=0.999, amsgrad=False), 63 | loss='mean_squared_error', 64 | metrics=['accuracy'] 65 | ) 66 | self.fit(train_feature.values, train_label.values, epochs=epochs) 67 | 68 | def crossover(nn1, nn2): 69 | 70 | nn1_weights = [] 71 | nn2_weights = [] 72 | child_weights = [] 73 | 74 | for layer in nn1.layers: 75 | nn1_weights.append(layer.get_weights()[0]) 76 | 77 | for layer in nn2.layers: 78 | nn2_weights.append(layer.get_weights()[0]) 79 | 80 | for i in range(len(nn1_weights)): 81 | # Get single point to split the matrix in parents based on # of cols 82 | split = random.randint(0, np.shape(nn1_weights[i])[1]-1) 83 | # Iterate through after a single point and set the remaing cols to nn_2 84 | for j in range(split, np.shape(nn1_weights[i])[1]-1): 85 | nn1_weights[i][:, j] = nn2_weights[i][:, j] 86 | 87 | child_weights.append(nn1_weights[i]) 88 | 89 | mutation(child_weights) 90 | 91 | child = ANN(child_weights) 92 | return child 93 | 94 | def mutation(child_weights): 95 | selection = random.randint(0, len(child_weights)-1) 96 | mut = random.uniform(0, 1) 97 | if mut <= .05: 98 | child_weights[selection] *= random.randint(2, 5) 99 | else: 100 | pass 101 | 102 | # Preprocess Data 103 | df = pd.read_table('./diabetes.txt',header=None,encoding='gb2312',sep='\t') 104 | df.astype(float) 105 | # remove redundant col which is the opposite value of the 10th col 106 | df.pop(10) 107 | # remove first col of bias = 1 108 | df.pop(0) 109 | # the label column 110 | label = df.pop(9) 111 | # train feature 112 | train_feature = df[:576] 113 | # train label 114 | train_label = label[:576] 115 | # test feature 116 | test_feature = df[576:] 117 | # test label 118 | test_label = label[576:] 119 | 120 | # store all active ANNs 121 | networks = [] 122 | pool = [] 123 | # Generation counter 124 | generation = 0 125 | # Initial Population 126 | population = 20 127 | for i in range(population): 128 | networks.append(ANN()) 129 | # Track Max Fitness 130 | max_fitness = 0 131 | # Store Max Fitness Weights 132 | optimal_weights = [] 133 | 134 | epochs = 1000 135 | # Evolution Loop 136 | for i in range(epochs): 137 | generation += 1 138 | logging.debug("Generation: " + str(generation) + "\r\n") 139 | 140 | for ann in networks: 141 | # Propagate to calculate fitness score 142 | ann.forward_propagation(train_feature, train_label) 143 | # Add to pool after calculating fitness 144 | pool.append(ann) 145 | 146 | # Clear for propagation of next children 147 | networks.clear() 148 | 149 | # Sort anns by fitness 150 | pool = sorted(pool, key=lambda x: x.fitness) 151 | pool.reverse() 152 | 153 | # Find Max Fitness and Log Associated Weights 154 | for i in range(len(pool)): 155 | if pool[i].fitness > max_fitness: 156 | max_fitness = pool[i].fitness 157 | 158 | logging.debug("Max Fitness: " + str(max_fitness) + "\r\n") 159 | 160 | # Iterate through layers, get weights, and append to optimal 161 | optimal_weights = [] 162 | for layer in pool[i].layers: 163 | optimal_weights.append(layer.get_weights()[0]) 164 | logging.debug('optimal_weights: ' + str(optimal_weights)+"\r\n") 165 | 166 | # Crossover: top 5 randomly select 2 partners 167 | for i in range(5): 168 | for j in range(2): 169 | # Create a child and add to networks 170 | temp = crossover(pool[i], random.choice(pool)) 171 | # Add to networks to calculate fitness score next iteration 172 | networks.append(temp) 173 | 174 | # Create a Genetic Neural Network with optimal initial weights 175 | ann = ANN(optimal_weights) 176 | ann.compile_train(epochs) 177 | predict_label = ann.predict(test_feature.values) 178 | print('Test Accuracy: %.2f' % accuracy_score(test_label, predict_label.round())) -------------------------------------------------------------------------------- /diabetes.txt: -------------------------------------------------------------------------------- 1 | 1 0.176471 0.605 0.42623 0 0 0.536513 0.0209223 0.0666667 1 0 2 | 1 0.352941 0.72 0.590164 0.27 0.269504 0.505216 0.0755764 0.316667 0 1 3 | 1 0.117647 0.875 0.721311 0 0 0.341282 0.105892 0.0166667 0 1 4 | 1 0.705882 0.605 0.639344 0.17 0 0.394933 0.0772844 0.683333 0 1 5 | 1 0.117647 0.535 0.606557 0.3 0.118203 0.500745 0.139197 0.0333333 0 1 6 | 1 0.882353 0.68 0.57377 0.32 0.130024 0.552906 0.0320239 0.366667 1 0 7 | 1 0.470588 0.545 0.622951 0.39 0.134752 0.415797 0.239966 0.166667 1 0 8 | 1 0.117647 0.405 0.491803 0.22 0 0.412817 0.0905209 0.0666667 0 1 9 | 1 0.235294 0.985 0.57377 0.39 0.879433 0.546945 0.961144 0.166667 0 1 10 | 1 0 0.525 0.737705 0 0 0.441133 0.0508113 0.416667 0 1 11 | 1 0.411765 0.545 0.655738 0.31 0 0.535022 0.447908 0.366667 1 0 12 | 1 0.235294 0.415 0.704918 0.19 0 0.436662 0.10205 0.216667 0 1 13 | 1 0.352941 0.77 0.606557 0.32 0.228132 0.436662 0.324936 0.3 0 1 14 | 1 0.176471 0.79 0.622951 0.36 0.289598 0.470939 0.33006 0.116667 1 0 15 | 1 0.647059 0.69 0.622951 0 0 0.494784 0.146029 0.233333 0 1 16 | 1 0.176471 0.5 0.557377 0.23 0.0957447 0.470939 0.371904 0.116667 0 1 17 | 1 0.176471 0.855 0.590164 0.33 0.159574 0.496274 0.0516652 0.05 1 0 18 | 1 0.235294 0.77 0.508197 0.31 0.335697 0.488823 0.0678907 0.0333333 0 1 19 | 1 0.0588235 0.435 0.639344 0.27 0.0378251 0.515648 0.00982067 0.0166667 0 1 20 | 1 0.0588235 0.485 0.57377 0.15 0 0.271237 0.029462 0 0 1 21 | 1 0.411765 0.51 0.606557 0.4 0.124113 0.554396 0.0538002 0.4 0 1 22 | 1 0.176471 0.845 0.606557 0.19 0.147754 0.445604 0.0811272 0.166667 1 0 23 | 1 0.470588 0.63 0.606557 0.38 0.0886525 0.385991 0.0358668 0.3 0 1 24 | 1 0.470588 0.325 0.590164 0.23 0 0.4769 0.222886 0.35 0 1 25 | 1 0.588235 0.575 0 0 0 0 0.0781383 0.15 1 0 26 | 1 0.117647 0.42 0 0 0 0 0.0964987 0 0 1 27 | 1 0.0588235 0.555 0.770492 0 0 0.488823 0.0798463 0.4 0 1 28 | 1 0 0.545 0.721311 0.3 0 0.484352 0.331768 0.283333 1 0 29 | 1 0.0588235 0.465 0.57377 0.31 0 0.453055 0.101196 0.0333333 0 1 30 | 1 0 0.605 0.540984 0.3 0.195035 0.511177 0.0533732 0.2 1 0 31 | 1 0.117647 0.42 0.409836 0.23 0.0898345 0.453055 0.380017 0 0 1 32 | 1 0.352941 0.74 0.590164 0.35 0 0.500745 0.234415 0.483333 1 0 33 | 1 0 0.69 0.491803 0.35 0.1974 0.515648 0.194705 0 1 0 34 | 1 0.0588235 0.53 0.57377 0.28 0.159574 0.509687 0.0273271 0.0166667 0 1 35 | 1 0 0.505 0.508197 0 0 0.326379 0.110162 0.0666667 0 1 36 | 1 0.117647 0.64 0.52459 0.42 0 0.596125 0.436806 0.05 0 1 37 | 1 0.411765 0.57 0.52459 0 0 0.408346 0.279249 0.216667 1 0 38 | 1 0.176471 0.6 0.57377 0.3 0.159574 0.639344 0.159693 0.15 0 1 39 | 1 0.235294 0.71 0.704918 0 0 0.655738 0.242101 0.0166667 1 0 40 | 1 0.176471 0.64 0.590164 0.25 0.224586 0.482861 0.20111 0.1 1 0 41 | 1 0.235294 0.915 0 0 0 0.423249 0.0572161 0.25 1 0 42 | 1 0.0588235 0.435 0.491803 0.37 0.0886525 0.554396 0.184031 0.0166667 0 1 43 | 1 0.352941 0.49 0.47541 0.33 0.224586 0.506706 0.150299 0.366667 0 1 44 | 1 0.0588235 0.735 0.770492 0.41 0 0.734724 0.119556 0.1 1 0 45 | 1 0.0588235 0.675 0.442623 0 0 0.397914 0.260034 0.683333 0 1 46 | 1 0.0588235 0.655 0.52459 0.14 0.490544 0.353204 0.132792 0 0 1 47 | 1 0.588235 0.645 0.622951 0.28 0.144208 0.535022 0.0862511 0.3 0 1 48 | 1 0 0.81 0.622951 0.56 0.118203 0.792846 0.290777 0.0666667 1 0 49 | 1 0.176471 0.44 0.47541 0.11 0.0638298 0.369598 0.0807003 0.0166667 0 1 50 | 1 0.0588235 0.405 0.606557 0.41 0.0673759 0.690015 0.434671 0.183333 0 1 51 | 1 0 0.475 0.655738 0.45 0.108747 0.543964 0.1076 0.0833333 0 1 52 | 1 0.235294 0.615 0.655738 0.15 0.208038 0.4769 0.15585 0.216667 0 1 53 | 1 0 0.825 0.737705 0.33 0.803783 0.779434 0.149018 0.0333333 0 1 54 | 1 0 0.895 0.737705 0.27 0 0.657228 0.259607 0.0333333 1 0 55 | 1 0.176471 0.41 0.57377 0 0 0.314456 0.132792 0.0666667 0 1 56 | 1 0 0.9 0.639344 0.63 0.0165485 0.885246 1 0.0666667 1 0 57 | 1 0 0.335 0.622951 0 0 0.675112 0.0495303 0.416667 0 1 58 | 1 0 0.625 0.786885 0 0 0.33532 0.0785653 0 0 1 59 | 1 0.117647 0.46 0.508197 0.28 0 0.470939 0.0222032 0.05 0 1 60 | 1 0.529412 0.445 0.508197 0 0 0.33532 0.0273271 0.2 0 1 61 | 1 0.529412 0.85 0.606557 0.31 0 0.655738 0.13877 0.366667 1 0 62 | 1 0.235294 0.515 0.491803 0.33 0.22695 0.357675 0.379163 0.2 0 1 63 | 1 0.235294 0.645 0.491803 0.12 0.27305 0.409836 0.191716 0.166667 0 1 64 | 1 0 0.525 0.688525 0 0 0.415797 0.283091 0.683333 1 0 65 | 1 0.176471 0.865 0.688525 0.33 0.560284 0.532042 0.0768574 0.0166667 1 0 66 | 1 0.117647 0.645 0 0 0 0.57377 0.0964987 0.333333 0 1 67 | 1 0.117647 0.495 0.57377 0.16 0.0520095 0.304024 0.0670367 0.1 0 1 68 | 1 0.0588235 0.45 0.508197 0.12 0.0508274 0.405365 0.214347 0.05 0 1 69 | 1 0.411765 0.795 0.540984 0 0 0.453055 0.130231 0.25 1 0 70 | 1 0.529412 0.78 0.704918 0 0 0.369598 0.0649018 0.533333 1 0 71 | 1 0.0588235 0.365 0.409836 0.1 0 0.342772 0.0725875 0 0 1 72 | 1 0 0.39 0.721311 0.29 0.0472813 0.549925 0.152007 0 0 1 73 | 1 0.411765 0.53 0.754098 0.18 0 0.338301 0.0670367 0.45 0 1 74 | 1 0 0.505 0.52459 0.17 0 0.312966 0.0742955 0 0 1 75 | 1 0.0588235 0.4 0.45082 0 0 0.28465 0.0768574 0 0 1 76 | 1 0 0.825 0.622951 0.43 0.301418 0.71386 0.0772844 0.0833333 0 1 77 | 1 0.176471 0.865 0.672131 0.48 0.549645 0.57228 0.879163 0.0666667 1 0 78 | 1 0.117647 0.45 0.57377 0.17 0 0.406855 0.0029889 0.0166667 0 1 79 | 1 0.235294 0.47 0.532787 0.22 0 0.368107 0.029889 0 0 1 80 | 1 0.176471 0.79 0.52459 0.13 0.457447 0.464978 0.0926558 0.05 0 1 81 | 1 0.294118 0.83 0.622951 0 0 0.681073 0.11187 0.1 1 0 82 | 1 0.235294 0.55 0.622951 0.2 0.118203 0.423249 0.0170794 0.1 0 1 83 | 1 0.0588235 0.84 0.721311 0.29 0 0.52161 0.353117 0.516667 1 0 84 | 1 0.294118 0.58 0.606557 0 0 0.38152 0.0525192 0.15 0 1 85 | 1 0.0588235 0.445 0.196721 0.19 0.0295508 0.414307 0.20538 0 0 1 86 | 1 0.411765 0.685 0.737705 0.41 0 0.4769 0.133646 0.3 0 1 87 | 1 0.176471 0.65 0.52459 0 0 0.344262 0.100769 0.0166667 0 1 88 | 1 0 0.465 0.491803 0 0 0.52608 0.0789923 0.0666667 0 1 89 | 1 0 0.51 0.639344 0.4 0.106383 0.514158 0.0683177 0.05 0 1 90 | 1 0.294118 0.44 0.540984 0.21 0.0271868 0.363636 0.112724 0.15 0 1 91 | 1 0.0588235 0.46 0.508197 0.25 0.0484634 0.290611 0.172502 0.0666667 0 1 92 | 1 0.0588235 0.465 0.459016 0.11 0 0.33532 0.144748 0.0166667 0 1 93 | 1 0.0588235 0.72 0.672131 0.46 0.212766 0.687034 0.109735 0.416667 1 0 94 | 1 0.470588 0.985 0.606557 0 0 0.385991 0.475235 0.3 1 0 95 | 1 0.294118 0.575 0.622951 0 0 0.464978 0.113151 0.383333 1 0 96 | 1 0.352941 0.495 0.491803 0.19 0.0638298 0.400894 0.178907 0.183333 0 1 97 | 1 0.235294 0.38 0.508197 0 0 0.506706 0.133646 0.0666667 0 1 98 | 1 0.176471 0.935 0.57377 0.22 0.236407 0.542474 0.140905 0.25 1 0 99 | 1 0.0588235 0.45 0.557377 0.08 0 0.365127 0.452605 0.25 0 1 100 | 1 0.176471 0.56 0.606557 0.3 0 0.470939 0.0508113 0.0666667 1 0 101 | 1 0 0.63 0.688525 0.29 0.254137 0.457526 0.188728 0.05 0 1 102 | 1 0.235294 0.735 0.606557 0.25 0.346336 0.520119 0.131085 0.15 0 1 103 | 1 0.117647 0.55 0.606557 0.29 0.147754 0.482861 0.264731 0.1 0 1 104 | 1 0 0.47 0.57377 0.27 0.135934 0.648286 0.114859 0 0 1 105 | 1 0 0.595 0 0 0 0.482861 0.0269001 0.05 1 0 106 | 1 0 0.67 0.47541 0.2 0.343972 0.393443 0.116994 0 0 1 107 | 1 0.235294 0.485 0.491803 0.23 0 0.420268 0.15585 0.0166667 0 1 108 | 1 0.411765 0.75 0.639344 0.29 0.148936 0.52459 0.262169 0.55 1 0 109 | 1 0.0588235 0.485 0.540984 0.15 0.165485 0.345753 0.174637 0.0166667 0 1 110 | 1 0.294118 0.545 0.508197 0.41 0.152482 0.533532 0.186166 0.0666667 1 0 111 | 1 0.529412 0.36 0.639344 0.25 0 0.470939 0.0862511 0.283333 0 1 112 | 1 0.235294 0.67 0.590164 0 0 0.354694 0.0849701 0.65 1 0 113 | 1 0.352941 0.595 0.409836 0.22 0.208038 0.403875 0.529462 0.2 1 0 114 | 1 0.764706 0.38 0.491803 0 0 0.488823 0.0435525 0.333333 0 1 115 | 1 0.588235 0.665 0.557377 0 0 0.402385 0.0713066 0.25 0 1 116 | 1 0 0.465 0.491803 0.25 0.108747 0.42772 0.193851 0.0166667 0 1 117 | 1 0.764706 0.725 0.672131 0.19 0.130024 0.330849 0.0713066 0.6 0 1 118 | 1 0.235294 0.61 0.557377 0 0 0.52161 0.134927 0.133333 0 1 119 | 1 0.0588235 0.545 0.47541 0.18 0.137116 0.424739 0.060205 0.0166667 0 1 120 | 1 0.588235 0.575 0 0 0 0.52608 0.0239112 0.133333 0 1 121 | 1 0.529412 0.51 0.622951 0.37 0 0.490313 0.25064 0.416667 1 0 122 | 1 0.352941 0.48 0 0 0 0.353204 0.0478224 0.116667 0 1 123 | 1 0.176471 0.53 0.442623 0.21 0.186761 0.460507 0.0913749 0.05 0 1 124 | 1 0.117647 0.435 0 0.23 0 0.4307 0.296755 0.0666667 0 1 125 | 1 0.470588 0.425 0.45082 0.2 0 0.363636 0.0247652 0.35 0 1 126 | 1 0.352941 0.975 0.57377 0 0 0.460507 0.106746 0.166667 1 0 127 | 1 0.0588235 0.905 0.639344 0.42 0.346336 0.596125 0.503843 0.0166667 1 0 128 | 1 0.294118 0.365 0.491803 0 0 0.399404 0.0811272 0.1 0 1 129 | 1 0.705882 0.53 0.655738 0 0 0.351714 0.0251921 0.383333 0 1 130 | 1 0.117647 0.455 0.508197 0 0 0.406855 0.190863 0.0166667 0 1 131 | 1 0.0588235 0.535 0.557377 0.19 0 0.394933 0.0371477 0.05 0 1 132 | 1 0.470588 0.5 0.622951 0 0 0.576751 0.0478224 0.35 0 1 133 | 1 0.0588235 0.62 0.491803 0.32 0 0.533532 0.186166 0 0 1 134 | 1 0.117647 0.495 0.491803 0.17 0.189125 0.545455 0.16012 0 0 1 135 | 1 0.294118 0.39 0.393443 0 0 0.502235 0.245944 0.0666667 0 1 136 | 1 0.470588 0.475 0.590164 0 0 0.548435 0.173783 0.6 0 1 137 | 1 0.0588235 0.995 0.622951 0.43 0 0.639344 0.561913 0.0166667 1 0 138 | 1 0.0588235 0.355 0.393443 0.18 0.0898345 0.304024 0.104611 0.0166667 0 1 139 | 1 0.0588235 0.65 0.491803 0.23 0.200946 0.42623 0.262169 0 0 1 140 | 1 0.0588235 0.48 1 0 0 0.33383 0.0550811 0.1 0 1 141 | 1 0.411765 0.905 0.688525 0.21 0.22695 0.535022 0.216909 0.5 1 0 142 | 1 0.117647 0.34 0.508197 0.13 0.0177305 0.299553 0.0764304 0.0333333 0 1 143 | 1 0.470588 0.525 0.819672 0.36 0 0.645306 0.0687447 0.4 1 0 144 | 1 0.294118 0.545 0.614754 0.26 0 0.536513 0.199829 0.65 0 1 145 | 1 0.294118 0.475 0.590164 0.33 0 0.561848 0.12468 0.1 0 1 146 | 1 0.352941 0.46 0.754098 0 0 0.296572 0.0469684 0.116667 0 1 147 | 1 0.0588235 0.68 0.606557 0.5 0.241135 0.557377 0.137062 0.05 0 1 148 | 1 0.294118 0.44 0.639344 0.3 0 0.411326 0.0768574 0.266667 0 1 149 | 1 0.352941 0.4 0.540984 0.3 0 0.390462 0.100342 0.333333 0 1 150 | 1 0.176471 0.71 0.655738 0.15 0 0.482861 0.0520922 0.7 0 1 151 | 1 0 0.5 0.721311 0.6 0.130024 0.697466 0.377455 0.166667 0 1 152 | 1 0.352941 0.77 0.639344 0.41 0.165485 0.687034 0.210504 0.1 0 1 153 | 1 0.0588235 0.545 0.311475 0.18 0.141844 0.344262 0.140478 0.0833333 0 1 154 | 1 0.352941 0.555 0.52459 0.39 0 0.509687 0.0777114 0.05 0 1 155 | 1 0.352941 0.915 0.770492 0 0 0.608048 0.590521 0.4 0 1 156 | 1 0 0.52 0.52459 0.23 0.137116 0.414307 0.160547 0.0333333 0 1 157 | 1 0.117647 0.415 0.540984 0.23 0.0591017 0.479881 0.178907 0.0166667 0 1 158 | 1 0 0.485 0.52459 0.36 0.118203 0.548435 0.222886 0.0666667 0 1 159 | 1 0 0.595 0.52459 0.18 0.108747 0.520119 0.27626 0.0333333 0 1 160 | 1 0 0.53 0.57377 0.37 0.174941 0.587183 0.225021 0.0166667 0 1 161 | 1 0 0.99 0.540984 0.32 0.323877 0.615499 0.181042 0.116667 1 0 162 | 1 0.647059 0.675 0 0 0 0.779434 0.213493 0.316667 1 0 163 | 1 0.294118 0.525 0.590164 0.29 0.384161 0.549925 0.0345858 0.116667 0 1 164 | 1 0 0.615 0.590164 0 0 0.540984 0.0768574 0.516667 1 0 165 | 1 0.235294 0.475 0.52459 0 0 0.4769 0.0354398 0.166667 1 0 166 | 1 0.235294 0.615 0.508197 0 0 0.4769 0.0631939 0.233333 1 0 167 | 1 0.0588235 0.475 0.491803 0.18 0.0685579 0.356185 0.0777114 0.0166667 0 1 168 | 1 0.470588 0.54 0.57377 0 0 0.454545 0.374466 0.2 1 0 169 | 1 0.0588235 0.64 0.672131 0.17 0.216312 0.409836 0.0157985 0.0166667 0 1 170 | 1 0.411765 0.68 0.737705 0 0 0.445604 0.0563621 0.483333 0 1 171 | 1 0.764706 0.76 0.737705 0.33 0.034279 0.399404 0.278822 0.366667 1 0 172 | 1 0.235294 0.585 0.52459 0.27 0.141844 0.494784 0.0649018 0.05 0 1 173 | 1 0.117647 0.445 0.737705 0.3 0 0.499255 0.0913749 0.35 0 1 174 | 1 0.0588235 0 0.606557 0.2 0.0271868 0.412817 0.0943638 0 0 1 175 | 1 0.0588235 0.755 0.491803 0 0 0.388972 0.0431255 0.0166667 0 1 176 | 1 0.235294 0.555 0.590164 0.47 0.244681 0.552906 0.560205 0.583333 1 0 177 | 1 0.176471 0.87 0.47541 0.22 0.229314 0.490313 0.219898 0.25 1 0 178 | 1 0.470588 0.895 0.590164 0.42 0.153664 0.487332 0.273698 0.25 1 0 179 | 1 0.235294 0.705 0.606557 0 0 0.411326 0.0708796 0.316667 0 1 180 | 1 0.705882 0.46 0.508197 0.07 0.304965 0.411326 0.362084 0.383333 1 0 181 | 1 0 0.365 0 0 0 0.314456 0.112724 0.0666667 0 1 182 | 1 0.588235 0.645 0.508197 0.36 0 0.614009 0.154996 0.283333 1 0 183 | 1 0.352941 0.81 0.508197 0 0 0.362146 0.0426985 0.483333 1 0 184 | 1 0.117647 0.53 0.52459 0.35 0.140662 0.454545 0.564475 0.216667 0 1 185 | 1 0.117647 0.645 0.688525 0 0 0.417288 0.087959 0.1 0 1 186 | 1 0 0.705 0.688525 0.26 0 0.482861 0.15158 0.0166667 0 1 187 | 1 0.117647 0.49 0.491803 0.17 0.141844 0.517139 0.0512383 0.0166667 0 1 188 | 1 0 0.54 0.557377 0.2 0 0.406855 0.302733 0.183333 0 1 189 | 1 0.117647 0.56 0.557377 0.22 0.111111 0.508197 0.101196 0.0833333 0 1 190 | 1 0.411765 0.485 0.622951 0.32 0.107565 0.609538 0.338599 0.183333 1 0 191 | 1 0 0.76 0.672131 0.39 0.321513 0.61848 0.0819812 0.1 0 1 192 | 1 0.117647 0.73 0 0 0 0.409836 0.0691716 0.116667 1 0 193 | 1 0.0588235 0.57 0.540984 0.36 0.236407 0.567809 0.0900939 0 0 1 194 | 1 0.470588 0.5 0.606557 0.4 0.254137 0.587183 0.248933 0.366667 1 0 195 | 1 0 0.725 0 0 0 0.658718 0.235696 0.166667 1 0 196 | 1 0.647059 0.6 0.655738 0.37 0.177305 0.630402 0.301879 0.45 1 0 197 | 1 0.235294 0.42 0.737705 0.23 0.0661939 0.588674 0.0345858 0.0666667 0 1 198 | 1 0.470588 0.97 0.655738 0 0 0.388972 0.201964 0.766667 0 1 199 | 1 0.235294 0.685 0.688525 0 0 0.464978 0.0742955 0.15 0 1 200 | 1 0.470588 0.55 0.622951 0 0 0.414307 0.0678907 0.616667 0 1 201 | 1 0.470588 0.755 0.639344 0.32 0.248227 0.639344 0.18702 0.25 1 0 202 | 1 0.647059 0.775 0.622951 0.28 0.177305 0.496274 0.544406 0.5 1 0 203 | 1 0.0588235 0.7 0.606557 0.26 0.212766 0.359165 0.320239 0.0333333 0 1 204 | 1 0.294118 0.515 0.885246 0.37 0 0.584203 0.0969257 0.733333 0 1 205 | 1 0.411765 0.525 0 0 0 0 0.0969257 0.05 0 1 206 | 1 0.117647 0.61 0.42623 0.43 0.186761 0.539493 0.315115 0.116667 0 1 207 | 1 0.588235 0.895 0.57377 0 0 0.5231 0.0520922 0.266667 0 1 208 | 1 0.411765 0.76 0.721311 0.44 0 0.745156 0.110589 0.25 1 0 209 | 1 0.235294 0.72 0.47541 0.28 0.165485 0.439642 0.08924 0.266667 0 1 210 | 1 0.352941 0.625 0.557377 0.3 0.141844 0.447094 0.164816 0.183333 0 1 211 | 1 0.0588235 0.9 0 0 0 0.645306 0.087105 0.333333 1 0 212 | 1 0.235294 0.425 0.47541 0.22 0.0579196 0.414307 0.0973527 0.116667 0 1 213 | 1 0 0.62 0.459016 0.13 0.124113 0.324888 0.159693 0 0 1 214 | 1 0.235294 0.78 0.614754 0 0 0.719821 0.0683177 0.183333 1 0 215 | 1 0.294118 0.65 0.672131 0 0 0.582712 0.374893 0.266667 1 0 216 | 1 0.0588235 0.445 0.622951 0.34 0.0437352 0.464978 0.0486763 0.0333333 0 1 217 | 1 0.0588235 0.61 0.737705 0.51 0.260047 0.740686 0.105465 0.166667 1 0 218 | 1 0.176471 0.955 0.557377 0.15 0.153664 0.460507 0.0943638 0.216667 0 1 219 | 1 0.117647 0.73 0.57377 0.38 0.425532 0.417288 0.110589 0.133333 1 0 220 | 1 0.823529 0.5 0.639344 0.25 0.217494 0.545455 0.142613 0.416667 1 0 221 | 1 0.117647 0.5 0.540984 0.2 0.106383 0.490313 0.336892 0.116667 1 0 222 | 1 0.117647 0.6 0.442623 0 0 0.399404 0.160974 0.1 0 1 223 | 1 0.0588235 0.64 0.803279 0.41 0.0685579 0.4769 0.530743 0.2 1 0 224 | 1 0.0588235 0.395 0.655738 0.25 0.0437352 0.378539 0.215628 0.0166667 0 1 225 | 1 0.0588235 0.495 0.47541 0.1 0 0.378539 0.201964 0 0 1 226 | 1 0.294118 0.945 0.52459 0.33 0.384161 0.464978 0.215628 0.133333 1 0 227 | 1 0.588235 0.34 0.868852 0.23 0.0579196 0.529061 0.088386 0.433333 0 1 228 | 1 0.235294 0.68 0.57377 0 0 0.464978 0.471392 0.0166667 1 0 229 | 1 0.235294 0.495 0.622951 0.15 0.0602837 0.345753 0.0619129 0 0 1 230 | 1 0.588235 0.555 0.57377 0.27 0 0.409836 0.0269001 0.316667 1 0 231 | 1 0 0.94 0.672131 0.14 0.218676 0.4769 0.257899 0.0166667 1 0 232 | 1 0.117647 0.71 0.672131 0.18 0.0756501 0.368107 0.291631 0 0 1 233 | 1 0.529412 0.56 0.672131 0.32 0.206856 0.509687 0.0777114 0.25 1 0 234 | 1 0.470588 0.775 0.508197 0.26 0.585106 0.506706 0.198548 0.416667 1 0 235 | 1 0.0588235 0.715 0.688525 0.23 0.36643 0.631893 0.426132 0.0166667 0 1 236 | 1 0.588235 0.81 0.688525 0 0 0.412817 0.0444065 0.55 0 1 237 | 1 0.470588 0.98 0.622951 0.29 0.330969 0.558867 0.225021 0.6 1 0 238 | 1 0.176471 0.54 0.508197 0.24 0 0.387481 0.0619129 0.0666667 0 1 239 | 1 0.235294 0.855 0.590164 0 0 0.649776 0.171221 0.0833333 1 0 240 | 1 0.294118 0.715 0.639344 0 0 0.670641 0.0478224 0.433333 0 1 241 | 1 0.352941 0.535 0.721311 0 0 0.548435 0.277114 0.166667 0 1 242 | 1 0.470588 0.495 0.688525 0 0 0.527571 0.132365 0.483333 0 1 243 | 1 0.294118 0.68 0.688525 0.41 0.104019 0.52161 0.088813 0.233333 1 0 244 | 1 0.0588235 0.54 0.721311 0.19 0 0.403875 0.137489 0.05 0 1 245 | 1 0.176471 0.42 0.590164 0.32 0 0.554396 0.0807003 0.116667 0 1 246 | 1 0.235294 0.635 0.721311 0.11 0.183215 0.514158 0.222032 0.116667 0 1 247 | 1 0 0.585 0.655738 0.31 0.0626478 0.673621 0.00469684 0.05 0 1 248 | 1 0 0.945 0.852459 0.25 0 0.511177 0.152434 0.333333 1 0 249 | 1 0.176471 0.415 0.47541 0.31 0.0212766 0.511177 0.110162 0.0666667 0 1 250 | 1 0.647059 0.69 0.606557 0.26 0.170213 0.538003 0.204526 0.483333 1 0 251 | 1 0.470588 0.42 0.606557 0.31 0 0.57079 0.161827 0.3 0 1 252 | 1 0.411765 0.665 0.688525 0 0 0.599106 0.263877 0.266667 0 1 253 | 1 0 0.51 0.704918 0.17 0.124113 0.436662 0.26345 0.1 0 1 254 | 1 0.411765 0.57 0.622951 0.17 0.130024 0.354694 0.16567 0.166667 0 1 255 | 1 0.0588235 0.65 0.57377 0.13 0.124113 0.385991 0.168232 0.0166667 0 1 256 | 1 0.235294 0.59 0.57377 0 0 0.663189 0.35269 0.0833333 0 1 257 | 1 0.823529 0.875 0.508197 0.3 0 0.500745 0.0572161 0.283333 1 0 258 | 1 0.117647 0.475 0.442623 0.14 0.104019 0.388972 0.28608 0.0166667 0 1 259 | 1 0.0588235 0.44 0.508197 0.24 0.0520095 0.445604 0.146883 0.0333333 0 1 260 | 1 0.470588 0.835 0.868852 0.46 0.27305 0.560358 0.0371477 0.366667 1 0 261 | 1 0.176471 0.39 0.57377 0 0 0.484352 0.0819812 0.3 0 1 262 | 1 0 0.585 0.540984 0.31 0.222222 0.459016 0.177199 0.0166667 0 1 263 | 1 0.411765 0.535 0.606557 0 0 0.441133 0.0751494 0.166667 1 0 264 | 1 0.294118 0.695 0.52459 0.35 0.165485 0.42623 0.142186 0.0833333 0 1 265 | 1 0.117647 0.45 0.655738 0.14 0.0650118 0.363636 0.0730145 0.05 0 1 266 | 1 0.117647 0.72 0.47541 0.33 0.159574 0.470939 0.146883 0.0666667 1 0 267 | 1 0.529412 0.65 0.57377 0 0 0.509687 0.24509 0.4 1 0 268 | 1 0.0588235 0.98 0.622951 0.36 0.294326 0.543964 0.340307 0.133333 1 0 269 | 1 0.411765 0.92 0.688525 0.33 0 0.529061 0.118275 0.333333 1 0 270 | 1 0.294118 0.615 0.606557 0.4 0.0910165 0.508197 0.0815542 0.116667 0 1 271 | 1 0.352941 0.465 0.409836 0.3 0.0756501 0.42772 0.118702 0.0333333 0 1 272 | 1 0 0.735 0.696721 0.54 0 0.637854 0.126815 0.05 0 1 273 | 1 0.352941 0.67 0.655738 0.37 0.437352 0.688525 0.0683177 0.416667 1 0 274 | 1 0.705882 0.5 0.688525 0.33 0.124113 0.447094 0.175064 0.416667 0 1 275 | 1 0.411765 0.62 0.57377 0.33 0.254137 0.38003 0.0354398 0.266667 0 1 276 | 1 0.705882 0.44 0.606557 0.4 0.0638298 0.52608 0.128096 0.45 0 1 277 | 1 0.647059 0.425 0.606557 0 0 0.448584 0.0947908 0.233333 0 1 278 | 1 0.588235 0.45 0.696721 0.32 0 0.520119 0.318958 0.583333 1 0 279 | 1 0 0.685 0.557377 0.14 0.174941 0.369598 0.0277541 0 0 1 280 | 1 0.117647 0.785 0.606557 0.35 0.520095 0.587183 0.0239112 0.15 0 1 281 | 1 0.117647 0.635 0.47541 0.24 0.325059 0.412817 0.649872 0.0666667 0 1 282 | 1 0 0.43 0.557377 0.32 0 0.533532 0.0683177 0.0666667 0 1 283 | 1 0.0588235 0.785 0.590164 0.21 0.198582 0.38152 0.0192143 0.05 0 1 284 | 1 0.117647 0.585 0.737705 0.19 0.0839243 0.375559 0.100342 0 0 1 285 | 1 0.529412 0.56 0.672131 0.24 0 0.420268 0.514091 0.483333 1 0 286 | 1 0.0588235 0.475 0.606557 0.21 0.0862884 0.385991 0.254056 0.25 0 1 287 | 1 0.470588 0.77 0.639344 0.32 0 0.482861 0.15585 0.4 1 0 288 | 1 0.0588235 0.56 0.590164 0.3 0.208038 0.512668 0.192143 0.0666667 0 1 289 | 1 0.411765 0.735 0.622951 0 0 0.587183 0.0764304 0.366667 1 0 290 | 1 0.470588 0.665 0.590164 0 0 0.490313 0.0819812 0.3 1 0 291 | 1 0.470588 0.535 0.655738 0 0 0.366617 0.332195 0.216667 0 1 292 | 1 0.294118 0.52 0.606557 0 0 0.42921 0.0320239 0.45 0 1 293 | 1 0.0588235 0.415 0.557377 0 0 0.271237 0.233134 0.1 0 1 294 | 1 0.411765 0.895 0.778689 0.31 0 0.509687 0.0367208 0.65 0 1 295 | 1 0.0588235 0.5 0.540984 0.15 0.0661939 0.351714 0.251067 0.0833333 0 1 296 | 1 0.529412 0.615 0.57377 0.44 0.111111 0.493294 0.126388 0.316667 0 1 297 | 1 0.352941 0.685 0.5 0 0 0.360656 0.0311699 0.566667 0 1 298 | 1 0.0588235 0.515 0.245902 0.38 0.0981087 0.645306 0.0448335 0.2 0 1 299 | 1 0.764706 0.53 0.57377 0 0 0.509687 0.0738685 0.516667 0 1 300 | 1 0.294118 0.735 0.614754 0 0 0.445604 0.152007 0.116667 0 1 301 | 1 0.235294 0.495 0.590164 0.17 0 0.38152 0.0922289 0.116667 0 1 302 | 1 0 0.57 0.655738 0.34 0.336879 0.658718 0.0380017 0.1 0 1 303 | 1 0 0.81 0.622951 0.36 0 0.739195 0.122118 0.0833333 1 0 304 | 1 0.176471 0.555 0.508197 0 0 0.336811 0.0273271 0 0 1 305 | 1 0 0.5 0.57377 0.26 0.0591017 0.459016 0.221605 0 0 1 306 | 1 0.294118 0.79 0.57377 0 0 0.444113 0.0550811 0.7 0 1 307 | 1 0 0.505 0.622951 0 0 0.532042 0.0512383 0.0833333 0 1 308 | 1 0.235294 0.66 0.704918 0.31 0 0.417288 0.145602 0.7 0 1 309 | 1 0.0588235 0.515 0.655738 0.11 0.0969267 0.289121 0.176345 0.0166667 0 1 310 | 1 0.0588235 0.44 0.245902 0.42 0.117021 0.819672 0.17848 0.0833333 1 0 311 | 1 0 0.645 0.901639 0.46 0.153664 1 0.102904 0.0833333 1 0 312 | 1 0.235294 0.945 0.901639 0.31 0 0.424739 0.257045 0.266667 0 1 313 | 1 0.411765 0.515 0.540984 0.32 0 0.582712 0.113578 0.166667 1 0 314 | 1 0.117647 0.73 0.622951 0.35 0.229314 0.5693 0.107173 0.133333 0 1 315 | 1 0 0.625 0.557377 0 0 0.368107 0.0546541 0 0 1 316 | 1 0.176471 0.4 0.672131 0.31 0.0827423 0.509687 0.51836 0.1 1 0 317 | 1 0.0588235 0.765 0.672131 0.42 0.573286 0.605067 0.260034 0.0333333 0 1 318 | 1 0.0588235 0.64 0.393443 0.45 0.229314 0.603577 0.228437 0.05 1 0 319 | 1 0.0588235 0.475 0.540984 0.13 0.0449173 0.292101 0.109308 0.0666667 0 1 320 | 1 0.647059 0.715 0.770492 0.33 0.172577 0.545455 0.0751494 0.5 1 0 321 | 1 0.588235 0.74 0.688525 0.48 0.280142 0.560358 0.394108 0.5 1 0 322 | 1 0.411765 0.89 0.688525 0 0 0.594635 0.108027 0.333333 1 0 323 | 1 0 0.585 0 0 0 0.503726 0.364646 0.383333 0 1 324 | 1 0.176471 0.615 0.819672 0.35 0.283688 0.853949 0.342442 0.0166667 0 1 325 | 1 0.352941 0.455 0 0 0 0.444113 0.180615 0.166667 0 1 326 | 1 0.352941 0.735 0.655738 0 0 0.439642 0.0426985 0.483333 1 0 327 | 1 0.117647 0.415 0.532787 0.28 0.0780142 0.548435 0.235269 0.05 0 1 328 | 1 0.588235 0.695 0.655738 0 0 0.403875 0.581981 0.6 0 1 329 | 1 0.117647 0.45 0.557377 0.42 0 0.5693 0.181469 0.1 1 0 330 | 1 0.176471 0.75 0.622951 0 0 0.312966 0.0550811 0.266667 0 1 331 | 1 0 0.885 0.491803 0.29 0.565012 0.515648 0.424424 0 1 0 332 | 1 0.470588 0.63 0.721311 0.36 0.12766 0.57377 0.115713 0.466667 0 1 333 | 1 0.235294 0.92 0.639344 0.39 0.327423 0.551416 0.0794193 0.166667 1 0 334 | 1 0.0588235 0.61 0.52459 0.32 0.184397 0.5231 0.262169 0.15 1 0 335 | 1 0.411765 0.795 0.52459 0 0 0.408346 0.0922289 0.316667 0 1 336 | 1 0.0588235 0.5 0.590164 0.12 0.0827423 0.377049 0.247652 0.116667 0 1 337 | 1 0.176471 0.74 0.540984 0.25 0 0.484352 0.0760034 0.0166667 0 1 338 | 1 0.294118 0.575 0.803279 0 0 0.788376 0.0559351 0.116667 1 0 339 | 1 0.117647 0.51 0.704918 0.36 0.141844 0.678092 0.0209223 0.0333333 1 0 340 | 1 0.176471 0.61 0.639344 0 0 0.342772 0.0751494 0.316667 0 1 341 | 1 0 0.51 0.52459 0.46 0.0921986 0.605067 0.17848 0 0 1 342 | 1 0.117647 0.62 0.557377 0.28 0.242317 0.490313 0.340307 0.15 1 0 343 | 1 0.529412 0.7 0.770492 0 0 0.487332 0.280102 0.4 1 0 344 | 1 0.0588235 0.665 0.836066 0.28 0.165485 0.488823 0.0666097 0.4 1 0 345 | 1 0.0588235 0.45 0.508197 0.18 0.06974 0.374069 0.508113 0.0666667 0 1 346 | 1 0.294118 0.72 0.672131 0.26 0.336879 0.4769 0.159693 0.616667 1 0 347 | 1 0.588235 0.575 0.803279 0 0 0.357675 0.403074 0.216667 0 1 348 | 1 0.117647 0.64 0.639344 0.37 0.21513 0.645306 0.489325 0.166667 1 0 349 | 1 0.117647 0.56 0.704918 0.42 0.189125 0.57228 0.0717336 0.116667 0 1 350 | 1 0 0.64 0.557377 0.19 0.212766 0.454545 0.560632 0.0666667 1 0 351 | 1 0.529412 0.53 0.42623 0 0 0.464978 0.12895 0.35 0 1 352 | 1 0.117647 0.605 0.57377 0.32 0.112293 0.582712 0.345004 0.0333333 0 1 353 | 1 0.529412 0.82 0.688525 0.21 0 0.459016 0.32152 0.183333 1 0 354 | 1 0.117647 0.575 0.52459 0.22 0 0.459016 0.146456 0 0 1 355 | 1 0.0588235 0.695 0.508197 0.41 0.567376 0.606557 0.195559 0 0 1 356 | 1 0.117647 0.775 0.42623 0.27 0.638298 0.576751 0.0691716 0.0666667 1 0 357 | 1 0.176471 0.555 0.737705 0.12 0.0921986 0.423249 0.178053 0.133333 0 1 358 | 1 0.235294 0.755 0.737705 0.38 0 0.442623 0.0922289 0.25 0 1 359 | 1 0.0588235 0.595 0.721311 0.41 0.200946 0.675112 0.183177 0.0833333 0 1 360 | 1 0.0588235 0.63 0.459016 0.29 0.179669 0.42772 0.308711 0 0 1 361 | 1 0.117647 0.44 0.47541 0.26 0.0189125 0.423249 0.293766 0.0166667 0 1 362 | 1 0 0.695 0.508197 0.17 0.248227 0.329359 0.0550811 0 0 1 363 | 1 0.176471 0.53 0.590164 0 0 0.384501 0.0550811 0.1 0 1 364 | 1 0.117647 0.495 0 0 0 0.330849 0.0128096 0.0333333 0 1 365 | 1 0.294118 0.605 0.590164 0.23 0.132388 0.390462 0.0713066 0.15 0 1 366 | 1 0.0588235 0.59 0.47541 0.36 0.111111 0.496274 0.0781383 0.0333333 0 1 367 | 1 0.235294 0.45 0.721311 0.47 0.0638298 0.561848 0.121264 0.133333 0 1 368 | 1 0 0.895 0.409836 0.36 0.187943 0.563338 0.160974 0.0166667 1 0 369 | 1 0.0588235 0.595 0.704918 0.39 0.260047 0.679583 0.311699 0.133333 1 0 370 | 1 0.764706 0.765 0.721311 0.37 0.165485 0.605067 0.467976 0.3 0 1 371 | 1 0.176471 0.9 0.52459 0.25 0.0827423 0.506706 0.0824082 0.0833333 0 1 372 | 1 0.470588 0.59 0.590164 0.19 0 0.344262 0.596926 0.416667 0 1 373 | 1 0.0588235 0.62 0.606557 0.36 0 0.414307 0.00939368 0.15 0 1 374 | 1 0.0588235 0.905 0.52459 0.3 0.212766 0.508197 0.106746 0.283333 1 0 375 | 1 0.294118 0.585 0.704918 0.3 0.124113 0.582712 0.0738685 0.35 0 1 376 | 1 0.117647 0.775 0.606557 0.17 0.113475 0.396423 0.15158 0.1 1 0 377 | 1 0.117647 0.54 0.52459 0 0 0.459016 0.0341588 0 0 1 378 | 1 0.117647 0.54 0.42623 0.26 0.0744681 0.484352 0.102477 0.0166667 0 1 379 | 1 0.0588235 0.585 0.721311 0.24 0.171395 0.514158 0.13877 0.316667 1 0 380 | 1 0.470588 0.94 0.639344 0 0 0.71386 0.0251921 0.366667 1 0 381 | 1 0.235294 0.495 0.557377 0.38 0 0.488823 0.028608 0.2 0 1 382 | 1 0.0588235 0.535 0.409836 0.19 0 0.421759 0.0439795 0.133333 0 1 383 | 1 0 0.505 0.532787 0.28 0 0.366617 0.0678907 0.0166667 0 1 384 | 1 0.176471 0.51 0.360656 0.2 0.111111 0.459016 0.137489 0.0833333 0 1 385 | 1 0.352941 0.575 0.491803 0.39 0 0.502235 0.0713066 0.316667 1 0 386 | 1 0.0588235 0.6 0.655738 0.48 0.236407 0.579732 0.462852 0.333333 0 1 387 | 1 0.294118 0.585 0.754098 0 0 0.508197 0.110589 0.283333 0 1 388 | 1 0.647059 0.68 0.688525 0.35 0.153664 0.421759 0.0777114 0.35 1 0 389 | 1 0.0588235 0.58 0.57377 0.28 0 0.408346 0.0538002 0 0 1 390 | 1 0.588235 0.47 0.590164 0.18 0 0.344262 0.220751 0.583333 0 1 391 | 1 0.176471 0.79 0.57377 0.3 0.387707 0.529061 0.113578 0.233333 1 0 392 | 1 0.529412 0.825 0.721311 0 0 0.453055 0.0956447 0.466667 1 0 393 | 1 0.117647 0.405 0.590164 0.15 0.0898345 0.448584 0.200256 0.0666667 0 1 394 | 1 0.0588235 0.355 0.508197 0 0 0.324888 0.144321 0.0833333 0 1 395 | 1 0.117647 0.46 0.42623 0 0 0.448584 0.0269001 0.0166667 0 1 396 | 1 0 0.73 0.672131 0 0 0.603577 0.727156 0.383333 0 1 397 | 1 0.0588235 0.405 0.590164 0.18 0.0472813 0.396423 0.087532 0.05 0 1 398 | 1 0.176471 0.575 0.540984 0.39 0.165485 0.567809 0.030743 0.116667 0 1 399 | 1 0.117647 0.625 0.491803 0.2 0.165485 0.503726 0.00426985 0.166667 0 1 400 | 1 0.176471 0.555 0.459016 0.39 0 0.448584 0.204526 0.15 0 1 401 | 1 0.176471 0.65 0.639344 0.23 0.0933806 0.423249 0.104611 0.216667 1 0 402 | 1 0.294118 0.425 0.606557 0.22 0 0.432191 0.489325 0.183333 1 0 403 | 1 0.117647 0.5 0.442623 0.28 0.124113 0.563338 0.179334 0.05 0 1 404 | 1 0.235294 0.6 0.557377 0 0 0.441133 0.269428 0.216667 0 1 405 | 1 0.0588235 0.53 0.622951 0 0 0.558867 0.0508113 0.0833333 0 1 406 | 1 0.117647 0.5 0.52459 0.23 0 0.442623 0.123826 0 0 1 407 | 1 0.352941 0.585 0.786885 0 0 0.42772 0.0337319 0.15 0 1 408 | 1 0.176471 0.66 0.655738 0 0 0.512668 0.138343 0.383333 1 0 409 | 1 0.529412 0.455 0.557377 0 0 0.360656 0.0520922 0.616667 0 1 410 | 1 0.235294 0.72 0.672131 0.32 0 0.57377 0.203245 0.266667 1 0 411 | 1 0 0.51 0.614754 0.23 0 0 0.210931 0 0 1 412 | 1 0.235294 0.79 0.639344 0 0 0.490313 0.309564 0.166667 1 0 413 | 1 0.352941 0.83 0.606557 0 0 0.396423 0.0964987 0.75 0 1 414 | 1 0.0588235 0.385 0.459016 0.3 0.0661939 0.496274 0.500854 0.05 0 1 415 | 1 0.0588235 0.5 0.540984 0.29 0.231678 0.4769 0.156277 0.35 0 1 416 | 1 0.176471 0.515 0.590164 0.3 0.179669 0.411326 0.278395 0.1 0 1 417 | 1 0.176471 0.405 0.704918 0.16 0.0780142 0.409836 0.0973527 0.0166667 0 1 418 | 1 0.470588 0.37 0.57377 0.4 0.0579196 0.52608 0.26772 0.3 0 1 419 | 1 0.176471 0.445 0.606557 0.16 0.100473 0.453055 0.201964 0.283333 0 1 420 | 1 0.352941 0.515 0.540984 0 0 0.362146 0.0730145 0.133333 0 1 421 | 1 0.0588235 0.625 0.409836 0.4 0.1974 0.496274 0.377455 0.116667 1 0 422 | 1 0.470588 0.455 0.672131 0 0 0.530551 0.217336 0.783333 0 1 423 | 1 1 0.815 0.590164 0.41 0.134752 0.609538 0.315542 0.433333 1 0 424 | 1 0.294118 0.53 0.672131 0.3 0 0.588674 0.088813 0.283333 0 1 425 | 1 0.352941 0.425 0.639344 0 0 0.464978 0.129804 0.35 0 1 426 | 1 0.235294 0.625 0.57377 0.18 0.144208 0.4307 0.455167 0.4 1 0 427 | 1 0 0.52 0.622951 0 0 0.274218 0.215201 0.1 0 1 428 | 1 0.117647 0.47 0.622951 0.18 0.0780142 0.470939 0.243809 0.0333333 0 1 429 | 1 0.235294 0.56 0.639344 0.4 0 0.587183 0.0674637 0.283333 0 1 430 | 1 0.529412 0.725 0.721311 0.34 0.195035 0.451565 0.295901 0.533333 1 0 431 | 1 0.176471 0.645 0.52459 0.29 0.135934 0.393443 0.060205 0.116667 1 0 432 | 1 0.117647 0.375 0.52459 0.24 0.0650118 0.442623 0.12468 0.2 0 1 433 | 1 0.705882 0.42 0.590164 0.31 0 0.442623 0.0935098 0.416667 1 0 434 | 1 0.176471 0.305 0.672131 0.28 0 0.512668 0.0704526 0.416667 0 1 435 | 1 0.0588235 0.455 0.442623 0.25 0.118203 0.375559 0.0666097 0.0333333 0 1 436 | 1 0.0588235 0.82 0.672131 0.43 0.0791962 0.488823 0.112297 0.483333 0 1 437 | 1 0 0.705 0 0 0 0.631893 0.0542272 0.133333 1 0 438 | 1 0.0588235 0.595 0.360656 0.47 0.0744681 0.529061 0.0862511 0.0666667 0 1 439 | 1 0.0588235 0.48 0.52459 0.27 0.102837 0.494784 0.0900939 0 0 1 440 | 1 0.294118 0.695 0.655738 0.35 0.189125 0.470939 0.120837 0.0666667 1 0 441 | 1 0.470588 0.905 0.557377 0.36 0.585106 0.448584 0.229291 0.65 1 0 442 | 1 0.411765 0.405 0.639344 0.4 0.0567376 0.695976 0.0781383 0.35 0 1 443 | 1 0.529412 0.725 0.655738 0.46 0.153664 0.564829 0.238685 0.316667 1 0 444 | 1 0 0.635 0.655738 0.37 0.248227 0.540984 0.309991 0.0333333 0 1 445 | 1 0.647059 0.555 0.688525 0.4 0 0.697466 0.361657 0.4 1 0 446 | 1 0.411765 0.71 0.491803 0.33 0.224586 0.42921 0.260034 0.666667 0 1 447 | 1 0.411765 0.595 0 0 0 0.375559 0.0559351 0.266667 0 1 448 | 1 0.0588235 0.715 0.606557 0.22 0.072104 0.390462 0.0760034 0 0 1 449 | 1 0.0588235 0.435 0.557377 0.34 0.0910165 0.560358 0.137916 0.05 0 1 450 | 1 0.411765 0.415 0.639344 0.26 0.0839243 0.436662 0.294193 0.25 0 1 451 | 1 0.470588 0.6 0.639344 0 0 0.372578 0.141332 0.716667 0 1 452 | 1 0.0588235 0.445 0.540984 0.23 0.111111 0.418778 0.0380017 0 0 1 453 | 1 0.470588 0.915 0.52459 0 0 0.347243 0.253629 0.183333 1 0 454 | 1 0.352941 0.625 0.639344 0.31 0 0.411326 0.207942 0.466667 1 0 455 | 1 0.0588235 0.355 0.639344 0.5 0.0531915 0.494784 0.146883 0 0 1 456 | 1 0.176471 0.63 0.721311 0.41 0.277778 0.585693 0.267293 0.1 0 1 457 | 1 0.588235 0.625 0.57377 0.26 0.135934 0.463487 0.0542272 0.333333 1 0 458 | 1 0 0.535 0.491803 0.25 0 0.393443 0.0234842 0.0333333 0 1 459 | 1 0.529412 0.285 0.655738 0.37 0 0.488823 0.00768574 0.333333 0 1 460 | 1 0.294118 0.43 0.557377 0.28 0.0839243 0.450075 0.122118 0.05 0 1 461 | 1 0.117647 0.44 0.606557 0.19 0.0626478 0.432191 0.0644748 0.0166667 0 1 462 | 1 0.176471 0.565 0.360656 0.13 0 0.33383 0.0264731 0.0166667 0 1 463 | 1 0.0588235 0.41 0.52459 0.13 0.112293 0.315946 0.143894 0.0333333 0 1 464 | 1 0.235294 0.45 0 0 0 0.417288 0.227156 0.166667 0 1 465 | 1 0.588235 0.46 0.508197 0 0 0.385991 0.0380017 0.166667 0 1 466 | 1 0.235294 0.77 0.590164 0.29 0.148936 0.466468 0.111016 0.266667 0 1 467 | 1 0.176471 0.85 0.52459 0.37 0.265957 0.514158 0.118702 0.15 1 0 468 | 1 0.764706 0.79 0.934426 0 0 0.630402 0.0764304 0.383333 1 0 469 | 1 0.352941 0.97 0.639344 0 0 0.350224 0.0217763 0.633333 1 0 470 | 1 0.0588235 0.575 0.57377 0.3 0.113475 0.515648 0.19257 0.183333 1 0 471 | 1 0.294118 0 0.655738 0.32 0 0.611028 0.114432 0.266667 1 0 472 | 1 0.235294 0.46 0.655738 0 0 0.628912 0.0678907 0.133333 0 1 473 | 1 0.411765 0.805 0.704918 0 0 0.453055 0.0371477 0.433333 1 0 474 | 1 0.764706 0.63 0.737705 0 0 0.646796 0.215628 0.35 1 0 475 | 1 0.176471 0.695 0.442623 0 0 0.38152 0.138343 0.0166667 1 0 476 | 1 0.0588235 0.815 0.590164 0 0 0.581222 0.488471 0.2 1 0 477 | 1 0.411765 0.625 0.704918 0 0 0.560358 0.0964987 0.5 0 1 478 | 1 0 0.655 0 0 0 0.643815 0.0819812 0.0833333 1 0 479 | 1 0.470588 0.93 0.737705 0.35 0.265957 0.514158 0.14731 0.266667 1 0 480 | 1 0.294118 0.61 0.704918 0 0 0.517139 0.0905209 0.2 0 1 481 | 1 0 0.645 0.655738 0 0 0.464978 0.266866 0.133333 0 1 482 | 1 0.352941 0.525 0.57377 0.32 0.0803783 0.459016 0.0187874 0.266667 0 1 483 | 1 0.235294 0.64 0.57377 0 0 0.511177 0.0960717 0.05 0 1 484 | 1 0.529412 0.76 0.639344 0.34 0.202128 0.509687 0.347993 0.2 1 0 485 | 1 0.588235 0.375 0.672131 0 0 0.496274 0.0789923 0.283333 0 1 486 | 1 0.117647 0.61 0.57377 0.27 0 0.548435 0.11187 0.1 0 1 487 | 1 0.352941 0.51 0.672131 0 0 0.459016 0.0435525 0.25 1 0 488 | 1 0.117647 0.615 0.393443 0.32 0.195035 0.627422 0.188728 0.0833333 0 1 489 | 1 0.0588235 0.64 0.721311 0.39 0.130024 0.543964 0.418019 0.266667 1 0 490 | 1 0.176471 0.81 0.42623 0.38 0 0.554396 0.24509 0.05 1 0 491 | 1 0.176471 0.705 0 0 0 0.447094 0.291631 0.1 1 0 492 | 1 0.117647 0.705 0.47541 0.34 0.1513 0.378539 0.265158 0.05 0 1 493 | 1 0 0.835 0 0 0 0.481371 0.324936 0.15 1 0 494 | 1 0.176471 0.865 0.639344 0.39 0.218676 0.503726 0.380871 0.166667 1 0 495 | 1 0.0588235 0.545 0.491803 0.08 0.21513 0.378539 0.37105 0 0 1 496 | 1 0.352941 0.57 0.721311 0 0 0.414307 0.0721605 0.75 0 1 497 | 1 0 0.655 0.540984 0.4 0 0.511177 0.0503843 0.0166667 1 0 498 | 1 0.0588235 0.715 0.704918 0.3 0.390071 0.448584 0.347566 0.0333333 0 1 499 | 1 0.117647 0.45 0.491803 0 0 0.350224 0.0482494 0.0666667 0 1 500 | 1 0 0.535 0.622951 0 0 0.675112 0.259607 0.05 0 1 501 | 1 0 0.685 0.688525 0.27 0 0.406855 0.0653288 0.633333 0 1 502 | 1 0.411765 0.8 0.442623 0.32 0.206856 0.454545 0.217763 0.3 1 0 503 | 1 0.117647 0.505 0.47541 0.17 0.313239 0.360656 0.228864 0.0333333 0 1 504 | 1 0.235294 0.625 0.655738 0 0 0.481371 0.195559 0.1 1 0 505 | 1 0.294118 0.775 0.688525 0.44 0.644208 0.576751 0.230999 0.216667 0 1 506 | 1 0 0.69 0 0 0 0.540984 0.365073 0.0666667 1 0 507 | 1 0.411765 0.97 0.557377 0.28 0 0.535022 0.284799 0.333333 1 0 508 | 1 0.588235 0.505 0.622951 0.48 0.212766 0.490313 0.0397096 0.7 0 1 509 | 1 0.176471 0.48 0.459016 0.34 0.135934 0.368107 0.369769 0.3 0 1 510 | 1 0 0.495 0 0 0 0.372578 0.0747225 0.0166667 0 1 511 | 1 0 0.675 0.770492 0.46 0.171395 0.605067 0.087959 0.0833333 0 1 512 | 1 0.0588235 0.44 0.639344 0.29 0.0898345 0.4769 0.122545 0.133333 0 1 513 | 1 0.294118 0.22 0.508197 0 0 0.372578 0.217336 0.25 0 1 514 | 1 0.117647 0.435 0.47541 0.16 0.0614657 0.487332 0.0375747 0.0666667 0 1 515 | 1 0.0588235 0.945 0.491803 0.23 1 0.448584 0.136635 0.633333 1 0 516 | 1 0.411765 0.5 0 0 0 0.447094 0.173356 0.183333 1 0 517 | 1 0.294118 0.57 0.606557 0 0 0.371088 0.284372 0.6 0 1 518 | 1 0.176471 0.62 0.655738 0.33 0.153664 0.494784 0.0969257 0.0833333 0 1 519 | 1 0.235294 0.455 0.57377 0.32 0.104019 0.493294 0.157131 0.0166667 0 1 520 | 1 0.117647 0.54 0.508197 0.32 0.0661939 0.375559 0.0213493 0 0 1 521 | 1 0.0588235 0.625 0.57377 0.24 0.130024 0.362146 0.0610589 0.0666667 0 1 522 | 1 0.352941 0.51 0.737705 0.39 0 0.532042 0.254483 0.116667 0 1 523 | 1 0.294118 0.935 0.622951 0.27 0.244681 0.649776 0.408198 0.533333 1 0 524 | 1 0.117647 0.495 0.42623 0.15 0.111111 0.366617 0.238685 0 0 1 525 | 1 0.411765 0.68 0.606557 0.26 0.159574 0.387481 0.242955 0.5 0 1 526 | 1 0 0.51 0.42623 0 0 0.374069 0 0 0 1 527 | 1 0 0.7 0.532787 0.26 0.153664 0.634873 0.150726 0.05 1 0 528 | 1 0 0.675 0.557377 0.42 0.295508 0.630402 0.122545 0.05 1 0 529 | 1 0.117647 0.525 0.614754 0 0 0.347243 0.205807 0.533333 0 1 530 | 1 0.117647 0.695 0.614754 0 0 0.38152 0.0380017 0.133333 0 1 531 | 1 0 0.475 0.52459 0.39 0.124113 0.66468 0.122972 0.0166667 0 1 532 | 1 0.352941 0.525 0.655738 0.28 0 0.484352 0.341588 0.0833333 0 1 533 | 1 0.117647 0.53 0.459016 0.27 0.195035 0.432191 0.148591 0.0166667 0 1 534 | 1 0.117647 0.985 0.57377 0.45 0.641844 0.454545 0.0341588 0.533333 1 0 535 | 1 0.588235 0.84 0.606557 0 0 0.566319 0.195986 0.216667 1 0 536 | 1 0.0588235 0.565 0.52459 0.35 0 0.500745 0.198548 0 1 0 537 | 1 0.411765 0.935 0.557377 0.39 0.359338 0.561848 0.0751494 0.333333 1 0 538 | 1 0.764706 0.645 0 0.3 0 0.594635 0.20965 0.383333 1 0 539 | 1 0.235294 0.645 0.704918 0.2 0.319149 0.5231 0.0653288 0.0333333 0 1 540 | 1 0.117647 0.47 0.557377 0.18 0.0898345 0.387481 0.206234 0 0 1 541 | 1 0.235294 0.55 0.540984 0 0 0.47541 0.167805 0.133333 0 1 542 | 1 0.117647 0.48 0.557377 0.13 0.0579196 0.314456 0.242955 0.0833333 0 1 543 | 1 0 0.535 0.508197 0.3 0.0874704 0.545455 0.289923 0.0666667 1 0 544 | 1 0.176471 0.42 0.557377 0.3 0.125296 0.47541 0.219044 0.0666667 0 1 545 | 1 0 0.66 0.639344 0 0 0.482861 0.1345 0 0 1 546 | 1 0.117647 0.465 0.52459 0.32 0.189125 0.566319 0.254483 0.0333333 1 0 547 | 1 0.411765 0.665 0.721311 0.15 0.183215 0.482861 0.0785653 0.266667 0 1 548 | 1 0.529412 0.92 0.696721 0.15 0 0.447094 0.484629 0.466667 1 0 549 | 1 0.0588235 0.555 0.704918 0.19 0 0.448584 0.0277541 0.0333333 0 1 550 | 1 0.470588 0.625 0.786885 0 0 0 0.0657558 0.55 1 0 551 | 1 0.0588235 0.5 0.606557 0.12 0.0543735 0.290611 0.030316 0.116667 0 1 552 | 1 0 0.62 0.57377 0.2 0 0.408346 0.0751494 0.25 1 0 553 | 1 0.235294 0.475 0.57377 0.32 0 0.47839 0.22801 0.05 0 1 554 | 1 0.411765 0.84 0.721311 0.42 0.379433 0.5693 0.302733 0.316667 1 0 555 | 1 0.352941 0.545 0.491803 0.27 0 0.372578 0.0546541 0.1 0 1 556 | 1 0.235294 0.475 0.491803 0.32 0 0.527571 0.087959 0.116667 0 1 557 | 1 0.0588235 0.86 0.557377 0.49 0.684397 0.631893 0.266439 0.116667 1 0 558 | 1 0 0.865 0.639344 0.32 0.313239 0.692996 0.461571 0.616667 0 1 559 | 1 0.294118 0.485 0.622951 0.27 0 0.530551 0.128096 0.516667 1 0 560 | 1 0.117647 0.555 0.491803 0 0 0.390462 0.113151 0.0333333 0 1 561 | 1 0.0588235 0.475 0.672131 0.25 0.212766 0.52161 0.0661827 0.366667 1 0 562 | 1 0.294118 0.48 0.606557 0.18 0.0791962 0.500745 0.3924 0.366667 0 1 563 | 1 0.117647 0.34 0.57377 0.32 0.0780142 0.372578 0.0465414 0.0666667 0 1 564 | 1 0.0588235 0.965 0.409836 0.16 0.443262 0.385991 0.246371 0.05 0 1 565 | 1 0.294118 0.84 0.52459 0 0 0.490313 0.0243382 0.333333 1 0 566 | 1 0.352941 0.625 0.622951 0 0 0.503726 0.0183604 0.55 1 0 567 | 1 0.117647 0.525 0.655738 0.45 0.225768 0.502235 0.270282 0.133333 1 0 568 | 1 0.235294 0.655 0.557377 0.21 0.196217 0.493294 0.0350128 0.116667 0 1 569 | 1 0.176471 0.495 0.442623 0.19 0.101655 0.38152 0.0324509 0.05 0 1 570 | 1 0.235294 0.575 0.590164 0 0 0.4307 0.127242 0.416667 1 0 571 | 1 0.529412 0.6 0.590164 0.22 0.0661939 0.309985 0.279675 0.45 0 1 572 | 1 0.411765 0.53 0.491803 0.24 0 0.394933 0.0930828 0.133333 1 0 573 | 1 0.117647 0.54 0.508197 0.1 0.328605 0.377049 0.342869 0.0166667 0 1 574 | 1 0.176471 0.565 0.409836 0.1 0.100473 0.439642 0.233988 0.0666667 0 1 575 | 1 0.117647 0.87 0.721311 0.37 0.141844 0.663189 0.242528 0.05 1 0 576 | 1 0.0588235 0.485 0.57377 0.4 0 0.567809 0.059778 0.15 0 1 577 | 1 0.235294 0.66 0 0 0 0.490313 0.0956447 0.0333333 1 0 578 | 1 0.294118 0.495 0.606557 0.27 0 0.432191 0.0533732 0.183333 0 1 579 | 1 0.0588235 0.73 0.459016 0 0 0.442623 0.207515 0.133333 0 1 580 | 1 0 0.73 0.57377 0 0 0.564829 0.109308 0.116667 1 0 581 | 1 0.117647 0.525 0.47541 0.4 0.111111 0.520119 0.0627669 0.0666667 0 1 582 | 1 0.117647 0.46 0.622951 0.2 0 0.360656 0.691716 0.116667 0 1 583 | 1 0.470588 0.62 0.622951 0.24 0.70922 0.42772 0.260034 0.516667 1 0 584 | 1 0 0.455 0.655738 0 0 0.482861 0.223313 0.1 0 1 585 | 1 0 0.755 0.737705 0.46 0 0.627422 0.125107 0 1 0 586 | 1 0.411765 0.935 0.409836 0.33 0.463357 0.505216 0.319385 0.216667 1 0 587 | 1 0.235294 0.55 0.754098 0 0 0.560358 0.0482494 0.15 0 1 588 | 1 0.411765 0.75 0.540984 0.42 0.404255 0.517139 0.273271 0.35 0 1 589 | 1 0.352941 0.645 0.737705 0.07 0.385343 0.292101 0.215201 0.65 0 1 590 | 1 0.176471 0.435 0.491803 0.18 0 0.324888 0.156277 0 0 1 591 | 1 0.0588235 0.595 0.442623 0.13 0.0591017 0.33234 0.0542272 0.05 0 1 592 | 1 0.588235 0.505 0.704918 0.37 0 0.679583 0.451751 0.283333 1 0 593 | 1 0.352941 0.62 0.590164 0 0 0.411326 0.123826 0.133333 1 0 594 | 1 0.529412 0.61 0.459016 0 0 0.496274 0.442357 0.2 1 0 595 | 1 0.176471 0.91 0.606557 0 0 0.454545 0.114005 0.133333 1 0 596 | 1 0.176471 0.4 0 0 0 0 0.0409906 0.0166667 0 1 597 | 1 0.117647 0.6 0.622951 0.37 0.124113 0.591654 0.058497 0.133333 0 1 598 | 1 0.176471 0.625 0.47541 0 0 0.470939 0.0311699 0.05 0 1 599 | 1 0.352941 0.52 0.606557 0.18 0.184397 0.445604 0.274979 0.333333 1 0 600 | 1 0.470588 0.6 0 0 0 0.447094 0.0448335 0.283333 1 0 601 | 1 0.117647 0.355 0.57377 0.27 0 0.417288 0.216909 0.0166667 0 1 602 | 1 0.0588235 0.42 0.52459 0.23 0.135934 0.549925 0.167805 0.116667 0 1 603 | 1 0.705882 0.7 0.672131 0.43 0.384161 0.584203 0.192143 0.616667 1 0 604 | 1 0.235294 0.48 0.459016 0.17 0.0579196 0.309985 0.11187 0.0833333 0 1 605 | 1 0.176471 0.495 0.508197 0.19 0.0874704 0.324888 0.0858241 0.0833333 0 1 606 | 1 0.117647 0.985 0.57377 0.99 0 0.517139 0.212212 0.683333 1 0 607 | 1 0.0588235 0.525 0.47541 0 0 0.362146 0.0465414 0 0 1 608 | 1 0 0.615 0.721311 0.37 0 0.52459 0.0508113 0.133333 0 1 609 | 1 0.117647 0.595 0 0 0 0.292101 0.321947 0.85 0 1 610 | 1 0.117647 0.65 0.786885 0 0 0.336811 0.0811272 0 0 1 611 | 1 0 0.525 0.557377 0.22 0 0.298063 0.0674637 0.0166667 0 1 612 | 1 0.352941 0.57 0 0 0 0 0.0473954 0.0833333 0 1 613 | 1 0.352941 0.46 0.508197 0.32 0.148936 0.4769 0.0029889 0.416667 0 1 614 | 1 0.0588235 0.485 0.557377 0.21 0 0.405365 0.434244 0.0166667 0 1 615 | 1 0.647059 0.635 0.868852 0 0 0.581222 0.0478224 0.5 0 1 616 | 1 0.0588235 0.535 0.590164 0.3 0.0969267 0.459016 0.31725 0.05 0 1 617 | 1 0.588235 0.805 0.557377 0.23 0.156028 0.38003 0.105892 0.433333 1 0 618 | 1 0.529412 0.82 0.639344 0 0 0.488823 0.029889 0.4 1 0 619 | 1 0.470588 0.56 0.590164 0 0 0.351714 0.325363 0.616667 0 1 620 | 1 0.294118 0.68 0.672131 0 0 0 0.239966 0.8 0 1 621 | 1 0.176471 0.965 0.57377 0.31 0 0.520119 0.0695986 0.0666667 1 0 622 | 1 0.235294 0.58 0.590164 0.12 0.102837 0.329359 0.164389 0.266667 0 1 623 | 1 0.0588235 0.63 0.491803 0 0 0.448584 0.115713 0.433333 1 0 624 | 1 0.235294 0.73 0.754098 0 0 0.464978 0.19684 0.666667 1 0 625 | 1 0.0588235 0.555 0.508197 0.13 0.21513 0.357675 0.0256191 0.0333333 0 1 626 | 1 0.352941 0.755 0.508197 0.31 0.141844 0.529061 0.262169 0.116667 0 1 627 | 1 0.176471 0.37 0.557377 0.28 0.0531915 0.442623 0.0918019 0.0333333 0 1 628 | 1 0.0588235 0.505 0.409836 0.15 0.0425532 0.360656 0.191289 0.0833333 0 1 629 | 1 0.0588235 0.485 0.52459 0.19 0.0969267 0.271237 0.0943638 0 0 1 630 | 1 0.352941 0.615 0.590164 0.45 0.271868 0.500745 0.279675 0.216667 0 1 631 | 1 0.647059 0.515 0.557377 0.4 0 0.688525 0.0204953 0.35 0 1 632 | 1 0.0588235 0.4 0.606557 0.11 0.070922 0.447094 0.191716 0.0166667 0 1 633 | 1 0.529412 0.77 0.639344 0.3 0.118203 0.460507 0.0367208 0.4 0 1 634 | 1 0.705882 0.7 0.696721 0.33 0 0.557377 0.0708796 0.333333 0 1 635 | 1 0 0.565 0.622951 0 0 0.496274 0.0853971 0.0333333 1 0 636 | 1 0 0.475 0.696721 0.25 0.0425532 0.557377 0.0721605 0.05 1 0 637 | 1 0.294118 0.55 0.557377 0 0 0.387481 0.0913749 0.15 0 1 638 | 1 0.529412 0.78 0.704918 0.28 0.183215 0.511177 0.474381 0.35 1 0 639 | 1 0.588235 0.61 0.639344 0.31 0 0.411326 0.185312 0.4 0 1 640 | 1 0.294118 0.83 0.590164 0.19 0.206856 0.384501 0.217336 0.5 1 0 641 | 1 0.235294 0.73 0.639344 0 0 0.57377 0.188728 0.766667 1 0 642 | 1 0 0.595 0.540984 0.27 0 0.578241 0.0772844 0.0166667 0 1 643 | 1 0 0.525 0.52459 0.41 0.167849 0.61848 0.0405636 0.0166667 0 1 644 | 1 0.117647 0.59 0.655738 0 0 0.639344 0.262596 0 1 0 645 | 1 0.294118 0.62 0.606557 0 0 0.506706 0.0606319 0.283333 1 0 646 | 1 0.176471 0.815 0.57377 0.18 0.124113 0.470939 0.0811272 0.116667 1 0 647 | 1 0.352941 0.95 0.754098 0 0 0.529061 0.0853971 0.75 1 0 648 | 1 0.176471 0.495 0.655738 0.11 0.0756501 0.28763 0.087959 0.15 0 1 649 | 1 0.352941 0.4 0.655738 0.36 0 0.593145 0.0422716 0.116667 0 1 650 | 1 0.117647 0.645 0.606557 0.26 0.242317 0.494784 0.219044 0.0666667 0 1 651 | 1 0.235294 0.73 0.696721 0.27 0.118203 0.4307 0.0473954 0.1 0 1 652 | 1 0.411765 0.47 0.52459 0.25 0.0933806 0.496274 0.28181 0.333333 0 1 653 | 1 0.0588235 0.54 0.491803 0.46 0.210402 0.529061 0.143894 0.05 0 1 654 | 1 0.235294 0.585 0.508197 0.12 0 0.442623 0.12895 0.15 1 0 655 | 1 0.0588235 0.605 0.639344 0.39 0.0874704 0.581222 0.0781383 0.116667 0 1 656 | 1 0 0.9 0.540984 0.39 0 0.625931 0.774979 0.0666667 1 0 657 | 1 0 0.905 0.721311 0.44 0.602837 0.645306 0.0614859 0.0833333 1 0 658 | 1 0.0588235 0.395 0.614754 0.3 0 0.4769 0.135781 0.0166667 0 1 659 | 1 0.176471 0.88 0.704918 0.27 0.184397 0.496274 0.459436 0.516667 1 0 660 | 1 0.352941 0.435 0.655738 0 0 0.345753 0.00256191 0.183333 0 1 661 | 1 0.117647 0.61 0.491803 0.18 0.125296 0.444113 0.272844 0.0166667 0 1 662 | 1 0 0.37 0.42623 0.1 0.0425532 0.414307 0.0815542 0.0166667 0 1 663 | 1 0.352941 0 0.557377 0.41 0 0.581222 0.277114 0.333333 1 0 664 | 1 0.176471 0.39 0.409836 0.32 0.104019 0.461997 0.0725875 0.0833333 1 0 665 | 1 0.235294 0.74 0.491803 0.27 0.375887 0.460507 0.030743 0.133333 1 0 666 | 1 0.0588235 0 0.393443 0.2 0 0.368107 0.0264731 0.0166667 0 1 667 | 1 0.0588235 0.545 0.459016 0.21 0.159574 0.375559 0.322374 0.0333333 0 1 668 | 1 0.117647 0.635 0.377049 0.21 0.395981 0.512668 0.0418446 0.0166667 0 1 669 | 1 0.470588 0.6 0.704918 0 0 0.423249 0.0772844 0.0166667 1 0 670 | 1 0.176471 0.58 0.606557 0.15 0.124113 0.391952 0.0123826 0.05 0 1 671 | 1 0.117647 0.79 0.737705 0 0 0.470939 0.310418 0.75 1 0 672 | 1 0.411765 0.71 0.737705 0.24 0.567376 0.453055 0.0213493 0.366667 1 0 673 | 1 0.235294 0.865 0.57377 0.14 0.198582 0.442623 0.120837 0.2 1 0 674 | 1 0.0588235 0.455 0.52459 0.24 0 0.435171 0.0486763 0 0 1 675 | 1 0.764706 0.53 0.590164 0.54 0 0.545455 0.0426985 0.4 0 1 676 | 1 0 0.63 0.704918 0.27 0.141844 0.408346 0.186593 0 0 1 677 | 1 0.0588235 0.395 0.491803 0.42 0.0567376 0.648286 0.256191 0.0333333 0 1 678 | 1 0 0.565 0.655738 0.16 0 0.461997 0.33988 0 0 1 679 | 1 0.176471 0.535 0.508197 0.13 0.0567376 0.341282 0.256191 0.0333333 1 0 680 | 1 0 0.59 0.52459 0.23 0.105201 0 0.705807 0 0 1 681 | 1 0.235294 0.57 0.52459 0 0 0.4307 0.0204953 0.05 0 1 682 | 1 0.0588235 0.72 0.672131 0.4 0 0.615499 0.225875 0.116667 0 1 683 | 1 0.176471 0.64 0.639344 0 0 0.314456 0.0811272 0.566667 0 1 684 | 1 0.294118 0.54 0.590164 0.43 0.0886525 0.538003 0.0789923 0.2 0 1 685 | 1 0.117647 0.67 0.57377 0 0 0.4307 0.198121 0.0333333 1 0 686 | 1 0.470588 0.715 0.540984 0 0 0.520119 0.0217763 0.333333 1 0 687 | 1 0.411765 0.98 0.737705 0 0 0.593145 0.159266 0.333333 1 0 688 | 1 0.117647 0.56 0.614754 0.32 0 0.532042 0.029889 0 0 1 689 | 1 0.117647 0.56 0.540984 0.22 0 0.372578 0.0977797 0.05 0 1 690 | 1 0.117647 0.425 0.532787 0 0 0.590164 0.363792 0.1 0 1 691 | 1 0.0588235 0.585 0.491803 0.23 0.125296 0.503726 0.16567 0.1 0 1 692 | 1 0.0588235 0.695 0.377049 0.19 0.0981087 0.42772 0.245944 0.0166667 0 1 693 | 1 0 0.6 0.606557 0.18 0.0744681 0.454545 0.088386 0.0833333 0 1 694 | 1 0 0.805 0.409836 0 0 0.326379 0.0751494 0.733333 0 1 695 | 1 0.176471 0.645 0.754098 0.49 0.183215 0.542474 0.380017 0.183333 1 0 696 | 1 0.0588235 0.425 0.540984 0.29 0 0.396423 0.116567 0.166667 0 1 697 | 1 0 0.655 0.721311 0 0 0.470939 0.283945 0.183333 1 0 698 | 1 0.0588235 0.69 0.672131 0 0 0.597615 0.0674637 0.116667 0 1 699 | 1 0.352941 0.825 0.557377 0.26 0.198582 0.500745 0.236123 0.466667 0 1 700 | 1 0.588235 0.61 0.557377 0 0 0.464978 0.0768574 0.333333 0 1 701 | 1 0 0.285 0.491803 0 0 0.323398 0.280529 0.766667 0 1 702 | 1 0.0588235 0.56 0.655738 0.45 0.156028 0.518629 0.059351 0.05 0 1 703 | 1 0.0588235 0.58 0.639344 0.29 0.212766 0.538003 0.17848 0.0666667 0 1 704 | 1 0 0.555 0.532787 0 0 0.366617 0.248506 0.166667 0 1 705 | 1 0.294118 0.495 0.442623 0.28 0.0981087 0.506706 0.179761 0.15 0 1 706 | 1 0 0.47 0 0 0 0 0.0760034 0.0666667 0 1 707 | 1 0.294118 0.58 0.606557 0.29 0 0.481371 0.248506 0.233333 1 0 708 | 1 0.235294 0.57 0.532787 0 0 0.326379 0.151153 0.266667 0 1 709 | 1 0.588235 0.54 0.540984 0 0 0.482861 0.0828352 0.35 1 0 710 | 1 0.294118 0.555 0.590164 0.28 0 0.356185 0.140478 0.1 0 1 711 | 1 0 0.59 0.688525 0.47 0.271868 0.682563 0.201964 0.166667 1 0 712 | 1 0.117647 0.41 0.42623 0.22 0.135934 0.424739 0.692143 0.0666667 0 1 713 | 1 0.176471 0.555 0.47541 0.31 0.0520095 0.439642 0.150299 0.0166667 0 1 714 | 1 0.294118 0.66 0.655738 0 0 0.399404 0.0461144 0.8 0 1 715 | 1 0.529412 0.67 0.606557 0.33 0.070922 0.385991 0.163108 1 0 1 716 | 1 0.117647 0.5 0.557377 0.25 0.0839243 0.57377 0.105038 0.0833333 0 1 717 | 1 0.764706 0.52 0.590164 0 0 0.464978 0.165243 0.283333 1 0 718 | 1 0.117647 0.5 0.57377 0.52 0.0673759 0.603577 0.255764 0.0666667 0 1 719 | 1 0 0.42 0.672131 0.31 0.147754 0.5693 0.0661827 0.0333333 0 1 720 | 1 0.117647 0.505 0.47541 0.35 0.106383 0.324888 0.0328779 0.0166667 0 1 721 | 1 0.294118 0.735 0.639344 0 0 0.502235 0.059778 0.733333 0 1 722 | 1 0.529412 0.855 0.901639 0.24 0.283688 0.676602 0.274552 0.55 1 0 723 | 1 0.705882 0.755 0.57377 0.4 0.320331 0.622951 0.283518 0.283333 1 0 724 | 1 0.294118 0.81 0.852459 0 0 0.561848 0.0311699 0.516667 1 0 725 | 1 0.529412 0.62 0.57377 0.33 0.475177 0.527571 0.087105 0.216667 0 1 726 | 1 0.0588235 0.835 0.606557 0.17 0.170213 0.348733 0.157558 0.2 1 0 727 | 1 0.294118 0.64 0.655738 0 0 0.515648 0.028181 0.4 0 1 728 | 1 0.411765 0.31 0.639344 0 0 0.485842 0.133646 0.333333 0 1 729 | 1 0.0588235 0.495 0.590164 0.3 0.0212766 0.575261 0.142613 0 0 1 730 | 1 0.470588 0.88 0.737705 0.34 0.35461 0.502235 0.166097 0.616667 1 0 731 | 1 0 0.49 0.672131 0.15 0.0992908 0.375559 0.0943638 0.0166667 0 1 732 | 1 0.0588235 0.745 0.557377 0.29 0.150118 0.436662 0.115713 0.35 1 0 733 | 1 0.294118 0.56 0.540984 0 0 0.563338 0.0781383 0.333333 1 0 734 | 1 0 0.9 0.737705 0.26 0.106383 0.543964 0.100769 0.233333 1 0 735 | 1 0.0588235 0 0.557377 0.35 0 0.4769 0.132792 0.0166667 0 1 736 | 1 0.294118 0.63 0.639344 0.27 0.0260047 0.441133 0.154142 0.316667 0 1 737 | 1 0.235294 0.725 0.672131 0.18 0 0.484352 0.0670367 0.816667 1 0 738 | 1 0.411765 0.57 0.540984 0 0 0.488823 0.0768574 0.35 1 0 739 | 1 0.0588235 0.43 0.540984 0.52 0.0768322 0.615499 0.358241 0.133333 0 1 740 | 1 0.0588235 0.865 0.606557 0 0 0.548435 0.00426985 0.283333 1 0 741 | 1 0.352941 0.54 0.360656 0.2 0.153664 0.357675 0.313834 0.233333 0 1 742 | 1 0.294118 0.79 0.688525 0.41 0.248227 0.587183 0.135354 0.133333 1 0 743 | 1 0.117647 0.61 0.622951 0.27 0.236407 0.535022 0.172929 0.0833333 0 1 744 | 1 0 0.685 0.327869 0.35 0.198582 0.642325 0.943638 0.2 1 0 745 | 1 0.411765 0.645 0.557377 0.49 0.147754 0.57377 0.154142 0.366667 1 0 746 | 1 0.352941 0.67 0.57377 0.23 0.153664 0.527571 0.198121 0.133333 1 0 747 | 1 0.117647 0.57 0.557377 0.22 0 0.42772 0.0059778 0.0666667 0 1 748 | 1 0 0.52 0.52459 0.37 0.0756501 0.500745 0.184458 0.0166667 1 0 749 | 1 0.176471 0.51 0.606557 0 0 0.439642 0.0183604 0.183333 0 1 750 | 1 0.294118 0.385 0.672131 0.41 0.0496454 0.533532 0.0333049 0.233333 0 1 751 | 1 0 0.455 0.557377 0.32 0.248227 0.594635 0.129377 0.0666667 0 1 752 | 1 0.235294 0.545 0.52459 0.44 0.117021 0.518629 0.353117 0.0833333 1 0 753 | 1 0.117647 0.37 0 0 0 0 0.0102477 0.0166667 0 1 754 | 1 0.117647 0.56 0.639344 0.5 0.165485 0.587183 0.0414176 0.05 0 1 755 | 1 0.117647 0.54 0.655738 0 0 0.402385 0.0772844 0.516667 1 0 756 | 1 0.411765 0.975 0.57377 0.33 0.171395 0.374069 0.0362938 0.566667 1 0 757 | 1 0.176471 0.58 0 0 0 0.350224 0.0465414 0.0333333 0 1 758 | 1 0 0.42 0.52459 0.22 0.0780142 0.533532 0.199402 0 0 1 759 | 1 0 0.685 0.57377 0.38 0 0.494784 0.0392827 0.0166667 0 1 760 | 1 0 0.465 0.819672 0.39 0.0851064 0.646796 0.402647 0.233333 0 1 761 | 1 0.294118 0.685 0.885246 0 0 0.727273 0.0636208 0.266667 1 0 762 | 1 0.529412 0.595 0.655738 0.35 0 0.432191 0.0789923 0.133333 1 0 763 | 1 0.176471 0.48 0.639344 0.39 0 0.555887 0.0683177 0.316667 0 1 764 | 1 0.117647 0.28 0.459016 0.28 0.0531915 0.360656 0.108454 0.0166667 0 1 765 | 1 0.117647 0.545 0.754098 0 0 0.636364 0.327498 0.55 0 1 766 | 1 0.176471 0.45 0.639344 0 0 0.636364 0.20538 0 0 1 767 | 1 0.0588235 0.51 0.606557 0 0 0.588674 0.0918019 0.35 1 0 768 | 1 0.352941 0.515 0.590164 0.32 0.224586 0.561848 0.105038 0.566667 0 1 769 | --------------------------------------------------------------------------------