forked from andresantonioriveros/pyRF
-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathgraf_fscore_progress.py
74 lines (50 loc) · 2.19 KB
/
graf_fscore_progress.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
# coding=utf-8
import pandas as pd
import matplotlib.pyplot as plt
import tree
import metrics
result_dir = '/Users/npcastro/Dropbox/Resultados/MACHO/Sampled/uniform/UF/Predicciones/'
save_dir = '/Users/npcastro/Desktop/temp/'
# No esta terminado pero tiene que haber una manera de hacer el proceso mas rápido
def find_indexes(lista):
indexes = []
limites = [x/100.0 for x in range(1,101)]
aux = 0
for i, x in enumerate(lista):
if x > limites[aux]:
aux += 1
indexes.append(i)
return indexes
regular_fscore = pd.read_csv('/Users/npcastro/Dropbox/Resultados/MACHO/RF/Metricas/f_score.csv', index_col=0)
for p in xrange(5, 105, 5):
print str(p) + '%'
result = pd.read_csv(result_dir + 'result_' + str(p) +'.csv', index_col=0)
clases = result['original'].unique().tolist()
x_values = {clase: [] for clase in clases}
valores_fscore = {clase: [] for clase in clases}
result = result.sort('trust', axis=0)
for i in xrange(100):
# Obtengo las predicciones con una confianza mayor a cierto umbral
trust_threshold = float(i)/100
result = result[result['trust'] > trust_threshold]
# matrix = metrics.hard_matrix(result)
matrix = metrics.confusion_matrix(result)
# Si el f_score es menor que cero, es porque no habian datos que superaran tal nivel de confianza
f_scores = {clase: metrics.f_score(matrix, clase) for clase in clases}
for clase in clases:
if f_scores[clase] >= 0:
valores_fscore[clase].append(f_scores[clase])
x_values[clase].append(trust_threshold)
for clase in clases:
x_list = x_values[clase]
y_list = valores_fscore[clase]
plt.figure(clase)
plt.plot( x_list, y_list, '-ob')
plt.ylim(0.0, 1.0)
plt.xlim(0.0, 1.0)
plt.axhline(regular_fscore.loc[p][clase], ls='--', color='r')
plt.title( 'Class ' + str(clase) + ' F-Score v/s Prediction Certainty')
plt.xlabel( 'Minimum Probability Considered')
plt.ylabel( 'F-Score' )
plt.savefig(save_dir + str(p) + '%/' + str(clase) + ' fscore progress.png')
plt.close()