TensorFlow上实践基于自编码的One Class Learning

Posted CodeMeals

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了TensorFlow上实践基于自编码的One Class Learning相关的知识,希望对你有一定的参考价值。

我不知道什么是爱,但我知道什么是不爱” 

--One Class Learning的自白

 一、单分类简介

  如果将分类算法进行划分,根据类别个数的不同可以分为单分类、二分类、多分类,常见的分类算法主要解决二分类和多分类问题,预测一封邮件是否是垃圾邮件是一个典型的二分类问题,手写体识别是一个典型的多分类问题,这些算法并不能很好的应用在单分类上,但单分类问题在工业界广泛存在,由于每个企业刻画用户的数据都是有限的,很多二分类问题很难找到负样本,比如通过用户的搜索记录预测一个用户是否有小孩,可以通过规则筛选出正样本,如经常搜索“宝宝、早教”之类的词,但很难筛选出合适的负样本,一个用户没有搜索并不代表没有小孩,即便用一些排除法筛选出负样本,负样本也会不纯,不能保证负样本中没有正样本,这样用分类模型跑出的结果存在解释性的困难,预测概率高可以认为是有很有可能有小孩,但概率低是有小孩的的可能小还是无法判断?在只能定义正样本不能定义负样本的场景中,使用单分类算法(One-Class Learning)更适合,单分类算法只关注与样本的相似或匹配程度,对于未知的部分不妄下结论。很多人会说“我不知道什么是爱,但我知道什么是不爱”,他们相亲时会立马排查掉不爱的对象,他们就是一个聪明的One-Class学习器。

  当然分类算法根据记录所属类别个数的不同还可以分为单标签分类和多标签分类,预测一个用户喜欢的球类就是一个多标签多分类问题,这里不多加讨论,本文重点讨论单分类问题。

 

 

二、单分类算法介绍

  One Class Learning比较经典的算法是One-Class-SVM[参考文献1],这个算法的思路非常简单,就是寻求一个超平面将样本中的正例圈起来,预测是就用这个超平面做决策,在圈内的样本就认为是正样本。由于核函数计算比较耗时,在海量数据的场景用得并不多;

one class svm示例图(图片引用自[参考文献2])

  

   另外一个算法是基于神经网络的算法,在深度学习中广泛使用的自编码算法可以应用在单分类的问题上[参考文献3],自编码器是一个BP神经网络,网络输入层和输出层是一样,中间层数可以有多层,中间层的节点个数比输出入层少,最简单的情况就是中间只有一个隐藏层,如下图所示,由于中间层的节点数较少,这样中间层相当于是对数据进行了压缩和抽象,实现无监督的方式学习数据的抽象特征。

  如果我们只有正样本数据,没有负样本数据,或者说只关注学习正样本的规律,那么利用正样本训练一个自编码器,编码器就相当于单分类的模型,对全量数据进行预测时,通过比较输入层和输出层的相似度就可以判断记录是否属于正样本。由于自编器采用神经网络实现,可以用GPU来进行加速计算,因此比较适合海量数据的场景。

三、单分类算法实践 

  这里使用TensorFlow实践了一下基于自编码的One-Class-Learning,代码引用自[参考文献4],使用MNIST数据进行自编码,首先用0-9这10个类别的数据进行训练,输入层和输出层节点数为784,中间层有两层,节点数分别为256、128,下图中第一排是原始图片,第二排是自编码后解码的图片,可以认为第二排图片是128个单元节点的压缩表示。

  假设现在是一个单分类问题,我们只有部分数字7的标注数据,现在需要预测一张图片是不是数据7,那么可以用这部分标注数据来训练一个编码器,让编码器来发现数字7的内在规律,预测时通过编码器进行计算,比较输入层与输出层的相似度,如果相似度较高就可以认为是数字7,编码和解码后的图片示例如下:

实现代码如下: 

  1 import tensorflow as tf
  2 import numpy as np
  3 import matplotlib.pyplot as plt
  4 
  5 # Import MNIST data
  6 from tensorflow.examples.tutorials.mnist import input_data
  7 
  8 # Parameters
  9 learning_rate = 0.008
 10 training_epochs = 130
 11 batch_size = 2560
 12 
 13 # Building the encoder
 14 def encoder(x,weights,biases):
 15     # Encoder Hidden layer with sigmoid activation #1
 16     layer_1 = tf.nn.sigmoid(tf.add(tf.matmul(x, weights[\'encoder_h1\']),
 17                                    biases[\'encoder_b1\']))
 18     # Decoder Hidden layer with sigmoid activation #2
 19     layer_2 = tf.nn.sigmoid(tf.add(tf.matmul(layer_1, weights[\'encoder_h2\']),
 20                                    biases[\'encoder_b2\']))
 21     return layer_2
 22 
 23 
 24 # Building the decoder
 25 def decoder(x,weights,biases):
 26     # Encoder Hidden layer with sigmoid activation #1
 27     layer_1 = tf.nn.sigmoid(tf.add(tf.matmul(x, weights[\'decoder_h1\']),
 28                                    biases[\'decoder_b1\']))
 29     # Decoder Hidden layer with sigmoid activation #2
 30     layer_2 = tf.nn.sigmoid(tf.add(tf.matmul(layer_1, weights[\'decoder_h2\']),
 31                                    biases[\'decoder_b2\']))
 32     return layer_2
 33     
 34 def one_class_learning(dataset,testset,n_input,one_class_label,filename):
 35     # Network Parameters
 36     n_hidden_1 = int(n_input/2)
 37     n_hidden_2 = int(n_input/4)
 38     # tf Graph input (only pictures)
 39     X = tf.placeholder("float", [None, n_input])
 40 
 41     weights = {
 42         \'encoder_h1\': tf.Variable(tf.random_normal([n_input, n_hidden_1])),
 43         \'encoder_h2\': tf.Variable(tf.random_normal([n_hidden_1, n_hidden_2])),
 44         \'decoder_h1\': tf.Variable(tf.random_normal([n_hidden_2, n_hidden_1])),
 45         \'decoder_h2\': tf.Variable(tf.random_normal([n_hidden_1, n_input])),
 46     }
 47     biases = {
 48         \'encoder_b1\': tf.Variable(tf.random_normal([n_hidden_1])),
 49         \'encoder_b2\': tf.Variable(tf.random_normal([n_hidden_2])),
 50         \'decoder_b1\': tf.Variable(tf.random_normal([n_hidden_1])),
 51         \'decoder_b2\': tf.Variable(tf.random_normal([n_input])),
 52     }
 53     # Construct model
 54     encoder_op = encoder(X,weights,biases)
 55     decoder_op = decoder(encoder_op,weights,biases)
 56     # Prediction
 57     y_pred = decoder_op
 58     # Targets (Labels) are the input data.
 59     y_true = X
 60     # Define loss and optimizer, minimize the squared error
 61     cost = tf.reduce_mean(tf.pow(y_true - y_pred, 2))
 62     optimizer = tf.train.RMSPropOptimizer(learning_rate).minimize(cost)
 63 
 64     # Initializing the variables
 65     init = tf.global_variables_initializer()
 66 
 67     # Launch the graph
 68     with tf.Session() as sess:
 69         sess.run(init)
 70         total_batch = int(len(dataset[\'data\'])/batch_size)
 71         # Training cycle
 72         for epoch in range(training_epochs):
 73             # Loop over all batches
 74             for i in range(total_batch):
 75                 batch_xs = dataset[\'data\'][i*batch_size:(i+1)*batch_size]
 76                 batch_ys = dataset[\'label\'][i*batch_size:(i+1)*batch_size]
 77                 batch_xs = [batch_xs[j] for j in range(len(batch_xs)) if batch_ys[j] == one_class_label]
 78                 
 79                 # Run optimization op (backprop) and cost op (to get loss value)
 80                 _, c = sess.run([optimizer, cost], feed_dict={X: batch_xs})
 81             # Display logs per epoch step
 82             print("Epoch:", \'%04d\' % (epoch+1),"cost=", "{:.9f}".format(c))
 83 
 84         encode_decode = sess.run(y_pred, feed_dict={X: testset[\'data\']})
 85 
 86         #examples_to_show = 14
 87         #f, a = plt.subplots(2, examples_to_show, figsize=(examples_to_show, 2))
 88         #for i in range(examples_to_show):
 89         #    print(testset[\'label\'][i],sess.run(tf.reduce_mean(tf.pow(testset[\'data\'][i] - encode_decode[i], 2))))
 90         #    a[0][i].imshow(np.reshape(testset[\'data\'][i], (28, 28)))
 91         #    a[1][i].imshow(np.reshape(encode_decode[i], (28, 28)))
 92         #f.show()
 93         #plt.draw()
 94         #plt.waitforbuttonpress()
 95         wf = open(filename,\'a+\')
 96         for i in range(len(encode_decode)):
 97             wf.write(str(one_class_label)+\',\'+str(testset[\'label\'][i])+\',\'+str(sess.run(tf.reduce_mean(tf.pow(testset[\'data\'][i] - encode_decode[i], 2))))+\'\\n\')
 98             if i % 500 == 0:
 99                 print(i)
100         wf.close()
101         
102         
103         
104 def decode_one_hot(label):
105     return max([i for i in range(len(label)) if label[i] == 1])
106 
107 def mnist_test():
108     mnist = input_data.read_data_sets("MNIST_data", one_hot=True)
109     trainset = {\'data\':mnist.train.images,\'label\':[decode_one_hot(label) for label in mnist.train.labels]}
110     testset  = {\'data\':mnist.test.images,\'label\':[decode_one_hot(label) for label in mnist.test.labels]}
111     one_class_learning(trainset,testset,784,7,\'label_7.csv\')
112 
113 mnist_test()

  根据相似度进行排序,还可以计算准确率、召回率、ROC等,这里统计了一下准确率和召回率。

 

四、参考文献

[1].Manevitz L M, Yousef M. One-class svms for document classification[J]. Journal of Machine Learning Research, 2002, 2(1):139-154.

[2]: http://www.louisdorard.com/blog/when-machine-learning-fails

[3].Manevitz L, Yousef M. One-class document classification via Neural Networks[M]. Elsevier Science Publishers B. V. 2007.

[4].https://github.com/aymericdamien/TensorFlow-Examples/blob/master/examples/3_NeuralNetworks/autoencoder.py

 

全文完,转载请注明出处:http://www.cnblogs.com/fengfenggirl/p/One-Class-Learning.html

以上是关于TensorFlow上实践基于自编码的One Class Learning的主要内容,如果未能解决你的问题,请参考以下文章

Lakehouse 架构解析与云上实践

TensorFlow实现one-hot编码TensorFlow2入门手册

基于tensorflow实现稀疏自编码和在推荐中的应用

TensorFlow One 热编码器?

补做课上实践题目

如何从 PNG 为 Tensorflow 2 中的每个像素分类创建 One-hot 编码矩阵