博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
TensorFlow人工智能引擎入门教程之八 接着补充一章MLP多层感知器网络原理以及 使用...
阅读量:6360 次
发布时间:2019-06-23

本文共 4311 字,大约阅读时间需要 14 分钟。

hot3.png

这一章我们讲MLP 多层感知器 的使用,多层感知器 ,常用来做分类,效果非常好,比如文本分类,效果比SVM 贝叶斯 好多了,这些以前的机器学习很有名的算法,我现在基本不用它们,现在是深度学习 的AI时代。

    多层感知器的介绍

   214930_jdyJ_937000.png

    MLP(多层感知器)神经网络是常见的ANN算法,它由一个输入层,一个输出层和一个或多个隐藏层组成。

   在MLP中的所有神经元都差不多,每个神经元都有几个输入(连接前一层)神经元和输出(连接后一层)神经元,该神经元会将相同值传递给与之相连的多个输出神经元

    一个神经网络训练网将一个特征向量作为输入,将该向量传递到隐藏层,然后通过权重和激励函数来计算结果,并将结果传递给下一层,直到最后传递给输出层才结束

    首先我们来 

        下面是一个2层的多层感知器

        其中 relu可以换成 tanh或者sigmoid

       比如

     

tf.nn.sigmoid(tf.matmul(X, w_h)) #WX+B
def multilayer_perceptron(_X, _weights, _biases):    layer_1 = tf.nn.relu(tf.add(tf.matmul(_X, _weights['h1']), _biases['b1'])) #Hidden layer with RELU activation    layer_2 = tf.nn.relu(tf.add(tf.matmul(layer_1, _weights['h2']), _biases['b2'])) #Hidden layer with RELU activation    return tf.matmul(layer_2, _weights['out']) + _biases['out']# Store layers weight & biasweights = {    'h1': tf.Variable(tf.random_normal([n_input, 256])),    'h2': tf.Variable(tf.random_normal([256, 256])),    'out': tf.Variable(tf.random_normal([256, 10]))}biases = {    'b1': tf.Variable(tf.random_normal([256])),    'b2': tf.Variable(tf.random_normal([256])),    'out': tf.Variable(tf.random_normal([10]))}

或者 修改成使用sigmoid

 

linear----线性感知器

tanh----双曲正切函数

sigmoid----双曲函数

softmax----1/(e(net) * e(wi*xi- shift))

log-softmax---- log(1/(e(net) * e(wi*xi)))

exp----指数函数

softplus----log(1+ e(wi*xi))

def multilayer_perceptron(_X, _weights, _biases):    layer_1 = tf.nn.sigmoid(tf.add(tf.matmul(_X, _weights['h1']), _biases['b1'])) #Hidden layer with sigmoid activation    layer_2 = tf.nn.relu(tf.add(tf.matmul(layer_1, _weights['h2']), _biases['b2'])) #Hidden layer with RELU activation    return tf.matmul(layer_2, _weights['out']) + _biases['out']
import input_datamnist = input_data.read_data_sets("/tmp/data/", one_hot=True)import tensorflow as tf# Parameterslearning_rate = 0.001training_epochs = 15batch_size = 100display_step = 1# Network Parametersn_hidden_1 = 256 # 1st layer num featuresn_hidden_2 = 256 # 2nd layer num featuresn_input = 784 # MNIST data input (img shape: 28*28)n_classes = 10 # MNIST total classes (0-9 digits)# tf Graph inputx = tf.placeholder("float", [None, n_input])y = tf.placeholder("float", [None, n_classes])# Create modeldef multilayer_perceptron(_X, _weights, _biases):    layer_1 = tf.nn.sigmoid(tf.add(tf.matmul(_X, _weights['h1']), _biases['b1'])) #Hidden layer with sigmoid activation    layer_2 = tf.nn.relu(tf.add(tf.matmul(layer_1, _weights['h2']), _biases['b2'])) #Hidden layer with RELU activation    return tf.matmul(layer_2, _weights['out']) + _biases['out']# Store layers weight & biasweights = {    'h1': tf.Variable(tf.random_normal([n_input, n_hidden_1])),    'h2': tf.Variable(tf.random_normal([n_hidden_1, n_hidden_2])),    'out': tf.Variable(tf.random_normal([n_hidden_2, n_classes]))}biases = {    'b1': tf.Variable(tf.random_normal([n_hidden_1])),    'b2': tf.Variable(tf.random_normal([n_hidden_2])),    'out': tf.Variable(tf.random_normal([n_classes]))}# Construct modelpred = multilayer_perceptron(x, weights, biases)# Define loss and optimizercost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y)) # Softmax lossoptimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost) # Adam Optimizer# Initializing the variablesinit = tf.initialize_all_variables()# Launch the graphwith tf.Session() as sess:    sess.run(init)    # Training cycle    for epoch in range(training_epochs):        avg_cost = 0.        total_batch = int(mnist.train.num_examples/batch_size)        # Loop over all batches        for i in range(total_batch):            batch_xs, batch_ys = mnist.train.next_batch(batch_size)            # Fit training using batch data            sess.run(optimizer, feed_dict={x: batch_xs, y: batch_ys})            # Compute average loss            avg_cost += sess.run(cost, feed_dict={x: batch_xs, y: batch_ys})/total_batch        # Display logs per epoch step        if epoch % display_step == 0:            print "Epoch:", '%04d' % (epoch+1), "cost=", "{:.9f}".format(avg_cost)    print "Optimization Finished!"    # Test model    correct_prediction = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1))    # Calculate accuracy    accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))    print "Accuracy:", accuracy.eval({x: mnist.test.images, y: mnist.test.labels})

下面我们运行测试 代码

  215206_i9Lq_937000.jpg

215412_ISep_937000.jpg

215748_yGRN_937000.jpg

转载于:https://my.oschina.net/yilian/blog/664087

你可能感兴趣的文章
java代码实现开启openoffice服务和关闭sffice.exe进程
查看>>
docker镜像的使用方法
查看>>
提升HTTPS安全评级
查看>>
iOS开发过程中的心得
查看>>
QOS配置命令
查看>>
使用 MPI for Python 并行化遗传算法
查看>>
widget
查看>>
paramiko安装及使用
查看>>
Java私塾:研磨设计模式 之 访问者模式(Visitor)
查看>>
我的友情链接
查看>>
《Python网络数据采集》读书笔记(六)
查看>>
Linux必学的60个命令
查看>>
iptables 学习笔记 (上)
查看>>
Windows Server 2012 R2 Active Directory(活动目录)实验一
查看>>
android viewpager 无限左右滑动
查看>>
linux下SSH远程连接服务慢解决方案
查看>>
利用mic visual studio 2010 编译器执行wincap获取网络适配器的代码
查看>>
HTML
查看>>
CENTOS7下编译安装PHP-5.4以及配置phpMyAdmin
查看>>
磁盘显示无法访问拒绝访问,里面的资料怎样找到
查看>>