查看: 2810|回复: 0

[Android教程] 用TensorFlow做一个玩微信跳一跳的AI

发表于 2018-1-30 08:00:01

作为python和机器学习的初学者,目睹了AI玩游戏的各种风骚操作,心里也是跃跃欲试。

然后发现微信跳一跳很符合需求,因为它不需要处理连续画面(截屏太慢了)和复杂的操作,很适合拿来练手。于是…这个东西诞生了,目前它一般都可以跳到100多分,发挥好了能上200。

1.需要设备:

Android手机,数据线

ADB环境

Python环境(本例使用3.6.1)

TensorFlow(本例使用1.0.0)

2.大致原理

使用adb模拟点击和截屏,使用两层卷积神经网络作为训练模型,截屏图片作为输入,按压毫秒数直接作为为输出。

3.训练过程

最开始想的用强化学习,然后发现让它自己去玩成功率太!低!了!,加上每次截屏需要大量时间,就放弃了这个方法,于是考虑用自己玩的数据作为样本喂给它,这样就需要知道每次按压的时间。

我是这样做的,找一个手机写个app监听按压屏幕时间,另一个手机玩游戏,然后两个手指同时按两个手机o(╯╰)o

4.上代码 首先,搭建模型:

第一层卷积:55的卷积核,12个featuremap,此时形状为9696*12

池化层:44 max pooling,此时形状为2424*12

第二层卷积:55的卷积核,24个featuremap,此时形状为2020*24

池化层:44 max pooling,此时形状为55*24

全连接层:5524连接到32个节点,使用relu激活函数和0.4的dropout率

输出:32个节点连接到1个节点,此节点就代表按压的时间(单位s)

  1. # 输入:100*100的灰度图片,前面的None是batch size,这里都为1
  2. x = tf.placeholder(tf.float32, shape=[None, 100, 100, 1])
  3. # 输出:一个浮点数,就是按压时间,单位s
  4. y_ = tf.placeholder(tf.float32, shape=[None, 1])
  5. # 第一层卷积 12个feature map
  6. W_conv1 = weight_variable([5, 5, 1, 12], 0.1)
  7. b_conv1 = bias_variable([12], 0.1)
  8. # 卷积后为96*96*12
  9. h_conv1 = tf.nn.relu(conv2d(x, W_conv1) + b_conv1)
  10. h_pool1 = max_pool_4x4(h_conv1)
  11. # 池化后为24*24*12
  12. # 第二层卷积 24个feature map
  13. W_conv2 = weight_variable([5, 5, 12, 24], 0.1)
  14. b_conv2 = bias_variable([24], 0.1)
  15. # 卷积后为20*20*24
  16. h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
  17. h_pool2 = max_pool_4x4(h_conv2)
  18. # 池化后为5*5*24
  19. # 全连接层5*5*24 --> 32
  20. W_fc1 = weight_variable([5 * 5 * 24, 32], 0.1)
  21. b_fc1 = bias_variable([32], 0.1)
  22. h_pool2_flat = tf.reshape(h_pool2, [-1, 5 * 5 * 24])
  23. h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
  24. # drapout,play时为1训练时为0.6
  25. keep_prob = tf.placeholder(tf.float32)
  26. h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
  27. # 学习率
  28. learn_rate = tf.placeholder(tf.float32)
  29. # 32 --> 1
  30. W_fc2 = weight_variable([32, 1], 0.1)
  31. b_fc2 = bias_variable([1], 0.1)
  32. y_fc2 = tf.matmul(h_fc1_drop, W_fc2) + b_fc2
  33. # 因输出直接是时间值,而不是分类概率,所以用平方损失
  34. cross_entropy = tf.reduce_mean(tf.square(y_fc2 - y_))
  35. train_step = tf.train.AdamOptimizer(learn_rate).minimize(cross_entropy)
复制代码
其次,获取屏幕截图并转换为模型输入:
  1. # 获取屏幕截图并转换为模型的输入
  2. def get_screen_shot():
  3. # 使用adb命令截图并获取图片,这里如果把后缀改成jpg会导致TensorFlow读不出来
  4. os.system('adb shell screencap -p /sdcard/jump_temp.png')
  5. os.system('adb pull /sdcard/jump_temp.png .')
  6. # 使用PIL处理图片,并转为jpg
  7. im = Image.open(r"./jump_temp.png")
  8. w, h = im.size
  9. # 将图片压缩,并截取中间部分,截取后为100*100
  10. im = im.resize((108, 192), Image.ANTIALIAS)
  11. region = (4, 50, 104, 150)
  12. im = im.crop(region)
  13. # 转换为jpg
  14. bg = Image.new("RGB", im.size, (255, 255, 255))
  15. bg.paste(im, im)
  16. bg.save(r"./jump_temp.jpg")
  17. img_data = tf.image.decode_jpeg(tf.gfile.FastGFile('./jump_temp.jpg', 'rb').read())
  18. # 使用TensorFlow转为只有1通道的灰度图
  19. img_data_gray = tf.image.rgb_to_grayscale(img_data)
  20. x_in = np.asarray(img_data_gray.eval(), dtype='float32')
  21. # [0,255]转为[0,1]浮点
  22. for i in range(len(x_in)):
  23. for j in range(len(x_in[i])):
  24. x_in[i][j][0] /= 255
  25. # 因为输入shape有batch维度,所以还要套一层
  26. return [x_in]
复制代码

以上代码过程大概是这样:

最后,开始训练:
  1. while True:
  2. …………
  3. # 每训练100个保存一次
  4. if train_count % 100 == 0:
  5. saver_init.save(sess, "./save/mode.mod")
  6. …………
  7. sess.run(train_step, feed_dict={x: x_in, y_: y_out, keep_prob: 0.6, learn_rate: 0.00005})
复制代码

训练所用数据是直接从采集好的文件中读取的,由于样本有限(目前采集了800张图和对应800个按压时间,在github上train_data文件夹里),并且学习率太大又会震荡,只能用较小学习率反复学习这些图片。

5.总结

1.样本的按压时间大都分布在300ms到900ms之间,刚开始训练的时候发现不论什么输入,输出都一直很谨慎的停留在600左右,还以为这种方法不可行。不过半个小时后再看发现已经有效果了,对于不同的输入,输出值差距开始变大了。所以…相信卷积网络的威力,多给它点耐心。

2.由于我自己最多玩到100多分,后面的数据没法采集到,所以当后面物体变得越来越小时,这个AI也会变得容易挂掉。理论上说让它自己探索不会有这个瓶颈,只是截屏时间实在难以忍受。

3.目前还是初级的版本,有很多可以优化的地方,比如说识别左上角的分数,如果某次跳跃得分较高,那么可以把这次的学习率增大;检测特殊物体,比如超市音乐盒,就停留几秒再进行下一次跳跃,等等。

下面是github地址,源码加注释总共不到300行:

https://github.com/zhanyongsheng/LetsJump

Enjoy yourself!

本文出自zhanys_7的博客



回复

使用道具 举报