博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
关于cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits的思考
阅读量:2080 次
发布时间:2019-04-29

本文共 470 字,大约阅读时间需要 1 分钟。

今天在学习过程中产生了一个小疑问,现记录如下:

在利用TensorFlow搭建图像分类器中  cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(),

这个函数把交叉熵和softmax函数写在一起,是可以提高运算速度吗?还是仅仅把减少代码行数呢?

我以前的做法是先用softmax求出需要被识别的物体在每个类别的概率,再计算交叉熵。

因为softmax层并不会改变最终的分类结果(排序),所以tensorflow将softmax层与交叉熵函数进行封装,形成一个函数方便计算:tf.nn.softmax_cross_entropy_with_logits(logits= , labels=)。

但是我刚刚说的函数在这基础上多了一个sparse。

我的理解是原本是拿独热码计算比如要识别的东西是第5个,就是000010(这是没有sparse的情形)

然后有了sparse的话就是5,是直接用标签计算交叉熵所以可以加速计算进程,不过这样应该只适用于只有一个分类结果的情形。

转载地址:http://mhkqf.baihongyu.com/

你可能感兴趣的文章
HashMap 、 ArrayList、String 重写了equals方法 而Object类(比如User)没有重写
查看>>
Servlet的生命周期
查看>>
Object中的getClass()返回的是当前运行的类
查看>>
加载驱动程序的方法
查看>>
深入理解java异常处理机制
查看>>
object类的基本方法
查看>>
回答阿里社招面试如何准备,顺便谈谈对于Java程序猿学习当中各个阶段的建议
查看>>
Dubbo分布式服务框架入门(附工程)
查看>>
两年Java开发工作经验面试总结
查看>>
作为Java面试官--谈谈一年来的面试总结
查看>>
两年Java程序员面试经
查看>>
面试心得与总结---BAT、网易、蘑菇街
查看>>
如何面试有2年java工作经验的应聘人员
查看>>
Java实现简单的递归操作
查看>>
Java实现简单的递归操作
查看>>
Struts2工作原理和执行流程图
查看>>
在线预览Word,Excel~
查看>>
hibernate延迟加载(get和load的区别)
查看>>
关于文件拷贝效率问题
查看>>
MyBatis分页插件PageHelper的使用
查看>>