【tensorflow】softmax_cross_entropy_with_logits与sparse_softmax_cross_entropy_with_logits
softmax_cross_entropy_with_logits与sparse_softmax_cross_entropy_with_logits都是对最后的预测结果进行softmax然后求交叉熵
区别在于输入的label形式
SRE实战 互联网时代守护先锋,助力企业售后服务体系运筹帷幄!一键直达领取阿里云限量特价优惠。sparse_softmax_cross_entropy_with_logits的label是 [batch_size],
softmax_cross_entropy_with_logits的label是[batch_size, classes], 也就是需要对label进行onehot编码

更多精彩