-
Notifications
You must be signed in to change notification settings - Fork 5.6k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于 数字识别 章节的问题 #5690
Comments
首先祝贺你已经跨域之前的各种问题,进入到数字识别~ 这个错误是因为类别标签的输入数据类型有误引起的。 y = paddle.layer.data(name='y', type=paddle.data_type.dense_vector(3)) 请把上面的配置改为: y = paddle.layer.data(name='y', type=paddle.data_type.integer_value(1)) 下面这个cost ( cost = paddle.layer.classification_cost(input=predict, label=y) 在分类问题中类别标签是离散值,这与回归问题中拟合连续值不同。在PaddlePaddle中,当使用下面的cost时,label必须指定为 祝你好运~ enjoy it. |
@lcy-seso 现在问题来了。学习过程里。cost并没有越变越低的情况。 是不是我对机器学习的整个理解有误? 但分类我就有点懵逼,用softmax方法。真的能得到最终结果吗? |
@lcy-seso optimizer = paddle.optimizer.Momentum(
learning_rate=0.1 / 128.0,
momentum=0.9,
regularization=paddle.optimizer.L2Regularization(rate=0.0005 * 128)) 发现训练结果有比较大的差距,这里的各项参数为什么这么设置。原因是什么呢? 恳请您再多介绍一些 |
|
您修改的这个参数一个是学习率,一个是正则项系数。
|
您上面的修改意味着使用了一个较大的学习率和正则惩罚。大的学习率通常有可能引起训练发散,直接跳过了局部最优区域。 |
谢谢 @lcy-seso |
不客气不客气~ 希望能踩平所有的坑,最终自由地实现自己想法,喜欢上机器学习 ~ |
希望您能坚持学习完整个教程,加油! |
分类这章对我目前的工作用处最为巨大 总体来说PADDLEPADDLE给我们很大的帮助,TENSORFLOW我折腾了一礼拜都没把环境跑起来。 最后问个问题,docker如果直接运行在linux机器上。是否能做到充分使用本机资源。我感觉运行在WINDOWS时资源利用的不够充分。 |
docker 的问题其它同学更专业,他们会回答~ 如果是图像分类对您作用巨大,paddle models 下还有一些升级版本的模型,回头如果需要可以同时也试试有没有帮助~ https://github.com/PaddlePaddle/models/tree/develop/image_classification |
可以的,Docker在Linux上运行是直接调用Linux Kernel,而Windows上Docker是跑在一个虚拟机里面的。 |
Docker运行在linux机器上,我们做过实验:#5148 (comment) 此外,不同docker版本的影响也可以忽略不计:#5148 (comment) |
感谢楼上的辛苦帮忙。此问题CLOSE吧。 |
今天进展到数字识别章节问题
我这么理解。对于softmax回归来说,输入实际上是一个28x28=784的一维矩阵
输出是一个10个元素的一维矩阵。
于是我对程序作了一些变化:
我的输入是随机的:
然后我就把这些输入进去进行训练了。
一开始的时候,我忘记修改cost,用的仍然使用线性回归课程中的cost,即
,运行是正常的。但结果不收敛
检查发现问题后,我把cost修正为现在的样子,即
运行出错了。这个错误信息我有点搞不明白,求教:
请问是哪里出了问题
还有,我这个例子用来做回归行不行?
The text was updated successfully, but these errors were encountered: