Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

关于AFM不能复现论文实验结果 #15

Open
LBJ66 opened this issue Oct 5, 2018 · 5 comments
Open

关于AFM不能复现论文实验结果 #15

LBJ66 opened this issue Oct 5, 2018 · 5 comments

Comments

@LBJ66
Copy link

LBJ66 commented Oct 5, 2018

何老师,您好!我在使用这份代码的时候,对于FM可以复现出论文的结果;但对于AFM,目前在val上取得的最好RMSE为 0.4639,对应参数为:--epoch 100 --pretrain 1 --batch_size 4096 --hidden_factor [8,256] --keep [1.0,0.5] --lamda_attention 2.0 --lr 0.01 --batch_norm 0,而论文中得到的最好RMSE为0.433左右,请问我有哪些地方处理得有问题吗?

@cike14
Copy link

cike14 commented Oct 23, 2018

pretrain之后也没打到论文上的0.4325,望告知

@hexiangnan
Copy link
Owner

hexiangnan commented Oct 23, 2018

pretrain之后也没打到论文上的0.4325,望告知

你好,很抱歉目前当时实验所用的环境已丢失,暂时无法完全复现。我让当时负责实验的同学稍微重新tune了一下参数, batch_size改为2048,lambda_attention改为32时,启用pretrain后ml-tag上RSME可以达到0.4375,不过和当时实验出的0.4325左右还是有一定差距。推测原因可能和tensorflow版本以及pretrain模型的质量有关系。我们这边尽可能找回当时实验所用的pretrain模型再试试。

@hexiangnan
Copy link
Owner

hexiangnan commented Oct 23, 2018

何老师,您好!我在使用这份代码的时候,对于FM可以复现出论文的结果;但对于AFM,目前在val上取得的最好RMSE为 0.4639,对应参数为:--epoch 100 --pretrain 1 --batch_size 4096 --hidden_factor [8,256] --keep [1.0,0.5] --lamda_attention 2.0 --lr 0.01 --batch_norm 0,而论文中得到的最好RMSE为0.433左右,请问我有哪些地方处理得有问题吗?

你好,很抱歉目前当时实验所用的环境已丢失,暂时无法完全复现。我让当时负责实验的同学稍微重新tune了一下参数, batch_size改为2048,lambda_attention改为32时,启用pretrain后ml-tag上RSME可以达到0.4375,不过和当时实验出的0.4325左右还是有一定差距。推测原因可能和tensorflow版本以及pretrain模型的质量有关系。我们这边尽可能找回当时实验所用的pretrain模型再试试。

@cike14
Copy link

cike14 commented Oct 23, 2018

pretrain之后也没打到论文上的0.4325,望告知

你好,很抱歉目前当时实验所用的环境已丢失,暂时无法完全复现。我让当时负责实验的同学稍微重新tune了一下参数, batch_size改为1024,lambda_attention改为32时,启用pretrain后ml-tag上RSME可以达到0.4391,不过和当时实验出的0.4325左右还是有一定差距。推测原因可能和tensorflow版本以及pretrain模型的质量有关系。我们这边尽可能找回当时实验所用的pretrain模型再试试。

好,谢谢老师

@cike14
Copy link

cike14 commented Oct 23, 2018

pretrain之后也没打到论文上的0.4325,望告知

你好,很抱歉目前当时实验所用的环境已丢失,暂时无法完全复现。我让当时负责实验的同学稍微重新tune了一下参数, batch_size改为1024,lambda_attention改为32时,启用pretrain后ml-tag上RSME可以达到0.4391,不过和当时实验出的0.4325左右还是有一定差距。推测原因可能和tensorflow版本以及pretrain模型的质量有关系。我们这边尽可能找回当时实验所用的pretrain模型再试试。

我想再请问下,这个AFM中的二次交叉项与FFM中的二次交叉有什么区别吗

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants