-
Notifications
You must be signed in to change notification settings - Fork 1.6k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
2.0支持纵向的lstm吗? #5707
Comments
这种定义肯定有问题吧,LSTM的输出是个tuple |
请问一下,你看的是哪个教程呢? |
多谢答复,我使用的是fate 2.0里面自带的nn例子,这是我基于nn的例子写了一个,你看下有什么问题呢。
fate_client能编译通过,但是在fate server端回报错: lstm的输出是一个tuple,不是一个tensor,我还特点在自定义的model的forward阶段处理了下,这个模型使用torch自带也能预测出结果。不知道fate是不是对torch的一些中间接口改了,导致模型发送到server阶段后,重新加载,丢失了一些信息。 或者有没有一个可以用纵向的lstm用作分类的例子呢?lstm作为bottle model,或者top model都可以。参考官方自带的nn例子总有bug,不知道是不是我使用的不对,还请多指教。@talkingwallace |
这个是一个基于pipeline的例子,可以参考下ml直接运行的例子呢 |
我看fate对torch的nn 有些封装,包括Sequential这一类,同时也看到了lstm的模型,但怎么使用呢?lstm的输出有是个tuple,没法直接add 进Sequentia吧?
The text was updated successfully, but these errors were encountered: