We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
你好,我有一个数据集,列名分别是实验ID(shot_id)、时序编号(seq_no)、信号数据1(FIR1)、信号数据2(FIR2)、信号数据3(FIR3)、信号数据4(FIR4),不同的实验shot_id不同,相同shot_id下,seq_no从0递增,我希望利用当前数据集训练一个模型,当未来FIR3在某次实验中,出现数据缺失时,能够通过FIR1、FIR2和FIR4来预测FIR3信号(FIR3一般会有开始一段数据,后面的数据出错,所以全部丢弃缺失了)。 我看了项目的代码,把embed参数设置成了learned(否则代码会对时间进行embedding,数据集没有时间属性),把task_name设置成了long_term_forecast,features设置成MS,修改data_factory.py,增加一种data_loader(Dataset_FIR),参考Dataset_Custom,自定义了Dataset_FIR类,__read_data__函数中剔除了df_stamp那段代码。里面有两行代码没太看明白,我也没改。 self.data_x = data[border1:border2] self.data_y = data[border1:border2] 运行时,我发现__getitem__好像忘记改了(这个简单,直接删掉对应data_stamp代码就可以)。 我现在的问题是,不确定这样修改是否有什么问题,后面还有哪些坑。另外,由于不同shot_id,数据是不同的,因此,我把shot_id也作为一路feature,跟FIR1、FIR2、FIR4一起作为输入。
The text was updated successfully, but these errors were encountered:
你好,非常感谢对于我们工作的关注,您可以先运行一下您修改的方式,尝试下是否输出符合预期,然后逐步进行调试
Sorry, something went wrong.
No branches or pull requests
你好,我有一个数据集,列名分别是实验ID(shot_id)、时序编号(seq_no)、信号数据1(FIR1)、信号数据2(FIR2)、信号数据3(FIR3)、信号数据4(FIR4),不同的实验shot_id不同,相同shot_id下,seq_no从0递增,我希望利用当前数据集训练一个模型,当未来FIR3在某次实验中,出现数据缺失时,能够通过FIR1、FIR2和FIR4来预测FIR3信号(FIR3一般会有开始一段数据,后面的数据出错,所以全部丢弃缺失了)。
我看了项目的代码,把embed参数设置成了learned(否则代码会对时间进行embedding,数据集没有时间属性),把task_name设置成了long_term_forecast,features设置成MS,修改data_factory.py,增加一种data_loader(Dataset_FIR),参考Dataset_Custom,自定义了Dataset_FIR类,__read_data__函数中剔除了df_stamp那段代码。里面有两行代码没太看明白,我也没改。
self.data_x = data[border1:border2]
self.data_y = data[border1:border2]
运行时,我发现__getitem__好像忘记改了(这个简单,直接删掉对应data_stamp代码就可以)。
我现在的问题是,不确定这样修改是否有什么问题,后面还有哪些坑。另外,由于不同shot_id,数据是不同的,因此,我把shot_id也作为一路feature,跟FIR1、FIR2、FIR4一起作为输入。
The text was updated successfully, but these errors were encountered: