暑期项目实训7.7 flask+darnn继续修改+内网穿透+DSTP论文阅读

最近几天的工作主要包括一下三个方面:

  1. flask的了解与使用
  2. 之前DARNN网络的改进(表现有一些进步)与放弃
  3. 内网穿透的方法
  4. DSTP论文阅读

flask的了解与使用

        股票预测的算法总之是做出了一个可以用的(虽然正确率不高),要和后端连接起来,所以要把自己的电脑部署成一个服务器,为后端访问预测方法提供接口。之前用过java的tomcat,但是不知道python究竟是个什么情况,经过了解学习和商讨,最后我们一致决定用flask框架,感觉方便简单一些。

from flask import Flask

import Flask后就可以进行接下来的工作了。

app = Flask(__name__)

定义好一个接口:

@app.route('/HAHAHA')
def hhh():
    return 'dededede'

开始运行:

if __name__ == '__main__':
    app.run(host='0.0.0.0',port = 5000)

然后用浏览器访问,界面显示dededede就可以了。

        到此为止,自己就搭建好了,这时候如果对方连接上我电脑发出的热点(理论上一个局域网下就可以,但是我不知道为什么校园网调试了好久都不能访问,以前tomcat校园网是可以访问的)访问端口就也显示相同的界面了。


DARNN的进一步改进

        之前以为自己的拟合度很好,但是经过学长提醒,放大看后出现了很明显的“平移现象”,也就是当前的预测在重复上一刻的结果。曲线看似拟合的很好,但是没有什么价值。

        哎你说巧不巧,我之前不是为了想自己预测的更准确一些,同时注重涨跌的预测,我对数据进行了差分处理,关注与预测那个“下一个时间点时值的变化量”,上篇论文中我以为是无用功,但经过我最近的调整参数的增大训练量后,展现了一些的作用,最明显的就是,虽然“拟合度”没那么高了,但是相当大幅度的减弱了“平移现象”。涨跌的正确率在大小为200的测试集上为59.5%,在经过了解DARNN本来的效果之后,我对这个结果还可以接受,以后有时间还会继续研究如何对数据进行处理,才能够使它表现的更好。

暑期项目实训7.7 flask+darnn继续修改+内网穿透+DSTP论文阅读_第1张图片


内网穿透的学习

        因为要放假回家了,到时候大家(和后端)肯定不在同一个局域网下,更别提给他开“热点”了,经过我们项目经理的介绍,了解到有内网穿透的软件,可以不需要买台公共服务器就可以访问,克服了我们将会遇到的问题。但是我们之前都没用过,所以最近也在学习内网穿透的知识。

        最后我们决定用csdn上以为大佬分享的内网穿透的程序:(9条消息) 完全免费的内网穿透软件使用图文教程_小小小小小真的博客-CSDN博客

        上面的教程挺详细的,有一点小注意点,“xxz”域名访问的前缀不可以重复,我和我朋友都按照教程简单的设置了xxz,后设置的那个人就会报错。设置好后程序跑起来,别人就可以访问了。

        至此,内网穿透的部分应该结束了(目前还没碰到其他问题)


DSTP-RNN: a dual-stage two-phase attention-based recurrent neural networksfor long-termand multivariatetime series prediction论文阅读

        我本来就想多写几个模型,然后进行集成预测,在暂时放下DARNN的改进后,我又找到了一篇新的论文,也就是这一篇,原因是这篇论文里对比了DARNN,表现显著比它好,所以我便跃跃欲试。

        简单看过一遍,发现上当了,它和DARNN好像啊,不同的是网络模型改了一下,思路还是一样的,

暑期项目实训7.7 flask+darnn继续修改+内网穿透+DSTP论文阅读_第2张图片

        我暂时的理解就是第一个阶段的注意力的机制分两部分,先进行剧烈且分散的权重分配,再进行对权重的平稳且集中的响映,然后是对时间的注意力机制。(并没有详细的阅读论文具体如何实现)

       那这篇论文实际上就是在DARNN的基础上做了一些改进(我目前的粗鄙的想法),打算在明天把它看懂,具体实现出来,对比一下表现,在9号回家前争取做个这两个的集成出来(因为两个模型思路相似,所以我感觉集成的效果应该不好,只是想了解一下集成学习的流程)

        这就是最近除去毛概复习和考试之外进行的工作。

你可能感兴趣的:(暑期项目实训,深度学习)