论文笔记:Self-Supervised Contrastive Pre-Training For Time Series via Time-Frequency Consistency
2022Neurips1intro无监督与训练在NLP和CV领域的应用越来越多他们大多基于合适的,在所有数据上都一致的先验假设例如在NLP中,一个先验假设是不管是什么领域的文本,或者什么语种的文本,都遵循相同的语法规律在时间序列中,之前并没有找到一个在不同数据集上都一致的先验假设——>本文找到了一种不论在什么样的时间序列数据集中都存在的规律,那就是一个时间序列的频域表示和时域表示应该相似——>提出