SEED数据集包含12名受试者的脑电图和眼动数据以及另外3名受试者的脑电图数据。数据是在他们观看电影片段时收集的。电影片段是精心挑选的,以诱导不同类型的情绪,积极的,消极的,和中性的。
从实验材料中选择了15个中国电影片段(积极、中性和消极情绪)作为刺激。影片剪辑的评选标准如下:
(a)整个实验的时长不宜过长,以免引起受试者疲劳;
(b)录像内容应在无需解释的情况下被理解;
©视频应引起单一的预期目标情绪。
每个电影片段的时长约为4分钟。每一个电影片段都经过精心剪辑,以创造连贯的情感诱导和最大限度地发挥情感意义。实验中使用的电影片段细节如下:
每个影片片段有15个试验者。在每次剪辑前有5秒的提示,每次剪辑后有45秒的自我评估时间,15秒的休息时间。呈现的顺序是这样安排的,两个针对同一情感的电影片段不会连续播放。为了得到反馈,参与者被要求在看完每个电影片段后立即填写问卷,报告他们对每个电影片段的情绪反应。具体方案如下:
使用62通道ESI NeuroScan系统和SMI眼动追踪眼镜采集脑电图信号和眼球运动。实验场景及相应的EEG电极布置如下图所示。
中文15名(男7名,女8名;MEAN: 23.27, STD: 2.37)参与实验。为了保护个人隐私,我们隐藏了他们的名字,并给每个人标上从1到15的数字。第1 -5和第8 -14名受试者(12名)有EEG和眼动数据,而第6、第7和第15名受试者只有EEG数据。
SEED由两部分组成:SEED_EEG和SEED_Multimodal。SEED_EEG包含15名受试者的脑电图数据。SEED_Multimodal包含12名受试者的脑电图和眼动数据。这两部分的索引是相同的。例如,如果一个科目在SEED_EEG中的索引是1st,那么这个科目在SEED_Multimodal中的索引也是1st。
A:
在“Preprocessed_EEG”文件夹中,有一些文件包含了MATLAB中EEG数据的下采样、预处理和分割版本(.mat文件)。数据被采样到200hz。应用0 - 75 Hz的带通频率滤波器。我们提取了与每部电影持续时间相对应的脑电图片段。一共有45个扩展名为.mat的文件(MATLAB文件),每个实验一个。每个受试者进行三次实验,间隔约为一周。每个主题文件包含16个数组。15个数组包含一个实验中15个试验的分割预处理EEG数据(eeg_1~eeg_15, channel×data)。数组名称标签包含相应的情感标签(-1表示消极,0表示中立,+1表示积极)。通道的详细顺序包含在数据集中。根据国际10 - 20系统的62个通道的脑电图上限如下所示:
B:
在“Extracted_Features”文件夹中,有提取EEG信号的微分熵(DE)特征的文件,该特征在[2]中首次提出。这些数据非常适合那些想要快速测试分类方法而不预处理原始脑电图数据的人。文件格式与Data_preprocessed相同。我们还计算了27对半球不对称电极的微分不对称(DASM)和有理不对称(RASM)特征作为DE特征之间的差异和比值。所有的特征进一步平滑与传统的移动平均和线性动态系统(LDS)方法。关于特征提取和特征平滑的详细信息请参考[1]和[2]。
[1]. Wei-Long Zheng, and Bao-Liang Lu, Investigating Critical Frequency Bands and Channels for EEG-based Emotion Recognition with Deep Neural Networks, accepted by IEEE Transactions on Autonomous Mental Development (IEEE TAMD) 7(3): 162-175, 2015. [link] [BibTex]
[2]. Ruo-Nan Duan, Jia-Yi Zhu and Bao-Liang Lu, Differential Entropy Feature for EEG-based Emotion Classification, Proc. of the 6th International IEEE EMBS Conference on Neural Engineering (NER). 2013: 81-84. [link] [BibTex]
A:“Chinese”文件夹包含四个子文件夹。
a. 01-EEG-raw:包含。cnt格式的原始EEG信号,采样率为1000Hz。
b: 02-EEG-DE-feature:包含1秒和4秒滑动窗口提取的DE特征和读取数据的源代码。
c: 03-Eye-tracking-excel:包含眼动信息的excel文件。
d: 04-眼球追踪功能:包含pickle格式的眼球追踪功能和读取数据的源代码
B:’ code '文件夹包含本文使用的模型的源代码。
a: 支持向量机,KNN,和逻辑回归源代码。
b: DNN源代码。
c: 传统的融合方法。
e:双峰深度自编码器,带有注意机制的深度典型相关分析。
f:源代码也可以在GitHub上找到。
C :information.xlsx:包含实验信息和被试信息。
a:对于电影片段,积极、消极和中性情绪分别被标记为1、-1和0。
b:为了构建分类器,我们分别使用2、0、1表示积极、消极和中性情绪(即,影片剪辑标签加1)。此外,我们没有在眼动特征中保存标签,因为眼动标签与EEG DE特征的标签是一样的。
参考文献:
https://bcmi.sjtu.edu.cn/home/seed/seed.html ↩︎
Wei-Long Zheng, and Bao-Liang Lu, Investigating Critical Frequency Bands and Channels for EEG-based Emotion Recognition with Deep Neural Networks, accepted by IEEE Transactions on Autonomous Mental Development (IEEE TAMD) 7(3): 162-175, 2015. ↩︎
Ruo-Nan Duan, Jia-Yi Zhu and Bao-Liang Lu, Differential Entropy Feature for EEG-based Emotion Classification, Proc. of the 6th International IEEE EMBS Conference on Neural Engineering (NER). 2013: 81-84. ↩︎