Category Archives: Neuroscience

学习eeg数据的处理

最近开始学习处理eeg数据,一个比较大的目标是使用eeg数据进行DCM的分析。主要的原因是觉得自己目前研究的目的比较使用使用effective connectivity来建立关于学习过程对知觉的调节作用。

其实自己对eeg数据处理没有什么经验,但是想试图学习一下。去年下半年将实验的eeg数据收集完了之后,一直没有去处理,主要的原因是自己当时更加关注于元分析的问题,其实的一个原因不太想使用analyzer这个软件来处理,还有一个原因是可能觉得处理起来太麻烦吧。

DCM是使用spm来进行的,目前我们实验合作的是spm8,但是我发现spm12在eeg数据处理方面似乎有不少改进的地方,所以使用spm12来进行数据的预处理,按照manual上的步骤处理我自己的数据,主要有两个问题:第一、如何去除眼电等伪迹,由于spm与fieldtrip合作,所以在smp中并无这一个操作,或者不是重点,于是我需要借助于其他的软件来处理这个问题;最合适的应该是eeglab,因为起码它还是GUI,而fieldtrip对于我来说过于不友好;第二个问题应该是Sensor location的问题,这个只能采用默认的标准10-20系统的位置。

于是,我现在要解决的问题就是:如何使用eeglab先把脑电中的眼电和其他伪变去掉。或者我可使用EEGlab处理好全部的脑电之后,再拿到spm中进行DCM的分析。

以下是我按照spm12中处理样例数据的笔记:

数据来源:由于biosemi采集的128导的EEG MMN dataset: http://www.fil.ion.ucl.ac.uk/spm/data/eeg_mmn/

1 数据转换
Convert –> subject1.bdf –> just read (简直没有天理,居然用just read)
跳出 “Display”的窗口,默认显示的是”history” tab;也可以使用Display –> M/EEG –> spmeeg_subject1.mat来打开这个窗口;
注意,在matlab的窗口有两个warning:
Warning: Could not obtain electrode locations automatically. 
Warning: Could not obtain fiducials automatically. 
2 预处理:
2.1 预处理的输入
手册上建议使用batch文件进行预处理,在使用batch之前,必须定义一些输入参数:电极点、参考电极和trial分段
在display窗口的右上角,点击Prepare SPM file (也可以直接点击prepare从convert下拉菜单中打开这个预处理的菜单)
在M/EEG prepare菜单中,选择需要进行处理的电极点
Batch inputs –> Channel Selection. 需要选择所有的EEG电极点和EOG的三个电极点(A1 to D32, EXG1, EXG2, EXG3),选择好之后,将这个选择保存为”channel_selection.mat”
然后,需要为Montage准备输入信息(即为了重参考。在这个特殊的数据中,会得到垂直和水平眼电(上方减去下方,侧面减去下方);同时还要得到每个电极点以全脑平均为参考;这里可以使用多种步骤(batch, GUI, 甚至excel),以下为使用GUI方式:
(1) 改变眼电电极点的类型:Channel types –> EOG –> 选择EXG1,EXG2 & EXG3;
(2) 以全脑平均为参考电极:Batch inputs –> Montage –> Re-reference. 在出现的电极点窗口中,”select all” 然后按OK,将跳出保存重参考的窗口,保存为avref.mat。采用这种方法之后,所有电极点将都会减去全脑的平均电位;
(3) 眼电:Batch inputs –> Montage –> Custom montage –> Load file –> select “avref.mat” –> click on the top left button to select the whole table and Ctrl-C;
                 Batch inputs –> Montage –> Custom montage –> click on the top left button to select the whole table and Ctrl-V, 将先前的矩阵粘贴进去,然后到最后一行,将EXG1改为HEOG,将EXG2改为VEOG,将EXG3所在行删除;再到右最后一列,将HEOG-EXG2的那一格改为-1,将VEOG-EXG3的那一格也改为-1。其实眼电的计算就是 HEOG = EXG1 -EXG2;VEOG=EXG2-EXG3;
                 改完后,点击Save as, 将这个设置保存为 “avref_eog.mat”
这里有一个很关键的问题:在spm12中,artefacts detection是删除伪迹,而对于眼电这种,不能删除,只能进行校正,ICA是比较合理的方式(当然这个可能会有争议);但问题在于,spm中并未提供这种常规的方法,所以可能需要外部的toolbox了。
选择分段参数:Batch inputs –> Trial definition
     time window: -100 400;
     How many conditions? : 2
     Label of condition 1: Standard; 弹出窗口中选择包括480个trial的那个变量1;
     Shift trigger (ms): 0
     Label of condition 2: rare; 弹出窗口中选择包括120个trials的那个变量3;
     Shift trigger (ms): 0
     Review indidivual trials: no
     保存trial definition: “trialdef1.mat”
2.2 预处理的步骤(step by step)
2.2.1 convert
     Convert –> 选择数据
     Define settings: Yes, 跳出batch 窗口;
     在Batch窗口中,Channel selection 要使用先前准备好的channel_selection.mat文件;
2.2.2 重参考(Montage)
     Prepreocessing –> Montage
2.2.3 Prepare
     在前面的convert和montage中,自动地将默认的位置分配给了sensors,因为脑电数据信息不包括这一点。需要用户数据与sensor进行对应。在MMN的这个处理中,使用Prepare来完成这一点。
     Convert –> prepare(batch)
     File Name: 选择Mspmeeg_subject1.mat;
     Select task(s): New: Load EEG sensors”– > Select EEG sensors file
2.2.4 高通滤波(High-pass filter)
     使用高通滤波,将特别低频的波段(比如市电)滤掉,这一步在重新采样之前进行。
     Preprocessing–> Filter 打开filter的Batch.
     File Name: 选择Mspmeeg_subject1.mat;
     Band: Highpass
     Cutoff(s): 0.1
     结果:输出以“f”开头的数据;
2.2.5 重采样(Downsample)
     512Hz的采样率对于MMN来说是不必要的,所以可以重采样减少数量;
     Preprocessing –> Downsample 打开batch
     File Name: 选择fMspmeeg_subject1.mat;
     New sampling rate: 200
     运行之后得到dfMspmeeg_subject1.mat;
2.2.6 低通滤波Low-pass filter
     Preprocessing–> Filter 打开filter的Batch.
     File Name: 选择Mspmeeg_subject1.mat;
     Band: Lowpass
    Cutoff(s): 30
     运动之后得到:fdfMspmeeg_subject1.mat;
2.2.7 分段(Epoch)
     Preprocessing –> Epoch 打开batch
     File Name: fdfMspmeeg_subject1.mat;
     How to define trials: Trial definition file –> 选择先前定义好的trialdef1.mat.
     输出文件:efdfMspmeeg_subject1.mat;
2.2.8 去伪迹(Artefacts)
     去伪迹的方式很多,这里只显示了一种简单的;
     在去伪迹之前,可以先使用”display”来看看数据:Display –> M/EEG –> efdfMspmeeg_subject1.mat.。点击“EEG”,再选择scalp.
     肉眼可见channel 14比其他数据的变异更大,右击该键,可以看到该电极点的信息(channel: A14,type: EEG,bad: 0), 用左键点击bad:0这一行,则该电极点变成灰色;然后点击右上角的”save”
     Preprocessing –> Detect artefacts;
     File Name: efdfMspmeeg_subject1.mat;
     How to look for artefacts: 双击,出现新的选项;
     Detection algorithm: Threshold channels
     Thresholds: 80
     输出数据:aefdfMspmeeg_subject1.mat
其他自动检测artefacts的方法,使用Filedtrip visual artifact rejection: Toolbox –> MEEG tools –> Fieldtrip visual artifact rejection
2.2.9 平均(averaging)
     Average –> average 打开Batch
     Averaging type: Standard or Robust
          Robust average 可以在考虑伪迹的情况下进行平均,如果选择了Robust averaging, 可以将”Compute weights by condition ” 选择为Yes.
平均之后,单个被试的预处理就完成了。输出文件名为:maefdfMspmeeg_subject1.mat
3 预处理的Pipeline
建立piple line的两种方式:batch tool 或者 low-level preprocessing functions.
3.1 Batch tool来建立pipe line
     spm –> batch
     spm –> M/EEG –> Conversion (Channel 选项需要更改)
     spm –> M/EEG –> Preprocessing –> Montage (File Name变成Dependency)
     依次建立其他的步骤;
     注意:可以使用spm–> M/EEG –> other –> delete 来删除删除中间步骤中的一些数据
     最后,可以将整个batch保存为代码:File –> save batch and script. 假如将这个Batch设置为matlabbatch.m, 则以后可以直接在matlab中输入spm_jobman(‘run’, matlabbatch)来运行整个Batch文件。

第一次去美国开会的签证过程

第一次出国,而且整个都是一个人来办,所以刚开始时似乎一切都显得比较有压力,还好今天面签比较顺利,记录一下,以供参考。

会议情况:Social and affective neuroscience society annual meeting 2015;

时间: 2015.04.23~2015.04.25 三天,但是从国内飞过去,应该是22号离境,27号入境,所以整个算是6个的行程;

地点:Boston。

作为清华的学生,短期出境进行学术会议,第一个是要申请短期因公出境的批条。这个在info里可以填写申请。一般而言,除了这个批条之外,还可以在info上申请研究生国际会议的资助。这个资助是有条件的,需要看看你参加的会议是否是学校官方认可的会议,认可的会议分为顶级会议、A类会议和B类会议三个水平,不同级别的会议资助不一样;而且还要看你是口头报告还是poster。由于SANS是近年来新出来的会议,官方没有收录,而且我也只是poster,所以估计没戏,直接没有申请,这样就少了一个申请表。

短期因公出境的申请写好之后,打印出来到系里和院里盖章。注意填写表格的时候,有个“是否定向生”这个选项,默认的是“是”,很坑爹,因为大部分人都不是定向生,不过也没有太大的关系。另一要注意的是日程安排,必须要考虑往返的时间,我第一次只写了会议的时间23号到25号,但研究生院的老师说这样是不行的,因为学校的日程指的出入境的时间。

院里盖章之后拿去研究生院(5楼502吧,国际交流的专门办公室)就可以了。老师会看你的申请表、会议邀请信、会议日程和会议论文。交上去之后,不到一个星期就有批件了,去国际处(古月堂)拿批件。同时打印一个清华大学给学生的certificate,证明你是出国开会,还会回来的。本来以为这个certificate会在签证时有用,结果发现没有。

接下来就是去签证(当然,前提你有护照,先前已经有人写过如何办护照的,不重复了)。会议属于非移民签证中的business/conference这一项,也就是B1。申请签证首先要去美国在使馆网站上填写DS-160表格(http://www.ustraveldocs.com/cn_zh/cn-niv-ds160info.asp),这个表格填起来要花一些时间。填写完了之后去“申请美国签证”网站(http://www.ustraveldocs.com/cn_zh/index.html)预约面签的时间,这里要注册一个账号,填写你的DS-160表格的号码、护照号等。填写好了之后去中信银行交钱,很方便(东门外清华科技园就有一个),或者直接使用网银的快捷支付也行。我因为预留的手机号码不太对,没有使用网银,而是去中信银行的ATM机。

在面签之前,DS-160填写信息有误可以重新填写一份,只要你把“申请美国签证”网站上的个人信息更新一下即可。

交钱之后就可以预约面谈时间,网站上有最快可预约的时间,按照自己的时间安排即可。

面签当天,提前3个小时出发可能比较保险,交通1个小时多一点,从排队到见到面签的工作人员大约1小时20分钟。

交通:从圆明园4号线到海淀黄庄转10号线,亮马桥站下车,东北口出。注意,安家楼路西边是没法走过去的,虽然百度地图上显示好像可以,但那条路就是美国大使馆的地盘,被封住了。所以要绕到东边去。下图中划叉的地方就是百度地图上的错误道路,红色箭头的路是可行的。

美国大使馆签证处

 

 

 

 

 

 

 

不能带的东西:任何电子设备(手机、电子手表等),包括耳机!我的耳塞就是放在口袋里忘记拿出来了,最后要求扔带或者拿出去保存,唉,我直接扔了,可惜我的M315。

必须带的东西:护照、DS-160确认页(有条形码、有照片);这两个是从进入美国大使馆到面签之前都会用到。

面签时看的文件:会议邀请信、个人简历。我还带了预约申请的确认页(上有条形码),但似乎没有用到;学校的certificate,没有用到,我专门问面签工作人员是否需要看,他说不用了;会议日程打印版,也没用上。

面签时,首先要了我的护照,问我去美国干嘛,是用中文,我也用中文回答。然后问了会议的名称,我用英文回答了。接下来问了我的专业是做什么的,我稍微解释了一下,然后他就要简历。看了一下之后,就说稍等。然后回来的时候又问了我一个专业相关的问题,我好像用三句英文解释了一下。还问了一句是不是关于neurochemistry,可能是因为这个会比较敏感吧,但我做的不是这个方向,所以说不是。然后也没啥问题了。

过了一会儿,就告诉我approved。然后把简历还给我了。面签就完了,接下来就是等把护照还给我了吧。

神经成像数据元分析中的文献挑选问题

可能是由于自己本来比较喜欢读文献,所以对元分析这个分析文献的方法比较感兴趣。加之神经成像结果之间如此缺乏稳定性(例如:纽约客的文章:neuroscience fiction),元分析其实是一个不错的工具来看看某个领域的研究是否已经有了比较成熟的结论。当然,目前的神经成像数据元分析不仅仅是为了找到结果之间的稳定性,还可以进行一些假设的检验和探索,用途更多样了。

最近一直在refine自己2013年暑假开始想做的一个元分析。经过了不少的变化,对元分析的了解逐渐深入,研究的问题也在不断地深入。在这个过程中,很多步骤也在不断地推倒重来,其中非常痛苦的一点就是文献的挑选:如何从茫茫的文献数据库中得到自己想要的文献?

纵观元分析文献,无非两个渠道:自己动手或者从现成的数据库中搜索。先说现成的数据库吧,主要有两个:brainmap.org和neurosynth.org,前者是大牛Peter Fox主导建立的,后者是年轻的Yarkoni搭起来的。brainmap很早就开始积攒数据(2002年就在nature reviews neuroscience介绍这个数据库了:Mapping context and content: the BrainMap model),主要靠手工进行数据的输入,保证了数据的精确性。随着神经成像数据的迅速膨胀,手工输入的速度明显赶不上了。Yarkoni使用“先进”的自然语言处理方法,通过关键词提取这样的方法来自动地收集数据,数据量明显更多,但是由于毕竟还是缺了点控制,精确度不够。即使如此,Neurosynth的方法也已经通过了“验证”:2011年,Yarkoni在Nature methods上发表了Large-scale automated synthesis of human functional neuroimaging data。从社会认知神经科学的角度来讲,两个数据库均有些不足,因为这方面的文献数据不是那么多,还比较新,所以brainmap里没有,neurosynth则太粗放。

所以,还是老老实实地回到手动搜索,这也是大部分目前发表元分析的做法。从这些元分析的文献来看,似乎大致分成几步:从数据库中搜索文献–> 挑选文献–> 找到感兴趣的contrast–>扔到元分析软件里去跑(哦,忘记说了,元分析的分析方法也是有多种,brainmap相关的方法是ALE,neurosynth相关的是MKDA,最近还有一个用得比较多的SDM,以后有机会也可以仔细地说说)。但实际这个过程要麻烦的多。

首先,从什么数据库搜索?Google scholar? 听起来好像很全,但实际上呵呵。原因在于google scholar搜索的范围太大了,采用几个关键词极有可能得到上万的结果,这样其实跟不搜索区别不大,不知道是不是我在使用google scholar上的技术还有待提高。常用的是Pubmed和web of science,兼顾了全面与相关性这两个要求。这两个数据库的高级搜索的方式不同,需要注意一下。能够合理地使用高级搜索功能也是极有用的。

搜索到几百几千条文献,怎么挑?用什么工具能更清晰地把挑选过程清楚地整理出来?我试过两种方法:第一是导搜索的结果,使用excel来处理;第二种是导出搜索结果放到Endnote里进行不断地分组。第一种方法无法迅速地将从不同数据库搜索到的重复文件查找出来,所以不建议。第二种方法的话,需要为每个元分析文献搜索单独建一个endnote的library,不然跟先前的文献库搞混了也会很麻烦。Endnote的查重复文献功能还是挺好用的。当从pubmed 和web of science上查找到的文献合并之后,差不多就锁定你元分析文献的最大范围。当然,还可以从psycinfo上进行关键词查收,再与之前的进行合并,查重复等。

有了最大范围,接下来的工作就是人工挑选了(最痛苦的时刻到了)。现在的审稿人可能要求元分析方法要有一个PRISMA flowcharts,这个flowcharts大致就是如下的一个东东:

Capture

这个图的主要目的就是让别人知道你是如何在挑选文献,避免其中有灰色的操作。这是元分析优于review的一个好处:你不能明目张胆地只引用支持自己结论的研究报告。虽说如此,但实际上到了文献挑选的最后,一篇文章是否该放到元分析里也是缺乏非常清晰标准的。

从神经成像研究来讲,第一步,当然就是看文献是否是神经成像的实验报告。如果是Review、case study、opinion或者meta-analyses (呵呵,碰到同行了)的非实证研究,就直接pass掉。如果是实证研究但是使用的是EEG、EMG、tDCS、TMS或者生理指标记录的,也pass掉。一般这样可以删除30%左右的文献。

第二步,看文献是否与你自己想要进行元分析主题相关。由于大部分神经成像数据都使用减少逻辑,所以很需要关心的一个问题是:这个文献是否有你想要的那个contrast,如果有就要了它,没有,就只好忍痛了,即使它是你偶像的文章。有些文章使用parametric的分析,没有contrast,这种情况取决于自己了,我见到过有把这种结果也包括进来的元分析文献。另外,是否使用全脑分析也是非常关键的,有不少研究使用的是ROI分析,只分析一块脑区,这样的结果对于元分析来说意义不大。

其实第二步里又可以分出许多细致的标准,比如被试群体是否是你关心的、contrast中的control条件是什么之类、数据是否重复、文章中是否报告了坐标等等。这些都是要慢慢地细化。

一般来说,一个研究范式越成熟、文章越多,挑起来就比较痛苦。如果主题比较新,文章比较少,挑起来会相对轻松一点。

最后想说下自己对元分析的态度,其实有点矛盾。一方面,觉得确实很有用,因为单个的实证研究从某种程度上讲效应确实有限,加上心理学和认知神经科学实验的样本容量有限,这些结果能多有意义确实有很大的争议,元分析从某种程度上包括了更多的样本,得到的他是更加可靠的。记得在The Emperor of All Maladies 里有一段讲吸烟与肺癌关系的历史,提到了元分析方法在证明吸烟与肺癌的关系上起到过重大作用,更让我觉得这是一个非常有用的方法。

另一方面,做元分析总觉得做的不是自己的研究,毕竟你是在拿别人的结果进行分析,似乎缺乏自己的原创性。在心理学这个极度强调实验设计巧妙性的学科,不做一两个原创的实验,出门都不好意思跟人打招呼。做元分析似乎就是一个纯粹的苦力活儿。不过现在已经做了,就先这样做着吧。

高海拔攀登对脑结构影响的两篇中文文献

最近在找一些关于高海拔攀登与人的大脑和认知功能相关的文献,发现厦门大学的一个组发表过两篇中文的研究结果,其中一个是以2009年厦门大学登山队攀登珠峰的队员为受试者,有意思。

文献一: MRI观察极高海拔攀登者大脑皮质结构改变

【作者】 林建忠; 杨天和; 郑慈娜; 康泰山; 李晓清; 曾强; 王月琴; 林玉琳; 王建腾;
【机构】 厦门大学附属中山医院磁共振科;

【摘要】 目的采用MRI观察短暂极高海拔探险所致大脑皮质结构改变。方法对28名健康青年在极高海拔登山前、后及1个月后随访进行常规T2W及全脑高分辨率三维T1W结构成像扫描,观察显著改变的脑区面积及其厚度,并应用Freesurfer软件进行统计学分析。结果登山前、后及1个月T2WI均未发现异常;左、右侧大脑半球皮层总萎缩面积(平均萎缩率)分别为(3795.14±35.23)mm2[(9.33±3.19)%]和(2175.42±26.15)mm2[(6.49±2.76)%];左侧舌回皮层萎缩率与进入极高海拔持续时间呈弱相关,其余脑区则呈显著相关。结论攀登极高海拔可引起大脑皮质萎缩,以优势半球明显,主要见于前额叶。
http://vdisk.weibo.com/s/zecw3uN2xCXVw

文献二:探索高原登山的脑结构改变

【作者】 林建忠; 杨天和; 郑慈娜; 康泰山; 李晓清; 曾强; 王月琴; 林玉琳; 王建腾;
【机构】 厦门大学附属中山医院磁共振科;

【摘要】 目的探讨一次短暂高原登山引起的脑结构改变。方法对15名厦门大学学生登山队员[男9名,女6名,19~23岁,平均(21.0±1.1)岁]分别于攀登珠穆朗玛峰前、后进行常规T2W及高分辨率全脑3DT1W结构成像;应用SIENA软件分别对登山前、后高分辨率3DT1W结构像进行全脑灰质、白质分割,计算体积萎缩百分率,并进行统计分析;对全脑进行基于体素的纵向脑萎缩评价,获取显著萎缩脑区。结果视觉观察,登山前、后所有登山队员常规T2WI均未发现异常,但脑灰质及白质体积均有明显减少,脑灰质萎缩百分率为(2.70±1.43)%,白质萎缩百分率为(1.43±1.36)%,差异有统计学意义(P<0.01);基于体素的全脑统计分析发现,萎缩脑区包括左侧额叶、胼胝体压部、双侧颞极、双侧枕叶距状沟周围及双侧小脑半球,以优势半球受损明显。结论高原登山运动可引起脑白质和灰质萎缩,且灰质萎缩更明显。
http://vdisk.weibo.com/s/zecw3uN2xCXP1

读《the emotional brain》

前天晚上终于把《the emotional brain》读完了,这本书也拖了好久好久终于读完了,算是还了内心的一个债务。

但是,说读完这本书像还债,对这本书是不公允的,因为它绝对是我要向同行力荐的书。这本1996年出版的书,与Damasio1994年的《Descartes’ Error : Emotion, Reason, and the Human Brain》占有同样重要的地位,都是情绪研究早期重要的著作,也是学术文献中经常被引用的书籍。

如果说<Descartes’ Error> 的特点是围绕Damasio自己的体感标记理论而展开,那<The Emotional Brain>则是关于情绪研究一个更加系统而全面的研究。当然,这也不是一个关于情绪研究” all-encompassing”的书籍,但内容包括三个大主题(Ledoux在前言所指出):

“How the brain detects and responds to emotionally arousing stimuli, how emotional learning occurs and emotional memories are formed, and how our conscious emotional feelings emerge from unconscious process.”

但从书的目录中,作为英文不是母语的人,还是比较难看出章节的标题与实际内容之间的关系,不知道Ledoux是否有卖弄文采的故意。先梳理一下各个章节主要的内容:

1 What’s love got to do with it?
大致就是作者是怎么爱上情绪研究的,更主要的是LeDoux从情绪研究中总结出来的8大主题:情绪研究层次应该定位于心理功能在大脑的表征;加工情绪的脑区的进化传统;情绪意识;情绪意识;情绪意识;情绪的感觉;情绪控制的难度;情绪的强大动机作用。

2 Souls on ice
有点弗洛伊德“冰山”理论的意思,主要想说的是:人们真正意识到的情绪与他们经历的情绪之间的不匹配,引用了大量的社会心理学和裂脑人的研究。这个可能为后面情绪意识的讨论提供了一些现象上的东西。

3 Blood, Sweat, and Tears
真想知道取这个标题到底啥意思!难道是双重含义(中学语文老师附体):一、情绪的生理反应在情绪研究发展中的作用,尤其是生理反应与情绪体验、认知评估之间的关系;二、指在情绪研究发展史上的blood and tears?这一章的实质性的内容是心理学史上关于情绪的理论争论,从情绪刺激到我们的情绪感受(feeling)之间到底发生了什么。就在这些问题上,心理学家们以论文为武器,发生了大规模的冲突,卷入此冲突之中的包括称为美国心理学之爹的William James。

4 The Holy Grail
这个holy grail就是brain。这一章主要是回顾关于情绪的神经科学研究,重点是Papez环路。

5 The Way We Were
重点是情绪的进化,因此也涉及到情绪研究中的一个重要争论:是否存在基本情绪?这个问题是目前美国西北大学Barret教授所争论的一个重点。当然, LeDoux主要是要把大家引导到他的研究上来:恐惧(fear),因为恐惧是人与动物共通常的,所以可以使用动物模型来研究情绪。

6 A Few Degree of Separation
什么Separation? 是high-road与low-road的separation。这一章主要是LeDoux的研究成果:恐惧信息的传导通路。这些研究在人脑中是如何的至今还有争论呢。

7 Remembrance of emotional past
主要是关于情绪记忆。关于内隐记忆与外显记忆的介绍特别清楚,而且还对记忆研究中著名的病人H.M.进行了比较深入的介绍,值得一读。也提到了记忆的不足:记忆是一种重构!

8 where the wild things are
恐惧系统出了问题会怎么样?各种形式的焦虑症、恐惧症和PTSD。从华生的“小阿尔伯特实验”开始,Ledoux告诉我们当恐惧系统如何会出问题,以及这些问题的危害。其中最严重的应该就是人会变傻逼吧,因为长期的焦虑或者恐惧的压力会严重影响海马结构的正常工作,也就是说记忆会受到影响。

9 Once more, with feelings
回到情绪意识的问题:我们如何知道自己处于情绪状态。这个问题非常tricky,而且意识作为一个心理学中神一样的存在,据说最好是获得诺贝尔奖之后才适合去研究的。不过Ledoux在回顾了关于意识的研究之后,很好地回避了意识这个问题本身。然后,提出意识到自身的情绪体验需要三个成分:杏仁核向皮层的信号输出;杏仁核所引起的唤醒;和身体的反馈。

读完这本书之后,第一感受与读Kandel的那本< In search of memory>有点像:想做出好的研究,还是得找到合适的动物模型! Kandel使用海兔粗大的神经元来研究学习与记忆的神经生化基础,而Ledoux使用老鼠的条件反射与学习来研究恐惧信号的神经传导通路和恐惧记忆的形成。这些研究的共同点是比较可靠,能够经得起重复与验证。但是做这类研究应该也是非常艰辛的,所以向做此类研究的同行表示敬意。

作为一个不是专门研究情绪的心理学人,另外一个强烈感受是,经过了近20年,Ledoux与Damasio在他们书中所涉及到的许多问题仍然没有过时,甚至有很多观点来仍然是指导着我们研究。基本情绪是否存在?人脑中情绪信号的传导机制如何?情绪意识如何产生?情绪记忆如何影响?情绪如何调节? 一些问题仍然在火热地争议之中,另一些问题则仍然没有很好的实验数据。

本来想写一个更加详细的书评,但是发现自己对情绪的研究还是缺乏了解,这些权且当读书笔记吧。