TCGA-数据下载整理(二)

加入我们用TCGAbiolinks下载之后我们可以看一下另外一种操作

TCGA-数据下载整理(二)_第1张图片
image.png

data_download_from_gdc
打开后发现是1208个文件夹,为什么是1208个,这跟我当时学的数据有关系,可以不用管让 每个文件夹里面还有个压缩文件,我们现在的任务就是,如何把每个文件夹里面的压缩文件放置在统一的文件夹中 假设我们的文件夹是这个,
首先设置工作目录到这一文件夹下:
00_data_read_in_one_file
并且他就是创建在 data_download_from_gdc中,所以现在文件夹的总体数目是应该是1208加1就是1209个 我们在R语言中输入

length(list.files())

这个命令中list.files()的意思就是列举当前工作目录中文件,length的意思就是有有多少个,一看,果真是1209个 其实

length(dir())

这个命令也能做这个事情。 为什么我的文件夹要起一个这么诡异的名字? 以00开头??

这是因为我需要让他处于文件中第一个位置,我们来验证一下:

dir()[1]

发现第一个文件夹就是他,这样我就每次循环访问后面的1208个文件夹,每次都把看到的东西复制过来就可以了

你说我为什么这么事无巨细,因为我可以很简洁,也可以很啰嗦,取决于我是否想要别人听的懂。

在R语言里面是可以直接创建文件夹的,鼠标右击也可以

dir.create("00_data_read_in_one_file") #创建新的文件夹,确保文件夹排在第一位

遍历和复制,为什么从2开始,因为第一个文件夹你已经知道了

for (dirname in dir()[2:length(dir())]){  
  file <- list.files(dirname,pattern = "*.counts")  #找到对应文件夹中的内容,pattern可以是正则表达式
  file.copy(paste0(dirname,"/",file),"00_data_read_in_one_file")  #复制内容到新的文件夹
}

运行完了之后,我们可以打开文件夹看一下,确实在里面,这时候可以全部选择,

将文件解压到data_unzip文件夹,解压数据1.42GB,

我们发现即使这个样子,文件的名称也是怪怪的
那我们就来转换,转换的信息藏在metadata文件中,这个要去看开始的那个帖子下载

切换一下工作目录

setwd("~/skill_practice/BRCA_999")

注意一开始我就建立了 BRCA_999这个文件夹, data_download_from_gdc是他的子文件夹, 00_data_read_in_one_file又是 data_download_from_gdc的子文件夹 metadata是json格式的

读入json格式的文件,他是一个1208行,15列的数据框

metadata <- jsonlite::fromJSON("metadata.cart.2017-11-15T09_56_59.722935.json")

我们转换的信息就是两列filename和associatedentities,我们把它选出来

require(dplyr)
metadata_id <- metadata %>% 
  dplyr::select(c(file_name,associated_entities)) 

我需要的是 file_name和样本名称,样本名称藏在了 associated_entities 列表中里面包括了 entity_id, case_id, entity_submitter_id, entity_type这四个项目,查看第一个了解一下

metadata$associatedentities[1] [[1]]
 entityid caseid 1 52033f64-1e6f-4657-a4fb-7cfeffc61951 39de7761-e762-4811-b95c-8216b79ae06b entitysubmitterid entitytype 1 TCGA-AN-A0XW-01A-11R-A109-07 aliquot

现在的想法是我把filename和 associated_entities中的 entity_submitter_id提取出来,做成一个数据框,然后我批量对应转换

naid_df <- data.frame()
for (i in 1:1208){
  naid_df[i,1] <- substr(metadata_id$file_name[i],1,nchar(metadata_id$file_name[i])-3)
  naid_df[i,2] <- metadata_id$associated_entities[i][[1]]$entity_submitter_id
}

现在把1208个小文件读入一个矩阵文件,并且给每一个文件加上 filename和 entity_submitter_id 论坛有道题目就是处理的这个问题

生信编程直播第四题:多个同样的行列式文件合并起来

http://www.biotrainee.com:8080/thread-603-1-1.html

我自己也给出了R语言的解法

在R语言中将多个同样的行列式文件合并起来

http://guoshipeng.com/2017/11/10/14-R-for-binding-colums/

但是当时不知道,TCGA的单个文件是没有列名的,导致无法合并,所以本次要复杂一点

读入所有解压的文件 1208个

nameList <- list.files("data_unzip/")
location <- which(naid_df==nameList[1],arr.ind = TRUE) ##which函数有一个已知value返回坐标的功能
TCGA_id <- as.character(naid_df[location[1],2]) ##通过坐标,获取TCGA_id
expr_df<- read.table(paste0("data_unzip/",nameList[1]),stringsAsFactors = F, header = F) #读入第一个文件,保存为data.frame
names(expr_df) <- c("gene_id",TCGA_id) #给刚才数据库命名

这边开始批量作业

for (i in 2:length(nameList)){
  location <- which(naid_df==nameList[i],arr.ind = TRUE)
  TCGA_id <- as.character(naid_df[location[1],2])
  dfnew <- read.table(paste0("data_unzip/",nameList[i]),stringsAsFactors = F,header = F)
  names(dfnew) <- c("gene_id",TCGA_id)
  expr_df <- inner_join(expr_df,dfnew,by="gene_id")
}

晚上走的时候没运行完,早上来的时候已经完毕,限速环节应该是read.table,早上再来尝试运行一次总是说内存不够 我尝试了一下fread来解决这个问题:

require(data.table)
nameList <- list.files("data_unzip/")
location <- which(naid_df==nameList[1],arr.ind = TRUE)
TCGA_id <- as.character(naid_df[location[1],2])
expr_df<- fread(paste0("data_unzip/",nameList[1]))
names(expr_df) <- c("gene_id",TCGA_id)
for (i in 2:length(nameList)){
  location <- which(naid_df==nameList[i],arr.ind = TRUE)
  TCGA_id <- as.character(naid_df[location[1],2])
  dfnew <- fread(paste0("data_unzip/",nameList[i]))
  names(dfnew) <- c("gene_id",TCGA_id)
  expr_df <- inner_join(expr_df,dfnew,by="gene_id")
}

结果大概2分钟搞定,速度喜人!!!! 总共60488行,查看最后几行发现有5行不是我们要的

tail(expr_df$gene_id,10)

去掉最后五行

expr_df <- expr_df[1:(length(expr_df$gene_id)-5),]

保存数据,大概是3个G左右

save(expr_df,file = "expr_df.Rda")

下面开始id转换,信息在GTF文件中表达矩阵里面的gene_id有小数点, 而GTF文件中没有,调整一下,先以“.”分列,在去掉小数点后的列

require(dplyr)
require(tidyr)
expr_df_nopoint <- expr_df %>% 
  tidyr::separate(gene_id,into = c("gene_id","drop"),sep="\\.") %>% 
  dplyr::select(-drop)
save(expr_df_nopoint,file = "expr_df_nopoint.Rda")
load(file = "expr_df_nopoint.Rda")

下载GTF文件来注释 ftp://ftp.ensembl.org/pub/release-90/gtf/homo_sapiens

安装包:

source("https://bioconductor.org/biocLite.R")
options(BioC_mirror="https://mirrors.ustc.edu.cn/bioc/")
biocLite("rtracklayer")
biocLite("SummarizedExperiment")

读入GTF数据

gtf1 <- rtracklayer::import('Homo_sapiens.GRCh38.90.chr.gtf')
gtf_df <- as.data.frame(gtf1)

保存数据

save(gtf_df,file = "gtf_df.Rda")

读入27个变量,2612129个观测,测试一下显示的不错

test <- gtf_df[1:5,]
View(test)

进展的很快,我们现在可以提取mRNA的表达矩阵啦, 以gtf文件中的 gene_biotype为标准,里面写 protein_coding的就是编码基因

首先要把这些基因提取出来,然后与表达谱融合,我在这个例子还提取了 gene_name, gene_id,所以最后的时候,我把三种表达方式合在了一起 这样,以后我无论用什么方式都可以选出我要的基因了

require(dplyr)
require(tidyr)
mRNA_exprSet <- gtf_df %>% 
  dplyr::filter(type=="gene",gene_biotype=="protein_coding") %>% #筛选gene,和编码指标
  dplyr::select(c(gene_name,gene_id,gene_biotype)) %>% 
  dplyr::inner_join(expr_df_nopoint,by ="gene_id") %>% 
  tidyr::unite(gene_id,gene_name,gene_id,gene_biotype,sep = " | ")

得到19688行,跟我们的认知很吻合

保存数据

save(mRNA_exprSet,file = "mRNA_exprSet.Rda")

下面进行标准化

suppressPackageStartupMessages(library(DESeq2))
suppressPackageStartupMessages(library(edgeR))

本次使用的方法是DESeq2中vst法 至于有哪几种方法,还有该选什么方法,明天会有一个帖子介绍

制作metadata,区别肿瘤和正常组,这时候需要对TCGA的id有个了解,从左往右数数,第14,15上的数字很重要 其中01-09是tumor,也就是癌症样本;其中10-29是normal,也就是癌旁

metadata <- data.frame(names(mRNA_exprSet)[-1])
for (i in 1:length(metadata[,1])) {
  num <- as.numeric(substring(metadata[i,1],14,15))
  if (num %in% seq(1,9)) {metadata[i,2] <- "T"}
  if (num %in% seq(10,29)) {metadata[i,2] <- "N"}
}

加个名称

names(metadata) <- c("TCGA_id","sample")

将sample转化成factor

metadata$sample <- as.factor(metadata$sample)

我们可总结一下,有112例normal,1096例肿瘤组织

metadata %>% dplyr::group_by(sample) %>% summarise(n())

保存数据,我想问一下,为什么你老是要保存数据,因为我眼里常含泪花

save(metadata,file = "metadata.Rda")

制作countData

mycounts <- mRNA_exprSet
keepGene=rowSums(edgeR::cpm(mycounts[-1])>0) >=2
table(keepGene);dim(mycounts)

这是数据维度19668 和1209

dim(mycounts[keepGene,])

剩余19546 1209

mycounts <-mycounts[keepGene,]
构建 DESeq对象

dds <-DataSetFromMatrix(countData=mycounts, 
                              colData=metadata, 
                              design=~sample,
                              tidy=TRUE)

标准化vst法,5分钟

vsd <- vst(dds, blind = FALSE)
mRNA_exprSet_vst <- as.data.frame(assay(vsd))
save(mRNA_exprSet_vst,file = "mRNA_exprSet_vst.Rda")

load(file = "dds.Rda")
下面就是完整的过程

  dds <- DESeq(dds)
  save(dds,file = "dds_DEseq.Rda")
  res <- results(dds, tidy=TRUE) #获取结果
  res <- as_tibble(res)
  require(dplyr)
  res <- res %>%
    separate(row,c("symbol","ensemble","genetype"),sep = " \\| ") %>%
    dplyr::select(- c(ensemble,genetype)) %>%
    arrange(desc(abs(log2FoldChange))) %>% #排序。为了去重
    distinct(symbol,.keep_all = TRUE) %>%
    arrange(desc(log2FoldChange))#再次按照log2FoldChange从大到小排序
  save(res,file = "result.Rda")

既然做了差异分析,那对下游基因注释就是顺手 的事情啦,我们没有选择,就用Y叔的包,clusterprofiler 在这之前我们需要获得差异基因列表 这一步,就是基本数据框的基本操作,按照pvalue和fc来排序,选择自己一定数量的基因,数量你来定,最终得到基因列表gene(我没有演示,需要自己做)

加载包,加载之前确定自己装了

library(DOSE)
library(GO.db)
library(org.Hs.eg.db)
library(topGO)
library(GSEABase)
library(clusterProfiler)

基因名称转换,返回的是数据框

gene = bitr(gene, fromType="SYMBOL", toType="ENTREZID", OrgDb="org.Hs.eg.db")
head(gene)

GO分析 细胞组分

ego_CC <- enrichGO(gene = gene$ENTREZID,
                  OrgDb= org.Hs.eg.db,
                  ont = "CC",
                  pAdjustMethod = "BH",
                  minGSSize = 1,
                  pvalueCutoff = 0.01,
                  qvalueCutoff = 0.01,
                  readable = TRUE)
生物过程

ego_BP <- enrichGO(gene = gene$ENTREZID,
                  OrgDb= org.Hs.eg.db,
                  ont = "BP",
                  pAdjustMethod = "BH",
                  minGSSize = 1,
                  pvalueCutoff = 0.01,
                  qvalueCutoff = 0.01,
                  readable = TRUE)
分子功能:

ego_MF <- enrichGO(gene = gene$ENTREZID,
                  OrgDb= org.Hs.eg.db,
                  ont = "MF",
                  pAdjustMethod = "BH",
                  minGSSize = 1,
                  pvalueCutoff = 0.01,
                  qvalueCutoff = 0.01,
                  readable = TRUE)
作图

barplot(ego_CC, showCategory=20,title="EnrichmentGO_CC")#条状图,按p从小到大排的
dotplot(ego_BP,title="EnrichmentGO_BP_dot")#点图,按富集的数从大到小的
KEGG分析

kk <- enrichKEGG(gene = gene$ENTREZID,
                organism ="human",
                pvalueCutoff = 0.01,
                qvalueCutoff = 0.01,
                minGSSize = 1,
                #readable = TRUE ,
                use_internal_data =FALSE)
作图

barplot(kk)
dotplot(kk)

你可能感兴趣的:(TCGA-数据下载整理(二))