bioinformatic data skills 学习专题5 bioinformatics d.docx

上传人:b****8 文档编号:23671865 上传时间:2023-05-19 格式:DOCX 页数:5 大小:19.10KB
下载 相关 举报
bioinformatic data skills 学习专题5 bioinformatics d.docx_第1页
第1页 / 共5页
bioinformatic data skills 学习专题5 bioinformatics d.docx_第2页
第2页 / 共5页
bioinformatic data skills 学习专题5 bioinformatics d.docx_第3页
第3页 / 共5页
bioinformatic data skills 学习专题5 bioinformatics d.docx_第4页
第4页 / 共5页
bioinformatic data skills 学习专题5 bioinformatics d.docx_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

bioinformatic data skills 学习专题5 bioinformatics d.docx

《bioinformatic data skills 学习专题5 bioinformatics d.docx》由会员分享,可在线阅读,更多相关《bioinformatic data skills 学习专题5 bioinformatics d.docx(5页珍藏版)》请在冰豆网上搜索。

bioinformatic data skills 学习专题5 bioinformatics d.docx

bioinformaticdataskills学习专题5bioinformaticsd

BioinformaticDataSkills学习专题(5)BioinformaticsD...

Chapter6BioinformaticsDataIntro我们无时无刻不在和这些数据打交道,有空倒也不妨问问自己,如何获取、存储、备份和分享这些数据呢?

VinceBuffalo在这章就数据的获得和存储备份做了一些具体介绍和实战经验(鉴于英文描述地更准确,主题名就不翻译了):

RetrievingBioinformaticsDataDataIntegrityCompressingDataandWorkingwithCompressedDataRetrievingBioinformaticsData除了分析自己的数据,我们也可以从GEO、ENCODE这些公共数据库下载需要的数据。

这种数据的连接一般都以ftp(FileTransferProtocal)或者http(HyperTextTransferProtocal)开头,这两种都属与应用层数据传输协议。

下载数据:

wget/curl我们可以使用wget或者curl快速文档或者数据,他们两者各有长处。

wget非常稳定,它在带宽很窄的情况下和不稳定网络中有很强的适应性.如果是由于网络的原因下载失败,wget会不断的尝试,直到整个文件下载完毕。

如果是服务器打断下载过程,它会再次联到服务器上从停止的地方继续下载。

这对从那些限定了链接时间的服务器上下载大文件非常有用。

相比wget,curl可以接受更多传输协议。

wget会在指定网页下爬取各种数据,而curl可以下载多个网页的文件,但是不能断点续传。

在python和R中也有相应的包用于网络爬虫。

wget的一些方便用法e.g.1:

使用wget下载单个文件说明:

以上例子从网络下载一个文件并保存在当前目录,在下载的过程中会显示进度条,包含(下载完成百分比,已经下载的字节,当前下载速度,剩余下载时间)。

$wget-O下载并以不同的文件名保存$wget-Owordpress.zip–limit-rate限速下载当你执行wget的时候,它默认会占用全部可能的宽带下载。

但是当你准备下载一个大文件,而你还需要下载其它文件时就有必要限速了。

$wget--limit-rate=300k-c断点续传$wget-c-c重新启动下载中断的文件,对于我们下载大文件时突然由于网络等原因中断非常有帮助,我们可以继续接着下载而不是重新下载一个文件。

需要继续中断的下载时可以使用-c参数。

e.g.5:

使用wget-b后台下载$wget-binbackground,pid1840.Outputwillbewrittento'wget-log'.#对于下载非常大的文件的时候,我们可以使用参数-b进行后台下载。

#可以使用以下命令来察看下载进度:

$tail-fwget-loge.g.6:

伪装代理名称下载wget--user-agent='Mozilla/5.0(Windows;U;WindowsNT6.1;en-US)AppleWebKit/534.16(KHTML,likeGecko)Chrome/10.0.648.204Safari/534.16'-i下载多个文件#首先,保存一份下载链接文件,接着使用这个文件和参数-i下载:

$cat>filelist.txturl1url2url3url4$wget-ifilelist.txte.g.8:

使用wget–mirror镜像网站$wget--mirror-p--convert-links-P./LOCALURL下载整个网站到本地-miror:

开户镜像下载-p:

下载所有为了html页面显示正常的文件-convert-links:

下载后,转换成本地的链接-P./LOCAL:

保存所有文件和目录到本地指定目录e.g.9:

使用wget-r-A下载指定格式文件可以在以下情况使用该功能:

下载一个网站的所有图片下载一个网站的所有视频下载一个网站的所有PDF文件$wget-r-A.pdfurle.g.10:

使用wgetFTP下载可以使用wget来完成ftp链接的下载使用wget匿名ftp下载:

wgetftp-url使用wget用户名和密码认证的ftp下载:

wget–ftp-user=USERNAME–ftp-password=PASSWORDurl$wgetftp-url$wget--ftp-user=USERNAME--ftp-password=PASSWORDurl数据传输rsync和scprsync是可以实现增量备份的工具,配合任务计划,rsync能实现定时或间隔同步。

rsync可以实现scp的远程拷贝(rsync不支持远程到远程的拷贝,但scp支持)、cp的本地拷贝、rm删除和'ls-l'显示文件列表等功能。

我们可以利用这个功能在服务器和本地PC间进行文件传输。

scp是securecopy的简写,用于在Linux下进行远程拷贝文件的命令,和它类似的命令有cp,不过cp只是在本机进行拷贝不能跨服务器,而且scp传输是加密的。

当你服务器硬盘变为只读readonlysystem时,用scp可以帮你把文件移出来。

#从本地服务器复制到远程服务器复制文件:

$scplocal_fileremote_username@remote_ip:

remote_folder$scplocal_fileremote_username@remote_ip:

remote_file$scplocal_fileremote_ip:

remote_folder$scplocal_fileremote_ip:

remote_file#指定了用户名,命令执行后需要输入用户密码;如果不指定用户名,命令执行后需要输入用户名和密码。

#复制目录:

$scp-rlocal_folderremote_username@remote_ip:

remote_folder$scp-rlocal_folderremote_ip:

remote_folderDataIntegrity在网络传输、设备之间转存、复制大文件等时,可能会出现传输前后数据不一致的情况,特别是在网络这种相对更不稳定的环境中更容易出现。

因此校验文件的完整性必不可少。

1.SHASHA值就像人的指纹,是文件的数字指纹,是唯一的,一个文件对应一个唯一的SHA1值,一般用来确认你的文件和官方发布的是否一致.如果官方原版文件被别人做过手脚,那么算出来的SHA1值就会不同.所以SHA1值是用来“验明正身”的。

有些居心叵测的人在官方系统光盘里面加入木马程序、广告程序等,然后再放出来给人下载,如果你不检查SHA1值就贸然安装就中招了,可以在网上下载一个数字指纹检验器来计算你下载回来的文件的SHA1值,然后到微软的MSDN去查看官方发布的SHA1值,如果两者相等,说明你下载的文件是和官方提供的是一样的,你可以放心的安装了。

这就是SHA1值的用处,其他地方不用SHA1值的。

确认数据完整后,我们可以储存sha信息:

$shasumdata/*fastq>fastq_checksums.sha$catfastq_checksums.sha524d9a057c51b1[...]d8b1cbe2eaf92c96a9data/Csyrichta_TAGGACT_L008_R1_001.fastqd2940f444f00c7[...]4f9c9314ab7e1a1b16data/Csyrichta_TAGGACT_L008_R1_002.fastq623a4ca571d572[...]1ec51b9ecd53d3aef6data/Csyrichta_TAGGACT_L008_R1_003.fastqf0b3a4302daf7a[...]7bf1628dfcb07535bbdata/Csyrichta_TAGGACT_L008_R1_004.fastq53e2410863c36a[...]4c4c219966dd9a2fe5data/Csyrichta_TAGGACT_L008_R1_005.fastqe4d0ccf541e90c[...]5db75a3bef8c88ede7data/Csyrichta_TAGGACT_L008_R1_006.fastq再用shasum-c进行检验,会提示哪些文件不对:

$shasum-cfastq_checksums.shadata/Csyrichta_TAGGACT_L008_R1_001.fastq:

OKdata/Csyrichta_TAGGACT_L008_R1_002.fastq:

OKdata/Csyrichta_TAGGACT_L008_R1_003.fastq:

OKdata/Csyrichta_TAGGACT_L008_R1_004.fastq:

OKdata/Csyrichta_TAGGACT_L008_R1_005.fastq:

OKdata/Csyrichta_TAGGACT_L008_R1_006.fastq:

FAILEDshasum:

WARNING:

1computedchecksumdidNOTmatch2.MD5一个MD5校验和(checksum)通过对接收的传输数据执行散列运算来检查数据的正确性。

计算出的散列值拿来和随数据传输的散列值比较。

如果两个值相同,说明传输的数据完整无误、没有被窜改过(前提是散列值没有被窜改),从而可以放心使用。

MD5校验可以应用在多个领域,比如说机密资料的检验,下载文件的检验,明文密码的加密等。

echo-n'hello'|md5sum|cut-d''-f1#字符串”hello”的MD5:

5d41402abc4b2a76b9719d911017c592md5sum-cmd5sums-4.8.6#在当前目录执行检验CompressingDataandWorkingwithCompressedData空间有限,数据也需要压缩。

文中给出一个具体的例子:

IlluminaHiseq能够产出21,408,674,240bytes的数据,大约20G,而这些数据不经过压缩则有大约58G。

假如这些fastq文件一共有150Million,200bp长,对人基因组而言就是10xcoverage,压缩率达到66%。

测序技术越发普及,我们需要的数据量也会变大,适当压缩数据十分有利于减少项目的臃肿:

只保留压缩文件,及时删除中间文件;善用如cat,grep,less之“流”,生活更美好。

gzip是个使用广泛的压缩程序,文件经它压缩过后,其名称后面会多出'.gz'的扩展名。

e.g.1ls//显示当前目录文件a.cb.hd.cppgzip*//压缩目录下的所有文件ls//显示当前目录文件a.c.gzb.h.gzd.cpp.gze.g.2列出详细的信息gzip-dv*//解压文件,并列出详细信息a.c.gz:

0.0%--replacedwitha.cb.h.gz:

0.0%--replacedwithb.hd.cpp.gz:

0.0%--replacedwithd.cpp[root@w3cschool.cca]#e.g.3显示压缩文件的信息gzip-l*compresseduncompressedratiouncompressed_name2400.0%a.c2400.0%b.h2600.0%d.cppzgrep,zcat,zless都可以用来看gzip压缩的文件:

zgrep--color-i-n'AGATAGAT'Csyrichta_TAGGACT_L008_R1_001.fastq.gz2706:

ACTTCGGAGAGCCCATATATACACACTAAGATAGATAGCGTTAGCTAATGTAGATAGATT融合以上操作的实战从buffalo的网站上扒下来的:

用wget下载fa/gtf文件:

$wgetftp:

//ftp.ensembl.org/pub/release-74/fasta/mus_musculus/dna/Mus_musculus.GRCm38.74.dna.toplevel.fa.gz$wgetftp:

//ftp.ensembl.org/pub/release-74/gtf/mus_musculus/Mus_musculus.GRCm38.74.gtf.gz瞅瞅压缩的fa文件吧:

zgrep'^>'Mus_musculus.GRCm38.74.dna.toplevel.fa.gz|lesschecksum和sha-1sumsumMus_musculus.GRCm38.74.dna.toplevel.fa.gz53504793314sumMus_musculus.GRCm38.74.gtf.gz0098515074shasumMus_musculus.GRCm38.74.dna.toplevel.fa.gz01c868e22a981[...]c2154c20ae7899c5fMus_musculus.GRCm38.74.dna.toplevel.fa.gzshasumcf5bb5f8bda2803410bb04b708bff59cb575e379Mus_musculus.GRCm38.74.gtf.gz用wget下载CHECKSUMS文件:

$wgetftp:

//ftp.ensembl.org/pub/release-74/gtf/mus_musculus/CHECKSUMS最后作者又再次强调了工作记录的重要性,以下是他的readme.md模板:

##GenomeandAnnotationDataMouse(*Musmusculus*)referencegenomeversionGRCm38(Ensemblrelease74)wasdownloadedonSatFeb2221:

24:

42PST2014,using:

wgetftp:

//ftp.ensembl.org/pub/release-74/fasta/mus_musculus/dna/Mus_musculus.GRCm38.74.dna.toplevel.fa.gzGeneannotationdata(alsoEnsemblrelease74)wasdownloadedfromEnsemblonSatFeb2223:

30:

27PST2014,using:

wgetftp:

//ftp.ensembl.org/pub/release-74/gtf/mus_musculus/Mus_musculus.GRCm38.74.gtf.gz##SHA-1Sums+`Mus_musculus.GRCm38.74.dna.toplevel.fa.gz`:

01c868e22a9815c0c8ac247c2154c20ae7899c5f+`Mus_musculus.GRCm38.74.gtf.gz`:

cf5bb5f8bda2803410bb04b708bff59cb575e379Althoughthisisn’talotofdocumentation,thisisinfinitelybetterthannotdocumentinghowdatawasacquired.Asthisexampledemonstrates,ittakesverylittleefforttoproperlytrackthedatathatentersyourproject,andtherebyensurereproducibility.Themostimportantstepindocumentingyourworkisthatyou’reconsistentandmakeitahabit.说的在理,继续磨练。

下期:

workwithrangedata(chapter9)Hereisaproblemrelatedtoyoursandsolvedbefore.Couldyouuseit?

Couldyouuseitsresult?

Couldyouuseitsmethod?

—HowtoSolveItGeorgePólya(1945)参考http:

//linuxtools-rst.readthedocs.io/zh_CN/latest/tool/wget.html

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 小学教育 > 数学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1