本地blast

简介: 本地blast

建库

makeblastdb -in ./amur_ide/mRNA_coreset.fasta -dbtype nucl -out mrna_blast
----------------------------------------------------------------------------
makeblastdb -in db.fasta -dbtype prot -out dbname

-in:待格式化的序列文件

-dbtype:数据库类型,prot或nucl

-out:数据库名


比对

blastn -query ./amur_ide/danio_rerio_ca15.fasta -out seq.blast -db ./mrna_blast -outfmt 6 -evalue 1e-5 -num_threads 4
------------------------------------------------------------------------------------
blastn -query seq.fasta -out seq.blast -db dbname -outfmt 6 -evalue 1e-5 -num_threads 4

-query: 输入文件路径及文件名

-out:输出文件路径及文件名

-db:格式化了的数据库路径及数据库名

-evalue:设置输出结果的e-value值

-num_threads:线程数

-outfmt:输出文件格式,总共有12种格式,6是tabular格式对应之前BLAST的m8格式,结果中从左到右每一列的意义分别是:

Query_id    Subject_id   %_identity alignment_length   mismatches   gap_openings  q.start  q.end   s.start   s.end   e-value  bit_score
AKS24976.1  ABU86350.1  25.446  224 149 9   713 931 2   212 3.23e-05    38.1
AKS24976.1  ABU86150.1  38.596  57  34  1   599 655 16  71  8.09e-05    36.6
AKS24976.1  ABU86161.1  38.667  75  42  2   578 652 14  84  9.06e-05    37.0
AKS24976.1  ABU86160.1  38.667  75  42  2   578 652 14  84  9.06e-05    37.0
AKS24976.1  ABU86162.1  38.667  75  42  2   578 652 14  84  9.31e-05    37.0
AKS24976.1  ABU86154.1  38.596  57  34  1   599 655 16  71  9.70e-05    36.6
AKS24976.1  ABU86152.1  38.596  57  34  1   599 655 16  71  9.70e-05    36.6
AKS24976.1  ABU86329.1  39.130  69  38  2   599 664 83  150 2.51e-04    34.7
AKS24976.1  ABU86326.1  39.130  69  38  2   599 664 83  150 2.51e-04    34.7
AKS24976.1  ABU86325.1  39.130  69  38  2   599 664 83  150 2.51e-04    34.7


相关文章
|
C++ Python
vsCode修改字体为JetBrains Mono (PyCharm默认字体)
vsCode修改字体为JetBrains Mono (PyCharm默认字体)
2778 0
vsCode修改字体为JetBrains Mono (PyCharm默认字体)
|
9月前
|
数据可视化
使用 ggbreak 包进行 Y 轴多次截断
使用 ggbreak 包进行 Y 轴多次截断
266 0
|
Ubuntu NoSQL Linux
查看linux操作系统版本:Ubuntu?Centos?还是其他?
查看linux操作系统版本:Ubuntu?Centos?还是其他?
23465 2
查看linux操作系统版本:Ubuntu?Centos?还是其他?
|
2天前
|
人工智能 自然语言处理 Shell
深度评测 | 仅用3分钟,百炼调用满血版 Deepseek-r1 API,百万Token免费用,简直不要太爽。
仅用3分钟,百炼调用满血版Deepseek-r1 API,享受百万免费Token。阿里云提供零门槛、快速部署的解决方案,支持云控制台和Cloud Shell两种方式,操作简便。Deepseek-r1满血版在推理能力上表现出色,尤其擅长数学、代码和自然语言处理任务,使用过程中无卡顿,体验丝滑。结合Chatbox工具,用户可轻松掌控模型,提升工作效率。阿里云大模型服务平台百炼不仅速度快,还确保数据安全,值得信赖。
86423 22
深度评测 | 仅用3分钟,百炼调用满血版 Deepseek-r1 API,百万Token免费用,简直不要太爽。
|
4天前
|
人工智能 API 网络安全
用DeepSeek,就在阿里云!四种方式助您快速使用 DeepSeek-R1 满血版!更有内部实战指导!
DeepSeek自发布以来,凭借卓越的技术性能和开源策略迅速吸引了全球关注。DeepSeek-R1作为系列中的佼佼者,在多个基准测试中超越现有顶尖模型,展现了强大的推理能力。然而,由于其爆火及受到黑客攻击,官网使用受限,影响用户体验。为解决这一问题,阿里云提供了多种解决方案。
15383 32
|
12天前
|
机器学习/深度学习 人工智能 自然语言处理
PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
DeepSeek 系列模型以其卓越性能在全球范围内备受瞩目,多次评测中表现优异,性能接近甚至超越国际顶尖闭源模型(如OpenAI的GPT-4、Claude-3.5-Sonnet等)。企业用户和开发者可使用 PAI 平台一键部署 DeepSeek 系列模型,实现 DeepSeek 系列模型与现有业务的高效融合。
|
12天前
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
3211 116
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
3天前
|
并行计算 PyTorch 算法框架/工具
本地部署DeepSeek模型
要在本地部署DeepSeek模型,需准备Linux(推荐Ubuntu 20.04+)或兼容的Windows/macOS环境,配备NVIDIA GPU(建议RTX 3060+)。安装Python 3.8+、PyTorch/TensorFlow等依赖,并通过官方渠道下载模型文件。配置模型后,编写推理脚本进行测试,可选使用FastAPI服务化部署或Docker容器化。注意资源监控和许可协议。
990 5
|
7天前
|
人工智能 自然语言处理 API
DeepSeek全尺寸模型上线阿里云百炼!
阿里云百炼平台近日上线了DeepSeek-V3、DeepSeek-R1及其蒸馏版本等六款全尺寸AI模型,参数量达671B,提供高达100万免费tokens。这些模型在数学、代码、自然语言推理等任务上表现出色,支持灵活调用和经济高效的解决方案,助力开发者和企业加速创新与数字化转型。示例代码展示了如何通过API使用DeepSeek-R1模型进行推理,用户可轻松获取思考过程和最终答案。
|
11天前
|
API 开发工具 Python
阿里云PAI部署DeepSeek及调用
本文介绍如何在阿里云PAI EAS上部署DeepSeek模型,涵盖7B模型的部署、SDK和API调用。7B模型只需一张A10显卡,部署时间约10分钟。文章详细展示了模型信息查看、在线调试及通过OpenAI SDK和Python Requests进行调用的步骤,并附有测试结果和参考文档链接。
1761 9
阿里云PAI部署DeepSeek及调用