最近ChatGPT
火的一塌糊涂,作为在生物医学和计算机科学领域夹缝求生的边缘摇摆人,也来蹭一波热度。
ChatGPT
是一个预训练的语言模型,由OpenAI
训练。它可以用来生成自然语言文本,并且可以进行对话。它基于Transformer
架构,可以捕捉到语言之间的复杂关系。它可以用来开发聊天机器人、语音助手、评论生成系统等。
下面我就从我比较擅长的组学生信
、数据可视化
以及机器学习
三个方面测试一下。
生信分析
问一下RNAseq分析流程
流程很对就是没有代码,看看能不能给我们写个代码~
完了,感觉要失业了。用了好多python
脚本,看一下有没有代码。
虽然没有代码,但是他给出了一个python
进行RPKM
标准化的例子。好牛~
再问一下每个软件怎么用?
好详细,问一下质控报告怎么解读?
很详细啊~当然这些东西谷歌也可以搜索的到的。可以看到,ChatGPT
对于自动生成一个拿来就用的上游分析代码方面,还是略有不足。不过有了大纲修修补补还是够用的,
数据可视化
来画个图吧!
把要求写细一点。
可以看到,除了有代码还有每个参数的用法。
问一下上一篇推文的图怎么画?
用到的函数都给到了~实在是很厉害。
看来,看到不会画的图先问问ChatGPT
说不定就有思路了。
机器学习
机器学习应该是ChatGPT
的主场了。
问一下用R语言进行随机森林分类的代码。
怎么调参呢?
总结
测试完我只想说:ChatGPT
,还有什么是你不会的!总的来说,ChatGPT
可以充当一个解决问题过程中AI助手的角色。当然,作为一个全新推出的模型,ChatGPT
自然有很多bug
等待修复。OpenAI
也在官网列出了一些现有的局限。
ChatGPT
有时会给出听起来很有道理,但实则离谱的答案。这个问题很难解决,因为:训练期间,没有事实来源进行强化学习;过于专注准确性会导致训练模型更加谨慎,有可能拒绝本可以正确回答的问题;监督训练会误导模型,因为理想的答案取决于模型知道什么,而不是人类演示者知道什么。ChatGPT
对调整输入措辞或多次尝试相同的提示很敏感。例如,给定一个问题的措辞,模型可以声称不知道答案,但稍微改写一下,就可以正确回答。该模型通常过于冗长,并且过度使用某些短语,例如重申它是由OpenAI
训练的语言模型。理想情况下,当用户问题不明确时,模型会要求用户进一步解释。然而目前的模型通常会猜测用户的意图。
往期内容
- CNS图表复现|生信分析|R绘图 资源分享&讨论群!
- 这图怎么画| 有点复杂的散点图
- 这图怎么画 | 相关分析棒棒糖图
- 组学生信| Front Immunol |基于血清蛋白质组早期诊断标志筛选的简单套路
- (免费教程+代码领取)|跟着Cell学作图系列合集
- Q&A | 如何在论文中画出漂亮的插图?
- 跟着 Cell 学作图 | 桑葚图(ggalluvial)
- R实战 | Lasso回归模型建立及变量筛选
- 跟着 NC 学作图 | 互作网络图进阶(蛋白+富集通路)(Cytoscape)
- R实战 | 给聚类加个圈圈(ggunchull)
- R实战 | NGS数据时间序列分析(maSigPro)
- 跟着 Cell 学作图 | 韦恩图(ggVennDiagram)