AI大咖说-李飞飞高徒/特斯拉前AI总监出的最新AI课程

简介: 今天要推荐一位AI界的大神Andrej Karpathy的几门大模型的开源项目和课程,希望对你有帮助【7月更文挑战第1天】

AI大咖说-李飞飞高徒/特斯拉前AI总监出的最新AI课程

今天要推荐一位AI界的大神Andrej Karpathy的几门大模型的开源项目和课程,希望对你有帮助

1.Andrej Karpathy生平

Andrej Karpathy,全名为安德烈·卡帕西,是一位斯洛伐克裔加拿大计算机科学家,以其在人工智能、深度学习和计算机视觉领域的杰出贡献而闻名。以下是他的生平和简历的详细介绍:

生平

  • 出生年份与地点:Andrej Karpathy于1986年10月23日出生于斯洛伐克,15岁那年举家迁至加拿大。
  • 教育背景
    • 2005-2009年:在加拿大多伦多大学本科学习,主修计算机科学与物理,辅修数学。
    • 2009-2011年:在加拿大不列颠哥伦比亚大学攻读硕士学位,研究物理模拟中用于敏捷机器人的机器学习。
    • 2011-2016年:在斯坦福大学攻读博士学位,师从著名AI学者李飞飞,专注于研究卷积/循环神经网络以及它们在计算机视觉、自然语言处理和交叉领域的应用。

职业经历

  • 谷歌实习
    • 2011年:在谷歌大脑实习,致力于视频领域的大规模无监督学习。
    • 2013年:再次在谷歌研究院实习,从事YouTube视频的大规模监督学习。
    • 2015年:在DeepMind实习,参与深度强化学习团队的工作。
  • 斯坦福大学教学:在斯坦福大学期间,他设计并担任了斯坦福首个深度学习课程《CS231n:卷积神经网络与视觉识别》的主要讲师,该课程至今仍被认为是互联网上最为出色的深度学习课程之一。
  • 特斯拉
    • 2017年6月:加入特斯拉,担任人工智能主管,领导Autopilot以及整个特斯拉自动/辅助驾驶技术项目的研发。
    • 2022年7月:从特斯拉离职。
  • OpenAI
    • 2023年2月:二度回任OpenAI要职。
    • 目前OpenAI已经从OPENAI离职,开启新的工作,专门研究深度学习和计算机视觉。

其他成就与贡献

  • 他是人工智能研究组织OpenAI的创始成员。
  • 在深度学习和计算机视觉领域发表了多篇重要论文,对推动该领域的发展做出了显著贡献。
  • 2024年6月,投资了AI视频生成创业公司Pika Labs。

Andrej Karpathy的职业生涯充满了对人工智能技术的热情和追求,他的贡献不仅推动了深度学习领域的发展,也为自动驾驶、机器人等前沿领域的技术进步提供了有力支持。

2.Let's build GPT: from scratch, in code, spelled out

Let's build GPT 介绍了从头开始训练GPT的小型版本的开源项目,有代码和视频讲解。

这是一个专为训练和微调中等规模的GPT模型而设计的超级简单、超快速的存储库。它其实是minGPT的一个升级版,更注重实用性。虽然还在不断开发中,但现在的train.py文件已经能在OpenWebText数据集上重现GPT-2(124M)模型了。你只需要在一个8XA100 40GB的节点上跑大约4天的训练时间就可以了。代码非常简洁,一读就懂。具体来说,train.py文件就300来行代码,定义了一个基本的训练循环;而model.py文件也是300多行,定义了GPT模型的结构,还可以选择从OpenAI那里加载GPT-2的预训练权重。这样你就能轻松开始你的GPT项目了。

3. llm.c

这个项目用c来实现一个完整的大语言模型,对于学习模型推理大有益处。

告别繁重的PyTorch和cPython,拥抱纯粹的C/CUDA大型语言模型(LLMs)!
我们的存储库直接采用简洁高效的C/CUDA语言,无需加载245MB的PyTorch或107MB的cPython,让你轻松搭建大型语言模型。
目前,我们的重点是预训练,特别是重现GPT-2和GPT-3这样的经典系列模型! 为了让大家更容易上手,我们还提供了一个并行的PyTorch参考实现train_gpt2.py。这个文件其实是我之前项目nanoGPT的升级版,你会一眼就认出来的。
速度方面,我们的llm.c已经超越了PyTorch Nightly,快了大约7%! 不仅如此,我们还提供了一个简单的CPU fp32参考实现,全部代码仅一个文件train_gpt2.c,清晰易懂,大约1000行代码。
我们的目标是保持存储库的纯粹性,只维护C和CUDA代码。 当然,如果你希望在其他语言中实现,我们非常欢迎,但请在其他存储库中完成。我们会在“值得注意的分支”部分提供链接。

4. LLM101n: Let's build a Storyteller

yyq-2024-06-23-15-18-10.png

在这门课程中,我们将构建一个Storyteller AI大型语言模型(LLM)。在此过程中,你将能够使用AI来创作、精炼和描绘小故事。我们将从头开始,从基础到构建一个类似于ChatGPT的实用Web应用,全程使用Python、C和CUDA进行开发,且对计算机科学背景知识的要求极低。课程结束时,你应该对AI、LLM以及更广泛的深度学习有一个相对深入的理解。

yyq-2024-06-23-15-20-38.png

目录
相关文章
|
22天前
|
人工智能 自然语言处理 vr&ar
【通义】AI视界|“AI教母”李飞飞创业公司World Labs获2.3亿美元融资!
本文介绍了最新的科技动态,包括谷歌推出的DataGemma模型,通过真实世界统计数据减少模型幻觉;美国科技巨头与拜登团队会面讨论AI基础设施需求;Midjourney 7.0版本即将发布,引入3D系统提供沉浸式体验;李飞飞的World Labs获2.3亿美元融资,开发大型世界模型;苹果iPhone 16全系配备8GB内存,支持AI功能。更多内容请访问通义官网体验。
|
24天前
|
机器学习/深度学习 人工智能 自动驾驶
【通义】AI视界|马斯克:特斯拉计划2025年末批量装备AI训练芯片Dojo2
本文精选了24小时内的重要AI新闻,包括特斯拉计划2025年批量装备Dojo 2芯片、英伟达股价大涨、谷歌联合创始人积极参与AI项目、中科院女工程师开源AI模型保护女性,以及快手旗下可灵AI与蓝色光标达成战略合作。更多内容敬请访问通义官网体验。
|
27天前
|
人工智能 自然语言处理 自动驾驶
【通义】AI视界|马斯克亲自辟谣:xAI不可能在特斯拉的推理计算机上运行
本文精选了24小时内的重要科技新闻,包括马斯克辟谣xAI不会运行在特斯拉计算机上、谷歌发布AlphaProteo AI模型、百度贴吧“弱智吧”成为AI训练佳选、荣耀推出跨应用智能体以及苹果即将在iOS 18.2中加入图像生成功能。更多内容请访问通义官网体验。
|
5月前
|
机器学习/深度学习 人工智能 算法
AI大咖说-关于深度学习的一点思考
周志华教授探讨深度学习的成效,指出其关键在于大量数据、强大算力和训练技巧。深度学习依赖于函数可导性、梯度下降及反向传播算法,尽管硬件和数据集有显著进步,但核心原理保持不变。深度意味着增加模型复杂度,相较于拓宽,加深网络更能增强泛函表达能力,促进表示学习,通过逐层加工处理和内置特征变换实现抽象语义理解。周志华教授还提到了非神经网络的深度学习方法——深度森林。5月更文挑战第12天
81 5
|
5月前
|
人工智能
AI大咖说-如何评价论文的创新性
《AI大咖说》探讨论文创新性,强调新意、有效性和领域研究问题的重要性。创新点在于用新颖方法有效解决研究问题。评价公式:价值=问题大小*有效性*新意度。该观点源于《跟李沐学AI》视频,提供1-100分评分标准,助力评估论文价值。5月更文挑战第14天
61 3
|
5月前
|
机器学习/深度学习 人工智能 算法
AI大咖说-如何有效的读论文
# AI大咖李沐教你高效读论文 李沐,亚马逊资深首席科学家,MXNet框架作者,推荐其在B站的“跟李沐学AI”。他建议读论文分三步:粗读(标题、摘要、结论)、快速浏览(整体理解)和精读(深入细节)。通过这三遍阅读,判断论文是否相关,理解解决问题的方法和实验。5月更文挑战第13天
64 0
|
5月前
|
人工智能 机器人 UED
特斯拉手机应用上线AI聊天助手:特斯拉助手Beta版
【2月更文挑战第11天】特斯拉手机应用上线AI聊天助手:特斯拉助手Beta版
142 1
特斯拉手机应用上线AI聊天助手:特斯拉助手Beta版
|
机器学习/深度学习 人工智能 自动驾驶
特斯拉Dojo超算:AI训练平台的自动驾驶与通用人工智能之关键
特斯拉Dojo超算平台代表了特斯拉在AI领域的重大突破。它不仅提供了海量的计算能力以支持特斯拉的自动驾驶和通用人工智能研究,而且还通过自主研发、大规模可扩展性和高效率等特点,完美地融入了特斯拉的各项业务中。未来,随着特斯拉不断扩展其业务领域和市场范围,Dojo超算平台的重要性将进一步提升。同时,我们期待看到特斯拉继续优化其Dojo超算平台,以支持其在AI领域的更多创新和突破。
254 0
|
机器学习/深度学习 人工智能 自然语言处理
像GPT-4一样能看懂图文,李飞飞等人的具身AI给机器人造了个多模态对话框
像GPT-4一样能看懂图文,李飞飞等人的具身AI给机器人造了个多模态对话框
194 0
|
机器学习/深度学习 人工智能 自然语言处理
特斯拉AI总监:我复现了LeCun 33年前的神经网络,发现和现在区别不大
特斯拉AI总监:我复现了LeCun 33年前的神经网络,发现和现在区别不大

热门文章

最新文章

下一篇
无影云桌面