首页 » 通讯 » 生成式AI时代的模型压缩与加速韩松主讲MIT课程资料全公开_模子_课程

生成式AI时代的模型压缩与加速韩松主讲MIT课程资料全公开_模子_课程

乖囧猫 2024-12-31 20:21:20 0

扫一扫用手机浏览

文章目录 [+]

编辑:蛋酱

近年来,天生式大模型(如大措辞模型、扩散模型)已显示出卓越的性能,但它们须要大量的打算资源。
为了让这些模型更易于利用,提高它们的效率至关主要。

生成式AI时代的模型压缩与加速韩松主讲MIT课程资料全公开_模子_课程 生成式AI时代的模型压缩与加速韩松主讲MIT课程资料全公开_模子_课程 通讯

在最新的一季 MIT 6.5940 课程中,MIT 学者韩松将深入解读天生式大模型时期的「AI 打算的模型压缩与加速技能」。

生成式AI时代的模型压缩与加速韩松主讲MIT课程资料全公开_模子_课程 生成式AI时代的模型压缩与加速韩松主讲MIT课程资料全公开_模子_课程 通讯
(图片来自网络侵删)

课程主页:https://efficientml.ai/

课程全名为《TinyML 和高效的深度学习打算》。
概括来说,这门课程将先容高效的人工智能打算技能,以便在资源有限的设备上实现强大的深度学习运用。

课程主题包括模型压缩、剪枝、量化、神经架构搜索、分布式演习、数据 / 模型并行化、梯度压缩和设备微调,还先容了针对大措辞模型、扩散模型、视频识别和点云的特定运用加速技能,并涵盖了量子机器学习的干系主题。
此外,学生将得到在条记本电脑上支配大型措辞模型(如 LLaMA 2)的实践履历。

最主要的是,这门课程的全部视频资源将上传到 Youtube 平台。

播放列表地址:https://youtube.com/playlist?list=PL80kAHvQbh-pT4lCkDT53zT8DKmhE0idB&feature=shared

课程大纲

课程整体方案如下图所示:

目前,Youtube 栏目中已经更新了前五章的授课内容:第一章 Introduction,第二章是神经网络根本,第三、四章是剪枝和稀疏性,第五章是量化。

鉴于目前课程还在进行中,如果你对即将要学的内容非常好奇,也可以先行参考其 2022 年秋季的授课资料,包含视频和 PPT。

讲师先容

这门课程由MIT副教授韩松主讲,并由他的两位博士生林吉和蔡涵担当助教。

韩松在斯坦福大学得到博士学位,2018 年加入 MIT,现为电子工程科学系副教授,研究广泛涉足深度学习和打算机体系构造。

韩松团队在硬件感知神经架构搜索(once-for-all network)方面的事情利用户能够设计、优化、缩小人工智能模型,并将其支配到资源受限的硬件设备上。

他曾提出包括剪枝和量化在内的「深度压缩」(Deep Compression)技能。

他还提出了「高效推理引擎」(Efficient Inference Engine,EIE),首次将权重稀疏性引入当代 AI 芯片,并影响了英伟达公司带有稀疏张量核心的安培 GPU 架构。

顺便一提,韩松博士的两次创业,均得到了 AI 领域的高度关注。

博士期间,韩松与同为清华大学毕业的汪玉、姚颂联合创立了深鉴科技(DeePhi Tech),其核心技能之一为神经网络压缩算法,随后深鉴科技被美国半导体公司赛灵思收购。

2021 年,韩松与吴迪、毛慧子共同成立 AI 边缘打算公司 OmniML,旨在通过创建深度学习模型来弥合 AI 运用程序与边缘上的各种设备之间的差距,从而提高 AI 的速率、准确性和效率。
今年,该公司被英伟达收购。

标签:

相关文章

维吾尔文化的独特魅力及其传承与发展

维吾尔文化是中华民族多元文化的重要组成部分,具有悠久的历史和丰富的内涵。本文将从维吾尔文化的独特魅力、传承与发展等方面进行探讨,以...

通讯 2025-01-02 阅读0 评论0

编程界的“谐星”,介绍搞笑编程语言

编程,作为现代社会不可或缺的技术,一直以其严谨的逻辑和严密的思维著称。在这个严谨的世界里,却有一群编程“谐星”,他们用搞笑编程语言...

通讯 2025-01-02 阅读0 评论0