LLM 课程文档
第二部分发布活动
并获得增强的文档体验
开始
第二部分发布活动
为了发布课程的第二部分,我们组织了一场为期两天的现场活动,其中包括讲座和微调冲刺。 如果您错过了,可以观看下面列出的所有讲座回放!
第一天:Transformer 的高级概述以及如何训练它们
Thomas Wolf: 迁移学习和 Transformers 库的诞生
Thomas Wolf 是 Hugging Face 的联合创始人兼首席科学官。 Thomas Wolf 和 Hugging Face 团队创建的工具被 5,000 多个研究机构使用,包括 Facebook Artificial Intelligence Research、Google Research、DeepMind、Amazon Research、Apple、Allen Institute for Artificial Intelligence 以及大多数大学部门。 Thomas Wolf 是有史以来人工智能领域最大规模的研究合作项目 “BigScience” 的发起人和高级主席,也是一套广泛使用的 库和工具 的发起人和高级主席。 Thomas Wolf 也是一位多产的教育家、人工智能和自然语言处理领域的思想领袖,并且是世界各地会议的常邀演讲嘉宾 https://thomwolf.io。
Jay Alammar: Transformer 模型的可视化温和介绍
通过他广受欢迎的 ML 博客,Jay 帮助数百万研究人员和工程师以可视化的方式理解机器学习工具和概念,从基础知识(最终出现在 NumPy、Pandas 文档中)到前沿技术(Transformers、BERT、GPT-3)。
Margaret Mitchell: 关于机器学习开发中的价值观
Margaret Mitchell 是一位研究伦理 AI 的研究员,目前专注于技术中伦理知情的 AI 开发的来龙去脉。 她在自然语言生成、辅助技术、计算机视觉和 AI 伦理方面发表了 50 多篇论文,并在对话生成和情感分类领域拥有多项专利。 她之前曾在 Google AI 担任 Staff Research Scientist,在那里她创立并共同领导了 Google 的 Ethical AI 团队,专注于基础 AI 伦理研究和 Google 内部 AI 伦理的运作。 在加入 Google 之前,她是 Microsoft Research 的研究员,专注于计算机视觉到语言的生成; 并且是约翰霍普金斯大学的博士后,专注于贝叶斯建模和信息提取。 她拥有阿伯丁大学计算机科学博士学位和华盛顿大学计算语言学硕士学位。 在攻读学位期间,她还在 2005-2012 年在俄勒冈健康与科学大学从事机器学习、神经系统疾病和辅助技术方面的工作。 她在多样性、包容性、计算机科学和伦理的交叉领域发起了一些研讨会和倡议。 她的工作获得了国防部长阿什·卡特和美国盲人基金会的奖励,并已被多家科技公司实施。 她喜欢园艺、狗和猫。
Matthew Watson 和 Chen Qian: 使用 Keras 的 NLP 工作流程
Matthew Watson 是 Keras 团队的机器学习工程师,专注于高级建模 API。 他在本科期间学习了计算机图形学,并在斯坦福大学获得了硕士学位。 他几乎是一位英语专业的学生,后来转向了计算机科学,他热衷于跨学科工作,并使 NLP 更容易被更广泛的受众所接受。
Chen Qian 是 Keras 团队的软件工程师,专注于高级建模 API。 Chen 获得了斯坦福大学电气工程硕士学位,他对简化 ML 任务和大规模 ML 的代码实现特别感兴趣。
Mark Saroufim: 如何使用 Pytorch 训练模型
Mark Saroufim 是 Pytorch 的合作伙伴工程师,致力于 OSS 生产工具,包括 TorchServe 和 Pytorch Enterprise。 在他过去的职业生涯中,Mark 曾担任 Graphcore、yuri.ai、Microsoft 和 NASA JPL 的应用科学家和产品经理。 他最主要的热情是让编程更有趣。
Jakob Uszkoreit: 没坏就 别修 让我们打破它
Jakob Uszkoreit 是 Inceptive 的联合创始人。 Inceptive 设计用于疫苗和治疗剂的 RNA 分子,它使用大规模深度学习,并与高通量实验紧密结合,目标是使 RNA 药物更易于获取、更有效且更广泛适用。 此前,Jakob 在 Google 工作了十多年,领导 Google Brain、Research 和 Search 的研究和开发团队,致力于深度学习基础、计算机视觉、语言理解和机器翻译。
第二天:要使用的工具
Lewis Tunstall: 使用 🤗 Transformers Trainer 进行简单训练
Lewis 是 Hugging Face 的机器学习工程师,专注于开发开源工具并使它们更容易被更广泛的社区所接受。 他也是 O’Reilly 图书 Natural Language Processing with Transformers 的合著者。 您可以在 Twitter (@_lewtun) 上关注他,获取 NLP 提示和技巧!
Matthew Carrigan: 🤗 Transformers 和 🤗 Datasets 的新 TensorFlow 功能
Matt 负责 Transformers 的 TensorFlow 维护,最终将领导一场政变,反对现任 PyTorch 派系,这很可能通过他的 Twitter 帐户 @carrigmat 进行协调。
Lysandre Debut: Hugging Face Hub 作为协作和共享机器学习项目的手段
Lysandre 是 Hugging Face 的机器学习工程师,他参与了许多开源项目。 他的目标是通过开发具有非常简单 API 的强大工具,使每个人都能使用机器学习。
Lucile Saulnier: 使用 🤗 Transformers 和 🤗 Tokenizers 获取您自己的分词器
Lucile 是 Hugging Face 的机器学习工程师,负责开发和支持开源工具的使用。 她还积极参与自然语言处理领域的许多研究项目,例如协作训练和 BigScience。
Sylvain Gugger: 使用 🤗 Accelerate 为您的 PyTorch 训练循环增压
Sylvain 是 Hugging Face 的研究工程师,也是 🤗 Transformers 的核心维护者之一,以及 🤗 Accelerate 背后的开发人员。 他喜欢让模型训练更容易上手。
Merve Noyan: 使用 🤗 Spaces 展示您的模型演示
Merve 是 Hugging Face 的开发者倡导者,致力于开发工具并围绕这些工具构建内容,从而使每个人都能轻松使用机器学习。
Abubakar Abid: 快速构建机器学习应用
Abubakar Abid 是 Gradio 的 CEO。 他于 2015 年获得麻省理工学院电气工程和计算机科学学士学位,并于 2021 年获得斯坦福大学应用机器学习博士学位。 作为 Gradio 的 CEO,Abubakar 致力于使机器学习模型更易于演示、调试和部署。
Mathieu Desvé: AWS ML Vision:让所有客户都能使用机器学习
技术爱好者,业余时间是创客。 我喜欢挑战和解决客户及用户的问题,并与才华横溢的人一起工作,每天学习。 自 2004 年以来,我从事多个职位,从前端、后端、基础设施、运营和管理不等。 尝试以敏捷的方式解决常见的技术和管理问题。
Philipp Schmid: 使用 Amazon SageMaker 和 🤗 Transformers 进行托管训练
Philipp Schmid 是 Hugging Face 的机器学习工程师和技术主管,他在那里领导与 Amazon SageMaker 团队的合作。 他热衷于普及和生产化前沿 NLP 模型,并提高深度学习的易用性。
< > 在 GitHub 上更新