课程发布社区活动
经过 Hugging Face 团队的大量工作,我们很高兴地宣布 Hugging Face 课程 的第二部分将于 11 月 15 日发布!第一部分主要教你如何使用预训练模型,在文本分类任务上对其进行微调,然后将结果上传到模型中心。第二部分将重点介绍所有其他常见的 NLP 任务:词符分类、语言建模 (因果和掩码)、翻译、摘要和问答。它还将更深入地探讨整个 Hugging Face 生态系统,特别是 🤗 Datasets 和 🤗 Tokenizers。
为配合此次发布,我们正在组织一个大型社区活动,诚邀你参加!活动内容包括为期两天的讲座,然后是团队项目,重点是在任何 NLP 任务上微调模型,最后进行像这个一样的现场演示。如果你正在寻找机器学习方面的新工作,这些演示将为你的作品集增色不少。我们还将为所有成功构建演示的参与者颁发结业证书。
AWS 通过 Amazon SageMaker 为参与者提供免费计算资源,赞助了本次活动。


请填写此表格进行注册。你将在下面找到关于为期两天的讲座的更多详细信息。
第一天 (11 月 15 日): Transformers 宏观介绍及模型训练方法
第一天的讲座将重点介绍 Transformers 模型以及我们可以用来训练或微调它们的工具。

Thomas Wolf: 迁移学习与 Transformers 库的诞生
Thomas Wolf 是 HuggingFace 的联合创始人兼首席科学官。Thomas Wolf 和 Hugging Face 团队创建的工具被超过 5,000 个研究组织使用,包括 Facebook 人工智能研究院、谷歌研究院、DeepMind、亚马逊研究院、苹果、艾伦人工智能研究所以及大多数大学院系。Thomas Wolf 是人工智能领域有史以来最大规模的研究合作项目 “BigScience” 的发起人和高级主席,他还开发了一系列广泛使用的库和工具。Thomas Wolf 也是一位多产的教育家,是人工智能和自然语言处理领域的思想领袖,并经常受邀在世界各地的会议上发表演讲 (https://thomwolf.io)。

Margaret Mitchell: 关于机器学习开发中的价值观
Margaret Mitchell 是一名从事道德人工智能 (Ethical AI) 研究的研究员,目前专注于科技领域中基于道德的人工智能开发的来龙去脉。她已发表超过 50 篇关于自然语言生成、辅助技术、计算机视觉和人工智能伦理的论文,并在对话生成和情感分类领域拥有多项专利。她曾在谷歌人工智能部门担任高级研究科学家,在那里她创立并共同领导了谷歌的道德人工智能小组,专注于基础人工智能伦理研究和在谷歌内部实施人工智能伦理。在加入谷歌之前,她是微软研究院的一名研究员,专注于计算机视觉到语言生成的研究;她也是约翰霍普金斯大学的博士后,专注于贝叶斯建模和信息提取。她拥有阿伯丁大学的计算机科学博士学位和华盛顿大学的计算语言学硕士学位。在攻读学位期间,她还于 2005-2012 年在俄勒冈健康与科学大学从事机器学习、神经系统疾病和辅助技术方面的工作。她牵头举办了许多关于多样性、包容性、计算机科学和伦理交叉领域的研讨会和倡议。她的工作获得了国防部长阿什·卡特和美国盲人基金会的嘉奖,并已被多家科技公司采纳。她喜欢园艺、狗和猫。

Jakob Uszkoreit: 它没坏,所以不要修理让我们打破它
Jakob Uszkoreit 是 Inceptive 的联合创始人。Inceptive 利用大规模深度学习与高通量实验紧密结合,设计用于疫苗和疗法的 RNA 分子,目标是使基于 RNA 的药物更容易获得、更有效、更广泛地适用。此前,Jakob 在谷歌工作了十多年,领导谷歌大脑、研究和搜索部门的研发团队,从事深度学习基础、计算机视觉、语言理解和机器翻译方面的工作。

Jay Alammar: Transformers 模型的可视化简明介绍
Jay Alammar, Cohere。通过他广受欢迎的机器学习博客,Jay 帮助数百万研究人员和工程师直观地理解从基础 (最终出现在 NumPy、pandas 文档中) 到前沿 (Transformers、BERT、GPT-3) 的机器学习工具和概念。

Matthew Watson: 使用 Keras 的 NLP 工作流
Matthew Watson 是 Keras 团队的一名机器学习工程师,专注于高级建模 API。他在斯坦福大学攻读本科和硕士期间学习了计算机图形学。他差点成为一名英语专业的学生,后来转向了计算机科学,他对跨学科工作和让更多人接触 NLP 充满热情。

Chen Qian: 使用 Keras 的 NLP 工作流
Chen Qian 是 Keras 团队的一名软件工程师,专注于高级建模 API。Chen 获得了斯坦福大学的电气工程硕士学位,他对简化机器学习任务和大规模机器学习的代码实现特别感兴趣。

Mark Saroufim: 如何使用 Pytorch 训练模型
Mark Saroufim 是 Pytorch 的一名合作伙伴工程师,致力于开源生产工具,包括 TorchServe 和 Pytorch Enterprise。在过去,Mark 曾在 Graphcore、yuri.ai、微软和美国宇航局喷气推进实验室担任应用科学家和产品经理。他的主要热情是让编程更有趣。
第二天 (11 月 16 日): 你将会用到的工具
第二天将重点介绍 Hugging Face、Gradio 和 AWS 团队的讲座,向你展示你将使用的工具。

Lewis Tunstall: 使用 🤗 Transformers Trainer 进行简单训练
Lewis 是 Hugging Face 的一名机器学习工程师,专注于开发开源工具并让更广泛的社区能够使用它们。他也是即将出版的 O’Reilly 关于 Transformers 的书的合著者,你可以在 Twitter (@_lewtun) 上关注他以获取 NLP 的技巧和窍门!

Matthew Carrigan: 适用于 🤗 Transformers 和 🤗 Datasets 的 TensorFlow 新功能
Matt 负责 Transformers 中 TensorFlow 的维护工作,并最终将领导一场针对现任 PyTorch 派系的政变,这场政变很可能会通过他的 Twitter 帐户 @carrigmat 进行协调。

Lysandre Debut: Hugging Face Hub 作为协作和共享机器学习项目的途径
Lysandre 是 Hugging Face 的一名机器学习工程师,他参与了许多开源项目。他的目标是通过开发具有非常简单 API 的强大工具,让每个人都能接触到机器学习。

Sylvain Gugger: 使用 🤗 Accelerate 为你的 PyTorch 训练循环增添动力
Sylvain 是 Hugging Face 的一名研究工程师,也是 🤗 Transformers 的核心维护者之一和 🤗 Accelerate 的开发者。他喜欢让模型训练变得更容易。

Lucile Saulnier: 使用 🤗 Transformers & 🤗 Tokenizers 获取你自己的分词器
Lucile 是 Hugging Face 的一名机器学习工程师,负责开发和支持开源工具的使用。她还积极参与自然语言处理领域的许多研究项目,例如协作训练和 BigScience。

Merve Noyan: 使用 🤗 Spaces 展示你的模型演示
Merve 是 Hugging Face 的一名开发者关系工程师,致力于开发工具并围绕这些工具创建内容,以实现机器学习的民主化。

Abubakar Abid: 快速构建机器学习应用
Abubakar Abid 是 Gradio 的首席执行官。他于 2015 年在麻省理工学院获得电气工程和计算机科学理学学士学位,并于 2021 年在斯坦福大学获得应用机器学习博士学位。作为 Gradio 的首席执行官,Abubakar 致力于使机器学习模型的演示、调试和部署变得更容易。

Mathieu Desvé: AWS 机器学习愿景:让所有客户都能使用机器学习
技术爱好者,业余时间喜欢动手制作。我喜欢挑战和解决客户和用户的问题,并与有才华的人一起工作,每天学习。自 2004 年以来,我在多个职位上工作,涉及前端、后端、基础设施、运营和管理。尝试以敏捷的方式解决常见的技术和管理问题。

Philipp Schmid: 使用 Amazon SageMaker 和 🤗 Transformers 进行托管训练
Philipp Schmid 是 Hugging Face 的一名机器学习工程师和技术负责人,他领导着与 Amazon SageMaker 团队的合作。他热衷于将尖端的 NLP 模型民主化和产品化,并提高深度学习的易用性。