第二部分发布会
为了庆祝第二部分课程的发布,我们组织了一场为期两天的直播活动,在微调冲刺之前举办了两天的演讲。如果您错过了,您可以观看下面列出的所有演讲!
第一天:Transformer 的高级概览以及如何训练它们
Thomas Wolf: 迁移学习和 Transformer 库的诞生
Thomas Wolf 是 Hugging Face 的联合创始人兼首席科学官。Thomas Wolf 和 Hugging Face 团队创建的工具被 5000 多个研究机构使用,包括 Facebook 人工智能研究院、Google 研究院、DeepMind、亚马逊研究院、苹果、艾伦人工智能研究院,以及大多数大学部门。Thomas Wolf 是有史以来最大的人工智能研究合作项目 “BigScience” 的发起者和高级主席,以及一系列广泛使用的 库和工具。Thomas Wolf 也是一位多产的教育家,人工智能和自然语言处理领域的思想领袖,以及世界各地会议的常客 https://thomwolf.io。
Jay Alammar: Transformer 模型的简单可视化介绍
通过他受欢迎的机器学习博客,Jay 帮助数百万研究人员和工程师直观地理解机器学习工具和概念,从基础知识(最终会进入 NumPy、Pandas 文档)到尖端技术(Transformer、BERT、GPT-3)。
Margaret Mitchell: 关于机器学习开发中的价值观
Margaret Mitchell 是一位从事道德 AI 研究的学者,目前专注于技术中道德知情 AI 开发的来龙去脉。她已发表 50 多篇关于自然语言生成、辅助技术、计算机视觉和 AI 道德的论文,并在对话生成和情感分类领域拥有多项专利。她之前曾在 Google AI 担任高级研究科学家,在那里她创立并共同领导了 Google 的道德 AI 小组,专注于基础 AI 道德研究和 Google 内部 AI 道德的实施。在加入 Google 之前,她在微软研究院担任研究员,专注于计算机视觉到语言生成;并在约翰霍普金斯大学担任博士后,专注于贝叶斯建模和信息提取。她拥有阿伯丁大学的计算机科学博士学位和华盛顿大学的计算语言学硕士学位。在获得学位期间,她还从 2005 年到 2012 年在俄勒冈健康与科学大学从事机器学习、神经疾病和辅助技术方面的工作。她引领了多样性、包容性、计算机科学和道德交叉领域的许多研讨会和倡议。她的工作获得了国防部长阿什·卡特和美国盲人基金会的奖励,并已被多家科技公司实施。她喜欢园艺、狗和猫。
Matthew Watson 和 Chen Qian: 使用 Keras 的 NLP 工作流程
Matthew Watson 是 Keras 团队的机器学习工程师,专注于高级建模 API。他在本科期间学习了计算机图形学,并在斯坦福大学获得了硕士学位。他几乎是英语专业,后来转向计算机科学,热衷于跨学科工作,让更多人接触 NLP。
Chen Qian 是 Keras 团队的软件工程师,专注于高级建模 API。Chen 获得了斯坦福大学的电气工程硕士学位,他对简化机器学习任务和大型机器学习的代码实现特别感兴趣。
Mark Saroufim: 如何使用 Pytorch 训练模型
Mark Saroufim 是 Pytorch 的合作伙伴工程师,致力于开发 OSS 生产工具,包括 TorchServe 和 Pytorch Enterprise。在过去的岁月里,Mark 曾担任 Graphcore、yuri.ai、微软和美国宇航局喷气推进实验室的应用科学家和产品经理。他最大的热情是让编程更有趣。
Jakob Uszkoreit: 它没有坏,所以 不要修 让我们把它破坏
Jakob Uszkoreit 是 Inceptive 的联合创始人。Inceptive 使用大型深度学习设计用于疫苗和治疗的 RNA 分子,并与高通量实验紧密结合,旨在使基于 RNA 的药物更易获得、更有效、更广泛地适用。之前,Jakob 在 Google 工作了十多年,领导了 Google Brain、研究和搜索的研发团队,从事深度学习基础、计算机视觉、语言理解和机器翻译方面的工作。
第二天:要使用的工具
Lewis Tunstall: 使用 🤗 Transformers Trainer 进行简单训练
Lewis 是 Hugging Face 的机器学习工程师,专注于开发开源工具并使其更容易被更广泛的社区使用。他也是 O’Reilly 出版社书籍 使用 Transformer 进行自然语言处理 的合著者。您可以在 Twitter 上关注他 (@_lewtun) 以获取 NLP 提示和技巧!
Matthew Carrigan: 🤗 Transformers 和 🤗 Datasets 的新 TensorFlow 功能
Matt 负责 Transformers 的 TensorFlow 维护,并最终领导针对现任 PyTorch 派系的政变,这很可能会通过他的 Twitter 帐户 @carrigmat 进行协调。
Lysandre Debut: Hugging Face Hub 作为协作和共享机器学习项目的手段
Lysandre 是 Hugging Face 的机器学习工程师,参与了许多开源项目。他的目标是通过开发具有非常简单 API 的强大工具来让每个人都能使用机器学习。
Lucile Saulnier: 使用 🤗 Transformers 和 🤗 Tokenizers 获取自己的分词器
Lucile 是 Hugging Face 的机器学习工程师,负责开发和支持开源工具的使用。她还积极参与自然语言处理领域的许多研究项目,例如协作训练和 BigScience。
Sylvain Gugger: 使用 🤗 Accelerate 加速您的 PyTorch 训练循环
Sylvain 是 Hugging Face 的研究工程师,是 🤗 Transformers 的核心维护者之一,也是 🤗 Accelerate 的开发者。他喜欢让模型训练更易获得。
Merve Noyan: 使用 🤗 Spaces 展示您的模型演示
Merve 是 Hugging Face 的开发者倡导者,致力于开发工具并围绕它们构建内容,为每个人民主化机器学习。
Abubakar Abid: 快速构建机器学习应用程序
Abubakar Abid 是 Gradio 的首席执行官。他在 2015 年获得麻省理工学院的电气工程和计算机科学学士学位,并在 2021 年获得斯坦福大学的应用机器学习博士学位。作为 Gradio 的首席执行官,Abubakar 致力于使机器学习模型更容易演示、调试和部署。
Mathieu Desvé: AWS ML Vision:让机器学习惠及所有客户
技术爱好者,业余时间喜欢动手制作。我喜欢挑战,解决客户和用户的问题,并与才华横溢的人一起学习。自 2004 年以来,我在多个职位上工作,从前端、后端、基础设施、运营到管理都有涉猎。尝试以敏捷的方式解决常见的技术和管理问题。
菲利普·施密德:使用 Amazon SageMaker 和 🤗 Transformers 管理培训
菲利普·施密德是 Hugging Face 的机器学习工程师和技术主管,负责领导与 Amazon SageMaker 团队的合作。他热衷于将尖端的 NLP 模型民主化和生产化,并提高深度学习的易用性。