Hugging Face
模型
数据集
空间
帖子
文档
解决方案
定价
登录
注册
AWS Trainium & Inferentia 文档
笔记本
AWS Trainium & Inferentia
🏡 查看所有文档
AWS Trainium & Inferentia
加速
Amazon SageMaker
Argilla
AutoTrain
Bitsandbytes
聊天界面
竞赛
数据集查看器
数据集
Diffusers
Distilabel
评估
Google Cloud
Google TPUs
Gradio
Hub
Hub Python 库
Huggingface.js
推理 API(无服务器)
推理端点(专用)
排行榜
Optimum
PEFT
Safetensors
句子 Transformers
TRL
任务
文本嵌入推理
文本生成推理
分词器
Transformers
Transformers.js
timm
搜索文档
main
EN
Optimum Neuron
🤗 Optimum Neuron
安装
快速入门
Optimum 容器
训练教程
笔记本
在 AWS Trainium 上微调 BERT 用于文本分类
在 AWS Trainium 上微调 Llama 3 8B
使用 LoRA 和 SFTTrainer 在 AWS Trainium 上微调 Llama 3 8B
推理教程
笔记本
使用 llama-2-13B 在 AWS Inferentia 上创建您自己的聊天机器人
在 AWS Inferentia 上使用句子 Transformers
使用 Stable Diffusion 模型在 AWS Inferentia 上生成图像
操作指南
设置 AWS Trainium 实例
使用 Amazon Sagemaker 进行训练和部署
Neuron 模型缓存
使用 AWS Trainium 微调 Transformers
分布式训练
将模型导出到 Inferentia
使用 AWS Neuron 的推理管道
用于 AWS Inferentia2 的 NeuronX 文本生成推理
基准测试
AWS Inferentia2 上的 Mistral Small
AWS Inferentia2 上的 Llama-3.1 8B
贡献
添加对新模型架构的支持
参考
Neuron 训练器
Neuron 分布式
支持的架构
Neuron 导出器
Neuron 模型
加入 Hugging Face 社区
并获得增强型文档体验
协作模型、数据集和空间
通过加速推理实现更快的示例
在文档主题之间切换
注册
入门
笔记本
我们为您准备了一些笔记本,以便您可以直接在文档中运行教程。
笔记本
描述
Studio Lab
在 AWS Trainium 上微调 BERT 用于文本分类
演示如何在 AWS Trainium 上微调 BERT 以进行文本分类。
←
Optimum 容器
在 AWS Trainium 上微调 BERT 用于文本分类
→
笔记本