27 结果
过滤条件
过滤条件
清除
27 结果
|
标题
图像:PyTorch Library Docker Images for the Intel® Gaudi® Accelerator
Get pull commands for containers that have Intel® Gaudi® software and the PyTorch framework for running models on Intel Gaudi AI accelerators.
图像:英特尔 Gaudi® 加速器上的® Transformers 入门
了解如何在 Amazon Web Services (AWS)* 上使用这些处理器来微调用于文本分类的 BERT 模型。
图像:微调稳定扩散 v2.1
使用这些脚本通过 LoRA 命令行界面微调 Stable Diffusion v2.1.
图像:在 Wav2Vec2 模型上运行推理
从 GitHub* 目录访问脚本,使用 PyTorch* 对模型运行推理。
图像:下载并运行语音识别模型
获取使用 Wav2Vec2 模型的说明。
图像:使用视觉转换器 (ViT) 模型
了解如何配置此图像分类模型。
图像:运行预训练的语言模型
了解如何使用 RoBERTA Large 模型。
图像:运行基本的预训练语言模型
如何运行基本 RoBERTA 模型。
图像:运行蒸馏的 BERT 基本模型
了解如何运行 DistilBERT,它是 BERT 基础模型的一个更小、更快的版本。
图像:运行无外壳 BERT 基本模型
运行具有训练参数的基本 BERT 模型。
图像:运行 Vision Transformer 模型
获取运行 Swin Transformer 模型的指南。
图像:微调 BERT 概述
查找使用 BERT 模型的设置说明、训练示例等。
图像:将 BERT-1.5B 模型与 DeepSpeed 配合使用
使用 DeepSpeed for PyTorch* 访问预训练 BERT-1.5B 模型的脚本。
图像:运行推理模型
训练 ResNet*、MobileNet 和 GoogLeNet 模型,以达到一流的准确性。
图像:训练 YOLOX 模型以检测对象
GitHub* 存储库提供了用于以更高精度训练用于 PyTorch* 的 YOLOX 模型的脚本。
图像:训练稳定的扩散* 模型
使用来自 GitHub* 存储库的脚本训练一个基于潜在文本到图像扩散模型的模型。
图像:PyTorch* 分类
GitHub* 提供用于训练 ResNet*、MobileNetV2 和 GoogLeNet 模型的脚本,以提高准确性并运行推理。
图像:训练基于 GPT* 的 LLaMA 和混合模型
这些基于 GPT* 的 LLM 具有 13B 参数,可以使用来自 GitHub* 存储库的脚本进行训练。
图像:下载并运行 CLIP 模型
获取使用此计算机视觉模型的说明。
图像:运行文本到文本传输转换器 (T5) 模型
如何运行一个以统一格式(其中输入和输出为文本字符串)重新构建所有 NLP 任务的模型。
图像:运行 GPT-2* 模型
获取运行语言模型的说明。
图像:运行稳定的扩散* 模型
请以示例了解如何运行此模型为例。
图像:运行无外壳 BERT 大型模型
了解如何运行掩码语言模型。
图像:使用 BLOOM(Z) 生成条件文本
如何对模型进行基准测试,以及如何从 Hugging Face* Hub 对任何数据集运行生成。
图像:来自 Hugging Face* 的 ALBERT 大型模型
该模型包含用于运行 albert-large-v2 模型的 GaudiConfig 文件。
图像:移植模型和使用 GPU 迁移工具
查看在英特尔® Gaudi® 加速器上验证的 GPU 迁移功能示例。
图像:将 BERT-5B 模型与 DeepSpeed 结合使用
使用 DeepSpeed for PyTorch* 访问脚本对 BERT-5B 模型进行预训练。