Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

模型下载统计

模型下载是如何统计的?

统计模型的下载量并非易事,因为单个模型仓库可能包含多个文件,包括多个模型权重文件(例如,分片模型)和根据库(GGUF、PyTorch、TensorFlow 等)不同的格式。为了避免重复计算下载量(例如,将单个模型下载计算为多次下载),中心使用一组用于下载计数查询的文件。不会从用户发送任何信息,也不会为此进行额外的调用。计数是在服务器端完成的,因为中心会提供文件供下载。

对这些文件(包括 GETHEAD)的每个 HTTP 请求都将被计为一次下载。默认情况下,未指定库时,中心使用 config.json 作为默认查询文件。否则,查询文件取决于每个库,中心可能会检查 pytorch_model.binadapter_config.json 等文件。

不同库的查询文件有哪些?

默认情况下,中心会查找 config.jsonconfig.yamlhyperparams.yamlparams.jsonmeta.yaml。某些库通过指定自己的过滤器(指定 countDownloads)来覆盖这些默认设置。定义这些覆盖的代码是开源的。例如,对于 nemo 库,所有具有 .nemo 扩展名的文件都用于计算下载量。

我可以为我的库添加查询文件吗?

是的,你可以在此处提交拉取请求。这是一个添加 VFIMamba 下载指标的最小示例。有关更多详细信息,请查看集成指南

GGUF 文件如何处理?

GGUF 文件是自包含的,不与单个库绑定,因此所有 GGUF 文件都计入下载量。这会在用户克隆整个仓库时重复计算下载量,但大多数用户和界面会为给定仓库下载单个 GGUF 文件。

Diffusers 如何处理?

diffusers 库是一个特例,其过滤器在内部代码库中配置。该过滤器确保标记为 diffusers 的仓库会计算通过库加载的文件以及需要用户手动下载顶级 safetensors 的 UI 中的文件。

filter: [
		{
			bool: {
				/// Include documents that match at least one of the following rules
				should: [
					/// Downloaded from diffusers lib
					{
						term: { path: "model_index.json" },
					},
					/// Direct downloads (LoRa, Auto1111 and others)
					/// Filter out nested safetensors and pickle weights to avoid double counting downloads from the diffusers lib
					{
						regexp: { path: "[^/]*\\.safetensors" },
					},
					{
						regexp: { path: "[^/]*\\.ckpt" },
					},
					{
						regexp: { path: "[^/]*\\.bin" },
					},
				],
				minimum_should_match: 1,
			},
		},
	]
}
< > 在 GitHub 上更新