AI模型元数据规范发展现状与构建研究

  • 姜恩波 1, 2 ,
  • 秦瑜 1, 2
展开
  • 1. 中国科学院成都文献情报中心,成都 610041
  • 2. 中国科学院大学 经济与管理学院,北京 100190

姜恩波,正高级工程师,中国科学院成都文献情报中心知识系统部,副主任,研究方向为数字图书馆平台建设

秦瑜,硕士研究生,中国科学院成都文献情报中心,研究方向为智慧数据与智慧图书馆

收稿日期: 2025-06-22

  网络出版日期: 2025-10-29

基金资助

中国科学院文献情报能力建设专项“科技态势感知与分析能力建设”

Development and Construction of Metadata Specifications for AI Models

  • JIANG Enbo 1, 2 ,
  • QIN Yu 1, 2
Expand
  • 1. Chengdu Library and Information Center, Chinese Academy of Sciences, Chengdu 610041
  • 2. School of Economics and Management, University of Chinese Academy of Sciences, Beijing 100190

Received date: 2025-06-22

  Online published: 2025-10-29

摘要

【目的/意义】 本研究旨在回应当前人工智能模型不透明性、难以解释、可追溯性差等问题,提出建立统一的AI模型元数据规范,以提升模型的可发现性、透明度、互操作性和可重用性,进而推动可信任AI的发展。 【方法/过程】 文章以元数据质量评估理论和生命周期理论为基础,采用文献调研法、比较分析、问卷调查等方法,系统梳理和分析国内外已有的AI模型元数据实践,深入调查用户对元数据的认知与需求,并提出面向全生命周期的元数据构建方案。 【结果/结论】 用户认为AI模型元数据规范重要但对现有规范并不了解。现有AI模型元数据规范在元素命名、组织架构、内容细粒度解释等方面存在明显短板,影响模型信息的共享与复用。为此,文章提出了一个元数据框架,涵盖模型、数据、算法、技术特征、性能评估、风险与伦理、法律信息、相关资源等核心实体,并描述其间语义关系。研究认为,建立统一的AI模型元数据框架不仅有助于模型的信息化管理和平台互联互通,也将成为连接技术、伦理与治理的重要基础设施。未来,随着规范体系的不断完善与行业采纳,AI模型将更具可控性与可信赖性,推动技术生态的规范发展与跨界融合。

本文引用格式

姜恩波 , 秦瑜 . AI模型元数据规范发展现状与构建研究[J]. 农业图书情报学报, 2025 : 1 -18 . DOI: 10.13998/j.cnki.issn1002-1248.25-0338

Abstract

[Purpose/Significance As artificial intelligence (AI) systems are being widely deployed across diverse domains such as education, healthcare, and public governance, the absence of standardized metadata specifications has led to fragmented descriptions, inconsistent documentation, and difficulties in model evaluation and reuse. This study aims to address the pressing issues of opacity, lack of interpretability, and poor traceability in current AI models, which have increasingly become obstacles to the development of transparent and responsible AI. To overcome these challenges, this study proposes the establishment of a unified metadata specification for AI models to enhance their discoverability, transparency, interoperability, and reusability, thereby advancing the development of trustworthy AI and facilitating effective model governance. [Method/Process Grounded in metadata quality assessment theory and lifecycle theory, the study adopted a combination of research methods, including literature review, comparative analysis of existing specifications, and questionnaire surveys.We first conducted a systematic examination of domestic and international practices related to AI model metadata specifications to identify representative standards, frameworks, and implementation approaches. Through comparative analysis, the study investigated the structure, element organization, and semantic relationships of different specifications, highlighting their similarities, differences, and areas for improvement. Meanwhile, a targeted questionnaire survey was administered to researchers, developers, and practitioners to explore user awareness, perceptions, practical experiences, and specific needs regarding metadata specification and interoperability. Based on these findings, the study ultimately proposed a lifecycle-oriented framework for metadata specification construction, ensuring that it aligns with the key stages of AI model development, deployment, evaluation, and governance. [Results/Conclusions The findings reveal that, although users generally recognize the importance of metadata specifications for AI models, they are unaware of of the existing specifications. The current AI model metadata specifications have significant shortcomings in terms of element naming, structural organization, and descriptive granularity. These shortcomings hinder the effective sharing and reuse of model information. In response, the study proposed a comprehensive metadata framework encompassing key entities such as models, datasets, algorithms, technical features, performance evaluations, risks and ethics, legal information, and related resources, as well as the semantic relationships among these entities. The research concluded that establishing a unified metadata specification for AI models not only contributes to effective information management and cross-platform interoperability, but also serves as a critical infrastructure that links technology, ethics, and governance. As the metadata specification system matures and gains wider industry adoption, AI models will become increasingly controllable and trustworthy. This will promote a more regulated, collaborative, sustainable and integrated AI ecosystem.

1 人工智能模型的发展及面临的挑战

1.1 人工智能模型的发展

人工智能(AI)技术的突破和迅猛发展无疑是近年来全球科学技术发展的里程碑式事件。在人工智能发展过程中,人们研究和应用最多的对象就是“模型”(Mode)。广义上,“模型”反映了一种世界观,是对现实世界某种复杂现象或系统的简化、抽象和理想化的描述[1]。当人们无法直接操作或观察一个极其复杂的系统(如天气、粒子、大脑、经济等)时,就会通过构建简化的数学、算法模型。这样,人们就可以从不同的角度来理解和预测系统的规律。狭义上,“模型”通常指的是一种数学结构或算法,用于表示从数据中学习到的规律、模式或关系[2,3]。在人工智能领域里,模型是“眼”,算法是“方法”,而数据是“素材”。模型通过算法从各种数据材料中提取模式、生成洞见,不断调整和优化自己模拟世界的真实程度并进行预测。因此,模型不断修正、优化和改进的过程,也就是它从某个角度认识这个世界的过程。本研究所提到的AI模型是指狭义的模型,包括机器学习模型、深度学习模型和大语言模型3类。它们代表了不同阶段的技术突破与应用,并且共同构成了AI技术的进化链条,从简单规则到复杂网络,再到语义的理解、生成和推理。

1.2 AI模型面临的挑战

随着大规模并行算法和硬件计算单元的持续突破,GPT、DeepSeek、BERT、Claude等“超大规模”模型不断演进,具备了模拟复杂系统的强大能力。然而,伴随着模型能力的提升,人们越来越难以“看懂”自己设计的模型。模型的不透明性与不可解释性,正成为人工智能技术发展过程中的一大隐忧。而这种不透明性的产生,主要源于以下两个方面。
(1)深度学习模型结构的高度复杂性。随着深度神经网络在各类AI任务中的广泛应用,模型结构不断加深,引入了大量非线性变换,并处理着高维度的数据。这种深层嵌套的计算架构和非线性关系使得模型内部机制呈现出高度的非线性复杂性,从而极大地削弱了对模型行为进行可解释分析的可能性[4-7]
(2)神经网络中海量参数间的高维交互作用。当前主流的AI模型往往包含数十亿甚至上百亿个参数,它们之间的耦合关系极其复杂。在训练过程中,这些参数共同塑造了模型的行为方式,个体参数的变化往往无法单独解释模型的输出结果。因此,AI模型的推理路径呈现出非线性、不确定性和不可追踪性,进一步加剧了模型的“黑箱”特征。
目前,人们提出了多种途径来提高AI模型的可解释性和透明度,建设可信任AI(Trustworthy AI)和可解释AI(Explainable AI),帮助用户理解模型的决策过程。本研究探讨的是通过建立AI模型元数据(AI Model Metadata,AMM)规范来改善AI模型的透明性、可见度、可追溯、可互操作与可信赖度。如表1所示,本研究搜集了当前主流大语言模型(LLM)公开发布的相关元数据描述信息。可以看到,这种不透明性在当前主流大语言模型上表现得尤为明显。人们对AI模型的了解是不完整的。而元数据是用户在使用各种AI模型过程中最先接触到的内容。AMM信息包括但不限于模型的结构、参数、训练过程、输入输出数据特征、性能指标、部署环境、更新历史等。在AI模型的整个生命周期和关键维度,元数据都发挥着重要作用,是可信AI的关键要求之一[8]。完整的AI模型元数据规范将为研究、开发和使用这些模型的所有利益相关者提供有价值的信息框架,从而促进AI技术在不同领域的可持续和安全发展。接下来,本研究将开展以下的研究:第二部分,对比分析现有AI模型元数据规范;第三部分,通过问卷调研深入了解专业人员对AI模型元数据的需求和期望;第四部分,结合前两部分的内容,提出AI模型元数据框架。
表1 当前主流大语言模型公开发布的部分元数据信息

Table 1 Publicly released metadata information of current mainstream large language models

维度 GPT-4[9] BERT[10] Claude[11] LLaMA[12]

文心一言

(ERNIE Bot)[13]

所属公司 OpenAI Google Anthropic Meta 百度
发布时间 2023.3 2018 2023 2023.2 2023.3
模型架构 Transformer Transformer Transformer Transformer Transformer
参数规模 未公开 BERT-base:1.1亿 未公开

LLaMA-1: 7B/13B/33B/65B

LLaMA-2: 70B

未公开
训练数据 仅声明互联网大规模文本、书籍等[14] 英文维基百科、BookCorpus数据[15] 仅声明使用互联网公开数据和第三方企业许可的数据[16] The Pile、BooksCorpus、Common Crawl、C4(Colossal Clean Crawled Corpus)、arXiv等[17] 仅声明覆盖中文互联网、维基百科、百度知识图谱、图片、语音等数据[18,19]
训练方法 大规模预训练+RLHF等对齐技术,未公开具体的技术细节[13] 自监督预训练-下游任务微调[15]

自监督预训练

强调Claude的训练方法注重对齐,采用类似RLHF的人类反馈训练[20,21]

自监督预训练[17] 自监督预训练-中文场景多任务微调[18]
训练成本 未公开 未公开 未公开 未公开 未公开
版本和更新历史 GPT-1(2018)、GPT-2(2019)、GPT-3(2020)、GPT-3.5(2022)、GPT-4(2023) BERT-base、BERT-large同期发布

Claude 1(2023年初)

Claude 2(2023年中)

LLaMA-1(7B~65B,2023.2)

LLaMA-2(70B,2023.7)

文心一言(2023年3月首发)、随后迭代多个版本
道德与隐私声明 “使用政策”“道德守则”以及隐私政策[7,22] 应遵循通用的Google AI道德准则[23] 强调用户数据保护与安全,对敏感请求设限[24,25] 未发布明确的道德与隐私声明 发布个人信息保护规则、智能体功能服务条款、用户协议等[26-28]

2 AI模型元数据规范研究现状

2.1 研究现状概述

随着AI模型的公平性、透明性与可解释性不断受到关注,各行业和学术界提出了一系列针对性的规范。2018年,Google团队率先提出了Model Card这一AI模型的元数据规范框架。同年,World Wide Web Consortium(W3C)提出了一套用于描述机器学习(Machine Learning,ML)模型的规范——ML Schema。在此之后,IBM、Amazon、Microsoft等相继推出了自己的AI模型元数据规范。这些规范目标相同,内容类似,虽然在一致性上还存有差异,但依然较好地推动了AI模型的开放性和透明性,也带动了这一领域的研究和实践。表2是各方推出的AI模型元数据规范的基本情况。
表2 AI模型元数据规范的发展

Table 2 Development of metadata specifications for AI models

时间 组织 规范 适用模型类型 主要贡献与特点 涉及的实体关系
2018 Google Model Card 机器学习模型 提出了标准化的模型文档格式,记录机器学习模型的关键信息,推动模型透明度 训练关系、评估关系、产生关系
2018 W3C ML Schema 机器学习模型 提出用于描述机器学习模型的规范,促进不同平台与系统之间的互操作性 训练关系、评估关系
2019 Hugging Face Model Card 深度学习模型、大语言模型 专注于NLP领域,强调模型的复用性和社区贡献,进一步推动模型透明度 训练关系、评估关系、衍生关系、开发关系、反馈关系、产生关系
2019 IBM AI Factsheet 机器学习模型、深度学习模型 记录AI系统的性能、偏见、可靠性、安全性等关键指标,提高AI系统的透明度与可审计性 衍生关系
2020 Amazon AI Service Cards 机器学习模型、深度学习模型 为云服务中的AI模型提供详细元数据描述,帮助用户更好地理解和使用AI服务 衍生关系、产生关系
2021 OpenAI System Card 大语言模型 提供模型的详细信息,促进用户对模型的理解和信任 更新关系、训练关系、评估关系、产生关系

2.2 Model Card元数据规范构建与实施

Model Card是谷歌用于记录机器学习模型关键信息的文档形式,涵盖了模型使用环境、性能评估、道德考量等九大类、26个细化字段,是提升模型透明度与可解释性的重要工具[29]表3列出了Model Card所涉及的核心元数据项。这一规范的提出和实践,源自Google 推动“负责任AI”发展的一项关键尝试。通过内部试点、跨职能评估机制、学术传播与开源工具支持,Google构建出一整套自我驱动、可扩展的实施体系,不仅在企业内部形成制度化流程,也为业界提供了可借鉴的标准化路径。因此,有必要对其进行单独阐述,以便更系统地了解其设计思路与应用价值。
表3 模型卡描述元素

Table 3 Model card description elements

数据项 数据项(中文) 描述内容
Model Details 模型详细信息

名称和版本、类型

开发团队和发布日期

框架与算法、参数、公平性约束等信息

获取更多信息的论文或其他资源

引文详细信息

许可证

向何处发送有关模型的问题或评论

Intended Use 预期用例

预期用途

预期用户

范围外的用例

Factors 因素

相关因素

评价因素

Metrics 指标

模型性能测量

决策阈值

变化方法

Evaluation Data 评估数据

数据集

动机

预处理

Training Data 训练数据

数据来源及统计特征

数据采样策略与分布

Quantitative Analyses 定量分析

根据评估指标提供评估模型的单一结果

根据评估指标提供评估模型的交叉结果

Ethical Considerations 道德考虑 模型开发中的道德考虑因素,向利益相关者提出道德挑战和解决方案
Caveats and Recommendations 注意事项与建议

潜在误用风险

用户操作建议

(1)从内部试点到真实场景落地。Google最初选取图像分类与自然语言处理等典型任务中的模型作为试点对象,系统化地撰写Model Card,对模型训练数据、假设前提、潜在偏差、适用边界等内容进行详尽记录。例如,图1展示了Google为其“毒性检测器”AI模型所编写的Model Card,这不仅提升了模型文档的透明度,也促使开发者更有意识地面对模型的社会影响。
图1 Model Card:毒性检测器[29]

Fig.1 Model card: Toxicity detector

(2)构建跨职能的循环评估机制。为确保Model Card的准确性与实用性,Google组织了涵盖工程、伦理、产品等多部门人员的评估小组,审查文档内容,并持续收集模型用户的反馈。这使得Model Card成为连接技术开发与实际使用之间的桥梁,形成“技术-伦理-产品”三者协同的闭环。
(3)推动学术认可与社区传播。2019年,Google团队在ACM FAT*会议上发表了相关研究成果,正式确立了Model Card在学术界的理论地位。随后,该框架被集成进Hugging Face、GitHub模型仓库和 Google云平台等主流工具链中,得以广泛传播。
(4)降低门槛的工具链支撑。意识到人工编写Model Card的复杂性,谷歌开发了Model Card Toolkit。这一工具包提供了标准化模板、元数据自动提取与文档生成能力,并可无缝对接TensorFlow、PyTorch等主流深度学习框架,极大降低了企业和开发者在实践中采用该规范的技术门槛。
Google Model Card的形成与推广为提升AI模型的透明度与可解释性提供了一个参考性框架,也催生了一系列类似规范的出现。接下来,本研究将对比分析6种AI模型元数据规范,以期为未来的标准化工作提供参考和借鉴。

2.3 AI模型元数据规范比较分析

考虑到6种规范在描述项数量、描述内容以及描述层级的不一致,本研究首先对出现在不同规范的25个数据项进行了归一与对齐,将比较内容统一为以下6项内容:模型基本信息、训练数据、评估数据、技术特征、伦理与风险考虑以及反馈途径。如表4所示,通过比较不同AI模型元数据规范的所包含描述信息,分析不同规范在AI模型元数据方面的差异和相似之处。
表4 AI模型元数据描述信息

Table 4 Metadata description information for AI models

元数据项

Model Card

(Google)[29]

ML Schema

(W3C)[30]

AI Factsheet

(IBM)[31]

AI Service Cards

(Amazon)[32]

System Card

(OpenAI)[33]

Model Card

(Hugging Face)[34]

覆盖情况
模型基本信息 模型名称 6
模型版本 3
开发团队 4
发布时间 2
模型架构 3
模型算法 2
模型参数 3
任务类型 4
应用场景 3
训练数据 数据集名称 5
数据来源 2
数据特征 4
处理策略 3
评估数据 数据集名称 4
数据特征 2
处理策略 1
评估指标 6
技术特征 输入特征 2
输出特征 2
训练技术 1
计算设施 2
伦理与风险考虑 伦理与风险审查 2
数据隐私 1
偏见与公平性 3
安全性 2
反馈途径 3
覆盖情况 50% 53.8% 57.7% 30.8% 42.3% 53.8%
(1)模型基本信息。包括开发者信息、版本历史、架构、参数、关键算法、开发目的、适用场景和限制。
(2)训练数据。描述训练数据集的来源、获取方式、特征和处理方法,确保模型的可互操作性和可复现性;在数据专有或保密的情况下,应提供匿名化和概括性的基本信息。
(3)评估数据。说明用于评估模型的数据集、数据处理方法、数据集特征和评估指标。
(4)技术特征。概述模型的技术规格和操作要求,包括输入输出特征、训练技术和部署环境。
(5)伦理与风险考虑。提供模型的潜在风险、伦理审查、隐私、偏见、公平性、合规性和责任归属信息。
(6)反馈途径。为用户提供明确的反馈渠道,确保反馈能被有效收集和处理。
表4所列元数据项来看,各AI模型元数据规范普遍对模型基本信息、数据集及评估信息等核心内容提供了较多支持,但在技术特征与伦理与风险考虑等方面则存在显著差异。从各规范整体覆盖度来看,相比之下,ML Schema(W3C)、AI Factsheet(IBM)与Model Card(Hugging Face)覆盖的信息更加全面。

2.4 现有AI模型元数据规范的不足与重构必要性

对于AI模型的元数据而言,元数据质量是确保模型可描述、可发现、可互操作、可复用与可管理的关键因素。
元数据质量管理(Metadata Quality Management,MQM)理论提供了一系列质量衡量指标,用于评估规范在描述AI模型信息时的有效性和一致性。该理论来源于数字信息资源管理的实践需求,是衡量元数据在描述、组织和管理信息资源有效性和可靠性的重要理论,并提出了多个维度的质量评价框架,如元数据质量评估七维度框架与双层元数据质量评估四维核心模型。其中,七维度框架包括准确性、完整性、逻辑一致性与连贯性、及时性、可访问性、来源以及符合预期,为质量评估提供了可操作化指标体系[35];双层元数据质量评估四维核心模型,内层包括完整性、准确性、一致性和满足期望程度,外层包括时效性、可获取性、易用性、安全性与来源等[36]。随后,学者进一步将质量管理理论嵌入元数据生命周期,构建了数字资源元数据质量管理模[37]。后续,该理论在数字图书馆建设[38,39]、数据治理[40-42]等领域得到了广泛的应用。基于该理论,本研究可以分析不同规范在描述粒度、字段一致性、可扩展性等方面的优劣,以确保元数据能够支持AI模型的发现、重用和治理。
通过对6种AI模型元数据规范的比较分析,研究发现,从内容上看,这些规范各有侧重。例如,Google的Model Card和Hugging Face的Model Card在多个方面表现出较高的完整性,而W3C的ML Schema和IBM的AI Factsheet在数据特征和伦理考虑方面较为突出,Amazon的AI Service Cards更侧重于面向用户提供的模型信息、部署与安全等方面的服务类信息,而模型内部信息则较少涉及。在伦理方面,Google与OpenAI更注重伦理风险,IBM、Amazon与Hugging Face更注重偏见与公平性。接下来,本研究尝试从层次结构、描述充分性及描述方式3方面分析现有规范在元数据组织方面的不足,探讨重构AI模型元数据规范的必要性。
(1)元数据项命名异质性。元数据项命名异质性指在6种不同的规范中,用于描述相同或相似信息的元数据项(或字段、属性)的命名不统一的现象。这会导致AI模型元数据集不兼容、无法互操作。例如对于模型的基本信息,Model Card使用的数据项为Model Details,ML Schema使用的数据项为Model,AI Factsheet、AI Service Cards与System Card分别为Model Information,Overview与Introduction。更多具体的AI模型元数据字段差异示例详见表5
表5 元数据字段差异示例

Table 5 Examples of metadata field variations

元数据字段

Model Card

(Google)

ML Schema

(W3C)

AI Factsheet

(IBM)

AI Service Cards

(Amazon)

System Card

(OpenAI)

Model Card

(Hugging Face)

模型基本信息 Model Details Model Model Information Overview Introduction Model Details
应用场景 Intended Use Intended Domain Intended use cases and limitations Uses
训练数据 Training Data Dataset Training Data Model Data & Training Training Details
评估指标 Metrics Model Evaluation Performance Metrics Performance Expectations Observed Safety Challenges and Evaluations Evaluation
偏见与公平性 Bias Fairness and Bias Bias, Risks, and Limitations
反馈途径 Contact Information Further Information Model Card Contact
(2)层次结构不够清晰。首先是缺乏统一的层次划分,即不同规范之间的层次结构差异较大,难以实现不同模型间的有效比较、组织与兼容,如Google提出的Model Card将模型的参数、联系信息以及更多引文方面的信息都置于数据项Model Details下,而ML Schema、AI Factsheet与AI Service Cards则是分别将三者独立设置为一级元数据项;其次是层次划分不合理。部分规范对AI模型元数据的层次划分过于简单,导致一级元数据项下包含了太多内容,在缺乏子元数据项的情况下,使得描述内容过于繁杂,无法满足复杂模型的需求,加大了理解模型的难度。例如,System Card中的Introduction包含了模型任务、模型性能以及模型架构等信息;AI Service Cards的Design部分包含了模型工作原理、模型性能、模型评估方法、模型使用许可信息以及安全性与可解释性等模型质量属性信息。
(3)描述不充分,细粒度不足。首先是描述内容不全面、不完整。从元数据项来看,以Google Model Card为例,它不能清晰提供模型的输入输出信息,导致用户不能简单直接地了解模型的相关性能;其次是细粒度不足,现有规范对AI模型的描述粒度较粗,未能充分捕捉模型的关键特征与复杂信息,难以满足不同场景下对模型细节的需求,限制了规范在模型评估、优化与评估中的应用以及用户对模型的复用与理解。
(4)描述方式复杂、不统一。现有规范大多使用自然语言文本进行描述,一个元数据项下可能使用自然语言描述多项信息,导致规范的可扩展性受到了限制,也降低了使用元数据项列表进行检索的效率;其次是描述方式不统一,不同的规范采用不同的描述方式,增加了规范之间、模型之间的互操作性难度。Hugging Face提出的Model Card使用了Markdown格式的标记语言来描述元数据,OpenAI等其他团队则使用模型文档或表格的形式报告模型的相关信息,不同的描述方式增加了开发商与用户之间沟通的成本,不利于模型的共享与复用,也制约了规范的广泛推广与应用。
在上一部分内容中,本研究详细对比了以Google Model为代表的6种AI模型元数据规范的特点及其存在的问题,揭示了当前规范在一致性、可扩展性和互操作性等方面的不足,同时也为后续研究提供了理论基础和实践指导。然而,理论分析虽然能够揭示规范的设计缺陷,但实际应用中的需求和挑战往往更为复杂和多样化。规范的制定和优化不仅需要理论分析,更需要结合实际用户的需求和反馈,以确保其具备良好的适用性和可操作性。因此,在上一部分研究的基础上,本研究进一步面向AI模型的开发者、部署者和使用者开展了问卷调研,旨在了解业内对现有AI模型元数据规范的认知程度、使用满意度以及痛点与需求。这一调研不仅有助于验证前期分析的结论,还能够为后续规范的改进方向提供更具针对性的数据支撑。

3 AI模型元数据需求调研

3.1 问卷设计、发放与回收

遵循科学性、系统性和可操作性的原则,本研究所采用的问卷共包括3个部分:第一部分了解受访者的背景信息,包括年龄、学历、职业情况、所属行业;第二部分了解受访者对AI模型的了解情况,包括通过什么渠道了解AI模型以及受访者对AI模型的门槛认知情况;第三部分了解受访者对现有AI模型元数据规范的认知与了解程度,以及受访者在实际工作中对元数据规范的具体需求。
在正式调查前,邀请本所相关技术研究人员对初版问卷进行试填,并根据反馈从可读性、题目逻辑性与清晰性等方面进行了反复修订与完善。例如,对核心专业名词“元数据”进行了补充解释与示例说明,以确保受访者对问卷内容的理解一致。
为确保问卷填写的针对性、代表性以及问卷结果的准确性,本问卷主要面向从事AI模型开发与应用的技术人员。问卷采用定向发放+开放填写的方式在“问卷星”平台开展。经过一个月的调研,共回收有效问卷41份。受访者覆盖信息与通信技术、教育、医疗、金融等多个行业,调研数据具有较高的代表性。

3.2 问卷结果分析

3.2.1 受访者基本情况

在所有受访者中,18~35岁年龄段的受访者共34人,占比85%。其中26~35岁占比为65%。学位方面,硕博士受访者占比87.5%。机构属性方面,受访者多来自公司企业和科研机构,占受访者的比例为69.45%。另外,在所从事的职业领域中,信息与通信技术、电子商务以及教育行业的受访者占据了前三位;学生受访者来自计算机科学与技术、信号与信息处理、情报学等学科。这些数据说明受访者的年龄、学历和行业符合AI模型当前发展与应用的实际情况。填写结果具有较高的参考性,详见表6
表6 受访者个人特征分布

Table 6 Distribution of respondents' personal characteristics

个人特征 占比/%
年龄 18~25岁 19.51
26~35岁 65.85
36~45岁 9.76
46岁以上 4.88
职业 学生 19.51
教师 19.51
科研人员 26.83
企业员工 34.15
机构性质 高等院校 31.71
研究机构 29.27
公司企业 36.59
其他性质 2.44
学历 本科及以下 12.20
硕士研究生 56.10
博士研究生 31.71
行业 金融 2.44
医疗 9.76
教育 17.07
电商 17.07
信息与通信技术 46.34
其他行业 7.32

3.2.2 数据分析

(1)受访者对AI模型的使用情况。从问卷第二部分的数据来看,通过GitHub、Hugging Face这样的“技术论坛和软件存储平台”了解AI模型的信息是最多受访用户的选择,达到了80.49%;紧随其后的是“社交媒体”(博客、论坛等)(73.17%)以及“科研论文”(73.17%),而模型的发布官网只排在第四位(58.54%),如图2所示。其次,受访者中接触和应用AI模型最多的环节“数据预处理”(80.49%)、“应用开发”(68.29%)和“模型训练”(58.54%),如图3所示。同时,受访者认为“AI模型支持的应用场景”是他们最希望了解的,占比为80.49%,“模型的性能指标”为78.05%,“示例代码与教程”为70.73%,“参数规模”为63.41%,而作为数据底座的“训练数据及种类与质量”与“数据来源与训练细节”仅位列第五,51.22%,如图4所示。这反映了受访者更倾向于关注模型的实际应用效果和技术支持,而对数据来源及其细节的需求相对较小。
图2 了解AI模型的渠道统计

Fig.2 Statistics on channels for learning about AI models

图3 AI模型使用阶段统计

Fig.3 Statistics on stages of AI model usage

图4 决策影响因素统计

Fig.4 Statistics on factors influencing decision-making

(2)受访者对于AI模型元数据的认知情况与满意程度。第三部分是问卷最为核心的内容,即受访者对于当前AI模型元数据规范的了解情况。首先,绝大部分受访者对当前国际上相继出现的AI模型元数据规范表示不知道、不了解。如图5所示,对于问卷所列出了6种AI模型元数据规范:Model Card(Google、Hugging Face)、ML Schema(W3C)、AI Factsheet(IBM)、AI Service Cards(Amazon)、System Card(OpenAI),其中95%的受访者选择了“完全不了解”,89%的受访者选择了“不太了解”的选项,依次对“完全不了解”“不太了解”“一般了解”“较为了解”与“完全了解”赋分1~5,进行权重相加,得到各规范最终分数,如图5所示。其次,受访者认为在当前的环境下了解特定AI模型各项信息的门槛还是比较高,36.59%的人选择了“中等难度”,34.15%的人选择了更进一步的“比较困难”。这两者的占比已经超过了70%,如图6所示。另外,受访者认为,在实践工作中他们所接触的AI模型元数据实例存在“规范不统一,标准分散”(46.34%),“描述笼统,缺乏细粒度信息”(43.9%),“信息不足,描述不够全面”(36.59%),以及“缺乏具体应用案例”(36.59%)等缺陷,如图7所示。因此,受访者希望未来的AI模型描述规范或工具能提供下列信息:“清晰的技术指标和性能数据”(90.24%),“使用场景和案例”(85.37%),“模型局限性和偏差说明”(73.17%),“更好的可视化工具”(68.29%),以及“易于理解的格式和语言”(53.66%),如图8所示。
图5 受访者对6种规范了解情况柱状图

Fig.5 Radar chart of respondents' familiarity with six specifications

图6 受访者对AI模型使用门槛的认知情况统计

Fig.6 Statistics on respondents' perception of barriers to using AI models

图7 受访者对现有AI模型元数据规范的不足性认知情况

Fig.7 Respondents' perception of shortcomings in existing metadata specifications for AI models

图8 受访者对AI模型描述规范/工具的需求情况

Fig.8 Respondents' needs for AI model description specifications/tools

数据揭示了AI模型开发者和应用者在获取和理解AI模型信息时面临的主要挑战,包括信息获取渠道的多样性、对元数据规范的认知不足、现有元数据的缺陷以及对未来规范的期望。这表明目前AI模型元数据的标准化和规范化工作仍处于较为初步的阶段,缺乏广泛的认知和应用,这也为改进AI模型的元数据规范和工具、建立更加完善的机制提供了重要的参考依据。

4 AI模型元数据方案设计

深入剖析以Google Model Card为代表的6种主流AI模型元数据的现状与问题,可以清晰地看到,尽管这些规范在推动模型透明性与可解释性方面迈出了重要一步,但其在命名一致性、结构清晰度、描述充分性与表达统一性等方面的不足,制约了元数据的实际效用与跨平台互操作性。这些问题的存在,不仅导致了模型信息的碎片化与低效利用,也为AI生态的健康发展埋下了隐患。因此,本研究引入生命周期理论以制定一套统一、灵活且可扩展的AI模型元数据规范,以适应行业快速发展与学术研究的需要。
生命周期理论最初是生物学中的专有概念,用于描述生物体从出生、成长、成熟、衰退直至死亡的完整过程[43]。1985年,信息生命管理(Information Life-cycle Management,ILM)理论正式提出,并逐步渗透到图书馆学领域[44]与数据治理[45-47]中。信息生命周期理论将信息作为一种资源,关注其在各个发展阶段的演变趋势。随着大数据的发展,作为一种揭示数据内在演化规律的理论,数据生命周期理论逐渐融入信息管理领域,成为研究数据管理、存储的重要支撑[48,49]。数据生命周期将数据视为一种资源,强调数据从生产、处理、保存到再利用的动态属性,为数据治理提供了系统化的理论支撑。
在人工智能领域,AI模型同样具有生命周期的特征,其元数据规范不仅需要满足静态描述的需求,还应支持模型全生命周期的管理,以确保模型在不同阶段的元数据信息的完整性与可追溯性,提升模型管理的透明度与可控性。因此,本研究借鉴生命周期理论,将AI模型视为一种动态发展的对象,将其生命周期划分为训练、优化、部署、维护、归档或退役等阶段。在此基础上,探讨如何构建覆盖全生命周期的AI模型元数据。结合生命周期理论,可以进一步分析元数据规范在模型演进、可追溯性与数据集治理等方面的适配性,从而促进AI模型治理体系的完善。限于篇幅,接下来本研究将从设计目标、设计原则、实施路径以及核心实体关系等4个维度,阐述如何构建这一面向未来的元数据规范。

4.1 设计目标

在跨平台与技术快速迭代的背景下,元数据的缺失或非结构化记录严重影响了AI模型的可发现性、透明性与可持续管理性。因此,构建一个统一、结构化、可扩展的AI模型元数据规范,已成为推进AI生态规范化发展的关键任务。其核心目的包括以下4个方面。
(1)实现AI模型的可发现性。AI模型数量的增长同样带来了严重的“信息过载”问题。由于缺乏统一的描述框架,大量有价值的AI模型难以被高效检索与利用,无法为用户所知、所用。因此,增强AI模型可发现性是元数据规范的首要目标。通过清晰、简洁的标准化描述,提高元数据项的可检索性。
(2)提升AI模型的透明度。元数据规范通过结构化、细粒度的描述框架,将模型的训练数据、算法架构、性能评估、伦理审查等信息透明化,增强AI模型形式上的“可解释”。
(3)提升AI模型的互操作性。AI模型的互操作性(Interoperability)是指不同AI模型、框架或系统之间能够无缝协作、交换信息的能力。如果模型的元数据能完整地描述模型结构、输入/输出格式、依赖项等,开发者可以更容易地将模型转换为不同框架,例如在TensorFlow下的模型通过ONNX可以在PyTorch下正常运行。
(4)支持AI模型的可重用性。随着时间的推移,AI模型会经历多次更新和迭代,甚至可能被弃用或替换。为了确保AI模型能够在未来的研究和应用中依然有价值,元数据规范提供了一个统一的框架,用于描述模型的长期可用性和版本控制。
总体来说,上述目标并非孤立存在,而是相互交织、彼此支撑的有机整体。可发现性让模型从“隐藏”走向“可见”,透明度让技术从“晦涩”走向“可解释”,可互操作性让模型从“孤立”走向“流动”,可重用性让AI生态从“短期”走向“长期”。这些目标共同构成了可信任AI模型的基础,为AI与大数据时代的创新提供坚实底座。

4.2 设计原则

作为复杂的数字对象,AI模型具备异构性强、结构多维、快速演化等特征。其元数据规范的制定不仅需要借鉴已有的数据资源管理经验,还应回应AI模型生命周期管理与模型演化治理的实际需求。因此,元数据规范的设计必须基于以下原则,以保障其理论合理性、技术适配性与应用可行性。
(1)FAIR原则。在制定AI模型元数据规范的过程中,本研究认为必须遵循FAIR原则。近年来,FAIR原则的影响力不断扩大,已经广泛应用于科学数据管理和开放科学领域并逐步延伸至软件、算法等更复杂的数字对象领域。AI模型作为高度复杂的数字对象,其生命周期涉及数据收集、模型训练、优化、评估、部署及更新等多个环节。因此,在制定AI模型元数据规范时,本研究认为FAIR原则不仅适用,而且需要根据AI模型治理的需要进行个性化扩展。
(2)整体性原则。根据生命周期理论,在制定AI模型元数据规范的过程中,必须遵循整体性原则,并围绕其生命周期进行系统性管理。参考FAIR数字对象(FAIR Digital Object,FDO)的管理模式,将AI模型视作一种不断演化、持续发展的FAIR数字对象[50],并围绕其生命周期进行系统性管理。
(3)简洁性原则。AI模型包括了众多的内容,是一个复杂的数字对象。在制定AI模型元数据规范时,需要格外注意规范的简洁性。按照“层次化+模块化”的理念,确保关键信息不遗漏,辅助信息具有良好的扩展性。同时,根据不同用户的需求,灵活提供相应的元数据子集,使得用户不被无关数据所淹没。
(4)可扩展性原则。AI模型的内容是随着AI技术的突破与发展不断变化的。从最初的机器学习模型到现在的深度学习模型,其复杂度与日俱增。因此,元数据规范的设计也必须能够与时俱进,适应新的需求。

4.3 实施路径

(1)需求分析与调研。需求调研与分析是制定AI模型元数据规范的基础性工作。这一步的目标是明确元数据规范需要满足的需求、针对的用户类型、适用的模型类别、服务场景以及现有规范的不足。这一阶段的工作还要兼顾既符合实际需求和又具有前瞻性的要求,为规范的架构设计和字段定义阶段提供科学依据。
(2)规范架构设计和核心字段定义。在完成需求分析与调研之后,制定AI模型元数据规范进入了一个更具技术性的阶段。这一阶段需要从逻辑架构、技术实现、业务适配性3个维度进行系统化设计。逻辑架构是指关键实体的选择、元数据的层次结构以及模块化等内容。技术实现是指核心字段筛选、语法描述、规范复用、互操作以及应用工具等内容。而业务适配性是指元数据规范是否能够精准贴合具体业务场景的需求,确保规范在实际应用中能有效解决业务问题,例如元数据粒度适配度、业务角色设计与流程的适配度等。
(3)规范的形式化描述。在这个环节中,需要决定元数据规范的表达方式,即如何将定义好的元数据项组织成标准文档。通常,元数据规范既可以是结构化的数据格式(如XML、JSON等),也可以是半结构化的文本格式(如Markdown、YAML等)。除了考虑数据格式外,还应考虑与现有规范的兼容性,确保新的规范能够与其他行业规范或国际标准相转换对接,并支持跨平台的数据共享和交换。
(4)规范验证与测试。在这一阶段,需要选择一定数量的模型或应用场景,基于这些实际案例对元数据规范进行验证。通过测试,能够发现规范在实际应用中的潜在问题和局限性,如命名冲突、层次太多、描述粒度不足等问题。同时,借助不同领域专家的反馈,进一步优化规范细节,进行针对性的修订,确保规范的完善与实用性。
(5)规范发布与维护。规范发布能够确保规范能够被广泛应用。规范一旦完成修订并得到验证,就需要制定清晰的发布和推广计划。在发布时,应附上详细的使用指南和文档,帮助用户快速理解和实施元数据规范。同时,规范的维护是一个长期的、持续的工作。元数据规范的发布并不是结束,而是开始。随着技术的发展、应用需求的变化,规范可能会出现需要更新或改进的地方。因此,在规范发布后,应建立评估和修订的机制,收集使用过程中遇到的问题和改进建议,及时对规范进行调整和优化。
总的来说,制定一项元数据规范的过程是一个系统而循序渐进的工作,涵盖了需求分析、设计、验证、推广和维护等多个环节。每个环节都需要与实践紧密结合,考虑到不同使用场景和技术环境中的具体需求,确保规范的可操作性和长期可用性。通过科学的步骤和细致的设计,最终能够制定出符合实际需求的元数据规范,促进数据共享、增强数据管理效率,并推动科技和行业的持续进步。

4.4 实体与实体关系

前文详细探讨了AI模型元数据规范的设计目标、设计原则以及具体的设计步骤,为元数据规范的制定提供了理论指导和实施路径。为了确保元数据规范在实际应用中能够有效支持AI模型的全生命周期管理,还需要进一步明确规范中涉及的核心实体及其相互关系。实体及其关系的定义是元数据规范落地的关键,它不仅能够帮助组织和管理元数据,还能为元数据的管理提供结构化框架。因此,本研究将分析AI模型元数据规范中涉及的实体及其关系,为后续的元数据建模和系统实现奠定基础。
本研究将AI模型的全生命周期定义为AI模型的开发、训练、部署、运行与维护、治理与安全5个阶段,结合元数据规范的分析结果与业内调研结果,对模型所涉及的概念、概念间关系及其属性进行梳理与补全,构建AI模型描述关系,详见图9。本研究将模型实体划分如表7所示。
图9 AI模型描述实体及其关系

Fig.9 Entities and relationships in AI model descriptions

表7 模型实体分类

Table 7 Model entity classification

实体类别 描述内容 支撑字段举例
模型 标识信息、开发时间、模型类型、模型架构、模型参数等信息 Model Description、Model type
数据 模型涉及的数据集的来源、类型、格式及其数据处理、数据标注等信息 Data、Training Data、Testing Data
算法 算法名称与类型、算法原理、优化策略、超参数配置等信息 Algorithm
作者 模型的开发团队与数据集的创建者 Authors
基础设施 模型需要的开发环境、训练环境与部署环境等软硬件配置 Compute Infrastructure
技术特征 模型的技术属性、训练配置与优化技术等信息 Technical Specifications
性能 模型的各种评估/验证过程与结果、性能指标等 Factors、Metrics、Performance Expectations
应用场景 模型可适用的领域、场景以及实际应用案例 Uses、Task、Intended Use Cases and Limitation
风险 模型可能存在的数据隐私、社会伦理、模型偏见等法律与伦理风险,以及风险缓解措施等 Bias, Risks, and Limitations
法律信息 知识产权声明、许可协议、隐私信息、法律合规性与其他可能与法律相关的信息等 License、Licensing Information、Privacy、Intellectual Property
相关资源 其他与模型相关的论文及论文引用、文档与教程等链接 More Information、Model Sources、Quick Link
联系点 用于用户与开发者之间的反馈与交流,可服务于模型的更新与迭代,包括客户支持邮箱、社区论坛链接、问题反馈链接等联系性信息 Contact
上述实体之间存在更新关系、训练关系、评估关系、衍生关系、体现关系、产生关系、开发关系、创建关系以及反馈关系等关系。每个实体包含多个属性,这些属性定义了实体特征,也为元数据的设计提供了基础。除ML Schema之外,现有的元数据规范大多并未明确规定实体间的关系。同时,ML Schema以算法运行过程为主,描述了模型算法实现过程中各实体间的关系,统一用“has+”进行描述,对于实体间关系的构建并不具备很强的参考意义。但是值得参考的是,ML Schema与Model Card(Hugging Face)对于实体或元数据项的命名对本研究中模型实体关系的构建具有一定的指导意义。本研究构建的实体关系主要来源于3类信息:其一,现有主流AI模型元数据规范对于元数据项的命名(开发关系、评估关系、训练关系、反馈关系);其二,各元数据项下的自然语言描述文本(更新关系、衍生关系、产生关系);其三,问卷调研所反映用户对于模型信息的实际需求(更新关系、体现关系、训练关系、评估关系)。实体间关系的释义与设计需要说明如下。
(1)更新关系。System Card明确提出模型的版本迭代问题,可以理解为模型之间存在更新与迭代关系。同时,调研显示用户认为模型的一般性信息(如开发时间与版本)具有一定的重要性。为提高模型的可追溯性,本研究认为有必要明确模型的迭代时间与对应版本,并将模型版本之间的关系定义为更新关系。
(2)训练关系与评估关系。Model Card、ML Schema与System Card等规范都提到模型数据,包含训练数据、评估数据等数据集,模型在不同数据集上进行训练或评估,提升或评估模型的推理与对话能力。同时,问卷受访者认为训练数据与模型评估信息是其选择AI模型的重要考虑元素。基于此,本研究认为应将训练数据与评估数据作为单独实体,并明确其与模型之间的关系,反映模型在特定数据集上的训练与评估过程,为用户的选择与比较提供参考。因此,本研究将训练数据与模型之间的关系定义为训练关系,将评估数据与模型之间的关系定义为评估关系。
(3)衍生关系。Model Card、AI Service Cards以及AI Factsheets以More Information、Quick Links等元数据字段描述模型在其创建、训练、评估、部署或使用过程中所派生出的其他信息资源、文献成果、使用文档、演示代码等内容,建立模型与衍生资源的关联,本研究将称之为衍生关系。
(4)体现关系。现有元数据规范以Technical Specifications、Performance Expectations等字段分别体现了模型的技术特征与性能,且调研显示用户认为模型特性对于其决策具有重要的影响作用。定义模型与技术特征、模型与性能之间的体现关系能够直观刻画模型在技术属性与性能属性上的外显表现,有助于模型选择与比较的决策过程。因此,本研究将此类关系定义为体现关系。
(5)产生关系。System Card、AI Service Cards等规范都明确指出了模型与数据可能产生的风险。定义模型与风险之间的产生关系能够反映模型在数据、算法以及部署等环节中可能引发的伦理、法律与安全风险,为风险评估与治理提供结构化依据。
(6)开发关系或创建关系。明确模型、数据与其作者之间的关系有利于明确知识产权归属与责任主体,为模型的可追溯性与责任认定提供支持。Hugging Face将开发者与模型之间的关系定义为Developed by,借鉴该命名方式,本研究将作者与模型之间的关系定义为开发关系。与此类似,以创建关系表征作者与数据集之间的从属关系。
(7)反馈关系。Hugging Face以contact字段描述作者(开发者)与用户之间的交互渠道,体现用户在部署与使用过程中与作者之间的交互与信息回馈机制,形成模型迭代优化与用户需求响应的闭环。由于本研究构建的本体对象为模型,并未引入用户实体,故将联系点与作者之间的关系定义为反馈关系。

5 结语

本研究不仅深入探讨了AI技术的迅猛发展及其普及所带来的深远影响,也审视了这一进程中伴随而来的挑战与问题。通过对主流AI模型元数据规范的对比分析,研究揭示了当前规范在规范性、一致性以及互操作性等方面的不足,并结合业界调研数据,了解了业内对AI模型元数据规范的认知度与满意度。这些分析为制定更加完善的规范提供了宝贵的实践依据。同时,从更宏观的角度来看,随着AI技术的不断进步,未来的AI模型将不再是孤立的数字对象,而是贯穿整个科技与社会发展的“智能节点”[51]。在这一过程中,AI模型元数据规范的不断完善将成为推动技术革新与应用落地的关键因素,成为连接技术、伦理与社会的关键纽带。通过标准化的元数据管理,AI模型不仅能够实现更高效的跨领域协同,还能提高技术的透明性和可持续性,为实现更加智能化、透明化的社会与产业体系铺平道路。展望未来,随着规范的不断成熟和行业的广泛接受,AI模型将真正成为全球创新生态中不可或缺的一部分,促进技术、伦理与法律的全面融合与创新。
[1]
БУСЛОВА M K, 王续琨. 模型化方法与模型的认识功能[J]. 世界科学, 1982(5): 47-51.

БУСЛОВА M K, WANG X K. Modeling methods and the cognitive functions of models[J]. World science, 1982(5): 47-51.

[2]
GAMBELLA C, GHADDAR B, NAOUM-SAWAYA J. Optimization problems for machine learning: A survey[J/OL]. arXiv: 1901.05331, 2019.

[3]
HU Z T, XING E P. Toward a "standard model" of machine learning[J/OL]. Harvard data science review, 2022, 4(4): 1-15.

[4]
HU X, CHU L Y, PEI J, et al. Model complexity of deep learning: A survey[J/OL]. arXiv: 2103.05127, 2021.

[5]
ZHAO H Y, YANG F, SHEN B, et al. Towards uncovering how large language model works: An explainability perspective[J/OL]. arXiv: 2402.10688, 2024.

[6]
ZHAO H Y, CHEN H J, YANG F, et al. Explainability for large language models: A survey[J/OL]. arXiv: 2309.01029, 2023.

[7]
DANG Y K, HUANG K C, HUO J H, et al. Explainable and interpretable multimodal large language models: A comprehensive survey[J/OL]. arXiv: 2412.02104, 2024.

[8]
QIN J, YU B. Metadata in trustworthy AI: From data quality to ML modeling[C]//International Conference on Dublin Core and Metadata Applications. Daegu: DCMI, 2024.

[9]
OpenAI. GPT-4 is OpenAI's most advanced system, producing safer and more useful responses[EB/OL]. [2025-03-02].

[10]
Google. BERT[EB/OL]. [2025-03-02].

[11]
Anthropic. Claude[EB/OL]. [2025-03-02].

[12]
Meta. Llama[EB/OL]. [2025-03-02].

[13]
百度. 文心一言(ERNIE Bot)[EB/OL]. [2025-03-02].

[14]
OPENAI, ACHIAM J, ADLER S, et al. GPT-4 technical report[J/OL]. arXiv: 2303.08774, 2023.

[15]
DEVLIN J, CHANG M W, LEE K, et al. BERT: Pre-training of deep bidirectional transformers for language understanding[J/OL]. arXiv: 1810.04805, 2018.

[16]
你们如何在模型训练中使用个人数据?[EB/OL]. [2025-01-26].

[17]
TOUVRON H, LAVRIL T, IZACARD G, et al. LLaMA: Open and efficient foundation language models[J/OL]. arXiv: 2302.13971, 2023.

[18]
ZHANG Z Y, HAN X, LIU Z Y, et al. ERNIE: Enhanced language representation with informative entities[J/OL]. arXiv: 1905.07129, 2019.

[19]
百度AI模型“文心一言”新鲜体验[EB/OL]. [2025-01-26].

[20]
OpenAI. GPT-4[EB/OL]. [2025-01-26].

[21]
BAI Y T, KADAVATH S, KUNDU S, et al. Constitutional AI: Harmlessness from AI feedback[J/OL]. arXiv: 2212.08073, 2022.

[22]
OpenAI. Privacy policy[EB/OL]. [2025-01-26].

[23]
Google. Our principles[EB/OL]. [2025-01-26].

[24]
Claude. Privacy policy[EB/OL]. [2025-01-26].

[25]
Claude. Privacy & legal[EB/OL]. [2025-01-26].

[26]
百度. 文心一言用户协议[EB/OL]. [2025-01-26].

[27]
百度. 文心一言个人信息保护规则[EB/OL]. [2025-01-26].

[28]
百度. 智能体功能服务条款[EB/OL]. [2025-01-26].

[29]
MITCHELL M, WU S, ZALDIVAR A, et al. Model cards for model reporting[J/OL].arXiv: 1810.03993, 2018.

[30]
PUBLIO G C, ESTEVES D, ŁAWRYNOWICZ A, et al. ML-Schema: Exposing the semantics of machine learning with schemas and ontologies[J/OL]. arXiv: 1807.05351, 2018.

[31]
IBM. FactSheet examples overview[EB/OL]. [2025-01-26].

[32]
Amazon. Resources that promote AI transparency[EB/OL]. [2025-01-26].

[33]
OpenAI. OpenAI o1 system card[EB/OL]. [2025-01-26].

[34]
HuggingFace. huggingface_hub[EB/OL]. [2025-01-26].

[35]
BRUCE T R, HILLMANN D I. The continuum of metadata quality: Defining, expressing, exploiting[M]. Chicago: American Library Association, 2004.

[36]
黄莺, 李建阳. 元数据质量评估方法及模型研究[J]. 图书馆学研究, 2013(12): 52-56, 51.

HUANG Y, LI J Y. The study of metadata quality assessment and its model[J]. Research on library science, 2013(12): 52-56, 51.

[37]
程颖. 数字资源元数据质量管理的研究与探索[J]. 图书馆, 2015(7): 66-69, 104.

CHENG Y. Research and practice on the metadata quality management of digital resources[J]. Library, 2015(7): 66-69, 104.

[38]
PARK J R. Metadata quality in digital repositories: A survey of the current state of the art[J]. Cataloging & classification quarterly, 2009, 47(3/4): 213-228.

[39]
OCHOA X, DUVAL E. Automatic evaluation of metadata quality in digital repositories[J]. International journal on digital libraries, 2009, 10(2): 67-91.

[40]
ALJUMAILI M, KARIM R, TRETTEN P. Metadata-based data quality assessment[J]. VINE journal of information and knowledge management systems, 2016, 46(2): 232-250.

[41]
ŠLIBAR B, OREŠKI D, BEGIČEVIĆ REĐEP N. Importance of the open data assessment: An insight into the (meta) data quality dimensions[J]. Sage open, 2021, 11(2): 21582440211023178.

[42]
STVILIA B, HINNANT C C, WU S H, et al. Research project tasks, data, and perceptions of data quality in a condensed matter physics community[J]. Journal of the association for information science and technology, 2015, 66(2): 246-263.

[43]
管珍珍. 信息生命周期视角下智慧情报赋能医药企业核心竞争力研究[D]. 哈尔滨: 黑龙江大学, 2024.

GUAN Z Z. Research on the core competitiveness of pharmaceutical enterprises enabled by intelligent intelligence from the perspective of information lifecycle[D]. Harbin: Helongjiang University, 2024.

[44]
尹文武. 信息生命周期理论下的移动图书馆信息服务质量控制[J]. 图书馆理论与实践, 2017(4): 91-93.

YIN W W. Quality control of mobile library information service based on information life cycle theory[J]. Library theory and practice, 2017(4): 91-93.

[45]
YANG W L, FU R, AMIN M B, et al. The impact of modern AI in metadata management[J]. Human-centric intelligent systems, 2025, 5(3): 323-350.

[46]
RHEE H L. A new lifecycle model enabling optimal digital curation[J]. Journal of librarianship and information science, 2024, 56(1): 241-266.

[47]
KOWALCZYK S T. Modelling the research data lifecycle[J]. International journal of digital curation, 2017, 12(2): 331-361.

[48]
郭海玲, 刘仲山. GDPR对我国跨境数字贸易企业个人数据保护研究: 基于数据生命周期理论[J]. 情报杂志, 2023, 42(10): 194-201.

GUO H L, LIU Z S. The enlightenment of GDPR on personal data protection of Chinese cross-border digital trade enterprises: Based on data life cycle theory[J]. Journal of intelligence, 2023, 42(10): 194-201.

[49]
马静. 数据生命周期视角下高校科学数据共享研究[D]. 哈尔滨: 黑龙江大学, 2024.

MA J. Research on scientific data sharing in universities under the perspective of data lifecycle[D]. Harbin: Helongjiang University, 2024.

[50]
FAIR digital object framework documentation[EB/OL]. [2025-01-26].

[51]
AI智能大模型: 未来发展趋势人工智能AI大模型智能AI发展开发设计[EB/OL]. [2025-01-26].

文章导航

/