多客科技 发表于 2025-11-23 09:50

AI应用活动分类:如何规范且准确地描述用AI做了什么

作者:微信文章
人工智能(AI)正在重塑我们的工作和生活方式,应用无处不在。然而,当我们试图描述“用AI做了什么”时,却常常陷入模糊和混乱:有人说“用AI优化了流程",有人说“借助AI提升了效率”,但这些描述往往缺乏准确性和可比性。在学术出版、项目管理、产品文档等需要精确描述的场合,这种模糊性会带来问题。我们需要建立一套标准化的、科学严谨的、简洁的术语词汇来描述AI的应用活动。本人粗略学习了美国国家标准与技术研究院(NIST)发布的《人工智能应用分类法》(AI Use Taxonomy,NIST.AI.200-1),以及由乌克兰、日本等国的研究人员共同开发的生成式AI委托任务标准化描述框架GAIDeT(Generative AI Delegation Taxonomy),将其内容整理如下,供参考。
PART.01NIST人工智能应用分类法分类的核心原则

以人为中心:关注AI如何服务于人类目标和任务

技术独立性:不依赖于具体的AI技术实现

领域通用性:适用于不同行业和应用领域

可测量性:支持客观的性能评估和比较

完整的分类体系基于上述原则,AI应用被分为下表中的16个基本类别:序号分类名称定义/解释应用举例1内容创作ContentCreationAI生成新的artifacts,如视频、叙述、软件代码、合成数据等原创内容•使用ChatGPT撰写文章草稿
•使用DALL-E生成图像
•使用GitHub Copilot编写代码
• 使用AI生成合成训练数据2内容综合ContentSynthesisAI将部分、元素或概念组合和/或总结为连贯的整体• 将医生的非结构化笔记转换为结构化报告
• 总结长篇研究论文
• 整合多个数据源生成综合报告
• 将技术文档转化为通俗易懂的摘要3决策制定DecisionMakingAI从可能的替代方案中选择行动方案以达成解决方案• 金融交易系统中的买卖决策
• 医疗诊断系统中的治疗方案选择
• 供应链管理系统中的库存决策
• 人力资源系统中的招聘决策4检测识别DetectionAI通过仔细搜索、检查或探测来识别某事物的存在或出现• 网络安全威胁检测
• 医学影像中的肿瘤识别
• 生产线上的质量缺陷检测
• 金融交易中的欺诈检测5数字助理DigitalAssistanceAI作为个人代理,以对话方式理解并响应命令和问题,执行请求的任务• 智能语音助手(Siri、Alexa、Google Assistant)
• 客户服务聊天机器人
• 个人日程管理助手
• 智能客服系统6发现探索DiscoveryAI首次发现、识别或发掘某事物• 新药发现和开发
• 科学研究中的新现象识别
• 数据挖掘中的模式发现
• 天文观测中的新星体发现7图像分析Image AnalysisAI识别数字图像内的属性以提取有意义的信息• 医学影像诊断
• 卫星图像分析
• 人脸识别系统
• 自动驾驶中的路况分析8信息检索InformationRetrieval/SearchAI查找关于特定主题的信息• 加速寻找用于药物开发的稳定蛋白质
• 学术文献检索
• 企业内部知识库搜索
• 智能推荐系统中的内容匹配9监控监测MonitoringAI观察、检查和监视某事物的流程、质量或状态随时间的变化• 野火监测
• 工业设备状态监控
• 网络性能监控
• 环境质量监测10改进性能Performance ImprovementAI提高预期结果的质量和效率• 图分析提高图计算效率和可扩展性
• 算法参数优化
• 系统性能调优
• 流程效率提升11个性化定制PersonalizationAI设计和定制某事物以满足个人的特征、偏好或行为• 销售内容个性化和分析
• 教育内容的个性化推荐
• 新闻推送的个性化定制
• 电商产品推荐12预测预报PredictionAI预测未来结果的可能性• 销售预测
• 天气预报
• 股票价格预测
• 设备故障预测13流程自动化ProcessAutomationAI执行重复性任务,消除瓶颈,减少错误和数据丢失,提高流程效率• 自动化管理任务
• 财务报告自动生成
• 客户服务流程自动化
• 文档处理自动化14推荐建议RecommendationAI建议或提出一组可管理的可行选项以辅助决策• 客户服务响应建议
• 购买推荐
• 内容推荐
• 学习路径推荐15机器人自动化RoboticAutomationAI使用物理机器来自动化、改进和/或优化各种任务• 智能手术机器人
• 工业生产线机器人
• 服务机器人
• 探索机器人16交通工具自动化VehicularAutomationAI自动化货物、仪器和/或人员的物理运输• 自动驾驶汽车/卡车/火车
• 无人机
• 自动驾驶航天器
• 自动驾驶飞机

PART.02GAIDeT:生成式AI委托任务分类法GAIDeT(Generative AI Delegation Taxonomy)是一个专门针对生成式AI在科学研究和学术出版中应用的分类体系,旨在帮助研究人员清晰描述其在研究或出版过程中获得的AI辅助。该框架将研究与出版流程划分为宏观阶段(如文献综述、数据处理、撰写)和微观任务(如编码、翻译、校对、编辑、起草结论)。作者只需标注AI在哪个阶段被用于何种任务。这种声明方式明确表明AI作为研究工具而非独立作者发挥作用。GAIDeT的核心原则

委托而非作者身份:GAIDeT明确区分AI工具和人类作者,AI不能成为科学作者,但可以作为研究工具被委托特定任务

人类监督原则:所有AI委托的任务都必须在人类的完全监督下进行,人类承担最终责任

任务导向:专注于具体的研究任务委托,而不是抽象的贡献描述

透明度要求:要求详细披露AI在研究和写作过程中的具体参与程度

GAIDeT的分类结构GAIDeT采用宏观和微观两个层级的分类结构:宏观层级(Macro Level):

概念化(Conceptualization)

文献综述(Literature review)

方法论(Methodology)

软件开发和自动化(Software development and automation)

数据管理(Data management)

写作和编辑(Writing and editing)

伦理审查(Ethics review)

监督(Supervision)

微观层级(Micro Level):宏观层级微观任务任务描述应用举例概念化想法生成AI协助产生研究想法和创新概念使用ChatGPT进行头脑风暴,生成研究主题建议定义研究目标AI协助明确和细化研究目标使用AI工具帮助制定SMART研究目标制定研究问题和假设AI协助构建研究问题和假设框架基于文献分析生成可测试的研究假设可行性评估和风险评估AI评估研究方案的可行性和潜在风险使用AI分析项目时间、资源和技术风险基于模拟或自动建模的初步假设测试AI通过模拟验证假设的合理性使用计算模型预测实验结果的可能性文献综述文献搜索和系统化AI协助搜索、筛选和组织相关文献使用AI工具进行系统性文献检索和分类撰写文献综述AI协助撰写文献综述内容使用AI生成文献综述的初稿和结构市场趋势和/或专利环境分析AI分析行业趋势和专利状况使用AI分析技术发展趋势和竞争环境基于文献综述评估研究新颖性和识别空白AI识别研究空白和创新机会通过AI分析发现未被充分研究的领域方法论研究设计AI协助设计研究方案和实验框架使用AI优化实验设计和样本量计算开发实验或研究协议AI协助制定详细的研究协议生成标准化的实验操作程序选择研究方法AI推荐适合的研究方法和工具基于研究目标推荐统计分析方法软件开发和自动化代码生成AI生成程序代码和脚本使用GitHub Copilot生成数据分析代码代码优化AI改进代码性能和结构使用AI工具重构和优化现有代码流程自动化AI自动化重复性研究任务创建自动化的数据处理流水线创建数据分析算法AI开发专用的分析算法设计机器学习模型进行数据分析数据管理数据收集AI协助收集和获取研究数据使用网络爬虫自动收集公开数据验证(评估数据质量和可靠性)AI评估数据的质量和可信度自动检测数据异常值和不一致性数据清理(识别和删除缺失或异常数据)AI清理和预处理数据自动填补缺失值和处理异常数据数据管理和组织AI组织和管理数据资产创建数据目录和元数据管理系统数据分析AI执行统计分析和模式识别使用机器学习进行预测性分析可视化AI创建数据图表和可视化自动生成交互式数据仪表板重现性测试AI验证研究结果的可重现性自动化重复实验和结果验证写作和编辑文本生成AI生成文章内容和段落使用GPT生成论文章节的初稿校对和编辑AI检查语法、拼写和表达使用Grammarly进行文本校对总结文本AI提取和总结关键信息自动生成研究摘要和执行总结制定结论AI协助撰写研究结论基于结果分析生成结论建议调整和适应情感语调AI调整文本的语调和风格将技术文档转换为通俗易懂的表达翻译AI进行多语言翻译将研究成果翻译成不同语言版本重新格式化AI调整文档格式和布局自动适应期刊投稿格式要求准备新闻稿和推广材料AI创建面向公众的宣传内容将学术成果转化为媒体友好的新闻稿伦理审查偏见分析和潜在歧视评估AI识别研究中的偏见和歧视风险分析数据集和算法的公平性问题伦理风险分析AI评估研究的伦理风险识别可能的伦理冲突和合规问题监控遵守伦理标准AI监督研究过程的伦理合规性自动检查是否符合IRB要求数据保密性监控AI确保数据隐私和安全监控个人信息的使用和保护监督质量评估AI评估研究方法和结果的质量分析统计方法的适当性和结果有效性趋势识别AI识别数据中的模式和趋势发现研究结果中的重要趋势局限性识别AI识别研究的局限性和不足分析方法论和数据的限制因素建议AI提供改进和发展建议对未来研究方向提出建议出版支持AI协助期刊投稿和同行评议撰写投稿信和回应审稿人意见GAIDeT声明生成器为了便于实际应用,GAIDeT团队开发了一个在线工具——GAIDeT声明生成器(https://panbibliotekar.github.io/gaidet-declaration/)。该工具帮助研究人员:

输入负责作者姓名(或选择"集体责任")

指定使用的LLM版本(如ChatGPT-4.5、Claude 3、Gemini 1.5)

选择委托给GAI的具体研究任务

生成标准化的声明文本

生成的声明遵循标准化的、特定于任务的措辞,强调透明度和作者监督。
PART.03分类体系的使用,以及分类的拓展单一活动描述当AI只涉及一种基本活动时,直接使用对应的分类名称。例如:    “本研究使用AI进行内容综合,将多篇文献总结为研究现状报告”    “系统采用机器学习算法进行异常检测,识别网络安全威胁”复合活动描述当AI涉及多种活动时,按照主要活动和辅助活动的顺序进行描述。例如:    “本研究使用AI进行信息检索和内容综合,首先搜索相关文献,然后综合成研究综述”    “智能客服系统集成了数字助理和推荐建议功能,能够理解用户问题并提供解决方案建议”层级化描述对于复杂的AI应用,可以采用"领域+活动+具体任务"的三级描述。例如:    “在医疗领域,AI通过图像分析进行肺部CT扫描的病灶识别”    “在金融领域,AI通过预测和决策制定进行股票交易策略优化”分类拓展:使用通用表达模板对于分类中未能覆盖的AI应用,可以使用以下通用模板构建表达:
基础公式:
    “在 [上下文/领域] 中,AI通过 [活动类型] 实现 [具体目标] ”
扩展公式:
    “在 [上下文/领域] 的 [具体场景] 中,AI通过 [主要活动类型] 和 [辅助活动类型] ,实现 [具体目标] ,达到 [预期效果] ”
责任声明公式:
    “作者使用AI工具 [工具名称和版本] 进行 [具体活动],在 [人类监督/控制/验证] 下完成 [具体任务],最终责任由 [人类作者/用户] 承担”参考文献:Theofanos, M., Choong, Y. Y., & Jensen, T. (2024). AI Use Taxonomy: A Human-Centered Approach (NIST AI 200-1). National Institute of Standards and Technology. https://doi.org/10.6028/NIST.AI.200-1Nazarovets, S., Tsybuliak, N., Teixeira da Silva, J. A., & Suchikova, Y. (2025). GAIDeT: a practical taxonomy for declaring AI use in research and publishing. Accountability in Research. https://doi.org/10.1080/08989621.2025.2544331Contributor Role Taxonomy (CRediT). (2025). CRediT's 14 Contributor Roles. https://credit.niso.org/Elsevier. (2025). The use of AI and AI-assisted technologies in writing for Elsevier. https://www.elsevier.com/about/policies-and-guidelines/the-use-of-ai-and-ai-assisted-technologies-in-writing-for-elsevierPinter, F., & Suchikova, Y. (2025). Taxonomy of Delegation: How GAIDeT Reframes AI Transparency in Science, an Interview with Yana Suchikova. The Scholarly Kitchen. https://scholarlykitchen.sspnet.org/International Standards Organization. (2018). ISO 9241-11:2018 Ergonomics of human-system interaction — Part 11: Usability: Definitions and concepts. https://www.iso.org/standard/63500.htmlTabassi, E. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0) (NIST AI 100-1). National Institute of Standards and Technology. https://doi.org/10.6028/NIST.AI.100-1
(说明:本文使用了Moonshot的Kimi-k2以及Anthropic的claude-sonnet-4辅助进行内容综合。)
页: [1]
查看完整版本: AI应用活动分类:如何规范且准确地描述用AI做了什么