当前位置: 首页 > news >正文

优秀网站首页ui设计师学校

优秀网站首页,ui设计师学校,电子商务网站建设的可行性分析,上海中小企业网站建设来源#xff1a;智源社区作者#xff1a;David Gunning, Eric Vorm, Jennifer Yunyan Wang, Matt Turek编译#xff1a;牛梦琳摘要#xff1a;从项目管理人员和评估人员的角度#xff0c;对国防高级研究计划局#xff08;DARPA#xff09;的可解释人工智能#xff08;X… 来源智源社区作者David Gunning, Eric Vorm, Jennifer Yunyan Wang, Matt Turek编译牛梦琳摘要从项目管理人员和评估人员的角度对国防高级研究计划局DARPA的可解释人工智能XAI项目进行总结。以帮助终端用户更好地理解、信任并有效管理人工智能系统为目标美国国防部高级研究计划局DARPA于2015年制定了可解释人工智能XAI计划。2017年这一为期4年的研究开始落实。现在随着2021年XAI的结束是时候稍作暂停反思一下对这个计划中的成功失败以及给我们的启发做出总结。本文介绍了XAI项目的目标、组织和研究进展。01XAI的创建机器学习的巨大成功创造了人工智能能力方面的新的爆发但由于机器无法向人类用户解释其决定和行动其有效性将受到限制。这个问题对美国国防部DoD尤为重要国防部面临的挑战通常意味着需要开发出更多智能、自主、可靠的系统。而XAI在用户理解、适当信任和有效管理这一代新兴的人工智能伙伴方面将至关重要。在某种意义上可解释性问题是人工智能成功的结果。在人工智能的早期主要的推理方法是逻辑和符号的。这些早期系统通过对一定程度上人类可读的符号进行某种形式的逻辑推理生成其推理步骤的痕迹这个痕迹就成为解释的基础。因此这些系统在可解释性方面做了大量的工作。然而这样的早期系统是无效的事实证明它们的构造成本过高且对现实世界的复杂性来说太脆弱了。人工智能的成功是随着研究人员开发出新的机器学习技术而产生的这些技术支持使用它们自己的内部表征例如支持向量、随机森林、概率模型和神经网络等构建世界模型。这些新的模型更加有效同时却也必然更加不透明难以解释。2015年是对XAI需求的一个转折点。数据分析和机器学习刚刚经历了十年的快速发展。继2012年ImageNet的突破性成果之后深度学习革命方兴未艾大众媒体对超级智能Superintelligence和即将到来的AI启示录AI Apocalypse进行了各种各样的猜测。2015年也提出了可解释性的初步想法。一些研究人员选择探索深度学习技术例如利用去卷积网络来可视化卷积网络的层次。还有一些则追求学习更多可解释性模型技术如贝叶斯规则列表。DARPA花了一年时间调查研究人员分析可能的研究策略并制定了该计划的目标和结构。2016年8月DARPA发布了DARPA-BAA-16-53来征集提案。1.1 XAI 的目标program goals可解释人工智能XAI的既定目标是创建一套新的或修正过的机器学习技术产生可解释的模型当与有效的解释技术相结合时终端用户能够理解、适当地信任并有效地管理新一代的人工智能系统。XAI的目标是依赖AI系统给出决定或建议或由AI 系统采取行动的终端用户因此用户需要理解系统做出决定的理由。例如一个情报分析员需要了解他的大数据分析系统为什么建议对某些活动进行进一步调查。同样一个给自主系统布置任务的操作员需要了解系统的决策模型以便在未来的任务中恰当地使用它。XAI的概念是为用户提供解释使他们能够理解系统的整体优势和劣势传达对系统在未来/不同情况下的行为的理解并许允许用户纠正系统的错误。XAI项目假定在机器学习性能如预测准确性和可解释性之间存在一种固有的紧张关系这种担忧与当时的研究成果是一致的。通常情况下性能最高的方法如深度学习是最不容易解释的而最容易解释的方法如决策树是最不准确的。该计划希望创建一个新的机器学习和解释技术组合为未来的从业者提供涵盖性能-解释能力均衡空间的更广泛的设计选择。如果一个应用需要更高的性能XAI的组合将包括更多可解释的、高性能的深度学习技术。如果一个应用需要更多的可解释性那么XAI将包括性能更高的、可解释的模型。1.2 XAI的结构该计划被组织成三个主要的技术领域TA如图1所示a开发新的XAI机器学习和解释技术以生成有效的解释b通过总结、扩展和应用解释的心理学理论来理解解释的原理以及c在数据分析和自主性这两个具有挑战性的领域评估新的XAI技术。图1  美国国防部高级研究计划局DARPA可解释人工智能XAI计划结构包括技术领域TAs和评估框架最初的计划时间表包括两个阶段第一阶段技术演示18个月第二阶段比较评估30个月。第一阶段要求开发者针对各自的测试问题进行技术展示。第二阶段原本计划让开发者针对政府评估员定义的两个共同问题之一图2进行技术测试。在第二阶段结束时开发人员将为一个开源的XAI工具包提供原型软件。图2  挑战领域02XAI 的开发2017年5月XAI计划正式开始。有11个研究小组被选中开发可解释学习TA1另一个小组则被选中开发解释的心理学模型。评估是由海军研究实验室提供。下面总结了这些开发以及该计划结束时这项工作的最终状况。Gunning和Aha.给出了2018年底的XAI发展临时总结。2.1 XAI 可解释学习方法该计划预计研究人员将检测训练过程、模型表现以及解释界面。对于模型的表述设想了三种一般的方法。可解释的模型方法将寻求开发ML模型这些模型对于机器学习专家来说本质上更容易解释也更容易自省。深度解释方法将利用或混合深度学习方法在预测的基础上产生解释。最后模型归纳技术将从更不透明的黑盒子模型中创建近似的可解释模型。解释界面有望成为XAI的一个关键要素它将用户与模型连接起来使用户能够理解决策过程并与之互动。随着研究的进展11个XAI团队逐渐探索了一些机器学习方法如可操作的概率模型和因果模型以及解释技术如强化学习算法产生的状态机、贝叶斯教学、视觉显著性地图以及网络和GAN剖析。也许最具挑战性也是最独特的贡献来自于将机器学习和解释技术结合起来并通过精心设计的心理学实验来评估解释的有效性。同时我们也对用户的范围和开发时间表有了更精细的了解图3图 3  可解释的人工智能XAI用户和开发时间表2.2 “解释”的心理学模型该计划预计需要对解释进行有理论支持的心理学理解。我们选择了一个团队来总结当前解释的心理学理论以协助XAI开发者和评估团队。这项工作始于对解释心理学的广泛文献调查和以前关于人工智能可解释性的工作。起先这个团队被要求(a)对当前的解释理论进行总结(b)从这些理论中开发一个解释的计算模型以及(c)根据XAI开发者的评估结果验证该计算模型。最终发现开发计算模型工作过于复杂但该团队确实对该领域产生另深刻的理解并成功地给出了描述性模型。这些描述性模型对于支持有效的评估方法至关重要这涉及到根据国防部人类主体研究指南进行的精心设计的用户研究。图4展示了XAI解释过程的顶层描述性模型。图4  解释的心理学模型——黄色方框说明了基本过程绿色方框说明了测量机会白框说明了潜在的结果2.3 评估最初设想是基于一组共同的问题在数据分析和自主性领域进行评估。然而很快就发现在广泛的问题领域探索各种方法更有价值。为了评估项目最后一年的表现由美国海军研究实验室NRL的Eric Vorm博士领导的评估小组开发了一个解释评分系统ESS。这个评分系统提供了一个量化机制用于评估XAI用户研究在技术和方法上的适当性和稳健性。ESS能够对每个用户研究的要素进行评估包括任务、领域、解释、解释界面、用户、假设、数据收集和分析以确保每个研究符合人类研究的高标准。XAI评价措施如图5所示包括功能措施、学习性能措施和解释有效性措施。DARPA的XAI项目明确表明了精心设计用户研究的重要性以便准确评估解释的有效性从而直接增强人类用户的适当使用和信任并适当支持人机协作。很多时候多种类型即性能、功能和解释的有效性的测量对于评估XAI算法的性能是必要的。XAI用户研究的设有时很棘手但是DARPA XAI项目发现最那些具有跨学科专长即计算机科学与人机交互和/或实验心理学相结合等的多样化团队的研究最有效。图5  可解释人工智能XAI算法的评估措施2.4 XAI 的开发方法XAI项目探索了许多方法如表1所示。表1. 国防高级研究计划局DARPA可解释人工智能XAI项目上的技术方法TeamApproachApplicationUC BerkeleySalience-map attention mechanisms implemented in DNNs19Saliency maps for object detectors allow users to identify the detector which will be more accurate by reviewing sample detections and mapsTransduction of DNN states into natural language explanations31Explainable and advisable autonomous driving systems to fill in knowledge gaps. Humans can evaluate AI-generated explanations for navigation decisions21, 30Charles River AnalyticsCausal models of deep reinforcement learning policies to enable explanation-enhanced training by answering counterfactual queries17Human-machine teaming gameplay in StarCraft2Developed a distilled version of a pedestrian detection model, which used convolutional auto encoders to condense the activations into user understandable “chunks”Carnegie Mellon UniversityRobustified classifiers with salient gradientsInteractive debugger interface for visualizing poisoned training datasets. Work is applied on the IARPA TrojAI dataset.33Establishing objective/quantitative criteria to assess value of explanations for ML models34Oregon State UniversityiGOS visual saliency algorithm24Debugging of COVID-19 diagnosis chest x-ray classifierQuantized bottleneck networks for deep RL algorithmsUnderstanding recurrent policy networks through extracted state machines and key decision points in video games and control35Explanation analysis process for reinforcement learning systems36After-action review of AI decisions mirror the armys after action review system to understand why AI made its decisions to improve explainability and AI trust36, 37Reinforcement learning model via embedded self-predictionsContrastive explanations of action choices in terms of human understandable properties of future outcomes38Rutgers UniversityBayesian teaching to select examples and features from the training data to explain model inferences to a domain expert18Interactive tool for analyzing a pneumothorax detector for chest X-rays. Targeted user study engaging ~10 radiologists demonstrated the effectiveness of the explanations39UT DallasTractable probabilistic logic models where local explanations are queries over probabilistic models and global explanations are generated using logic, probability, and directed trees and graphsActivity recognition in videos using TACoS cooking tasks and WetLab scientific lab procedure datasets. Generates explanations about whether activities are present in the video data16PARCReinforcement learning implementing a hierarchical multifactor framework for decision problemsSimulated drone flight mission planning task where users learned to predict each agents behavior to choose the best flight plan. User study tested the usefulness of AI-generated local and global explanations in helping users predict AI behavior40SRISpatial attention VQA (SVQA) and spatial-object attention BERT VQA (SOBERT)20, 23Attention-based (gradCAM) explanations for MRI brain-tumor segmentation. Visual salience models for video QARaytheon BBNCNN-based one-shot detector, using network dissection to identify the most salient features41Explanations produced by heat maps and text explanations42Human-machine common ground modelingIndoor navigation with a robot (in collaboration with GA Tech)Video QAHuman-assisted one-shot classification system by identifying the most salient featuresTexas AMMimic learning methodology to detect falsified text29News claim truth classificationUCLACX-ToM framework: A new XAI framework using theory-of-mind where we pose explanation as an iterative communication process, that is, dialog, between the machine and human user. In addition, we replace the standard attention-based explanations with novel counterfactual explanations called fault-lines43, 44Image classification, human body pose estimationA learning framework to acquire interpretable knowledge representation and an augmented reality system for explanation interface45, 46Robot learning to open medicine bottles with locks and allows user interventions to correct wrong behaviorsTheory of mind explanation network with multilevel belief updates from learningMinesweeper-like game to find optimal path for an agentIHMCExplanation scorecardEvaluate the utility of an explanation. Defines seven levels of capability, from the null case of no explanation, to surface features (eg, heat maps), to AI introspections such as choice logic, to diagnoses of the reasons for failuresCognitive tutorialA straightforward way to help users understand complex systems is to provide a tutorial up front but the tutorial should not be restricted to how the system works27Stakeholder playbookSurvey of stakeholder needs, including development team leaders, trainers, system developers, and user team leaders in industry and governmentAI evaluation guidebookIdentifies methodological shortcomings for evaluating XAI techniques, spanning experimental design, control conditions, experimental tasks and procedures, and statistical methodologies03XAI 的结果启发和教训该项目进行了三次主要的评估一次在第一阶段两次在第二阶段。为了评估XAI技术的有效性研究人员设计并执行了用户研究。用户研究是评估解释的黄金标准。在XAI研究人员进行的用户研究中大约有12700名参与者包括约1900名有监督的参与者即个人在研究团队的指导例如亲自或通过Zoom下完成实验以及10800名无监督的参与者即个人自我指导完成实验例如Amazon Mechanical Turk。根据所有美国国防部资助的人类研究的政策每个研究方案都由当地的机构审查委员会IRB审查然后由国防部人类研究保护办公室审查该方案和当地IRB的结论。在进行用户研究的过程中发现了几个关键的启示与只提供决策的系统相比用户更喜欢提供决策与解释的系统。在那些用户需要了解人工智能系统如何做出决定的内部运作的任务中解释能够提供最大的价值。(由11个团队的实验支持)。为了使解释能够提高用户任务表现任务必须足够困难以便于人工智能的解释起作用PARCUT Dallas。用户的认知负荷会阻碍用户解读解释时的表现。结合前面的观点解释和任务难度需要被校准以提高用户的表现加州大学洛杉矶分校、俄勒冈州立大学。当人工智能不正确时解释更有帮助这一点对边缘案例特别有价值加州大学洛杉矶分校、罗格斯大学。解释的有效性的措施可以随着时间的推移而改变Raytheon, BBN。相对于单独的解释而言建议性Advisability可以明显提高用户的信任度加州大学伯克利分校。XAI对于测量和调整用户和XAI系统的心理模型很有帮助罗格斯、SRI。最后由于XAI的最后一年发生在COVID-19大流行的时期我们的执行团队开发了设计网络界面的最佳实践以便在不可能进行现场研究时进行XAI用户研究OSU、UCLA。如前文所述学习的性能和可解释性之间似乎存在着一种自然的紧张关系。然而在项目过程中我们却发现可解释性可以提高性能。从一个直观的角度来看训练一个系统生成解释通过额外的损失函数、训练数据或其他机制提供额外的监督以鼓励系统学习更有效的世界表征。虽然这不一定在所有情况下都是正确的为了确定可解释的技术何时会有更高的性能还需要做大量的工作但它提供了希望即未来的XAI系统可以比目前的系统性能更好并同时满足用户对解释的需求。04DARPA 2021年计划之后的世界AI和XAI的情况目前还没有通用的XAI解决方案。如前文所述就像我们与其他人互动时面临的情况一样不同的用户类型需要不同类型的解释。可以参考一下医生向医生同事、病人或医疗审查委员会解释诊断的三个不同情景。也许未来的XAI系统能够在大规模的用户类型范围内自动校准并向特定的用户传达解释但这大大超出了目前的技术水平。开发XAI的挑战之一是衡量解释的有效性。DARPA的XAI工作已经帮忙开发了这个领域的基础技术但还需要继续进行大量的研究包括从人类因素和心理学界汲取更多的力量。为了使有效的解释成为ML系统的核心能力需要认真确立解释有效性的衡量标准这个标准应当易于理解便于实施。加州大学伯克利分校的研究结果表明建议性即人工智能系统接受用户建议的能力可以提高用户对解释以外的信任度。当然用户可能更喜欢那些像人类一样可以快速提供反馈纠正行为的系统。这种既能生产又能消费解释的可建议的人工智能系统将成为实现人类和AI系统之间更紧密合作的关键。为了有效地开发XAI技术需要研究者跨多个学科进行密切合作包括计算机科学、机器学习、人工智能、人类因素和心理学等等。这可能特别具有挑战性因为研究人员往往专注于一个单一的领域所以需要被动地进行跨领域工作。也许将来会在当前多个学科的交叉点上创建一个专门的XAI研究学科。为此我们努力创建了一个XAI工具包该工具包收集了各种项目工件如代码、论文、报告等以及从为期4年的DARPA XAI项目中获得的经验教训并将其放在一个可公开访问的中央位置https://xaitk.org/。我们相信对那些在作战环境中部署AI能力并需要在广泛的现实条件和应用领域中验证、描述和信任AI性能的人来说该工具包将具有广泛的意义。今天我们对人工智能的理解比2015年时更加细致也更加准确。当然对深度学习的可能性和局限性也有了更深入的理解。AI的启示已经从一个迫在眉睫的危险淡化为一个渺远的探索目标。同样XAI项目也为XAI领域提供了更细微的、正常的、可能也更准确的理解。该项目无疑是刺激XAI研究的催化剂包括项目内部和外部并得到了对XAI的使用和用户、XAI的心理学、衡量解释有效性的挑战了解更细致的结果产生了新的XAI ML和人机交互技术组合。当然前方任重而道远特别是随着新的人工智能技术的开发对解释的需求也将继续发展。XAI将在一段时间内继续作为一个活跃的研究领域。作者认为XAI项目为启动这一大工程提供了基础从而做出了重大贡献。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市大脑研究计划构建互联网城市大脑技术和企业图谱为提升企业行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。  如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
http://www.zqtcl.cn/news/471150/

相关文章:

  • 小型企业网站系统南京seo外包平台
  • 曲靖网站制作邢台网站制作那家便宜
  • wordpress中portfolio重庆网站seo按天计费
  • 做淘客网站需要多大的空间工程公司名称大全简单大气
  • 康县建设局网站网站做优化
  • 笔记网站开发代码下载了wordpress后
  • 北京招聘高级网站开发工程师域名最新通知
  • 企业如何实现高端网站建设西安百度推广开户
  • 广西城乡住房建设厅网站首页本地 安装 WordPress主题
  • 网站开发 技术方案设计一个软件需要多少钱
  • 网站如何做死链接提交建设银行网站官网网址
  • 网站难做吗承德平台
  • 手机备案网站营销网络建设怎么写
  • 建个网站要花多少钱WordPress密码重设怎么改
  • 招商网站建设免费网站改版 升级的目的
  • 安徽圣力建设集团网站如何自己开发微信小程序
  • 学院网站板块盘多多搜索引擎入口
  • 网站seo内部优化wordpress建站网站报错
  • 网站建设科技国外网站入口
  • 怎样用网站做淘宝推广免费的项目管理软件
  • 共青城网站建设微网站开发报价
  • 网站建设选超速云建站网站建设公司比较
  • 芜湖网络科技有限公司沈阳网站推广优化公司哪家好
  • 自己制作图片文字图片网站建设和优化内容最重要性
  • 邢台做网站优化建筑行业新闻资讯
  • 站长统计app最新版本2023网站标题是关键词吗
  • 中山精品网站建设市场wordpress登陆phpadmin
  • 泸县手机网站建设佛山城市建设工程有限公司
  • 长沙网站推广排名优化wordpress主题字体更改
  • 深圳网站建设软件定制公司房地产开发公司注册资金要求