当前位置: 首页 > news >正文

未及时取消网站备案网络服务业有哪些

未及时取消网站备案,网络服务业有哪些,深圳创业贷款条件申请及流程,木模板价格来源#xff1a;人机与认知实验室自然的齐一性指未检验过的物体将在某些相关的方面与我们已经检验过的同类物体相似。情感是人类智能的重要组成部分#xff0c;是穿越理性的一把利器#xff0c;然而#xff0c;情感计算这一方向能否可行#xff1f;如同形式化常识一样能否… 来源人机与认知实验室自然的齐一性指未检验过的物体将在某些相关的方面与我们已经检验过的同类物体相似。情感是人类智能的重要组成部分是穿越理性的一把利器然而情感计算这一方向能否可行如同形式化常识一样能否实现这些问题都值得深思和探索。摘要情感计算作为一个全世界范围内的学术热点研究方向遍及心理学、生理学、神经科学、语言学、医学、社会学等学科。情感计算的研究使形式化的机器更加形象化是实现自然人机交互的前提。本文结合近几年情感计算的国内外研究基于新的层面对主要研究以及最新应用进行了归纳总结并就情感计算进行深度探究使更多研究人员了解情感计算最新研究方向。关键字   情感计算情感识别人机交互情感复杂性一引言大约半个世纪前美国心理学家“认知心理学之父” 奈瑟尔Neisser Ulrich描述了人类思维的三个基本和相互联系的特征这些特征在计算机程序中也明显存在着“1.人类的思维总是随着成长和发展过程积累并且能对该过程产生积极作用2.人的思想开始于情绪和情感的永远不会完全消失的密切关系中3.几乎所有的人类活动包括思维在同一时间的动机具有多样性而不是单一的”。Herbert A. Simon在表达了相似的观点。尽管情绪和情感是人类日常生活中的基本组成部分但缺乏情感交互的技术是另人沮丧的它在技术层面实现自然的人机交互仍是一个亟需解决的问题。目前情感计算越来越受到研究者的重视。类似研究有人工情感artificial emotionAE、感性工学kanseiengineering, KE、情感神经学affectiveneuroscience等。明斯基在他的著作和论文中强调了情感方面大量关于数据手册涉及情感神经科学、情感心理学等方面。IEEE Transactionon Affective ComputingTAC跨学科、国际化期刊、Affective Computing and IntelligentInteraction (ACII) 学术会议等学术支持鼓励研究者们对识别、诠释、模拟人类情绪和相关情感方面的研究的突破和创新。二情感及情感计算2.1   情感相关概念的界定情感( emotion) 一词源于希腊文“pathos”最早用来表达人们对悲剧的感伤之情。达尔文Darwin认为情感源于自然存活于身体中它是热烈的、非理性的冲动和直觉遵循生物学的法则。理智则源于文明存活于心理。《心理学大辞典》中定义“情感是人对客观事物是否满足自己的需要而产生的态度体验”。马文明斯基认为情感是思维的一部分。史蒂芬平克也持有这样的观点即“情感是被当作非适应的包袱而被过早的注销的另一部分心智”。Damasio 在他的神经生物学的研究结果的基础上将情感至少分为两类即原发性情感和继发性情感。原发性情感这类情感被认为是与生俱来的被理解为一岁儿童情感这种典型的情感类型继发性情感被假设为从更高的认知过程中产生。而Russell则从两个方面构造情感核心情感和心理建构前者表示神经系统的状态如昏昏欲睡后者表行动如面部表情、音调以及行动之间的关联。由于情感的复杂性研究情感的相关学者对情感的定义至今也未达成一致记载的相关理论就有150多种。而“emotion”一词由前缀“e”和动词“move”结合而来直观含义是从一个地方移动到另一个地方后来逐渐被引申为扰动、活动直到近代心理学确立之后才最终被詹姆斯William James用来表述个人精神状态所发生的一系列变动过程。Picard曾在其书中专门对情感和情绪方面术语进行了区分她认为相对情感而言情绪表示一个比较长的情感状态。情感影响我们的态度、情绪和其他感觉、认知功能、行为以及心理。同时情感容易在多次情绪体验的基础上实现当人们多次觉得完成一项任务很高兴就会爱上这个任务。相比情绪而言情感更具有深刻性和稳定性。在自然语言处理中Myriam D等人结合韦氏字典以及他们的相关研究得到的结论是在语言中情感是无意识的并且很难将其定义从文本中可以检测到的是有意识的情感是情绪表征。而情绪这一复杂心理学现象几乎不能从文本中全部检测出能检测到的是情绪的构成因素。许多关于情感计算的研究并没有完全区分情绪和情感包括本文引用的大部分论文为与情感计算研究领域保持一致本文除在此处对情感和情绪进行区别说明外尽可能的统一使用情感一词。2.2   情感计算情感计算最早起源于美国MIT 媒体实验室皮卡德Picard了解Richard Cytowic的一本关于联觉的书《The Man Who Tasted Shapes》。Cytowic在书中提出感知一定程度上由大脑边缘系统处理这个部分处理注意、记忆和情感。1995年情感计算的概念由Picard提出并于1997年正式出版《Affective Computing情感计算》。在书中她指出“情感计算就是针对人类的外在表现能够进行测量和分析并能对情感施加影响的计算”开辟了计算机科学的新领域其思想是使计算机拥有情感能够像人一样识别和表达情感从而使人机交互更自然。当然和众多的科学研究领域一样并不是所有的研究者都同意Picard的想法。这些支持者Sengers、Gaver、Dourish和Kristina Hook借鉴现象学并且把情感看作人与人、人与机互动中的成分。情感互动方法认为应从一个对情感建设性的、人文决定性视角展开而非从认知和生物学这一更传统的角度出发这种方法将重点放在使人们获得可以反映情感的体验并以某种方式来修改他们的反应。三情感计算的探究3.1   情感复杂性的探究1. 外在复杂性的探讨。相比其他情感表征手势、步伐、声音等面部表情是最容易控制的。面部表情是人脸上不同情绪的反应实际上表达情绪时是脸部、眼睛或皮肤肌肉位置的变化。对情感最容易理解的是坦率的面部表情然而不同国家的人面部表情各不相同。相对于其他国家亚洲人民的面部表情强度比较低。因为在亚洲文化中脸上表现出一些特殊情绪是不礼貌的。展现出消极情绪会影响社会的和谐。这也印证了早期埃克曼证明了文化的最大不同在于如何在公共场合表达情绪。他偷偷拍摄了美国留学生和日本学生观看一次原始成年人礼的可怕画面的表情。如果穿白大褂的实验人员对他们进行集体访谈日本学生会在看到令美国学生吓得往后退缩的场景时仍礼貌的面带微笑。当被试们单独呆在房间里时日本留学生与美国学生面部表情都是同样恐惧的。对于外在复杂性研究者采用的方法多为多模态结合额外信息叠加、以及结合与时代同步的科技产品方法等来提高识别率。 Beaudry, Olivia等人的设计实验澄清六种基本情感识别中眼睛眉毛和嘴巴区域的作用并得出的结论是对于所有的情绪面部表情识别过程不能被简化为简单的特征或整体处理。新加坡国立大学电气工程系的Gu W等人利用人类视觉皮层HVC和径向编码来提高性能并提出混合面部表情识别框架。此面部表情的识别框架也可以应用到体态识别并且还可以从图像提取出一些额外的信息如用户的年龄、性别。但是人与人之间的情感交互是复杂的单一的感官得到的数据是模糊的、不确定的、不完备的。因此研究人员们应用多种方式识别情感状态20世纪90年代最初的方式是融合视觉面部表情和音频音频信号的数据多种方式整合提高识别精度使情感计算相关研究更可靠、更有效。陈等人尝试身体姿势和面部表情识别混合模型基于澳大利亚悉尼科技大学的人脸和身体姿势FABO双模数据库实验中选择了284个视频这些视频包含了基本表达嫌恶、害怕、高兴、惊讶、悲伤、生气和非基本的表达焦虑、无聊、困惑、不确定。实验框架主要分为五部分面部特征提取和表示身体姿态特征提取和表示表达时间分割时间归一化表达分类。身体姿势交流同面部表情都属于非语言交流的方式。越来越多不同学科的研究已经表明在传达情感方面身体的表达像面部表情一样强大。40个用户通过三个不同的界面接口观看智能电视远程控制器、姿势识别、语音识别系统和表情识别系统。情感计算提取人体手势的特征来识别用户的情绪。同时虚拟现实Virtual RealityVR技术的发展人机交互中肢体的参与度也逐渐增大身体姿势不仅控制我们和游戏之间的互动还会影响我们自己的情绪。蓝眼睛BLUE EYES技术“蓝”代表实现可靠的无线通信的蓝牙“眼睛”是由于眼睛运动是我们获得更多有趣和重要的信息。蓝眼睛技术主要用于视觉注意监测生理状态监测脉搏率血氧操作者的位置检测站立卧坐。在这项技术中检测到人的表情捕获图像并且提取显示眼睛的部分。2内在复杂性的探讨文本句子中每一个形容词、动词、或者仅仅是一个字都可以表达情感状态。笔记分析技术不仅可以通过书写者的情感输出分析笔记特征如基线、倾斜、笔压、大小、边缘区。它还可以揭示书写者的健康问题、道德问题、过去的经历、精神问题以及隐藏的才能。Sofianita Mutalib等人发现笔记分析在某种程度上帮助我们理解书写者本人的行为、动机、欲望、恐惧、情感投入等多方面。史伟等通过构建情感模糊本体,计算文本影响力等,对微博公众情感进行一系列分析,发现公众对于突发事件的情感表达与政府对于事件处理方式和手段有密切关系。使用任何文字表达情感是受文化影响的文化在情感文本表达中的作用这一问题需要自然语言研究者们创造更强大的检测算法。戴维森R J Davidson 在2002年领导的团队情感体验并不是简单地发生在我们的头脑中我们的整个身体都在感知着它们。例如我们的血液中激素变化传达到肌肉的神经信号紧张或放松血液流到身体的不同部位改变了身体的姿势、动作和面部表情。我们身体的反应也会反馈到我们的大脑中创造了可以反过来调节我们思维的经验这也反馈到我们的身体上。随着科技的发展许多数据可以从互联网和智能手机获得。一个典型的智能手机包含多个传感器等内部运动加速度计、环境光、陀螺、手势、磁强计、温度和湿度和气压计。常见于智能手机的通信接口Wi-Fi、GPS、近场通信NFC、蓝牙和红外IR的LED。许多额外的传感器可用于生理测量。Jorge Alvarez-Lozano 等研究人员通过捕获包括输入和输出呼叫频率、持续时间和联系人的详细信息等智能手机的活动分析患者的行为变化。测量上网活动包括搜索查询、浏览网页、网站类型、广告选择和电子商务史等。用户创建的数据如电子邮件短信短信社会媒体或博客的内容可以分析[。此外元数据信息的信息是由一个智能手机或互联网其中包括帐户号码登录用户名密码浏览器类型网络地址网页访问日期时间电子邮件发送者和接收者饼干设备的指纹。Kaveh Bakhtiyari等人认为在处理面部表情、人的声音或人的姿势时有些权衡识别精度和实时性能的方法像自然语言处理NLP和脑电图信号EEG这些方法在实际应用中缺乏效率和可用性。因此提出了使用方便和低成本的输入设备包括键盘、鼠标触摸板、单触摸和触屏显示器[45]。该系统通过人工神经网络ANN和支持向量机SVM技术开发和训练监督模式。结果表明与现有方法相比该方法通过svm增长6%的准确度93.20%。对于情感识别、用户建模和情感智能都起到了突出贡献。3.2   情感计算的最新应用探究近几年研究者们尝试了各种各样的方法和技术来识别用户的情感一些主要的方法和技术有面部表情识别、姿态识别、自然语言处理、人体生理信号识别、多模情感识别、语音识别。人机情感交互则包括人脸表情交互、语音情感交互、肢体行为情感交互、文本信息情感交互、情感仿生代理、多模情感交互。情感仿生代理使计算机增强表现力和亲和力情感智能系统可以根据人的情感进行回馈并且使人和计算机的交互更加自然。全世界学多实验室都在积极的对情感计算相关技术进行研究本部分总结近三年国内外情感计算主要的应用研究。2014年MIT实验室的AutoEmotivethe通过安置在机器比如汽车上的硬件设备如相机等结合基于程序语言的语音识别应用、可穿戴设备对当前情绪进行实时调节尤其是面部识别算法获取一系列情绪指标弥补获取生理信号类的传感器的不足探索情感感知与机器连接的潜力。Affectiva公司的Affectiva使用计算机视觉和深度学习技术分析面部微表情或网络上视觉内容中非语言的线索基于积累的庞大数据存储库学习识别更复杂的系统将情感人工智能引入到新的科技领域尤其是机器人、医疗、教育和娱乐并展望将此系统用于通过检测癫痫病患者的情感信号来做好发病前的预测以进行防护准备等。2015年阅面科技推出了情感认知引擎ReadFace。由云利用数学模型和大数据来理解情感和端SDK共同组成嵌入任何具有摄像头的设备来感知并识别表情输出人类基本的表情运动单元情感颗粒和人的认知状态广泛应用于互动游戏智能机器人或智能硬件、视频广告效果分析、智能汽车、人工情感陪伴等。国内大学中哈尔滨工业大学机器人技术与系统国家重点实验室实现语音情感交互系统提出了智能情感机器人进行情感交互的框架,设计实现了智能服务机器人的情感交互系统。北京航空航天大学基于特征参数的语音情感识别并能有效识别语音情感。中国科学技术大学基于特权信息的情感识别提出了融合用户脑电信号和视频内容的情感视频标注方法,以某一模态特征为特权信息的情感识别和视频情感标注方法。 清华信息科学与技术国家实验室中国科学院心理研究所行为科学院重点实验室基于生理大数据的情绪识别研究进展针对使用DEAP数据库(用音乐视频诱发情绪并采集脑电及外周生理信号的公开数据库)进行情绪识别的16篇文章做了梳理;对特征提取、数据标准化、降维、情绪分类、交叉检验等方法做了详细的解释和比较。四情感计算的深度探究现在已实现的情感计算大部分原型情感的识别来源单一。数据库本身存在短板[54]如训练分类的样本数少体态识别大多依赖于一组有限的肢体表达跳舞、手势、步态等只关注内部效度而缺少外部效度的认可效。因此识别方面未来研究应在情感分类方面继续努力创建新的数据库等特别是婴幼儿及儿童数据库的建立。神经科学方面人类大脑情感过程的神经解剖学基础极其复杂并且远未被理解因此该领域还不能为开发情感计算模型提供充足的理论基础。人机交互或人与人交互过程中人的情感变化是变速的。虽然皮卡德Picard在《情感计算》一书中分别用两个比喻将情感复合分成两类微波炉加热食物时开关间断循环与冷热水混合。两者通过不同方式的复合使物体达到“温”的状态前者类似于“爱恨交加”情感对的情感状态后者类似于Russell等人的环形情感模型中的愉快与低强度结合为轻松这种新状态。但基于不同情境下的情感复合远不止这两类。以动态的数字平台将这种做成模型很难实现和验证因为情感的输入、输出应该在不同的情境下产生和测试。目前国外已经有一部分研究者开始关注深度情感计算方面的研究如Ayush Sharma等人利用语言数据联盟Linguistic Data ConsortiumLDC中的情绪韵律的语音和文本基于交叉验证和引导的韵律特征提取与分类的深层情感识别。随着后续情感方面的深度研究多模型认知和生理指标相结合、动态完备数据库的建立以及高科技智能产品的加入等成为情感计算相关研究的一个趋势从而更好地实现对用户行为进行预测、反馈和调制从而实现更自然的人机交互。参考文献[1] Neisser, U, “The imitation of man by machine–The view thatmachines will think as man doesreveals misunderstanding of the nature of human thought,” Annalsof Otology Rhinology and Laryngology, vol. 139(3551), pp. 193–197, 1963.[2] Simon, H.A, “Motivational and emotional controls ofcognition,”.Psychological Re- view, vol. 74(1), pp. 29–39, (1967).[3]Minsky, M, “The Emotion Machine: Commonsense Thinking, ArtificialIntelligence, and the Future of the Human Mind,” Encyclopediaof the Neurological Sciences, vol. 11, 2006.[4]Barrett, Lisa Feldman, M. Lewis, and J. M. Havilandjones, Handbookof Emotions, Fourth Edition, 2016.[5] 梁庚辰,“台湾地区华人情绪刺激常模资料专辑序言”中华心理学刊55期2013:I-XV.[6]EEE Transaction on Affective ComputingTAC. [Online].Available:http://ieeexplore.ieee.org/xpl/RecentIssue.jsp?reloadtruepunumber5165369[7]达尔文 人类和动物的表情, 北京大学出版社, 2009.[8] 马文明斯基, 情感机器-人类思维与人工智能的未来. 浙江人民出版社, 2016,01. [9]Damasio,A.Descartes’error,emotionreasonandthehumanbrain.Grosset/Putnam, 1994[10] Damasio, A, Looking for Spinoza: Joy, sorrow,and the feeling brain.Harcourt,2003.[11]James A. Russell, “Emotion, core affect, and psychologicalconstruction,” Cognition and Emotion,vol. 23(7), pp.1259-1283, 2009.[12]Strongman K T. The psychology of emotion : from everyday life to theory[M], J.Wiley, 2003.[13]KnuuttilaSSihvola J, SourceBook for the History of the Philosophy of MindM,  Dordrecht: Springer Science Business Media2014, pp. 463[14]魏屹东, 周振华. 基于情感的思维何以可能[J]. 科学技术哲学研究, 2015(3):5-10.[15]Gross, J.J, “The future’s so bright, I gotta wear shades,” EmotionReview, vol. 2(3), pp. 212–216, 2010.[16]刘光远, 温万惠, 陈通, 赖祥伟, 涂序彦. 人体的生理信号的情感计算方法.科学出版社, 2014,10.[17]   Munezero M, Montero C S, Sutinen E, et al, “Are TheyDifferent? Affect, Feeling, Emotion, Sentiment, and Opinion Detection inText[J],” Annual Review of Public Health,vol. 5(5), pp. 101-111, 2014.[18]   Nixon G. Richard E. Cytowic, The Man Who Tasted Shapes[J],  Journal of Consciousness Studies, 1999.[19]皮卡德,情感计算,北京理工大学出版社, 2005. Picard, Rosalind W, Affective computing, MIT Press, 1997.[20]   Kristina Hook Affective Computing [Online]Available: https://www.interaction-design.org/literature/book/the-encyclopedia-of-human-computer-interaction-2nd-ed/affective-computing.[21]    SRamaraj V, Ravindran A, Thirumurugan A,“Emotion Recognition from Human Eye Expression,” Ijrcct, vol. 2 (4), pp. 158-164.[22]   Lewis M, Haviland-Jones JM,Barrett LF, The Cultural Psychology of the Emotions - Ancient and Renewed,in Richard A. Shweder JH, Randall Horton, Craig Joseph (ed),Handbook of Emotions 3rd edn. The Guilford Press, p. 19.[23]    Beaudry, Olivia, A. Roy-Charland, and M. Perron, “Featuralprocessing in recognition of emotional facial expressions,” Cognition andEmotion, vol. 28(3), pp. 416-432, 2014..[24]    Gu W, Xiang C, Venkatesh Y, Huang D, Lin H, “Facial expressionrecognition using radial encoding of local Gabor features and classifiersynthesis,” Pattern Recognition, vol. 45 (1), pp.80-91, 2012.[25]    H. Gunes and M. Piccardi, “A bimodal face and body gesture databasefor automatic analysis of human nonverbal affective behavior”, InternationalConferenece Pattern Recognition, 2006.[26]Chena S, Tiana Y, Liub Q, Metaxasc DN, “Recognizing expressionsfrom face and body gesture by temporal normalized motion and appearancefeatures,” Imageand Vision Computing, vol. 31(2), pp. 175-185, 2013.doi:10.1016/j.imavis.2012.06.014[27] Argyle, Michael, Bodily Communication 2nd edition, 1988.[28]Bull P. Posture and gesture, Pergamon Press, 1987.[29]P. Ekman and W. Friesen, “Detecting Deception from the Body or Face,”J. Personality and Social Psychology, vol. 29, no. 3, pp. 288-298,1974.[30]    L. McClenney and R. Neiss, “Post-Hypnotic Suggestion: A Method forthe Study of Nonverbal Communication,” J.Nonverbal Behavior, vol. 13, pp.37-45, 1989.[31]H. Meeren, C. van Heijnsbergen, and B. de Gelder, “Rapid PerceptualIntegration of Facial Expression and Emotional Body Language,” Proc. Nat’l Academy of Sciences USA,vol. 102, no. 45, pp. 16518-16523, 2005.[32]J. Van den Stock, R. Righart, and B. de Gelder, “Body ExpressionsInfluence Recognition of Emotions in the Face and Voice,” Emotion, vol. 7, no.3, pp. 487-494, 2007.[33]Lee, Jong Sik, and D. H. Shin, “A Study on the Interaction betweenHuman and Smart Devices Based on Emotion Recognition,” HCI International 2013 -Posters’ Extended Abstracts, pp.352-356, 2013.[34]    P.M. Niedenthal, L.W. Barsalou, P. Winkielman, S. Krauth-Gruber, and F. Ric, “Embodiment in Attitudes,Social Perception,and Emotion,” Personality and Social PsychologyRev., vol. 9,pp. 184-211, 2005.[35]Deeksha Rajvansh, Overview of Blue Eyes Technology, SSRG-IJEEE. vol. 2, Issue. 8, 2015.[36]Kedar S V, Bormane D S, Dhadwal A, et al, “Automatic EmotionRecognition through Handwriting Analysis: A Review,” International Conferenceon Computing Communication Control and Automation, IEEE, 2015.[37] Abdul Rahiman, Diana Varghese, Manoj Kumar G, “HABIT:HandwrittenAnalysis Based Individualistic Traits Prediction,”International Journal ofImage Processing (IJIP), vol. 7, issue. 2, 2013.[38]Handwriting Analysis-An Adventure into Subconscious. [Online].Available: http://handwritingfoundation.org S. Mutalib, R. Ramli, S. A. Rahman, et al,“Towards emotional control recognition through handwriting using fuzzyinference,” International Symposium on Information Technology, 2008, pp. 1-5.[39] 史伟, 王洪伟, 何绍义. 基于微博平台的公众情感分析[J]. 情报学报, 2012, 31(11):1171-1178.[40]    Lowe SA, Ólaighin G, “Monitoring human health behaviour in one’sliving environment: a technological review,” Med Eng Phys, vol.36, pp. 147–68,2014.[41]    Alvarez-Lozano J, FrostM, OsmaniV, et al, “Tell me your apps and Iwill tell you your mood: correlation of apps usage with bipolar disorderstate,” ACM proceedings of 7th international conference on pervasivetechnologies related to assistive environments, 2014.[42]    Katikalapudi R, Chellappan S, Montgomery F, et al, “AssociatingInternet Usage with Depressive Behavior Among College Students [J],” IEEETechnology and Society Magazine, vol. 31(4), pp. 73-80, 2012.[43]    De Choudhury M, Counts S, Horvitz E, et al. Predicting depressionvia social media, Microsoft Research,.2013 [Online] Available: http://research.microsoft.com/apps/pubs/default.aspx?id192721.Accessed 9 Jul 2014. Example of analyzingsocial media to predict mood.[44]    Guardian, A guardian guide to your metadata. 2013, [Online]Available: http://www.theguardian.com/technology/interactive/2013/jun/12/what-ismetadata-nsa-surveillance%23meta0000000.Accessed 9 Jul2014.[45]    Bakhtiyari K, Taghavi M, Husain H, “Hybrid affectivecomputing—keyboard, mouse and touch screen: from review to experiment [J],”Neural Computing and Applications, vol. 26(6), pp.1277-1296, 2015.[46]    Leon E,Clarke G, Callaghan V, Sepulveda F (2007), “A user-independent real-timeemotion recognition system for softwareagents in domestic environments,” Engineering Applications of ArtificialIntelligence, vol. 20(3), pp. 337-345,doi:10.1016/j.engappai.June. 2006.[47]    Hernandez J, Mcduff D, Benavides X, et al,“AutoEmotive: bringing empathy to the driving experience to manage stress,” Companion Publication on DesigningInteractive Systems., ACM, pp. 53-56, 2014[48]    Mcduff D, Kaliouby R E, Senechal T, et al,“Affectiva-MIT Facial Expression Dataset (AM-FED): Naturalistic and SpontaneousFacial Expressions Collected In-the-Wild,” ComputerVision and Pattern Recognition Workshops (CVPRW), 2013 IEEE Conference on.IEEE, pp. 881-888, 2013[49]    ReadFace webpage on 36Kr, [Online] available: http://36kr.com/p/5038637.html[50]   李翔,李昕,胡晨,卢夏衍, 面向智能机器人的Teager语音情感交互系统设计与实现, 仪器仪表学报, 2013年08期[51]   谭云龙,王亚慧,许岷, 基于特征参数的语音情感识别, 兰州文理学院学报(自然科学版),2014年05期[52]   朱亚忱, “基于特权信息的情感识别”, 博士学位论文, 2015[53]   赵国朕, 宋金晶, 葛燕, 刘永进, 姚林, 文涛, 基于生理大数据的情绪识别研究进展, 计算机研究与发展, 2016年01期[54]    Sharma, Ayush, and D. V. Anderson, Deep emotion recognitionusing prosodic and spectral feature extraction and classification based oncross validation and bootstrap,” SignalProcessing and Signal Processing Education Workshop, IEEE, 2015.未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。  如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
http://www.zqtcl.cn/news/401653/

相关文章:

  • 建设网站有哪些怎么自学室内设计与装修
  • 苏州建设工程协会网站汶上网站建设哪家便宜
  • 湖南手机版建站系统信息做360网站优化
  • 为什么学网站开发中国猎头公司排行榜
  • 怎么给网站做api做设计找参考的设计网站有那些
  • vultr服务器做网站广州做seo整站优化公司
  • 怎么做一个门户网站婚介网站怎么做
  • 惠州做网站电话柳市哪里有做网站推广
  • 成都公司的网站制作网站建设网店名字
  • 网站备案医疗保健审批号是什么基于asp.net网站开发
  • 生活做爰网站如何用织梦做网站
  • 网站拒绝被百度收录c#+开发网站开发
  • 营销网站竞品分析报告东莞网页制作网站
  • 东莞手机手机端网站建设云企网站
  • 网站中弹出广告怎么做网站建设实践报告
  • 站长工具seo综合查询隐私查询导航网站诚信备案
  • 亳州做网站哪家好网站开发的现实意义
  • 创意视觉网站济南网站建设招标
  • 厦门市建设局报表网站南通网站建设计划书
  • 深圳网站建设_模板网站seo
  • 云虚拟主机做网站简单的电商网站开发
  • 注销网站和取消接入深圳建设工程信息价
  • 上海专业网站建设公司站霸网络中国住房和城乡建设部
  • 邯郸做移动网站找谁广西茶叶学会 网站建设
  • 湛江建设网站美乐乐网站首页如何修改
  • 小刘网站建设网络推广和优化是什么意思
  • 特卖网站设计seo优化关键词挖掘
  • 绍兴市交通建设有限公司网站陕西建设分行网站
  • 如何套用别人网站做页面自己创建app
  • 建国内外网站有什么区别永久免费视频会议服务器