当前位置: 首页 > news >正文

韩国的汽车设计网站赣州新闻发布会

韩国的汽车设计网站,赣州新闻发布会,wordpress页面去空行,atp最新排名本文转载自公众号知识工场。 本文整理自肖仰华教授在三星电子中国研究院做的报告#xff0c;题目为《Understanding users with knowldge graphs》。 今天#xff0c;很高兴有这个机会来这里与大家交流。 前面两位老师把基于社会影响力的传播和推荐#xff0c;以及跨领域的… 本文转载自公众号知识工场。 本文整理自肖仰华教授在三星电子中国研究院做的报告题目为《Understanding users with knowldge graphs》。 今天很高兴有这个机会来这里与大家交流。 前面两位老师把基于社会影响力的传播和推荐以及跨领域的推荐讲解的深入细致我想大家可能也会体会到我们目前的很多方法和手段越来越接近一个所谓的“天花板”。现有的方法包括机器学习和深度学习的方法某种程度上都是在吃大数据的红利机器学习的效果模型的效果本质上是由大数据来喂养我们灌进去的数据越多模型的效果就越好尤其是深度学习随着它的层次结构越来越深以后它对样本数据的规模和质量的要求也会更高那么当我们把大数据的红利吃完之后我们该怎么办呢 事实上学术界和工业界在这里年越来越多的意识到这个问题的严重性就是当我们把大数据红利吃完之后我们的模型效果应该如何进一步的提升 对于这个问题从我这个研究方向给出的答案是什么呢就是知识。知识的重要性将会越来越突出我相信很多模型推荐模型机器学习算法都将会从数据驱动走向知识引导越来越多的模型和算法将从基于行为的模型走向基于语义的模型。 今天我会更多的谈论如何摆脱行为数据的影响来做用户画像和推荐。因为很多场景下是没有行为数据的在一些极端的情况下根本没有用户信息那么这个时候我们怎么推荐再比如说在互联网搜索用户画像高频用户和VIP用户都可以解决的很好那是因为它数据量足够但是关键的问题是很多长尾用户压根没有什么数据那这个时候我们的模型怎么办这时候我们就要借鉴语义和背景知识来给我们力量。这也是为什么我想跟大家分享利用知识图谱来理解用户给用户画像来解决推荐的问题的原因。 为什么要做用户画像因为企业要了解他们的用户像三星这么大的一个企业有着宽广的产品线有着来自全世界的用户企业希望产品服务是个性化的那么这个个性化的前提就是用户画像。 在整个互联网时代其实催生了很多基于用户画像的应用。比如搜索百度搜索是通用搜索因不同的人而展现不同的结果。再比如推荐不同的人看到不同的推荐结果。广告投放社交网络分析甚至在企业内部找专家等等都需要去理解用户那么就需要一个非常有效的用户画像。 那么在各种各样的画像当中最流行的一种方法是基于标签的。在很多实际应用中大家都在广泛的应用这一类基于标签的画像方法。基于画像的标签方法其实很简单就是给用户打一组标签每个标签给一个权重权重代表了用户在这个方面兴趣的强烈程度如图我们给出了一个豆瓣用户的标签云也给出了一个微博用户的标签云。不同平台的语言风格语言体系是不完全一样的豆瓣的语言倾向于书面化而微博的语言倾向于碎片化口语化。 时至今日我们已经有很多方法来帮助解决画像和推荐的问题那为什么今天还要来谈论这个话题呢是因为这些方法里面还存在一些问题问题集中在两个方面。 第一个方面就是用户画像某种程度上还是不完整的。 导致这个问题可能有两个原因第一个原因就是任何画像的来源数据都是有一定偏差的一般描述的都是用户画像的某一方面很难有一个非常完整的画像。还有一个非常重要的原因就是隐私后面我们会有case study大家就会发现在微博上其实还是有很多人不愿谈及自己的比如说宗教信仰政治观念等等但是很多时候可能了解用户不愿谈及的这个方面的内容对于我们做产品做服务又是非常重要的。基于这两个原因我们对用户的理解就是一个碎片式的很难召回完整的目标客户。 用户画像第二个关键的问题就是不正确性也就是说我们对用户画像的理解很多时候是错误的这导致就会出现错误的推荐。导致不正确性的原因有很多第一个就是机器还无法理解这些标签也就无法做出精准推荐。第二个原因就是在跨领域场景下由于缺失用户的商品也就是缺失推荐对象之间的历史交互信息使得冷启动变成一个非常突出的问题没有历史信息一切基于这个的推荐就会失效。这个时候我们可能会采取一些基于语义的办法但是基于语义的办法前提是要有精准的语义匹配这就需要一个庞大精准的知识库来作为背景知识来支持。第三个原因就是没有针对推荐给出解释。这个是非常重要的当且仅当你给出一个非常合理的解释的时候用户才会很好的接受推荐。那如何给出解释呢以前解释在人脑里面现在我们可以利用大规模知识库来产生解释从而实现能够给出带解释的推荐给用户。 我们如何利用知识图谱把它作为background knowledge来理解用户标签进而理解标签背后的用户呢 理解用户是我们的终极目标但是我们要先理解由于用户的行为而产生的标签这就非常难了为什么呢标签可以认为是自然语言的一部分是一个简单形式比如可以给我打标签“IT教师”、“复旦大学”“知识图谱”那机器如何理解这些标签呢目前机器还不能有效的准确的理解人类的自然语言因为我们的自然语言很多时候是有歧义的需要通过上下文才能理解的。很多时候语言的表达式是隐含的比如我们中国人说两个人是爱人关系的时候不会直接说他们俩是伴侣关系而会说他们共进晚餐或者看电影之类的很少直接去谈及这块所以很多关系是隐含的。语言还有一个重要的难点就是它的多样性同一个意思可以有很多种说法。 那么再进一步分析为什么语言理解这么困难从根本上来讲是因为语言理解是建立在人对世界认知的基础之上。你为什么能够理解语言是因为你已经对这个世界对在你身边发生的事情有了充分的认知。机器现在还达不到认知世界的能力机器的大脑里还缺乏非常重要的背景知识比如这里有几个卡通人物大家一看就理解了那是因为你已经有这个背景知识在背后那么机器想要理解语言理解标签就需要有海量的背景知识去支撑它认知这些概念。 机器需要怎样的背景知识呢第一个是要有足够大的规模必须覆盖足够多的实体足够多的概念。第二个是语义要足够丰富当说到各种各样的关系的时候机器必须都能够理解。第三个就是质量足够精良。第四个就是结构必须足够友好。 大家都知道机器最喜欢的是有结构的数据最怕的是纯文本无结构的数据我们希望知识库是以一种机器友好的结构形式来组织的。也有人发出疑问知识图谱跟传统的本体语义网有什么差别呢先来说本体以前在特定领域尤其是医疗领域积累了大量的本体但是大部分都是人工构建的规模十分有限而且当要把传统知识工程从一个领域转移到另一个领域的时候就会发现代价极大因为人工构建的成本极为高昂。再来看看以前的语义网络它往往是集中在单一的语义关系上而不像知识图谱涵盖了上千数万种语义关系。再比如说文本文本结构不友好。这么一看大家就知道传统的知识表示都不行。 这样知识图谱成为了机器语言认知所需要的知识表示所谓知识图谱本质上是一种语义网络它表达了各种各样实体概念及其之间的语义关系。与之前的知识表示作比较会发现知识图谱有非常多的优势第一它规模巨大像google的知识图谱现在已经到了几百亿的实体规模。第二它的语义关系也很丰富比如说我们自己的CN-DBpedia里涵盖了成千上万种语义关系。第三知识图谱通常是用RDF来表示的对于机器来讲结构足够友好。第四知识图谱是通过大数据众包的手段来校验它的质量也就是靠人来校验质量所以有着比较好的质量。 所以利用知识图谱来帮助机器理解标签最终理解用户是有可能的。 怎样利用知识图谱来解决刚才提到的不完整和不正确的两个问题呢 我们利用知识图谱来做标签扩展标签推断来提高机器对标签的理解水平实现基于标签的基于知识图谱的精准推荐。 我们把social graph当做一个knowledge graph只不过social graph是人与人之间的关系而knowledge graph是更为一般的语义关系所以某种程度上可以认为social graph是knowledge graph的一个typical case。 出于隐私的考虑很多用户不愿意给自己打标签那怎么办呢我们可以利用social network上的一些关系来推断一些不具备标签或者具备很少标签的用户的一些标签。 如果用户的大部分朋友都有这个标签那么我觉得用户也可以拥有这个标签。如果用户与朋友关系非常紧密那么朋友的标签传播过来的可能性就更大。 我们就是基于这两条准则来进行标签传播的。 这里有一个实际案例我们在微博上做实验结果显示这种传播方法很有效尤其是在宗教信仰政治观念教育等方面的推断准确率能高达95%。 比如在这个user case基于label propagation这么一个思路用LTPA算法user A的real tags是music和fashion但是通过标签传播你会发现实际上他是一个基督教徒因为传播出来很多类似ChristianBiblefaith等等这样的标签那我们看他的微博发现他确实就是一个基督教徒。 这就是tag propagation通过传播来找到用户的缺失标签。 关于标签的不正确性我们做一个tag inference。这里有两个真实的案例第一个案例就是季建业受审的案子我们要给这个新闻打合理的标签这个标签难在什么地方呢大家都知道季建业是南京市长在山东烟台受审结果“烟台”出现的频率显著高于“南京”但是这个新闻按道理应该是“南京”打的这个标签权重高于“烟台”那么怎样识别出更准确的标签呢怎么把“烟台”这个标签弱化而把“南京”这个标签给强调出来 第二个例子就是枪决案件打的标签是“朝鲜”“崔英建”“枪决”这三个标签虽然通篇没有提到平壤但这件事肯定跟平壤是有关系的。 实际上这样的例子很多一篇讲姚明的文章即便通篇没有讲篮球但肯定跟篮球有关系打上“篮球”的标签准没错。 我想表达什么意思呢就是有很多应该打的标签由于这个事实太显然以至于文本里没有提而我们现在所有的办法都基于一个假设就是文本里提到才能打上标签那么我们有没有办法推断出这些不存在与文本中的标签呢 实际上我们用知识图谱是可以做到的。我们建构一个语义网络利用CN-DBpedia把新闻里提到的候选实体之间的语义关联建立起来。我们的算法怎么实现呢其实也很简单我们可以用一些随机游走的办法可以从新闻中观察到的这个实体去随机游走看它们能都倾向于走到哪些未被观察到的实体而这些实体就是很有可能作为标签出现的。实验结果证实这个办法的确能够找到更多人工判断下来的更为准确的标签。 再进一步我们想通过知识图谱让机器准确理解这些标签。 人类是在合适的概念层次来理解标签的。比如说人类看这么一组标签“ChinaJapanIndiaKorea”很快就会理解讲的是Asian country。基于概念级别去理解这些标签对于后面做精准推荐是十分重要的。那现在问题来了我们怎么让机器去理解这些标签怎么为标签产生一个合适的概念呢 首先我们用一个knowledge base叫probase它包含了大量的实体也可以认为是标签及其概念。比如“apple”它可以是一个company也可以是一个fruitcompany和fruit都是“apple”的概念。 我们利用probase去产生概念标签的时候要解决两个问题第一个问题就是我们希望找到的这个概念的覆盖率高第二问题就是概念的信息尽可能详细。比如第一个例子“ChinaJapanIndiaKorea”可以用“Asian country”这个标签也可以用“country”这个标签但显然“Asian country”比较好。 我们要处理的最核心的问题就是coverage和minimality这么一对矛盾。我们采用的是一个非常通用的模型是基于信息论的也就是Minimal Description Length最小描述长度的方法。 我们把刚才那个概念标签选择问题建模成找一堆概念来encoding我们看到的tag这么一个问题。那么很显然刚才的两个标准就可以体现在这里的两个目标里。第一部分就是我们要用尽可能少的概念去cover这些实例那么也就是说概念自身的编码代价要尽可能小。第二个利用这种概念去encoding知识图谱的tag的代价尽可能小也就是基于知识图谱的条件的length尽可能小。就有这么一个优化的问题。当然了这是一个很general的model。在这个general的model下面我们还要处理一些很实际的情况。 我们这里很多都是很实际的案例来自很多实际的data的tag。比如在实际的用户的tag或者image或者document往往会有噪音。比如这个tag里面有很多“applebananabreakfastdinnerporkbeef”突然出现一个“bullet”那这个很可能就是个噪音所以这个模型要能够噪音容忍这是第一个问题。 第二个问题就是说有很多像“populationpresidentlocation”实际上最好的概念是“country”。但你要注意“country”跟“populationpresidentlocation”实际上不是严格的isA关系。population人口president总统都是“country”的一个属性而不是isA关系。像刚才“China”和“Asian Country”那是isA关系。但是population只能说是Country的一个attribute。所以我们在建模的时候不仅仅要考虑isA关系还需要能够应用这里的attribute关系这是在模型方面的两个改进。 最终的实际效果大家看非常有意思。我们可以看到基于MDL的方法是可以非常有效的解释这个标签的。我们人为做了一个实验把来自三组不同概念的实体混在一起看看我们的模型能不能找到这三组实体的三个正确的概念标签。图中Table 3第一行就真的找到相应来源的概念。 再看看Table 4带属性和不带属性是可以产生不一样的概念的。比如“bridegroomdresscelebration”在带属性的模型中产生的是“wedding”这个概念标签但是在不带属性的模型中产生的是“tradition”这个概念标签。 我们怎样利用这个知识图谱来做一些精准推荐呢在推荐中最难的一类是跨领域推荐不同的领域要不共有user要不共有item要不共有feature可是也有非常情况比如说给微博用户推荐淘宝商品当然可以用传统的ontology的办法但是ontology的覆盖率比较低所以我们要用知识图谱。 如果一个微博用户经常谈论各种旅游名胜我们能不能把淘宝上的登山杖旅游鞋推荐给他呢要知道旅游名胜和登山杖旅游鞋的描述是风马牛不相及的是没有办法直接匹配的那就需要一些间接匹配的方式通过什么呢就是通过背景知识图谱来做一个桥接也就是CN-DBpedia。 “九寨沟”会在知识图谱在里面知识图谱 里可能有一些相关实体比如“旅游”“旅游”和“九寨沟”直接相关“旅游”与“登山杖”“旅游鞋”也相关就可以用这种中间实体和概念来桥接两个完全不相关的物品和用户。 实际上我们利用knowledge base构建了很多concept vector来进行描述分别描述user和item然后来实现匹配最终的效果也是相当不错的。 事实证明在knowledge graph和knowledge base的支持下的确是可以把两个看上去语言描述完全不一样的东西进行匹配的。 最后我们来聊聊推荐解释。 举个例子假如说用户在亚马逊上搜索了“iPhone 7”又搜了“华为 9”那么亚马逊应该给用户推荐什么呢如果亚马逊给用户推荐“小米 Note”那好像就不太对比较好的就是推荐类似“三星 S7”。为什么用户搜了“iPhone 7”和“华为 9”就要推荐“三星S7”呢因为它们共有相同的概念它们可以归到相同的品类它们都是昂贵的、高端的smart phone 。 那我们能不能根据用户搜索的实体给他推荐其他的商品并给出解释呢 这里我们用概念作为解释比如说如果我说三个国家中国印度巴西然后让你再说一个国家你很有可能就会说俄罗斯因为它们都是金砖四国都是新兴市场都是发展中国家它们共有很多概念。 所以概念是一个非常好的解释。 那么概念哪里来呢概念又是来自于刚才提到的一个叫probase的知识库。那么为了做这个事情我们提出好几个model。比如在这个model 2里面我要推荐一个实体e那么实体e跟刚才已经观察到的一堆实体q组合到一起之后应该能够非常好的保持住原来那堆实体的概念分布。我们用概念分布来表示实体的语义比如说刚才的中国巴西印度他们的概念分布就是发展中国家新兴市场金砖四国这样一些概念。概念实际上是实体的一个非常好的语义表示。那我用概念分布来做它的语义表示。那么很显然我要加进来的这个实体e跟q组合到一起之后他们的概念分布要尽可能保持住已经观察到的这组实体的概念分布。就有这么一个model我们需要把它的交叉熵给最小化。这就是我们这个model 2。下面就是求解那就非常简单了。 那最终的效果也就是很有意思如果用户先搜索了“阿里巴巴”“腾讯”我们的模型就会推荐“百度”而其他的模型会推荐其他的一些大公司。再如果用户搜索了中国的三大国有银行我们的模型会推荐第四大国有银行而其他的模型可能会推荐一些不准确的东西。 以上给大家讲的就是我们基于知识图谱来做推荐的内容。 以上是肖仰华教授报告的主要内容以下关于知识工场实验室介绍以及实验室所做工作的内容这里就不做详细描述。) 获取完整PPT和论文 关注“知识工场”微信公众号回复“20170926”获取下载链接。 OpenKG.CN 中文开放知识图谱简称OpenKG.CN旨在促进中文知识图谱数据的开放与互联促进知识图谱和语义技术的普及和广泛应用。 点击阅读原文进入 OpenKG 博客。
http://www.zqtcl.cn/news/969441/

相关文章:

  • 人事怎么做招聘网站比对分析crm管理系统 一般包含
  • 林业网站建设有哪些北京微信小程序开发
  • ppt素材网站建设流程图网站开发原型工具
  • 乡镇医院网站建设成都市企业网站建设
  • 网站编辑如何做原创网站中英切换实例
  • 哈尔滨道外区建设局官方网站wordpress简称
  • 教师网站建设企业实践总结华为应用商店下载安装
  • 常见的网站空间服务商资阳建设局网站
  • 惠通网站建设湖南seo优化服务
  • 网站建设价格标准wordpress花钱吗
  • 龙门惠州网站建设苏州公司注册查询
  • 城阳网站设计自建网站与平台建站
  • 网站建设文字教程wordpress xml生成
  • wordpress修改注册表广西seo网站
  • 新兴网站建设招商网站建设多少钱
  • 商城网站页面模板网页设计的首页如何设计官网
  • 我的世界做外国壁纸网站嘉兴推广公司
  • 网站制作在哪里找怎样上传wordpress模板
  • 网站设计时尚博业建站网
  • 网站建设前期如何规划免费的源代码分享有哪些网站
  • 长春网络培训seo
  • 江苏网站开发建设电话公司网站需求说明书
  • 河北建设厅网站首页个人或主题网站建设实验体会
  • 网站后台文章栏目做外汇消息面的网站
  • 白酒营销网站用asp.net做简易网站
  • 做seo需要建网站吗上传PDF到wordpress网站
  • 湘潭网站网站建设龙岩网站建设馨烨
  • 本地网站建设教程xampperp软件是什么意思啊
  • 网站没有流量房地产广告设计网站
  • 北京学网站开发企业官网设计规范