前言:我们精心挑选了数篇优质社交媒体的应用文章,供您阅读参考。期待这些文章能为您带来启发,助您在写作的道路上更上一层楼。
近年来,市场营销被赋予了新一层涵义:开发并滋养利益相关者之间的关系。
从市场营销发展的历程来看,我们是从工业经济中以生产为主导的年代,发展到服务经济以市场营销为引导的年代。在以生产为主导的年代,人们更强调市场营销中销售的角色。但现如今,市场营销决不单单是销售或是做广告那么片面。
很多中国公司保留着一些老观念,比如,由于劳动力低廉,中国制造就意味着便宜。其实,在全球市场中有个来源国效应,而中国产品所产生的来源国效应,就是“低质量”和“低价格”。所以,中国公司的管理层需要认识如何去建立一个品牌,一个人们信任的品牌。
在一些特殊领域中,有些中国品牌还是做得很不错的。像“上海滩”,它利用了文化审美上的一些优势,在奢侈品市场上诠释出什么是美,什么是时尚,成功地占据一席之地。确实,有一些中国公司已经通过努力发展出全球品牌,当然,这需要很大的努力——建立一个品牌需要很长时间,需要投入很多资源,然而毁掉一个品牌只需要一个晚上。这是所有中国公司需要牢记的。
近年兴起的社交媒体给更多梦想打入全球市场的企业家以更多机会。例如:一些中国公司就利用linkedin、facebook 和twitter,把生意逐渐渗透到美国、英国和欧洲大陆。这证明,从整体上看,各类公司对于社交媒体的应用正在大幅度进步。
从消费者角度观察,消费者实际花费在新媒体上和传统媒体上的时间,之间的平衡点已经发生巨大的变化。但从公司层面观察,公司划拨到新媒体上的预算相较于投放在传统媒体,如电视、报纸和杂志上的预算仍有很大差距。再仔细分析,我们会发现:公司花在新媒体上的钱主要是用来直接带动销售的。很多公司并没有用足够多的钱到社交媒体上去建立产品品牌和公司声誉。
在如何评估社交媒体的效果上,目前也还有很多问题亟待解决。一个最大的问题是:传统媒体的评估侧重于到达率和频率,而新媒体的评估侧重于效率,两者评估分属于两套不同的语言体系。如何把传统媒体和新媒体放到同一个体系中衡量和评估,是媒体行业亟解决的问题。我们必须要认识到,相较于顾客通过不同的媒体渠道获得不同的信息的发展速度来看,新媒体的研发仍然太慢,媒体评估的研究目前大大落后于实践。
另一个重要的问题是:无论是大公司的管理层还是小公司的创业者,在使用新媒体时通常遵循特事特办的原则。而新媒体投放都没有经过大型广告公司的整体战略部署、整合策划和循序推进。
值得庆幸的是,目前一批大型4A级广告公司已经建立起自己的整合营销策划部门,他们在内部调动各个部门相互协调,以避免以前新媒体的各个环节各自为政,给客户品牌的一致性所带来的伤害。要知道,仅仅在facebook上开一个企业站点和掌握好社交媒体的运用,其中的能力要求是完全不同的。
以前,我们把传统媒体定义为付费媒体,你付费了,你就能得到你所想要的。但是,目前的社交媒体是自有媒体,只有当你的信息被人们认为有用时,人们才会对它产生兴趣——受众必须喜欢,无论是信息、娱乐还是社区,人们必须看到价值。公司不能强迫观众喜欢。所以,社交媒体是不能被控制的!以前的那种靠广告俘虏观众的时代,已经不复存在了。
所以,市场营销人员在应用社交媒体时,需要特别注意营造一个透明的环境,并建立与顾客之间的相互信任。千万不能让顾客觉得他们的个人信息会被用于其他地方。不同的顾客也许来自不同的背景,有些顾客在乎经济,有些顾客在乎信息,对另外一些顾客,价值就意味着遇到“臭味相投”的人等等。所以广告主需要知道提供什么样的价值给什么类型的客户。
摘要:随着经济的高速发展,企业的竞争已经渐渐地转化为人才的竞争。招聘工作作为企业补充优质人才的主要渠道,不但是组织实现人力资源整合的手段,更是组织为实现可持续发展的重要法宝。目前,企业招聘人员面对的最大挑战就是如何在招聘量大和预算有限的情况下,用最快的时间、通过最有效的渠道找到合适的候选人。随着互联网时代的兴起和蓬勃发展及与之带来的社交媒体应用正在潜移默化地影响着人们的生活方式;而这种快速建立人脉关系的理念和行为为招聘工作带来了新的曙光。本文首先通过社交媒体的举例,对其范围进行了界定,并且介绍了社交媒体作为招聘渠道与传统招聘渠道存在的差异。然后,通过列举招聘工作通过社交媒体LinkedIn及微信的实现,说明社交媒体除了职位之外对企业雇主品牌的推广做出的巨大作用和影响。此外,由于社交媒体的应用与传统招聘渠道的方法不同,企业对于招聘人员的素质和技能要求也发生了相应的变化。随着社交媒体成为高效招聘渠道的趋势越来越明显,其带来的风险和潜在问题也不容忽视,需要人力资源结合企业的业务特点和专业知识提供相应的解决方案。
关键词 :社交媒体 招聘渠道 招聘渠道趋势
上世纪90年代,企业招聘的主要方式是在报纸上刊登广告,然后通过信件的方式收集候选人投递的纸质简历。随着互联网时代的到来,前程无忧和智联招聘等招聘网站成为各家雇主竞争候选人的主要招聘渠道,我们称之为招聘的Web 1.0时代;近年来社交媒体的快速发展,越来越多的雇主开始在微信、微博上建立专属的招聘账号来吸引更多的主动和被动求职者。2014年初,随着国际职业社交媒体LinkedIn正式进军中国市场,社交媒体作为招聘的重要渠道引起了所有招聘人员的重视,从而开启了招聘的Web 2.0时代。
社交媒体是人们彼此之间用来分享意见、见解、经验和观点的工具和平台,现阶段主要包括社交网站、微博、微信、论坛等等,它具备人数众多、自发传播的两大重要特点。与传统的招聘渠道(例如各类招聘网站、招聘会、猎头等)相比,基于社交媒体平台的招聘具有辐射范围广、调动被动候选人、增加雇主和雇员的直接沟通机会的明显优势,正是因为这些优势,使得困扰招聘人员的招聘信息传播有限、求职者数量不足、招聘渠道费用高等问题得到了有效解决,帮助招聘人员能够主动地接触到目标候选人群,并最终将他们吸引和融入到公司之中。
与传统招聘渠道一致,社交媒体的招聘也是以空缺职位并且完成招聘任务为最终目标。然而社交媒体对于企业的贡献和附加值在于,越来越多的企业已经意识到社交媒体可以向目标人群有效地宣传企业的雇主价值主张。相比传统招聘渠道呈现方式的死板和定式,社交媒体的宣传方法则更加活泼、个性化和具有生命力。通过定制化并且结合企业文化的精心设计,同行业竞争对手之间的区别才能得以展现。企业雇主品牌的展示和推广同时潜移默化的影响着被动求职者的求职行为,通过企业历史、文化、活动、薪酬福利的介绍,可以调动被动求职者的求职兴趣和热情,最终增加职位的有效投递数量。
2014年,国际职业社交媒体LinkedIn进驻中国市场,取名“领英”。充分利用“六度空间理论”,领英的个人会员可以免费建立自己的职业档案,并且联系认识或者不认识的会员,以充实自己的职业人脉。据统计,领英的会员数量每秒钟都在增加,这使得这个职业社交媒体已成为巨大的招聘人才库。所以,领英为企业账户的招聘和雇主品牌推广定制了不同的方案。企业可以在平台上建立免费的公司账户,定期推送公司的新闻和活动用于积累关注者。还可以建立职业界面,用于推广企业方的雇主价值主张,介绍目标候选人的标准,空缺职位。同时企业可以购买招聘人员账号,以直接搜寻被动候选人的方式进行招聘。
鉴于巨大的微信使用群体,招聘在微信平台上的应用比领英显得更加高效。企业方可以用较低的价格申请公共号,无论是第三方或者公司本身都可以进行对官方账号的设计和运维。微信招聘的最大优势在于使用简单方便,无论文章、活动、职位都可以非常快速的发至朋友圈进行传播,从而达到最广泛的传播范围。然而,搭载在手机平台上,受屏幕大小的制约,微信推广的内容则以精简和优质为快速获得关注者和求职者的关键因素。通过从系统后台抓取的关注者和求职者信息,通过数据分析,企业方很容易得到目标人群的联系方式,从而进一步增加招聘的成功率。
与被动的等待求职者投递相比,社交媒体下的招聘环境要求企业的招聘人员具备主动寻找和接触候选人(特别是被动候选人)的能力,与之产生互动,激发他们的求职热情,最终达成聘用上岗的目标。面对竞争对手之间激烈的人才争夺,招聘人员需要具备优异的沟通能力,这里的沟通是具有社交式的沟通特点,它的方法根据沟通对象和沟通渠道的不同而产生巨大地差异。例如,目标人群是大学生或者应届毕业生,与之沟通的语言和方式多数是年轻化的,并且主题多结合当下的流行话题,以这种方式来吸引他们对雇主的关注和兴趣;需要注意的是,如果这种沟通在网络上(如微博和微信),使用时髦的网络语言也就不足为奇了;如果是在官方的严肃渠道上(如官网和LinkedIn),语言的使用需要符合企业的文化和公关部沟通指南要求。新环境下的招聘可以比喻成产品的营销过程,所有的候选者即为顾客,运用营销的理念和技能,将手中的职位即商品,以合理地方式销售给目标人群,使顾客在整个求职过程中有良好的购物体验,最终达成双赢的局面。所以,除了已经得到企业认可的招聘人员胜任力模型之外,社交媒体下的招聘要求招聘人员同时具备营销人员的部门胜任力,充分理解并实践,才能更好的应用社交媒体为招聘带来的便利。
关键词:语义标注 社交媒体 信息抽取
中图分类号: TP311 文献标识码: A 文章编号: 1003-6938(2013)05-0095-05
1 引言
社交媒体的数据文本短、噪声大,多为对话,数据实时发生,需要基于时间和上下文的即时分析处理。如何实时、有效和经济地去访问和集成这些多语言的数据,是一个严峻挑战,目前的各种技术在准确性、可伸缩性和便携性方面都有所欠缺。
语义标注把语义模型和自然语言结合在了一起,可以看作是本体和非结构化或半结构化文档之间的关联进行双向动态的生成过程,从技术的角度来讲,语义标注是通过参照在本体里的URI的元数据, 从本体(类、实例、属性或者关系等)里标注在文本里出现的概念。使用文本里出现的新的实例去增强本体的方法也称为本体填充。
社交媒体的自动语义标引可以用于基于语义的搜索、浏览、过滤、推荐、可视化分析用户以及用户之间的社交网络和在线行为的语义模型建立,还有其他的应用场合例如知识管理、竞争情报、客户关系管理、电子政务、电子商务等。
目前的语义标注技术主要是针对新闻文章或者其他较为正式、篇幅较长的Web内容,由于社交媒体自身具有内容较短、噪声大、跟时间相关、用户产生内容等这些鲜明的特点,给语义标注技术的发展带来新的挑战。
2 社交媒体语义标注的方式
语义标注可以采用手工、自动化或半自动化等多种方式进行。
Passant等[1]提出了语义微博框架模型,以便用户给博文手动的添加机器可读的语义,该框架也支持通过主题标签与关联开放数据进行连接。Hepp等[2]提出了一个新的对微博进行手工语义标注句法,能映射成RDF语句,该句法支持标签、本体属性,例如FOAF和在同一个微博里多个RDF语句之间关系。尽管手工语义标注具有一定的价值,但是每天腾讯、新浪等百万条微博的涌现,亟需自动的语义标引方法。
信息抽取,作为一个自然语言分析的方式,日益成为在非结构化文本和在本体中的规范化知识之间建起沟通桥梁的关键技术。基于本体的信息抽取就是适用于语义标注的任务,传统的信息抽取和基于本体的信息抽取的一个显著区别就是规范化的本体作为系统的输入和输出,有些信息抽取系统只是把系统输出和本体做一个映射,这些系统严格来讲,应该称为面向本体的系统。基于本体的信息抽取另一个显著的特点是它不仅仅发现被抽取的实体的类型,而且还要把它跟目标知识库里的关于它的语义描述关联起来,通常用一个URI方式识别它,在抽取过程中需要在文档内和文档间进行命名实体、术语、关系等自动识别和共指消解。
关联开放数据资源,例如DBpedia,YAGO和Freebase等已经成为语义标注本体知识的关键来源,也作为用来消歧的目标本体知识库,他们提供了交叉引用、领域无关的数万条类和关系以及数百万条的实例,一个关联、互补的代名词的资源集合,对应于维基百科的条目和其他外部数据的概念和实例,丰富的类层次用于细粒度分类命名实体,而关于数百万实例和对应维基百科条目的链接的知识也是基于本体抽取系统的一个特点。
3 社交媒体语义标注的主要方法
3.1 关键短语抽取
自动抽取出的关键句可以表示出一个文档或文档集的主题,但不能有效的表达论点或者所有的观点,关键短语抽取因此被认为是一种浅表知识抽取,它也作为降维手段,允许系统处理较小集合的重要的术语而不是全文,用于上下文的语义标注和索引。
一些关键词语方法利用了术语共现形成术语的图,边为一对术语共现的距离,给顶点分配一定的权重,W Wu等研究表明这一类的术语抽取方法相对依赖于文本模型的方法,在Twitter数据上表现更优。这些基于图的方法在从Twitter中抽取关键短语之所以取得了良好的效果,原因在于这个领域包括了大量的冗余,有利于形成关键词摘要。但主题的多样性增加了抽取一系列相关和准确的关键词的难度,Xin等[3]在关键词组抽取中结合了主题建模来解决该问题。
当前的相关研究主要是使用该方法来产生新的标签,Qu等[4]在基于词性标签的基础上,从n-gram产生候选的关键短语,然后使用一个监督逻辑回归分类器进行过滤。该方法还可以和分众分类法进一步结合,产生标签签名,例如把分众分类法中的每一个标签和加权的、语义相关的术语联系起来,针对新的博文和帖子,进行比较和排序这些标签,从而推荐一些最相关的标签。
3.2 社交媒体中的基于本体的实体识别
基于本体的实体识别一般分为两个步骤:实体识别和实体联接,实体识别阶段主要根据一个本体识别出文本中出现的所有的类和实例,而实体联接阶段则是使用文本中的概念信息,结合从本体中的知识,来选择一个正确的URI。
3.2.1 基于维基百科的方法
目前实体识别和联接的主要研究都是使用维基百科作为庞大的、免费的、人工标引的训练语料库。典型的目标知识库例如DBpedia和YAGO等都是来源于维基百科,提供了一个实体URI和相应的维基百科页面的直接映射。
基于实体消歧的方法主要是使用一个字典,里面有每个实体URI的标签,包括维基百科的实体页面,重定向(用于同义词和缩写),消歧页(对具有相同名称的多个实体)和链接到维基百科页面时使用的锚定文本。这本词典用于识别所有候选实体的URI,然后把这些候选的URI进行排序,给出一个置信分数。如果在目标知识库里面,没有匹配的实体,就返回空值。
一个广泛使用的基于维基百科的语义标注系统是DBpedia Spotlight[5],这是一个免费的可定制的Web系统,它通过DBpedia的URIs标注文本,它的目标是DBpedia本体,包含了三十多个顶级类和272个类,通过显式地列出他们或一个SPARQL查询,来限制哪些类(或者它的子类)用于命名实体识别,这个算法首先通过查找一个来源于维基百科的URI词汇字典挑选候选的实体,然后使用向量空间模型对URI进行排序,每一个DBpedia资源都和一个文档相关联,构建的每一段文字里都使用到在维基百科里的概念。
LINDEN框架[6]在基于维基百科的信息外,还充分利用了YAGO里更丰富的语义信息,这种方法很大程度上依赖于Wikipedia-Miner工具,该工具用来分析有歧义的实体的上下文和发现出现在维基百科里的概念。在TACKBP2009数据集上的评测表明LINDEN超过了所有的只基于维基百科的系统,但目前LINDEN还没有和DBpedia Spotlight在同一数据集进行测试比较。
3.2.2 面向社交化媒体的方法
命名实体识别方法一般都是在较长、较常规的文本上进行训练,当作用在较短和更多噪声的社交媒体内容上的时候,效果较差。面向社交媒体的方法融合了语言和社交媒体专门的特性,尽管每个博文提供了很少的内容,但可以从用户资料、社交网络和回复中发现更多的附加信息。
Ritter 等[7]通过使用Freebase作为一个大规模已知实体来源,提出了命名实体分类的问题,如果没有考虑到上下文,直接进行实体查找和类型分配,只能得到38%的F值,其中35%的实体是歧义的,具有多个类型,而30%的实体没有在Freebase中出现过。如果使用被标记的主题模型,考虑到每个实体字符串出现的上下文和在Freebase类型上的分布,命名实体分类的F值提高到了66%。
Ireson 等[8]研究了在Flickr网站上命名标签的地名消歧问题。这个方法是在Yahoo! GeoPlanet语义数据库的基础上,为每一个地点实例都提供一个URI,与一个相关地点的分类,这个标签消歧的方法利用了其他分配给照片的标签,用户上下文(一个用户分配给他所有照片的标签)和扩展用户上下文(考虑到用户联系人的标签),这种基于社会化网络上下文的使用显著地提高了整体消歧的准确性。
另一个附加和隐藏的语义是微博里的主题标签,Laniado 等[9]详细调查了三千六百多万条微博里的主题标签语义,使用了四种度量指标:使用频率、使用的一致性、稳定性和专门性。这些度量用来决定哪些主题标签可以被用作标示符,连接到Freebase URIs上,通过从分众完成的在线词汇表,添加主题标签的定义,主题标签也可以作为语义信息的附加来源。Mendes等[10]通过简单地在DBpedia里查找,而没有进一步的消歧就完成了语义标注。用户相关的属性和社会关系都在FOAF里了,而语义标注通过MOAT本体来实现。
Gruhl等[11]关注了语义标注的消歧元素,审视了处理高度歧义的情况,例如歌曲音乐专辑的名称。他们提出的方法首先限制用于产生候选的MusicBrainZ本体的部分,通过过滤掉所有在给定文本里没有提到的音乐家的信息,然后运用词性标注和名词词组组块,把这些信息作为支持向量机分类器的输入,在此基础上进行消歧。这个方法对关于三位音乐家的MySpace帖子的语料集做了测试,尽管本体很大,但有关文本很快被找到,具有较高的效能。
3.2.3 商业化实体识别服务
现有大量的商业在线实体识别服务用实体标注文档,给文档指派关联数据URIs,NERD在线工具可以轻松地在用户上传的数据集上进行比较,还可以整合他们的结果,把结果映射到关联开放数据云上。
Zemanta[12] 是一个在线标注工具,最初专门用于博客和邮件内容,帮助用户通过推荐来插入标签和链接。Open Calais[13]是另外一个语义标注的商业化Web服务,Abel等利用它在新闻相关的微博里识别命名实体,目标实体一般是地理位置、公司、人员、地址或联系电话等,而被抽取出来的事件和事实一般涉及以上的实体,例如公司竞争者、联盟等。实体标注包括URL,允许通过http访问在关联数据中的这个实体的更多信息。目前OpenCalais连接到8个关联数据集上,包括它自带的数据库,如DBpedia,Wikipedia,IMDB等,广泛涉及到了本体中的实体类别。Calais的主要局限性是专有的性质问题,例如用户通过Web服务发送文档来进行标注,接受标注的结果,但是他们不能给Calais一个不同的本体来进行标注,或者定制实体抽取的方式。
3.3 情感监测和观点分析
自动情感监测技术主要分为基于词汇的方法和机器学习的方法,基于词汇的方法主要依赖于一个情感词汇库,包含了已知和预先收录的情感术语,而机器学习的方法利用浅表语法或语言的特性。大多数情感和观点分析方法没有或者很少利用到语义,例如把博文分为积极、消极或中性情感,是建立在n-grams和词性信息的技术上。这些方法会导致数据量少的问题。Saif等[14]证明了使用语义概念代替单词能显著提高极性分类的准确性,这个方法使用了AlchemyAPI来进行语义标注,它包括了30个实体类,绝大部分是人物、公司、城市和组织等。这个方法在斯坦福Twitter情感数据集上作了评估测试,性能超过了其他没有使用语义的现有方法。语义标注还可以用来完成挑战性的观点挖掘任务,结合来源于WordNet等上的情感词汇,使用基于规则的实体识别器来识别出微博里的人物、政治团体和所持观点,然后进行语义分析,使用模式来产生三语组,表示出观点持有者和投票意愿。
3.4 跨媒体联接
由于微博内容比较短,如果不参考外部资源的上下文内容,很难被理解,所以需要跨媒体的自动联接。Abel等把微博和当前的新闻故事连接在一起改善微博的语义标注的准确性,探索了一些联接策略:利用出现在微博里的URL,微博和新闻文章的TF-IDF相似性,主题标签和基于实体的相似性(例如OpenCalais识别出来的语义实体和主题)等。Hubmann-Haidvogel等[15]使用在线新闻从Twitter,YouTube和Facebook上汇总关于社交媒体关于气候变化的内容。
4 社会媒体的语义标注改进途径
目前的社交媒体语义标注方法有很多的局限性,很多方法就像关键词和主题抽取一样,只能解决浅表问题,而基于本体的实体和事件识别并没有取得在较长的文档上那样高的准确度和召回率。语义标注方法只适用于它们训练和评估的数据,在社交媒体标准数据集的训练算法也是有限的,使用命名实体类型和事件标注的微博条数一般都小于1000条,需要来自不同社交媒体类型更大的共享评测语料集,如果通过传统人工的方法进行,则不可能完成。
4.1 众包
一种改善自动标注的途径是进行众包,ZenCrowd[16]系统把大规模的实体和在Amazon Mechanical Turk上的微任务,能够自动连接到LOD云上的文字部分不交给标引员,只是在难以解决的情况下才咨询标引员,这样显著提高了标注结果。欧盟FP7资助的Xlike项目[17]也尝试众包去解决社交媒体广泛使用的非正式语言的非规则性,提高标注的准确性。Gate Teamware[18]是一个基于网络的协同标注工具,支持分布式团体工作,可以为非专业的标引员进行个性化定制使用。
4.2 利用Web of Data上的海量知识
另一种改善社交媒体语义标注的途径是更好的利用Web of Data上的海量知识,目前大部分局限在维基百科、DBpedia和YAGO上,使用网络数据的一大问题是,由于常用词和停用词的大量使用等造成的歧义,需要自动化的领域分类的步骤,确保特定领域的LOD(关联开放数据)资源被用于标引相关领域内的社交媒体。使用网络数据面临的第二大问题是健壮性和可伸缩性,在面临LOD资源的噪声知识时,在处理有噪音的、语法不规则的语言的时候,能保持一定的健壮性,考虑到Web of Data的规模,设计基于本体的算法时,算法要在维持较高的计算水平的同时,又能有效的加载和查询这些大规模的知识库。最后一个有效利用网络数据资源的障碍是相当有限的可用词汇信息。除了维基百科上的资源,其他的词汇信息大多数局限在RDF标签。这就限制了他们在基于本体的信息抽取和语义标注上的使用。近期很多学者都专注于利用协作完成的维基学科去建设跨语言词汇资源。它包含了很多外来词和新词,并且不断被贡献者社区进行更新,可以在分析用户内容时作参考使用。针对英语和德语,目前正在进行的工作有建立UBY[19],这是一个综合的、大规模、语义-词汇资源,它基于维基百科、WordNet和其他的LOD资源。有些研究还关注基于语言的本体建设,提出把语言信息和本体元素进行关联的模型,这些都为跨语言语义标注系统的建设进行了有益的尝试。
5 结语
尽管社交媒体的语义标注技术还有很多的改进空间,但语义标注的结果已经被应用在从社交媒体流的隐形信息中自动获得用户和社交网络的模型的方法上。为了更好的挖掘出隐含语义信息,处理多噪声的动态社交媒体流,我们需要探索更加稳定、准确的大规模实体和事件识别方法,需要进一步细化意见挖掘算法用于目标识别,解决时间波动性问题,对冲突意见的探测和建模以及意见汇总。
参考文献:
[1]A. Passant, J. G. Breslin, and S. Decker. Rethinking microblogging:open, distributed, semantic[C]. Proceedings of the 10th International Conference on Web Engineering,2010:263-277.
[2]M. Hepp. HyperTwitter: Collaborative knowledge engineering via Twitter messages[C].Knowledge Engineering and Management by the Masses-17th International Confe
rence EKAW 2010,2010:451-461.
[3]W. Xin, Z. Jing, J. Jing, H. Yang, S. Palakorn, W. X. Zhao,J. Jiang, J. He, Y. Song, P. Achananuparp, E. P. Lim, andX. Li. Topical keyphrase extraction from Twitter[C].Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, HLT ’11,2011:379-388.
[4]L. Qu, C. Müller, and I. Gurevych. Using tag semantic network for keyphrase extraction in blogs. In Proceedings of the 17th Conference on Information and Knowledge Management,2008:1381-1382.
[5]Dbpedia Spotlight[EB/OL].[2013-06-02].http:///projects/dbp-spotlight/.
[6]W. Shen, J. Wang, P. Luo, and M. Wang. LINDEN: Linking named entities with knowledge base via semantic knowledge[C].Proceedings of the 21st Conference on World Wide Web,2012:449-458.
[7]A. Ritter, S. Clark, Mausam, and O. Etzioni. Named entity recognition in tweets: An experimental study[C]. Proc. of Empirical Methods for Natural Language Processing (EMNLP), Edinburgh, UK, 2011.
[8]N. Ireson and F. Ciravegna. Toponym resolution in social media[C]. Proceedings of the 9th International Semantic Web Conference (ISWC),2010:370-385.
[9]David Laniado and Peter Mika. Making sense of Twitter[C].International Semantic Web Conference(1),2010:470-485.
[10]P. N. Mendes, A. Passant, P. Kapanipathi, and A. P. Sheth. Linked open social signals[C]. Proceedings of the 2010 IEEE/WIC/ACM International Conference on Web Intelligence and Intelligent Agent Technology, 2010:224-231.
[11]D. Gruhl, M. Nagarajan, J. Pieper, C. Robson, and A. Sheth. Context and Domain Knowledge Enhanced Entity Spotting in Informal Text[C]. Proceedings of the 8th International Semantic Web Conference (ISWC’2009), 2009.
[12]Zemanta[EB/OL]. [2013-06-03]. http://.
[13]Opencalais[EB/OL].[2013-06-03]. http:///.
[14]H. Saif, Y. He, and H. Alani. Alleviating data sparsity for Twitter sentiment analysis[C]. Proceedings of the #
MSM2012 Workshop, CEUR,2012.
[15]A.Hubmann-Haidvogel,A. M. P. Brasoveanu, A. Scharl, M. Sabou, and S. Gindl. Visualizing contextual and dynamic features of micropost streams[C].Proceedings of the #MSM2012 Workshop, CEUR, 2012.
[16]G. Demartini, D. E. Difallah, and P. Cudré-Mauroux. Zen-Crowd: Leveraging probabilistic reasoning and crowdsourcing techniques for large-scale entity linking[C].Proceedings of the 21st Conference on World Wide Web, 2012:469-478.
[17]Xlike[EB/OL].[2012-06-05]. http:///.
[18]Kaling Bontcheva, Hamish Cunningham, Ian Roberts, Angus Roberts, Valentin Tablan, Niraj Aswani, and Genevieve Gorrell. GATE Teamware: A Web-based, Collaborative Text Annotation Framework[J/OL]. [2013
-06-03].http://eprints.whiterose.ac.uk/75937/.