1.
前几年曾服务过 一些品牌客户,给他们的SEO proposal中基本上都会涉及舆情部分:负面信息压制,正面声量提升。
当时的做法也是比较标准化的:
1. 首先选取一些与品牌相关的关键词,通常是有一定搜索引擎检索量的
2. 在百度(移动,PC)上搜索这些关键词,截取下搜索结果,并统计如下数据:
1)搜索结果中 正面,中立,负面结果的数量
2) 每条搜索结果中的页面类型: 往往比较多的是这几类:百度产品线:百度知道,百科,文库 ; 媒体新闻稿(包括自媒体);论坛
3. 根据负面信息的数量,以及这些信息 页面的类型,为客户制定品牌与正面信息内容发布组合方案,从而将负面信息压制到较后的排名位置。
但是最近再看看,似乎这样的方案也有一定的局限:
1. 随着这几年移动端与信息流媒体发展,国内互联网流量入口已远不止百度,仅涉及百度,覆盖面窄
2. 这类项目往往是一次性清理,无法持续监控
2.
这几年,随着大数据机器学习与人工智能技术逐步应用开展,目前有很多舆情监控工具,舆情监控工具的工作原理基本是这样:
1. 各家舆情监控每天都会抓取互联网信息:包括各大社交平台,媒体等,抓取方式有爬虫,直接通过API对接等。
先说爬虫,我不知道舆情工具的爬虫具体以什么方式抓,以我自己写爬虫的经历: 爬虫主要可以两类数据: 1) 网页,就是存在于HTML中的页面,适用于在服务端渲染的站 2)接口中的数据,以app,移动站以及延迟加载的站居多。 抓取多个网页的数据,首先要找到URL的规则,方便用正则配出来并循环,如果有一些URL不太规则并且很长,比如长得像md5加密的字符串,那么爬虫跑起来很耗配置。 网页中抓的数据还会有一些问题:数据不整齐,有杂乱的标签和字符; 受页面模板影响大;以及页面编码问题等。抓接口中的数据就好很多,数据格式整齐,不依赖于页面模板。在性能备受关注的今天,不少网站使用ajax,或者一些前端渲染的框架等,API接口很常见,需要通过抓包工具或者开发者工具就可以找到接口。也有不少网站直接开放了API,因此推测大部分舆情工具通过API获取数据。尤其是对于一些大厂,本身就与一些网站有数据合作, 比如百度-微博。当然,如果是非合作方式获取到的接口,还需要考虑IP切换,抓取频率等网站的一些anti-spam措施。
舆情工具抓取内容后,根据用户在监控工具后台设置的关键词,取出包含关键词的内容。
2. 对于这部分内容 舆情工具会将内容进行拆分词,统计拆分词的正面,中立,负面的关键词数量,从而为每篇文章的负面度打一个分数,并且判断每篇文章是否为正负面情况。 当然,这部分目前可以通过 机器学习的方法来做: 即工程师用一部分已经打好负面度分数的样本,给计算机进行学习,对于程序新抓取到的内容,会自动打负面度分数。
3. 舆情监控工具把这些贴好正负面标签的用户展现给用户,当然不少舆情工具还提供更多的信息,比如发布媒体以及账号,声量强度(相似文章数),地理位置信息,发布时间等,如果用户有进一步设置,当新负面出现时,舆情工具可以通知用户
3.
如何选择舆情监控工具?
品牌企业对于舆情工具的需求点主要有:
1. 数据全
舆情工具的数据量需要尽可能覆盖全网
2. 舆情判断准
能够较为准确地判断一篇内容属于 正面还是负面
3. 预警及时
舆情出现时,能够及时预警
数据全 以及 预警及时意味着 监控工具厂商愿意投入更多的成本来存储数据,并且爬虫性能要够高
舆情判断准确 意味着 供学习的数据样本要够大
所以建议选择:
1. 如果真的需要较全面的功能,建议付费工具,毕竟这样的监测工具成本并不低
2. 如果是专门做舆情工具的企业,可以查一下融资状况,另外还有一些大厂,比如百度 也有这样的工具,但是由于大厂内部会投入多少资源做这样的工具 是不确定的,所以是不是要优先选择大厂工具,还需要再进一步研究
3. 不少工具提供免费试用,可以通过试用来对比各家的工具
4.
有了工具就万事大吉了吗?
当然不是,工具对于舆情信息的判断全部是基于算法的,并非人工,所以一定会有误差。对于舆情监控工具提供的舆情信息数据统计相关报表,可以大致参考,但是对于从舆情监控工具导出的负面信息列表,则需要先进行人工审核再进行处理。
5.
关于舆情处理,通常主要有两种方法:
1). 负面信息压制
负面信息压制的原理是根据负面信息的关键词发布大量相关的正面品牌信息,并进行一些SEO优化,从而在声量上以及排名上,压倒负面信息。从舆情监控工具中导出来的负面信息列表往往有关键词,媒体等信息,如果在某些某提的某些关键词负面信息较多,建议使用负面压制的方法。
2)负面信息删除
负面信息压制方法 也不经常有效。毕竟各媒体,搜索引擎的推荐和排名算法各有不同,很难保证发布并优化一些 正面内容就一定能够压制了该负面,有时候联系媒体以及信息发布账号进行删帖,反而是更直接,简单 ,低成本的方法。