微信是腾讯公司推出的是一款跨平台的通讯工具。微信公众平台,是用户利用公众账号进行自媒体活动,简单来说就是进行一对多的媒体性的行为活动,如商家通过申请公众微信服务号通过二次开发,如对接微信会员云营销系统展示商家微官网、微会员、微推送、微支付、微活动,微报名、微分享、微名片等,已经形成了一种主流的线上线下微信互动营销方式。
值得注意的是, 微信每天允许公号向受众群发 1 条消息, 而只有极少数公号会每天都把这一次群发用掉。大多数公号都是基于自身话题领域,根据自己的内容定位,或推送他们认为值得受众关注的重要新闻, 或推送受众可能更容易感兴趣的趣味性内容。
微信公众平台包括不同领域的各种账号,分析这些平台运营是否有效,是否能够在微时代更好地运用自己成为了各大企业思考的问题。请建立数学模型完成以下问题:
1、查找相关资料分析微信公众帐号的领域,建立模型,预测不同领域的公众帐号数量的增长趋势。
2、请建立数学模型分析不同领域的微信帐号运营是否有效,说明你的数学模型的优缺点。
3、假如给你一个“数学建模”的微信帐号,你该如何运营,给出方案并预测关注量增长趋势。
本文的主要目的是建立数学模型来预测不同领域的公众账户的增长趋势,并评估网络聊天平台是否有效运行。
任务1。为了预测网络聊天在不同领域的上升趋势。首先,我们选择了在公共网络聊天账户中具有代表性的四个公共账户信息领域,即教育、政府、媒体和网络。其次,我们使用了这些字段的编号信息并对其进行了处理。最后,在GM(1,1)模型的基础上进行了改进,建立了DGM(2,1)模型。此外,我们还计算了四个不同领域的误差合理性C 0.43、0.42、0.53、0.61和误差概率P 0.89、0.86、0.75、0.88。我们发现DGM(2,1)模型在预测网络聊天在不同领域的增长趋势方面优于GM(1,1)。
任务2。为了评估网络聊天用户是否有效地操作他们的平台,我们建立了将结构方程与综合评估方法相结合的模型来解决这个问题。我们选取了政府、教育、媒体、网站和名人五个不同的领域来测试该模型。该模型的结果表明,教育和名人领域的用户非常有效地管理他们的公共网络聊天账户,而公共账户在其他三个领域的效果并不好。
任务3。将任务1和任务2的结果与任务3的第一部分联系起来,我们列出了一些数学模型的公共网络聊天账户的运营策略,发现关心网络聊天问题的人数符合创新的扩散理论。为了给出运营账户的策略并预测用户的增长趋势,我们首先将其定位为订阅,然后参考网络聊天公共教育部门号码计划的理想运营结果来制定我们的策略:每天发送一条消息;发送方式有单图和多图以及链接到其他网站的视频;推送内容分别来自互动活动、联盟、广告等。;自定义菜单由多级菜单组成;通过对网络聊天用户增长模式的研究,得出网络聊天用户的增长趋势可以用创新扩散曲线来描述。因此,我们设计了一个计划,以创新的扩散理论为基础,预测有多少人会关注数学模型论坛。
(1) 我们收集的所有数据都是完全正确的,能够反映事实。
(2) 不同领域的内部圈子存在公平竞争
(3) 所有公共网络聊天帐户的用户都不会将消息发布到他们不属于的字段。
(4) 每个用户在自己的字段中只应用一个帐户,而不会在其他字段中注册另一个帐户。
(5) 并非所有用户都取消了他们的帐户。
任务1:
我们需要建立一个数学模型来预测不同领域对应的公众账户的增长趋势。因为这个预测是短期预测,我们收集的数据是有限的。众所周知,灰色系统预测的结果是相对稳定的,该预测不仅适用于大量数据,也适用于少数数据。我们对GM(1,1)进行了一些改进,并建立了DGM(2,1)模型来预测公共账户的数量。我们选择了四个不同的域来测试我们的模型,即,在建模过程中,我们需要计算误差合理性C和误差概率来测试模型,我们在四个域中分别计算误差合理化C 0.43、0.42、0.53、0.61,误差概率P 0.89、0.86、0.75、0.88。我们发现DGM(2,1)模型在预测网络聊天在不同领域的增长趋势方面优于GM(1,1)。
任务2:
为了深入评估用户在特定领域的运营策略的有效性,我们需要从账户用户和普通人的角度来考虑这个问题。我们认为粉丝数量、被观看次数、被收集次数和传播次数是普通人的因素(外部因素),并将用户的运营策略视为用户的因素(内部因素)。我们采用结构方程和综合评价方法构造组合来解决问题。我们建立的模型求解的结果符合物理事实。教育和名人是吸引大多数手机用户(年轻人)网络聊天的两个领域。
任务3:
这一部分需要制定一个管理公共网络聊天账户的计划,用于数学建模,以及预测关心它的人数的方法。很明显,我们需要根据任务1和任务2的结果给出可行的计划。同时,这个问题属于开放的范畴。为了给出账号的运营策略,我们做了大量的研究,并借鉴了最有效的网络聊天公共频道的运营策略,首先给出了“数学建模”公共频道的定位,然后从时间和频率、发送方式、内容和自定义菜单等方面分别设计了运行策略。为了预测“数学建模“公共频道用户的增长趋势,我们对网络聊天用户的增长态势进行了大量的研究。
import math
import random
random.seed(0)
def rand(a,b): #随机函数
return (b-a)*random.random()+a
def make_matrix(m,n,fill=0.0):#创建一个指定大小的矩阵
mat = []
for i in range(m):
mat.append([fill]*n)
return mat
#定义sigmoid函数和它的导数
def sigmoid(x):
return 1.0/(1.0+math.exp(-x))
def sigmoid_derivate(x):
return x*(1-x) #sigmoid函数的导数
class BPNeuralNetwork:
def __init__(self):#初始化变量
self.input_n = 0
self.hidden_n = 0
self.output_n = 0
self.input_cells = []
self.hidden_cells = []
self.output_cells = []
self.input_weights = []
self.output_weights = []
self.input_correction = []
self.output_correction = []
#三个列表维护:输入层,隐含层,输出层神经元
def setup(self,ni,nh,no):
self.input_n = ni+1 #输入层+偏置项
self.hidden_n = nh #隐含层
self.output_n = no #输出层
#初始化神经元
self.input_cells = [1.0]*self.input_n
self.hidden_cells= [1.0]*self.hidden_n
self.output_cells= [1.0]*self.output_n
#初始化连接边的边权
self.input_weights = make_matrix(self.input_n,self.hidden_n) #邻接矩阵存边权:输入层->隐藏层
self.output_weights = make_matrix(self.hidden_n,self.output_n) #邻接矩阵存边权:隐藏层->输出层
#随机初始化边权:为了反向传导做准备--->随机初始化的目的是使对称失效
for i in range(self.input_n):
for h in range(self.hidden_n):
self.input_weights[i][h] = rand(-0.2 , 0.2) #由输入层第i个元素到隐藏层第j个元素的边权为随机值
for h in range(self.hidden_n):
for o in range(self.output_n):
self.output_weights[h][o] = rand(-2.0, 2.0) #由隐藏层第i个元素到输出层第j个元素的边权为随机值
#保存校正矩阵,为了以后误差做调整
self.input_correction = make_matrix(self.input_n , self.hidden_n)
self.output_correction = make_matrix(self.hidden_n,self.output_n)
#输出预测值
def predict(self,inputs):
#对输入层进行操作转化样本
for i in range(self.input_n-1):
self.input_cells[i] = inputs[i] #n个样本从0~n-1
#计算隐藏层的输出,每个节点最终的输出值就是权值*节点值的加权和
for j in range(self.hidden_n):
total = 0.0
for i in range(self.input_n):
total+=self.input_cells[i]*self.input_weights[i][j]
# 此处为何是先i再j,以隐含层节点做大循环,输入样本为小循环,是为了每一个隐藏节点计算一个输出值,传输到下一层
self.hidden_cells[j] = sigmoid(total) #此节点的输出是前一层所有输入点和到该点之间的权值加权和
for k in range(self.output_n):
total = 0.0
for j in range(self.hidden_n):
total+=self.hidden_cells[j]*self.output_weights[j][k]
self.output_cells[k] = sigmoid(total) #获取输出层每个元素的值
return self.output_cells[:] #最后输出层的结果返回
#反向传播算法:调用预测函数,根据反向传播获取权重后前向预测,将结果与实际结果返回比较误差
def back_propagate(self,case,label,learn,correct):
#对输入样本做预测
self.predict(case) #对实例进行预测
output_deltas = [0.0]*self.output_n #初始化矩阵
for o in range(self.output_n):
error = label[o] - self.output_cells[o] #正确结果和预测结果的误差:0,1,-1
output_deltas[o]= sigmoid_derivate(self.output_cells[o])*error#误差稳定在0~1内
#隐含层误差
hidden_deltas = [0.0]*self.hidden_n
for h in range(self.hidden_n):
error = 0.0
for o in range(self.output_n):
error+=output_deltas[o]*self.output_weights[h][o]
hidden_deltas[h] = sigmoid_derivate(self.hidden_cells[h])*error
#反向传播算法求W
#更新隐藏层->输出权重
for h in range(self.hidden_n):
for o in range(self.output_n):
change = output_deltas[o]*self.hidden_cells[h]
#调整权重:上一层每个节点的权重学习*变化+矫正率
self.output_weights[h][o] += learn*change + correct*self.output_correction[h][o]
#更新输入->隐藏层的权重
for i in range(self.input_n):
for h in range(self.hidden_n):
change = hidden_deltas[h]*self.input_cells[i]
self.input_weights[i][h] += learn*change + correct*self.input_correction[i][h]
self.input_correction[i][h] = change
#获取全局误差
error = 0.0
for o in range(len(label)):
error = 0.5*(label[o]-self.output_cells[o])**2 #平方误差函数
return error
def train(self,cases,labels,limit=10000,learn=0.05,correct=0.1):
for i in range(limit): #设置迭代次数
error = 0.0
for j in range(len(cases)):#对输入层进行访问
label = labels[j]
case = cases[j]
error+=self.back_propagate(case,label,learn,correct) #样例,标签,学习率,正确阈值
def test(self): #学习异或
cases = [
[0, 0],
[0, 1],
[1, 0],
[1, 1],
] #测试样例
labels = [[0], [1], [1], [0]] #标签
self.setup(2,5,1) #初始化神经网络:输入层,隐藏层,输出层元素个数
self.train(cases,labels,10000,0.05,0.1) #可以更改
for case in cases:
print(self.predict(case))
if __name__ == '__main__':
nn = BPNeuralNetwork()