E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
香农熵
一读:《阅读的方法》要素摘思(3)
陈力单《传播学的24个关键词》,简下来,抓住关键词,引人入胜(《文化研究关键词》汪民安主编)
熵
,19世纪鲁道夫·克劳修斯提出,描述的是一个封闭系统的混乱程度。从未有的角度观察,从平凡的事物中发现惊喜。
难得清明
·
2024-02-05 19:31
通信基础 4——遍历容量、信道估计、干扰对齐
目录遍历容量/各态历经性容量信道估计干扰对齐无线携能通信遍历容量/各态历经性容量说遍历容量不十分准确,应该叫各态历经性容量(是相对于中断容量说的)首先要理解《信息论》中得
香农
信道容量,然后结合《随机过程
今天也努力学习的Paul
·
2024-02-05 18:37
物理层安全
网络空间内生安全数学基础(2)——编码信道数学模型
目录(零)这篇博客在干什么(一)内生安全与
香农
信道编码定理(二)基本定义(三)编码信道存在定理(三.壹)编码信道存在第一定理(三.贰)编码信道存在第二定理(三.叁)编码信道存在第三定理(四)总结(零)这篇博客在干什么由于本篇博客可能会涉及到较多数学方面的东西
echoKangYL
·
2024-02-05 18:06
网络空间内生安全
安全
安全架构
网络安全
机器学习 --- 指数族分布
一、背景二、高斯分布的指数族形式三、对数配分函数与充分统计量的关系三、极大似然估计与充分统计量四、最大
熵
角度总结最后数学建模精选资料共享,研究生学长数模指导,建模比赛思路分享,关注我不迷路!
建模君Assistance
·
2024-02-05 16:42
数学建模算法
算法
蓝桥杯典型真题分析详解--编程思维--01串的
熵
2023年十四届省赛大学B组真题(共10道题)【问题描述】对于一个长度为n的01串S=x1x2x3...xn.
香农
信息
熵
的定义为:其中p(0),p(1)表示在这个01串中0和1出现的占比。
D_nao
·
2024-02-05 15:58
c++蓝桥杯冲刺特训
蓝桥杯
算法
职场和发展
c语言
c++
《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第6章 逻辑斯谛回归与最大
熵
模型(2)6.2 最大
熵
模型
文章目录6.2最大
熵
模型6.2.1最大
熵
原理6.2.3最大
熵
模型的学习6.2.4极大似然估计《统计学习方法:李航》笔记从原理到实现(基于python)--第3章k邻近邻法《统计学习方法:李航》笔记从原理到实现
北方骑马的萝卜
·
2024-02-05 11:51
机器学习笔记
学习方法
笔记
python
(阅读笔记)SecureML: A System for Scalable Privacy-Preserving Machine Learning
基础知识线性回归模型,值连续,损失函数多选择最小欧式距离计算;逻辑回归模型,二分类任务,值离散,损失函数多选择交叉
熵
计算;神经网络模
你看见的我
·
2024-02-05 10:27
安全学习
深度学习入门笔记(6)—— Logistic Regression
线性),而LogisticRegression中的激活函数是Sigmoid函数(非线性);2、损失函数,Adaline中的损失函数是均方误差,而LogisticRegression中的损失函数则是交叉
熵
。
cnhwl
·
2024-02-05 05:55
深度学习入门笔记
深度学习
机器学习
逻辑回归
人工智能
python
《数学之美》--第一章:文字和语言 vs 数字和信息
但是,直到半个多世纪前
香农
博士提出信息论,人们才开始把数学和信息系统自觉地联系起来。
mantch
·
2024-02-05 03:25
ASTRAIOS: Parameter-Efficient Instruction Tuning Code Large Language Models
ASTRAIOS:参数高效指令调优代码大型语言模型摘要1引言2ASTRAIOS套机与基准3前言研究:交叉
熵
4主要结果:任务性能5更进一步分析6讨论7相关工作8结论摘要大型语言模型(LLM)的全参数微调(
UnknownBody
·
2024-02-04 16:46
LLM
语言模型
人工智能
自然语言处理
2021-06-22 今日反思
最近感觉一天不锻炼身体就不舒服,状态不好;一天不反思,就感觉面目可憎,感觉自己不好的地方在不断放大,就好像自己在不断的
熵
增,只有反思才能减慢这种
熵
来自火星会飞的大象
·
2024-02-04 13:54
熵
的定义
今天看《心流》这本书,书中有一个名词:
熵
。那么“
熵
”的定义是什么呢?它有两个含义:第一:
熵
是指一个系统的混乱程度。越混乱,
熵
值越高。
熵
的另一个定义是:指一个系统内不能做功的能量的总数。
秀妮_5519
·
2024-02-04 08:27
互联网加竞赛 基于深度学习的植物识别算法 - cnn opencv python
文章目录0前言1课题背景2具体实现3数据收集和处理3MobileNetV2网络4损失函数softmax交叉
熵
4.1softmax函数4.2交叉
熵
损失函数5优化器SGD6最后0前言优质竞赛项目系列,今天要分享的是
Mr.D学长
·
2024-02-04 07:55
python
java
【考研408】计算机网络笔记
文章目录计算机网络体系结构计算机网络概述计算机网络的组成计算机网络的功能计算机网络的分类计算机网络的性能指标课后习题计算机网络体系结构与参考模型计算机网络协议、接口、服务的概念ISO/OSI参考模型和TCP/IP模型课后习题物理层通信基础基本概念奈奎斯特定理与
香农
定理编码与调制电路交换
newcih
·
2024-02-04 06:55
408
计算机网络
考研
机器学习:Softmax回归(Python)
logistic_regression_mulclass.pyimportnumpyasnpimportmatplotlib.pyplotaspltclassLogisticRegression_MulClass:"""逻辑回归,采用梯度下降算法+正则化,交叉
熵
损失函数
捕捉一只Diu
·
2024-02-04 04:27
机器学习
回归
python
笔记
思维的层次
一个人的认知系统是非常复杂的,我们脑子里可能存在着各种声音,想法,评判,而外界成千上万的讯息也在不断的涌入我们的大脑,所以有时候我们会下决心做出一些选择,行动,但过不了多久,又会因为内心的无序,精神上的
熵
增半途而废
李燕_sofia
·
2024-02-04 00:44
pix2pix图像着色学习记录(pytorch实现)
1、BCELossBCELoss(binary_crossentropy)二分类交叉
熵
损失函数,用于图片多标签分类,n张图片分m类,会得到n*m的矩阵,经过sigmoid把矩阵数值变换到0~1,然后通过如下公式计算得到
欧拉雅卡
·
2024-02-03 19:17
pytorch
启迪之星创投刘博:新能源投资的三个坑,不要过分看重政策红利
然而,有一家鲜有发声的投资机构,已经在这一领域默默耕耘了十二载,在新能源赛道孵化投资了不少早期优质项目:比如海博思创、启迪清源、新源动力、曜能科技、中盛旭鑫、暗流科技、亿氢科技、托尔动力、中
熵
科技、顺
熵
科技等
VCTalk投资人说
·
2024-02-03 17:04
目标检测中的损失函数汇总
分类损失CEloss,交叉
熵
损失交叉
熵
损失,二分类损失(binaryCEloss)是它的一种极端情况.在机器学习部分就有介绍它。
senbinyu
·
2024-02-03 16:29
损失函数
目标检测
深度学习
深度学习
人工智能
决策树基础知识点解读
定义:集合D的经验
熵
H(D)与特征A给定条件下D的经验条件
熵
H(D/A)之差。缺点分支过程中偏向取值较多的属性无法处理连续值和缺失值,只能处理离散值对缺失值敏感。C4.5算法定义
futurewq
·
2024-02-03 13:04
面试
决策树
机器学习
算法
决策树相关知识点以及面试题
文章目录基础知识点
熵
条件
熵
联合
熵
交叉
熵
信息增益信息增益率Gini指数什么是决策树举例决策树怎么生成的ID3算法C4.5算法和其他模型相比决策树的优点基尼指数(CART算法)决策树的生成最小二乘回归树剪枝一些问题参考基础知识点
熵
熵
是一个物理概念
mym_74
·
2024-02-03 13:34
决策树
决策树系列之决策树知识点
decisiontree)决策树是一种树型结构,其中:每个内部的结点表示在一个属性的测试;每个分支代表一个测试的输出;每个叶节点代表一种类别;决策树是以实例为基础的归纳学习,采取的是自顶向下的递归方法;其基本思想是,以信息
熵
为度量构建一颗
熵
值下降最快的树
coffeetea01
·
2024-02-03 13:33
机器学习
机器学习
决策树
幸福感
我们怎么才能让精神
熵
降低呢?如果今天有PPT我会给大家展示一张塔里木河二十年前的照片。塔里木河大家都知道,随着人口增加,中间截留的水越来越多,到下流几乎就干涸了。
六爸啦啦啦
·
2024-02-03 08:45
1.27CNN(输入层,特征提取(卷积,最大池化),输出),损失函数(KL散度,交叉
熵
推导),
熵
(物理、信息
熵
推导),点积矩阵运算(CPU,GPU,NPU)
CNN损失函数KL散度,交叉
熵
B部分是训练集的真实实际值,是常数,C部分是训练结果,目的是要让这个损失最小化,与模型参数紧密相关,取出C(带负号),C非负就是更精简的损失函数
熵
v所谓M个空间,N个小球在其中的排列组合方式为
熵
对应概率是
CQU_JIAKE
·
2024-02-03 07:23
机器学习&神经网络
数模
cnn
人工智能
算法
机器学习原理
神经网络负梯度方向反向传播局部最小就是全局最小svm支持向量机/核函数降维/对偶利于核函数/软间隔正则化去掉噪声,提升鲁棒性决策树信息增益,
熵
/剪枝/随机森林随机选取n个数据得到m棵cart树进行bagging
ixtgtg
·
2024-02-03 07:51
机器学习算法
白铁时代 —— (监督学习)原理推导
来自李航《统计学习方法》文章目录-1指标相似度0概论1优化类1.1朴素贝叶斯1.2k近邻-kNN1.3线性判别分析二分类LDA多分类LDA流程LDA和PCA的区别和联系1.4逻辑回归模型&最大
熵
模型逻辑回归最大
熵
模型最优化
人生简洁之道
·
2024-02-03 07:46
2020年
-
面试笔记
人工智能
19.01.03(关于
熵
的思考)
熵
本来是表示混乱程度的一个物理概念
熵
增就是趋于无序
熵
减就是趋于有序而世间的事情无论向哪个方向都是绝望的方向因为都是极端我曾经说过想要包容所有的类型要尊重不同人不同的选择就像接受
熵
增的混乱多元但是既然两种都是极端接受
熵
增是不是太过于不负责任不表明态度到底还是消极的不参与别人岂不是作茧隔绝倒不如想想自己坚守的原则自己所追求的信仰昨天学到了新的词反
熵
在潮流大势奔腾远去中固守一足之地为之奉献一生有态度远比
禾茉
·
2024-02-03 06:05
最大
熵
阈值python_李航统计学习方法(六)----逻辑斯谛回归与最大
熵
模型
本文希望通过《统计学习方法》第六章的学习,由表及里地系统学习最大
熵
模型。文中使用Python实现了逻辑斯谛回归模型的3种梯度下降最优化算法,并制作了可视化动画。
weixin_39669638
·
2024-02-03 06:20
最大熵阈值python
《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第6章 逻辑斯谛回归与最大
熵
模型(1)6.1 逻辑斯谛回归模型
文章目录第6章逻辑斯谛回归与最大
熵
模型6.1逻辑斯谛回归模型6.1.1逻辑斯谛分布6.1.2二项逻辑斯谛回归模型6.1.3模型参数估计6.1.4多项逻辑斯谛回归《统计学习方法:李航》笔记从原理到实现(基于
北方骑马的萝卜
·
2024-02-03 06:18
机器学习笔记
学习方法
笔记
python
用于医学分割的实时Test-time adaption
以前的方法通过使用
熵
Scabbards_
·
2024-02-03 04:45
1500深度学习笔记
深度学习
迁移学习
TENT:
熵
最小化的Fully Test-Time Adaption
我们建议通过testentropyminimization(tent[1])来适应:我们通过其预测的
熵
来优化模型的置信度。我们的方法估
Scabbards_
·
2024-02-03 04:45
1500深度学习笔记
人工智能
机器学习
绘本讲师训练营【32期】8/21阅读原创《大卫惹麻烦》
32026杨檬文/图【美】大卫·
香农
译:余治莹在看这本书之前,没有看过大卫·
香农
的其他作品,但是了解到大卫系列的作品很受欢迎。所以还特意去看了《大卫不可以》。
30430211b9b4
·
2024-02-03 01:09
第二章---物理层
目录物理层基本概念数据通信基础知识数据通信模型相关术语三种通信串行传输和并行传输码元编辑数据传输速率带宽奈氏准则和
香农
定理失真码间串扰奈氏准则
香农
定理编码和调制非归零编码归零编码反向不归零编码曼彻斯特编码差分曼彻斯特编码数据交换
卿云阁
·
2024-02-02 22:03
计算机网络
网络
《恨不自知》浮世心镜2022-01-21
另外,最近的
熵
零下1度的刺猬
·
2024-02-02 21:19
第十四届蓝桥杯大赛软件赛省赛(C/C++ 大学B组)题解
尝试再做一次,我记得还是有点难,我会尽量多写一点解析,尽量让基础比较弱的友友也能看懂,希望能给你带来帮助目录1.日期统计题目描述解题思路具体代码2.01串的
熵
题目描述解题思路具体代码3.冶炼金属题目描述解题思路具体代码
魔莫摸墨
·
2024-02-02 19:07
蓝桥杯
蓝桥杯
c语言
c++
数据结构
共读《逆
熵
增成长之路》之成长篇
学长能够一年顶十年快速成长的主要因素是:持续的做日课,比如阅读,写作,健身,个人成长等等。001每天大量阅读学习,平均每天有4.5小时用于学习和成长,并且365天全年无休。我对照自己每天的时间,平均用于在学习和成长的时间可能不到一小时。一个是没有做到每天保持学习的状态,再一个是如果不舒服就会让自己躺平,什么也不干。从学长这边学习到的就是,不论遇上什么情况,学习成长都是排在每天的必修课内的,把学习成
小沫爱养生
·
2024-02-02 13:48
数据挖掘——考试复习
ClassficationError数据集的Gini值召回率和精度问答支持向量机的“最大边缘”原理软边缘支持向量机的基本工作原理非线性支持向量机的基本工作原理计算朴素贝叶斯分类ID3决策树、计算数据集的
熵
、
hzx99
·
2024-02-02 11:02
考试复习
数据挖掘
考试复习
【王道】计算机网络 知识点总结(合集)【超详细!】
计算机网络体系结构与参考模型1.2.1计算机网络分层结构1.2.2计算机网络协议、接口、服务的概念1.2.3ISO/OSI参考模型和TCP/IP模型2物理层2.1通信基础2.1.1基本概念2.1.2奈奎斯特定理与
香农
定理
住在天上的云
·
2024-02-02 11:06
王道计算机网络知识点总结
计算机网络
网络
网络协议
考研
学习
PyTorch学习笔记(三):softmax回归
PyTorch学习笔记(三):softmax回归softmax回归分类问题softmax回归模型单样本分类的矢量计算表达式小批量样本分类的矢量计算表达式交叉
熵
损失函数模型预测及评价小结Torchvision
FriendshipT
·
2024-02-02 09:15
PyTorch学习笔记
pytorch
回归
深度学习
softmax
神经网络与深度学习Pytorch版 Softmax回归 笔记
3.Softmax回归模型概述及其在多分类问题中的应用4.Softmax运算在多分类问题中的应用及其数学原理5.小批量样本分类的矢量计算表达式6.交叉
熵
损失函数7.模型预测及评价8.小结Softmax回归
砍树+c+v
·
2024-02-02 09:14
深度学习
神经网络
pytorch
人工智能
python
回归
笔记
<文献阅读>用转移
熵
通过微阵列的时间序列推断基因调控网络(inferring gene regulatory networks from microarray time series data ...
具体来说,通过转移
熵
计算基因对的因果关系(causalrelations),也就是转移
熵
的值。转移
熵
不是负数,而且大小代表因果关系的强度。
我们一起舔过铁栏杆
·
2024-02-01 12:22
机器学习复习(7)——损失函数
交叉
熵
损失函数交叉
熵
损失函数是深度学习中常用的一种损失函数,特别是在分类问题中。它衡量的是模型预测的概率分布与真实标签的概率分布之间的差异。
不会写代码!!
·
2024-02-01 11:58
人工智能
机器学习复习
机器学习算法
机器学习
人工智能
决策树
特点if-then的集合损失函数最小化可读性,速度快启发式解决NP完全问题信息增益特征选择通过信息增益:
熵
:(2或者e为底),
熵
越大,随机变量的不确定性越大。
Mr_Stark的小提莫
·
2024-02-01 11:12
人生追求,永远不要放弃对自己的严格要求
世界是有诱惑的,宇宙是遵循着
熵
增原理的。所以只要你的自律本领没有随着年龄增长而增长,你就会变得越来越糟糕。同时即使你原地踏步没有变化,你也会觉得自己越来越糟糕,越来越不合格。因为随着年龄的增长。
与洛
·
2024-02-01 09:10
熵
减
坚持做一些“
熵
减”的事,给自己充电,让自己多一些生存的技能,古人早就看透了:活到老,学到老。
天公重抖擞
·
2024-02-01 02:51
熵
减321周报第16篇:冷思双十一,热议元宇宙
hi,朋友们,今天又是我们周报见面时候啦。下面是本周内我的3个思考、2个引述和1个问题,希望对你有所启发哦。我的3个思考思考1:双十一的冷思回头来看双十一,发现还是拼多多的黄铮厉害。好几年前就看破了流量的局,不和大家去抢双十一的眼球和巨贵的流量。而是在流量价格的洼地时间段内,蒙头撒钱搞用户的快速积累。造一个平台比造一个数字的高峰更重要。思考2:元宇宙的热闹元宇宙的这口锅有点越来越大了,基本上所有新
熵减黑客
·
2024-02-01 01:11
管理要做的只有一件事情,就是如何对抗
熵
增(8.23)
2在1998年亚马逊致股东信里,贝佐斯说:“我们要反抗
熵
(Wewanttofightentropy)。”3管理学大师彼得·德鲁克说:“管理要做的只有一件事情,就是如何对抗
熵
增。
胡同学的读书笔记
·
2024-02-01 01:29
【机器学习】【概率论】【损失
熵
】【KL散度】信息量、
香农
熵
和KL散度的计算
1、信息量(AmountofInformation)对于一个事件:小概率-->大信息量大概率-->小信息量独立事件的信息量可以相加I(x)=log2(1p(x))=−log2(p(x))I(x)=log_2(\frac{1}{p(x)})=-log_2(p(x))I(x)=log2(p(x)1)=−log2(p(x))E.g.:一枚均匀的硬币:p(h)=0.5p(h)=0.5p(h)=0.5Ip(
忘却的旋律dw
·
2024-01-31 23:47
机器学习
概率论
人工智能
交叉
熵
损失函数的计算公式
交叉
熵
损失函数的计算公式如下:对于二分类问题:L=-(ylog(p)+(1-y)log(1-p))其中:L为交叉
熵
损失函数的值,y为真实标签(0或1),p为模型预测为正类的概率。
滚菩提哦呢
·
2024-01-31 22:58
机器学习
深度学习
人工智能
python
概率论
交叉
熵
损失函数
引言本文只是对自己理解交叉
熵
损失函数的一个总结,并非详尽介绍交叉
熵
函数的前世今生,要想多方位了解该损失函数,可以参考本文参考资料。
矮人三等
·
2024-01-31 22:24
#
损失函数
机器学习
python
人工智能
深度学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他