- 损失函数与反向传播
Star_.
PyTorchpytorch深度学习python
损失函数定义与作用损失函数(lossfunction)在深度学习领域是用来计算搭建模型预测的输出值和真实值之间的误差。1.损失函数越小越好2.计算实际输出与目标之间的差距3.为更新输出提供依据(反向传播)常见的损失函数回归常见的损失函数有:均方差(MeanSquaredError,MSE)、平均绝对误差(MeanAbsoluteErrorLoss,MAE)、HuberLoss是一种将MSE与MAE
- 【3.6 python中的numpy编写一个“手写数字识”的神经网络】
wang151038606
深度学习入门pythonnumpy神经网络
3.6python中的numpy编写一个“手写数字识”的神经网络要使用Python中的NumPy库从头开始编写一个“手写数字识别”的神经网络,我们通常会处理MNIST数据集,这是一个广泛使用的包含手写数字的图像数据集。但是,完全用NumPy来实现神经网络(包括数据的加载、预处理、模型定义、前向传播、损失计算、反向传播和权重更新)是一个相当复杂的任务,因为NumPy本身不提供自动微分或高级优化算法(
- 记录一次获取车载摄像头数量为0同时打开摄像头黑屏的问题分析(基于Android M)
言并肃
android源码分析androidCameraframework
在一次实车测试车载倒车过程中,出现了倒车打开车载摄像头黑屏的现象。分析收集的log,发现初始化Camera前会获取摄像头数量来确定车载摄像头是否连接,当获取的摄像头数量大于0时则认为接入了摄像头。于是跟踪Camera的源码,追查原因。首先从app层的代码入手,获取的摄像头的代码如下:privatestaticfinalintCAMERA_TYPE_BACKWARD_COMPATIBLE=0;pri
- PyTorch学习(13):PyTorch的张量相乘(torch.matmul)
赛先生.AI
PyTorchpytorch
PyTorch学习(1):torch.meshgrid的使用-CSDN博客PyTorch学习(2):torch.device-CSDN博客PyTorch学习(9):torch.topk-CSDN博客PyTorch学习(10):torch.where-CSDN博客PyTorch学习(11):PyTorch的形状变换(view,reshape)与维度变换(transpose,permute)-CSDN
- pytorch正向传播没问题,loss.backward()使定义的神经网络中权重参数变为nan
加速却甩不掉伤悲
pytorch神经网络人工智能
记录一个非常坑爹的bug:loss回传导致神经网络中一个linear层的权重参数变为nan1.首先loss值是正常数值;2.查了好多网上的解决办法:检查原始输入神经网络数据有没有nan值,初始化权重参数,使用relu激活函数,梯度裁剪,降低优化器的学习率等等都没解决,个人认为这些应该影响不大,一般不会出问题;3.最后是使用如下异常检测:检测在loss回传过程中哪一块出现了问题torch.autog
- Pytorch机器学习——3 神经网络(三)
辘轳鹿鹿
outline神经元与神经网络激活函数前向算法损失函数反向传播算法数据的准备PyTorch实例:单层神经网络实现3.2激活函数3.2.2TanhTanh是一个双曲三角函数,其公式如下所示:image.png从图像上可以看出,与Sigmoid不同,它将输入变量映射到(-1,1)之间,它是Sigmoid函数经过简单的变换得到的。导数优缺点:优点:由于其图形在定义域0附近近似线性,并且在整个定义域有可导
- 问题
三点水_787a
卷积层和池化层都能反向传播DenseNet→修改了网络结构U-Net→修改了激活函数,拼接catResNet→相加add
- 机器学习系列12:反向传播算法
SuperFengCode
机器学习系列机器学习神经网络反向传播算法梯度检验机器学习笔记
当我们要运用高级算法进行梯度下降时,需要计算两个值,代价函数和代价函数的偏导数:代价函数我们之前已经知道怎么求了,现在只需要求代价函数的偏导数即可。采用如下方法,先进行前向传播算法,然后再进行反向传播算法(BackpropagationAlgorithm),反向传播算法与前向传播算法方向相反,它用来求代价函数的偏导数。具体过程看下图:用δ作为误差,计算方法为:有时我们在运用反向传播算法时会遇到bu
- 李宏毅机器学习笔记——反向传播算法
小陈phd
机器学习机器学习算法神经网络
反向传播算法反向传播(Backpropagation)是一种用于训练人工神经网络的算法,它通过计算损失函数相对于网络中每个参数的梯度来更新这些参数,从而最小化损失函数。反向传播是深度学习中最重要的算法之一,通常与梯度下降等优化算法结合使用。反向传播的基本原理反向传播的核心思想是利用链式法则(ChainRule)来高效地计算损失函数相对于每个参数的梯度。以下是反向传播的基本步骤:前向传播(Forwa
- 【深度学习】
feifeikon
深度学习人工智能
梯度消失和梯度爆炸(解释意思,分析产生原因)在反向传播过程中需要对激活函数进行求导,如果导数大于1,那么随着网络层数的增加梯度更新将会朝着指数爆炸的方式增加这就是梯度爆炸。同样如果导数小于1,那么随着网络层数的增加梯度更新信息会朝着指数衰减的方式减少这就是梯度消失。因此,梯度消失、爆炸,其根本原因在于反向传播训练法则,属于先天不足。请解释什么是batchnormal,它有什么作用?神经网络在训练的
- 深度学习(一)
小泽爱刷题
深度学习人工智能
稀疏激活是ReLU函数的一个重要特性,它使得在前向传播和反向传播过程中,网络的计算变得更加高效。大多数神经元的激活值为0可以减少计算和存储开销,从而提高训练效率。sigmoid适用于常用于二分类任务的输出层,因为它能将输出值压缩到[0,1]之间,表示概率值。非零均值:输出值总是非零,这可能会导致训练过程中较慢的收敛。梯度消失问题:当输入值很大或很小时,梯度接近于0,导致训练过程中梯度更新变得缓慢。
- 如何开发针对不平衡分类的成本敏感神经网络 python
背包客研究
不平衡学习分类神经网络python
如何开发针对不平衡分类的成本敏感神经网络深度学习神经网络是一类灵活的机器学习算法,可以在各种问题上表现良好。神经网络使用误差反向传播算法进行训练,该算法涉及计算模型在训练数据集上产生的误差,并根据这些误差的比例更新模型权重。这种训练方法的局限性在于,每个类别的示例都被视为相同,对于不平衡的数据集,这意味着模型对一个类别的适应性要强得多,而对另一个类别的适应性则弱得多。反向传播算法可以更新,以根据类
- pytorch中的nn.MSELoss()均方误差损失函数
AndrewPerfect
深度学习python基础pytorch基础pytorch人工智能python
一、nn.MSELoss()是PyTorch中的一个损失函数,用于计算均方误差损失。均方误差损失函数通常用于回归问题中,它的作用是计算目标值和模型预测值之间的平方差的平均值。具体来说,nn.MSELoss()函数的输入是两个张量,即模型的真实值和预测值,输出是一个标量,表示两个张量之间的均方误差。在训练神经网络时,通常将该损失函数作为优化器的目标函数,通过反向传播算法来更新模型的参数,以最小化均方
- 深度学习速通系列:梯度消失vs梯度爆炸
Ven%
深度学习速通系列人工智能深度学习python
梯度消失和梯度爆炸是深度学习中训练深层神经网络时常见的两个问题,它们影响网络的训练过程和性能。梯度消失(VanishingGradientProblem)定义:梯度消失是指在深层神经网络的反向传播过程中,由于链式法则,梯度值随着层数的增加而迅速减小,最终趋近于零。原因:激活函数的导数很小,如Sigmoid或Tanh函数在输入值非常大或非常小的时候导数接近零。权重初始化不当,导致梯度在网络中的传播过
- 【ShuQiHere】从零开始实现逻辑回归:深入理解反向传播与梯度下降
ShuQiHere
代码武士的机器学习秘传逻辑回归算法机器学习
【ShuQiHere】逻辑回归是机器学习中一个经典的分类算法,尽管它的名字中带有“回归”,但它的主要用途是处理二分类问题。逻辑回归通过一个逻辑函数(Sigmoid函数)将输入特征映射到一个概率值上,然后根据这个概率值进行分类。本文将带你从零开始一步步实现逻辑回归,并深入探讨背后的核心算法——反向传播与梯度下降。逻辑回归的数学基础逻辑回归的目标是找到一个逻辑函数,能够将输入特征映射到一个(0,1)之
- 【技术博客】生成式对抗网络模型综述
MomodelAI
34-生成式对抗网络模型综述作者:张真源GANGAN简介生成式对抗网络(Generativeadversarialnetworks,GANs)的核心思想源自于零和博弈,包括生成器和判别器两个部分。生成器接收随机变量并生成“假”样本,判别器则用于判断输入的样本是真实的还是合成的。两者通过相互对抗来获得彼此性能的提升。判别器所作的其实就是一个二分类任务,我们可以计算他的损失并进行反向传播求出梯度,从而
- 反向传播算法:深度神经网络学习的核心机制
2402_85758936
算法dnn学习
引言深度神经网络(DNNs)之所以在众多领域取得革命性的成功,很大程度上归功于其强大的学习能力,而这一能力的核心是反向传播算法(Backpropagation)。这是一种高效的监督学习算法,用于训练多层前馈神经网络。本文将深入探讨反向传播算法的工作原理及其在DNN中的应用。反向传播算法的基本概念反向传播算法结合了梯度下降优化和链式法则,通过计算损失函数关于网络参数的梯度来更新网络权重。1.损失函数
- PyTorch实现CIFAR-10分类代码
曹勖之
PyTorch学习之路深度学习pytorch
这篇是PyTorch学习之路第七篇,用于记录PyTorch实现CIFAR-10分类代码(书上的代码有好多冗余)目录完整代码(还未训练)完整代码(已训练,直接载入模型)下面实例数据集位于:C:\Users\22130\Learning_Pytorch\dataset完整代码(还未训练)importtorchimporttorchvisionimporttorchvision.transformsas
- 24.8.24学习心得
kkkkk021106
学习
x.grad.zero_()y=x.sum()y.backward()x.gradtensor([1.,1.,1.,1.])因为y是x中所有元素的总和,所以x的每个元素对y的贡献都是相等的,因此每个元素的梯度都是1。u=y.detach()detach()方法用于从计算图中分离出一个张量,使其不再跟踪历史,这样就不会在反向传播时影响u。范数(Norm)是一个数学概念,在不同的领域有不同的应用,比如
- 机器学习常见公式推导
stubborn vegeta
机器学习人工智能
线性层的反向传播对于函数Y=XWY=XWY=XW(注:XXX是一个m×nm\timesnm×n的矩阵,WWW是一个n×kn\timeskn×k的矩阵,YYY是一个m×km\timeskm×k的矩阵。这里的WWW通常代表模型的权重,而XXX代表输入数据。)如何求∂Y∂W\frac{\partialY}{\partialW}∂W∂Y呢,通常我们只关心其一个特定的切片,即∂Yij∂Wrs\frac{\p
- cnn卷积神经网络反向传播,卷积神经网络维度变化
阳阳2013哈哈
PHPcnn机器学习深度学习神经网络
卷积神经网络是如何反向调整参数的?卷积神经网络反向传播和bp有什么区别如何理解神经网络里面的反向传播算法反向传播算法(Backpropagation)是目前用来训练人工神经网络(ArtificialNeuralNetwork,ANN)的最常用且最有效的算法。其主要思想是:(1)将训练集数据输入到ANN的输入层,经过隐藏层,最后达到输出层并输出结果,这是ANN的前向传播过程;(2)由于ANN的输出结
- pytorch中的zero_grad()执行时机
TomcatLikeYou
pytorch人工智能python
在反向传播(backward())前执行即可zero_grad()用以清除优化器的梯度对张量执行backward(),以计算累积梯度执行optimizer.step(),优化器使用梯度更新参数当优化器更新完成,梯度即失去意义,即可以清除,为保证下一次梯度开始累积时为0,则在下一次执行反向传播前清除即可
- 深度学习学习经验——深度学习名词字典
Linductor
深度学习学习经验深度学习学习人工智能
深度学习名词字典1.张量(Tensor)2.神经网络(NeuralNetwork)3.损失函数(LossFunction)4.优化器(Optimizer)5.激活函数(ActivationFunction)6.前向传播(ForwardPropagation)7.反向传播(BackwardPropagation)8.批量(Batch)9.欠拟合(Underfitting)10.过拟合(Overfit
- Python_pytorch(五)模型训练
Han Gang
pythonpytorch深度学习
反向传播LossFunctionimporttorchvisionfromtorchimportnnfromtorch.nnimportFlattenfromtorch.utils.dataimportDataLoaderdataset=torchvision.datasets.CIFAR10("./data",train=False,transform=torchvision.transform
- Spark MLlib模型训练—分类算法Multilayer Perceptron Classifier
猫猫姐
Spark实战spark-mlspark机器学习
SparkMLlib模型训练—分类算法MultilayerPerceptronClassifierMultilayerPerceptronClassifier(多层感知器分类器,简称MLP)是SparkMLlib中用于分类任务的神经网络模型。MLP是一种前馈神经网络(FeedforwardNeuralNetwork),其架构由输入层、隐藏层和输出层组成。MLP通过反向传播算法(Backpropag
- 神经网络(深度学习,计算机视觉,得分函数,损失函数,前向传播,反向传播,激活函数)
MarkHD
深度学习神经网络计算机视觉
神经网络,特别是深度学习,在计算机视觉等领域有着广泛的应用。以下是关于你提到的几个关键概念的详细解释:神经网络:神经网络是一种模拟人脑神经元结构的计算模型,用于处理复杂的数据和模式识别任务。它由多个神经元(或称为节点)组成,这些神经元通过权重和偏置进行连接,并可以学习调整这些参数以优化性能。深度学习:深度学习是神经网络的一个子领域,主要关注于构建和训练深度神经网络(即具有多个隐藏层的神经网络)。通
- 神奇的微积分
科学的N次方
人工智能人工智能ai
微积分在人工智能(AI)领域扮演着至关重要的角色,以下是其主要作用:优化算法:•梯度下降法:微积分中的导数被用来计算损失函数相对于模型参数的梯度,这是许多机器学习和深度学习优化算法的核心。梯度指出了函数值增加最快的方向,通过沿着负梯度方向更新权重,可以最小化损失函数并优化模型。•反向传播:在神经网络训练中,微积分的链式法则用于计算整个网络中每个参数对于最终损失函数的影响(偏导数),这一过程就是反向
- PyTorch学习笔记之基础函数篇(四)
熊猫Devin
深度学习之PyTorchpytorch学习笔记
文章目录2.8torch.logspace函数讲解2.9torch.ones函数2.10torch.rand函数2.11torch.randn函数2.12torch.zeros函数2.8torch.logspace函数讲解torch.logspace函数在PyTorch中用于生成一个在对数尺度上均匀分布的张量(tensor)。这意味着张量中的元素是按照对数间隔排列的,而不是线性间隔。这对于创建在数
- 深度学习——梯度消失、梯度爆炸
小羊头发长
深度学习机器学习人工智能
本文参考:深度学习之3——梯度爆炸与梯度消失梯度消失和梯度爆炸的根源:深度神经网络结构、反向传播算法目前优化神经网络的方法都是基于反向传播的思想,即根据损失函数计算的误差通过反向传播的方式,指导深度网络权值的更新。为什么神经网络优化用到梯度下降的优化方法?深度网络是由许多非线性层(带有激活函数)堆叠而成,每一层非线性层可以视为一个非线性函数f(x),因此整个深度网络可以视为一个复合的非线性多元函数
- 深度学习——第8章 深层神经网络(DNN)
曲入冥
深度学习深度学习神经网络dnn机器学习人工智能
第8章深层神经网络(DNN)目录8.1神经网络为什么要深?8.2深层神经网络标记符号8.3正向传播8.4反向传播8.5多分类Softmax8.6总结上一课是实战内容,我们使用Python一步步搭建了一个最简单的神经网络模型,只包含单层隐藏层。并使用这个简单模型对非线性可分的样本集进行分类,最终得到了不错的分类效果。本节将继续从深度神经网络入手,介绍深层神经网络的数学原理和推导过程。8.1神经网络为
- [星球大战]阿纳金的背叛
comsci
本来杰迪圣殿的长老是不同意让阿纳金接受训练的.........
但是由于政治原因,长老会妥协了...这给邪恶的力量带来了机会
所以......现代的地球联邦接受了这个教训...绝对不让某些年轻人进入学院
- 看懂它,你就可以任性的玩耍了!
aijuans
JavaScript
javascript作为前端开发的标配技能,如果不掌握好它的三大特点:1.原型 2.作用域 3. 闭包 ,又怎么可以说你学好了这门语言呢?如果标配的技能都没有撑握好,怎么可以任性的玩耍呢?怎么验证自己学好了以上三个基本点呢,我找到一段不错的代码,稍加改动,如果能够读懂它,那么你就可以任性了。
function jClass(b
- Java常用工具包 Jodd
Kai_Ge
javajodd
Jodd 是一个开源的 Java 工具集, 包含一些实用的工具类和小型框架。简单,却很强大! 写道 Jodd = Tools + IoC + MVC + DB + AOP + TX + JSON + HTML < 1.5 Mb
Jodd 被分成众多模块,按需选择,其中
工具类模块有:
jodd-core &nb
- SpringMvc下载
120153216
springMVC
@RequestMapping(value = WebUrlConstant.DOWNLOAD)
public void download(HttpServletRequest request,HttpServletResponse response,String fileName) {
OutputStream os = null;
InputStream is = null;
- Python 标准异常总结
2002wmj
python
Python标准异常总结
AssertionError 断言语句(assert)失败 AttributeError 尝试访问未知的对象属性 EOFError 用户输入文件末尾标志EOF(Ctrl+d) FloatingPointError 浮点计算错误 GeneratorExit generator.close()方法被调用的时候 ImportError 导入模块失
- SQL函数返回临时表结构的数据用于查询
357029540
SQL Server
这两天在做一个查询的SQL,这个SQL的一个条件是通过游标实现另外两张表查询出一个多条数据,这些数据都是INT类型,然后用IN条件进行查询,并且查询这两张表需要通过外部传入参数才能查询出所需数据,于是想到了用SQL函数返回值,并且也这样做了,由于是返回多条数据,所以把查询出来的INT类型值都拼接为了字符串,这时就遇到问题了,在查询SQL中因为条件是INT值,SQL函数的CAST和CONVERST都
- java 时间格式化 | 比较大小| 时区 个人笔记
7454103
javaeclipsetomcatcMyEclipse
个人总结! 不当之处多多包含!
引用 1.0 如何设置 tomcat 的时区:
位置:(catalina.bat---JAVA_OPTS 下面加上)
set JAVA_OPT
- 时间获取Clander的用法
adminjun
Clander时间
/**
* 得到几天前的时间
* @param d
* @param day
* @return
*/
public static Date getDateBefore(Date d,int day){
Calend
- JVM初探与设置
aijuans
java
JVM是Java Virtual Machine(Java虚拟机)的缩写,JVM是一种用于计算设备的规范,它是一个虚构出来的计算机,是通过在实际的计算机上仿真模拟各种计算机功能来实现的。Java虚拟机包括一套字节码指令集、一组寄存器、一个栈、一个垃圾回收堆和一个存储方法域。 JVM屏蔽了与具体操作系统平台相关的信息,使Java程序只需生成在Java虚拟机上运行的目标代码(字节码),就可以在多种平台
- SQL中ON和WHERE的区别
avords
SQL中ON和WHERE的区别
数据库在通过连接两张或多张表来返回记录时,都会生成一张中间的临时表,然后再将这张临时表返回给用户。 www.2cto.com 在使用left jion时,on和where条件的区别如下: 1、 on条件是在生成临时表时使用的条件,它不管on中的条件是否为真,都会返回左边表中的记录。
- 说说自信
houxinyou
工作生活
自信的来源分为两种,一种是源于实力,一种源于头脑.实力是一个综合的评定,有自身的能力,能利用的资源等.比如我想去月亮上,要身体素质过硬,还要有飞船等等一系列的东西.这些都属于实力的一部分.而头脑不同,只要你头脑够简单就可以了!同样要上月亮上,你想,我一跳,1米,我多跳几下,跳个几年,应该就到了!什么?你说我会往下掉?你笨呀你!找个东西踩一下不就行了吗?
无论工作还
- WEBLOGIC事务超时设置
bijian1013
weblogicjta事务超时
系统中统计数据,由于调用统计过程,执行时间超过了weblogic设置的时间,提示如下错误:
统计数据出错!
原因:The transaction is no longer active - status: 'Rolling Back. [Reason=weblogic.transaction.internal
- 两年已过去,再看该如何快速融入新团队
bingyingao
java互联网融入架构新团队
偶得的空闲,翻到了两年前的帖子
该如何快速融入一个新团队,有所感触,就记下来,为下一个两年后的今天做参考。
时隔两年半之后的今天,再来看当初的这个博客,别有一番滋味。而我已经于今年三月份离开了当初所在的团队,加入另外的一个项目组,2011年的这篇博客之后的时光,我很好的融入了那个团队,而直到现在和同事们关系都特别好。大家在短短一年半的时间离一起经历了一
- 【Spark七十七】Spark分析Nginx和Apache的access.log
bit1129
apache
Spark分析Nginx和Apache的access.log,第一个问题是要对Nginx和Apache的access.log文件进行按行解析,按行解析就的方法是正则表达式:
Nginx的access.log解析正则表达式
val PATTERN = """([^ ]*) ([^ ]*) ([^ ]*) (\\[.*\\]) (\&q
- Erlang patch
bookjovi
erlang
Totally five patchs committed to erlang otp, just small patchs.
IMO, erlang really is a interesting programming language, I really like its concurrency feature.
but the functional programming style
- log4j日志路径中加入日期
bro_feng
javalog4j
要用log4j使用记录日志,日志路径有每日的日期,文件大小5M新增文件。
实现方式
log4j:
<appender name="serviceLog"
class="org.apache.log4j.RollingFileAppender">
<param name="Encoding" v
- 读《研磨设计模式》-代码笔记-桥接模式
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
/**
* 个人觉得关于桥接模式的例子,蜡笔和毛笔这个例子是最贴切的:http://www.cnblogs.com/zhenyulu/articles/67016.html
* 笔和颜色是可分离的,蜡笔把两者耦合在一起了:一支蜡笔只有一种
- windows7下SVN和Eclipse插件安装
chenyu19891124
eclipse插件
今天花了一天时间弄SVN和Eclipse插件的安装,今天弄好了。svn插件和Eclipse整合有两种方式,一种是直接下载插件包,二种是通过Eclipse在线更新。由于之前Eclipse版本和svn插件版本有差别,始终是没装上。最后在网上找到了适合的版本。所用的环境系统:windows7JDK:1.7svn插件包版本:1.8.16Eclipse:3.7.2工具下载地址:Eclipse下在地址:htt
- [转帖]工作流引擎设计思路
comsci
设计模式工作应用服务器workflow企业应用
作为国内的同行,我非常希望在流程设计方面和大家交流,刚发现篇好文(那么好的文章,现在才发现,可惜),关于流程设计的一些原理,个人觉得本文站得高,看得远,比俺的文章有深度,转载如下
=================================================================================
自开博以来不断有朋友来探讨工作流引擎该如何
- Linux 查看内存,CPU及硬盘大小的方法
daizj
linuxcpu内存硬盘大小
一、查看CPU信息的命令
[root@R4 ~]# cat /proc/cpuinfo |grep "model name" && cat /proc/cpuinfo |grep "physical id"
model name : Intel(R) Xeon(R) CPU X5450 @ 3.00GHz
model name :
- linux 踢出在线用户
dongwei_6688
linux
两个步骤:
1.用w命令找到要踢出的用户,比如下面:
[root@localhost ~]# w
18:16:55 up 39 days, 8:27, 3 users, load average: 0.03, 0.03, 0.00
USER TTY FROM LOGIN@ IDLE JCPU PCPU WHAT
- 放手吧,就像不曾拥有过一样
dcj3sjt126com
内容提要:
静悠悠编著的《放手吧就像不曾拥有过一样》集结“全球华语世界最舒缓心灵”的精华故事,触碰生命最深层次的感动,献给全世界亿万读者。《放手吧就像不曾拥有过一样》的作者衷心地祝愿每一位读者都给自己一个重新出发的理由,将那些令你痛苦的、扛起的、背负的,一并都放下吧!把憔悴的面容换做一种清淡的微笑,把沉重的步伐调节成春天五线谱上的音符,让自己踏着轻快的节奏,在人生的海面上悠然漂荡,享受宁静与
- php二进制安全的含义
dcj3sjt126com
PHP
PHP里,有string的概念。
string里,每个字符的大小为byte(与PHP相比,Java的每个字符为Character,是UTF8字符,C语言的每个字符可以在编译时选择)。
byte里,有ASCII代码的字符,例如ABC,123,abc,也有一些特殊字符,例如回车,退格之类的。
特殊字符很多是不能显示的。或者说,他们的显示方式没有标准,例如编码65到哪儿都是字母A,编码97到哪儿都是字符
- Linux下禁用T440s,X240的一体化触摸板(touchpad)
gashero
linuxThinkPad触摸板
自打1月买了Thinkpad T440s就一直很火大,其中最让人恼火的莫过于触摸板。
Thinkpad的经典就包括用了小红点(TrackPoint)。但是小红点只能定位,还是需要鼠标的左右键的。但是自打T440s等开始启用了一体化触摸板,不再有实体的按键了。问题是要是好用也行。
实际使用中,触摸板一堆问题,比如定位有抖动,以及按键时会有飘逸。这就导致了单击经常就
- graph_dfs
hcx2013
Graph
package edu.xidian.graph;
class MyStack {
private final int SIZE = 20;
private int[] st;
private int top;
public MyStack() {
st = new int[SIZE];
top = -1;
}
public void push(i
- Spring4.1新特性——Spring核心部分及其他
jinnianshilongnian
spring 4.1
目录
Spring4.1新特性——综述
Spring4.1新特性——Spring核心部分及其他
Spring4.1新特性——Spring缓存框架增强
Spring4.1新特性——异步调用和事件机制的异常处理
Spring4.1新特性——数据库集成测试脚本初始化
Spring4.1新特性——Spring MVC增强
Spring4.1新特性——页面自动化测试框架Spring MVC T
- 配置HiveServer2的安全策略之自定义用户名密码验证
liyonghui160com
具体从网上看
http://doc.mapr.com/display/MapR/Using+HiveServer2#UsingHiveServer2-ConfiguringCustomAuthentication
LDAP Authentication using OpenLDAP
Setting
- 一位30多的程序员生涯经验总结
pda158
编程工作生活咨询
1.客户在接触到产品之后,才会真正明白自己的需求。
这是我在我的第一份工作上面学来的。只有当我们给客户展示产品的时候,他们才会意识到哪些是必须的。给出一个功能性原型设计远远比一张长长的文字表格要好。 2.只要有充足的时间,所有安全防御系统都将失败。
安全防御现如今是全世界都在关注的大课题、大挑战。我们必须时时刻刻积极完善它,因为黑客只要有一次成功,就可以彻底打败你。 3.
- 分布式web服务架构的演变
自由的奴隶
linuxWeb应用服务器互联网
最开始,由于某些想法,于是在互联网上搭建了一个网站,这个时候甚至有可能主机都是租借的,但由于这篇文章我们只关注架构的演变历程,因此就假设这个时候已经是托管了一台主机,并且有一定的带宽了,这个时候由于网站具备了一定的特色,吸引了部分人访问,逐渐你发现系统的压力越来越高,响应速度越来越慢,而这个时候比较明显的是数据库和应用互相影响,应用出问题了,数据库也很容易出现问题,而数据库出问题的时候,应用也容易
- 初探Druid连接池之二——慢SQL日志记录
xingsan_zhang
日志连接池druid慢SQL
由于工作原因,这里先不说连接数据库部分的配置,后面会补上,直接进入慢SQL日志记录。
1.applicationContext.xml中增加如下配置:
<bean abstract="true" id="mysql_database" class="com.alibaba.druid.pool.DruidDataSourc