- 深度学习——CNN(3)
飘涯
前言:前面介绍了最基本的Lenet,下面介绍几种其他的网络结构CNN-AlexNet网络结构如下图:从图中可以看出,采用双gpu训练增加LRN归一化层:本质上,这个层也是为了防止激活函数的饱和的。采用dropout防止过拟合基于AlexNet进行微调,诞生了ZF-netCNN-GoogleNetGoogLeNet借鉴了NIN的特性,在原先的卷积过程中附加了11的卷积核加上ReLU激活。这不仅仅提升
- Python训练营打卡 Day53
yunvwugua__
python自学打卡python开发语言
对抗生成网络知识点回顾:对抗生成网络的思想:关注损失从何而来生成器、判别器nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法leakyReLU介绍:避免relu的神经元失活现象对抗生成网络(GAN)知识点回顾对抗生成网络的思想思想:就像在餐厅中,有一个厨师(生成器)负责制作假菜,一个评论家(判别器)负责区分真菜和假菜。厨师的目标是制作出评论家无法区分的假菜,而评论家的目标是找
- 什么是深度学习框架中的计算图?
杰瑞学AI
ComputerknowledgeNLP/LLMsAI/AGI深度学习人工智能pytorch
在深度学习框架中,计算图是核心的数据结构和抽象概念,它用来表示和定义深度学习模型的计算过程。我们可以把它想象成一个描述数学运算如何组合和执行的有向图。以下是计算图的关键要素和作用:节点:代表操作或变量。操作:数学运算,如加法(+)、乘法(*)、矩阵乘法(matmul)、激活函数(ReLU,sigmoid)、卷积(conv2d)、损失函数(cross_entropy)等。变量:通常是张量,即存储数据
- Pytorch 之torch.nn初探 torch.nn.Module与线性--Linear layers
十有久诚
人工智能机器学习pytorch
初探torch.nn.Module神经网络可以使用torch.nn包构建。它提供了几乎所有与神经网络相关的功能,例如:线性图层nn.Linear,nn.Bilinear卷积层nn.Conv1d,nn.Conv2d,nn.Conv3d,nn.ConvTranspose2d非线性nn.Sigmoid,nn.Tanh,nn.ReLU,nn.LeakyReLU池化层nn.MaxPool1d,nn.Aver
- Python训练营-Day41
m0_72314023
python深度学习神经网络
#原始模型(2层卷积)classOriginalCNN(nn.Module):def__init__(self):super().__init__()self.conv1=nn.Conv2d(1,16,3)self.conv2=nn.Conv2d(16,32,3)self.fc=nn.Linear(32*5*5,10)defforward(self,x):x=torch.relu(self.con
- day41
m0_62568655
python训练营python
#原始模型(2层卷积)classOriginalCNN(nn.Module):def__init__(self):super().__init__()self.conv1=nn.Conv2d(1,16,3)self.conv2=nn.Conv2d(16,32,3)self.fc=nn.Linear(32*5*5,10)defforward(self,x):x=torch.relu(self.con
- 深度学习学习经验——卷积神经网络(CNN)
Linductor
深度学习学习经验深度学习学习cnn
卷积神经网络卷积神经网络(CNN)1.卷积神经网络的基本组成2.卷积操作3.激活函数(ReLU)4.池化操作5.全连接层6.卷积神经网络的完整实现项目示例项目目标1.加载数据2.卷积层:图像的特征探测器2.1第一个卷积层3.激活函数:增加非线性4.池化层:信息压缩器5.多层卷积和池化:逐层提取更高层次的特征6.全连接层:分类器7.模型训练和测试完整的项目示例代码总结卷积神经网络(CNN)卷积神经网
- Python Day53
别勉.
python机器学习python开发语言
Task:1.对抗生成网络的思想:关注损失从何而来2.生成器、判别器3.nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法4.leakyReLU介绍:避免relu的神经元失活现象1.对抗生成网络的思想:关注损失从何而来这是理解GANs的关键!传统的神经网络训练中,我们通常会直接定义一个损失函数(如均方误差MSE、交叉熵CE),然后通过反向传播来优化这个损失。这个损失的“来源”
- CNN-LSTM神经网络多输入单输出回归预测【MATLAB】
沅_Yuan
炼丹师神经网络cnnlstm
1CNN(卷积神经网络)部分作用:特征提取:CNN主要用于从输入数据中提取空间特征。它能够处理图像、视频帧或其他形式的空间数据。组成部分:卷积层:使用卷积核对输入数据进行卷积操作,生成特征图。激活函数:通常使用ReLU(线性整流单元)激活函数,增加非线性。池化层:通过最大池化(MaxPooling)或平均池化(AveragePooling),减少特征图的尺寸,保留最重要的特征,减少计算复杂度。流程
- 【机器学习&深度学习】前馈神经网络(单隐藏层)
一叶千舟
深度学习【理论】机器学习深度学习神经网络
目录一、什么是前馈神经网络?二、数学表达式是什么?三、为什么需要“非线性函数”?四、NumPy实现前馈神经网络代码示例五、运行结果六、代码解析6.1初始化部分6.2前向传播6.3计算损失(Loss)6.4反向传播(手动)6.5更新参数(梯度下降)6.6循环训练七、训练过程可视化(思维图)八、关键问题答疑Q1:为什么需要隐藏层?Q2:ReLU是干嘛的?Q3:学习率怎么选?九、总结学习建议在机器学习中
- 【机器学习实战】Datawhale夏令营2:深度学习回顾
城主_全栈开发
机器学习机器学习深度学习人工智能
#DataWhale夏令营#ai夏令营文章目录1.深度学习的定义1.1深度学习&图神经网络1.2机器学习和深度学习的关系2.深度学习的训练流程2.1数学基础2.1.1梯度下降法基本原理数学表达步骤学习率α梯度下降的变体2.1.2神经网络与矩阵网络结构表示前向传播激活函数反向传播批处理卷积操作参数更新优化算法正则化初始化2.2激活函数Sigmoid函数:Tanh函数:ReLU函数(Rectified
- 第五章 卷积神经网络(CNN)
AI拉呱
机器学习深度学习实例讲解与分析
第五章卷积神经网络(CNN)5.1卷积神经网络的组成层在卷积神经网络中,有3种最主要的层:卷积运算层池化层全连接层一个完整的神经网络就是由这三种层叠加组成的。结构示例拿CIFAR-10数据集举例,一个典型的该数据集上的卷积神经网络分类器应该有[INPUT-CONV-RELU-POOL-FC]的结构,INPUT[32*32*3]包含原始图片数据中的全部像素,长宽都是32,有RGB3个颜色通道。CON
- day53python打卡
qq_58459892
py打开学习pytorch人工智能算法深度学习python
知识点回顾:对抗生成网络的思想:关注损失从何而来生成器、判别器nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法leakyReLU介绍:避免relu的神经元失活现象ps;如果你学有余力,对于gan的损失函数的理解,建议去找找视频看看,如果只是用,没必要学作业:对于心脏病数据集,对于病人这个不平衡的样本用GAN来学习并生成病人样本,观察不用GAN和用GAN的F1分数差异。一、G
- 深度学习——激活函数
笨小古
深度强化学习深度学习人工智能
深度学习——激活函数激活函数是人工是人工神经网络中一个关键的组成部分,它被设计用来引入非线性特性到神经网络模型中,使神经网络能够学习和逼近复杂的非线性映射关系。1.引入非线性能力没有激活函数的神经网络本质上只是线性变换的叠加,无论多少层也只能表示线性函数,能力有限。激活函数使网络可以逼近任意复杂函数(依据万能逼近定理)2.控制信息流动某些激活函数可以抑制部分神经元的输出(如ReLU),是模型更稀疏
- python打卡day53@浙大疏锦行
风逸hhh
python打卡60天行动python开发语言
知识点回顾:对抗生成网络的思想:关注损失从何而来生成器、判别器nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法leakyReLU介绍:避免relu的神经元失活现象ps;如果你学有余力,对于gan的损失函数的理解,建议去找找视频看看,如果只是用,没必要学作业:对于心脏病数据集,对于病人这个不平衡的样本用GAN来学习并生成病人样本,观察不用GAN和用GAN的F1分数差异。一、数
- 打卡Day53
月宝好q
python60天打卡深度学习人工智能python
知识点:1.对抗生成网络的思想:关注损失从何而来2.生成器、判别器3.nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法4.leakyReLU介绍:避免relu的神经元失活现象ps:如果你学有余力,对于gan的损失函数的理解,建议去找找视频看看,如果只是用,没必要学作业:对于心脏病数据集,对于病人这个不平衡的样本用GAN来学习并生成病人样本,观察不用GAN和用GAN的F1分数
- VGG-19(Visual Geometry Group)模型
VGG-19是由牛津大学视觉几何组和GoogleDeepMind的研究人员在2014年提出的一个非常经典的深度卷积神经网络模型。一核心结构(1)深度:模型名称中的"19"指的是模型拥有19层带有权重的层(通常指:16个卷积层+3个全连接层=19。如果严格数带参数的层,输入层和ReLU激活层不计入深度统计)。(2)简单范式:VGG系列模型(包括VGG-11,VGG-13,VGG-16,VGG-19)
- 对上一节的NN网络中的前向和反向传递函数进行详解
@DaKeXiaoLe
神经网络神经网络python
网络说明前向传递函数单个神经节点的前向传递为:outputN=sigmoid(∑i=0n(outputiN−1∗Wi)+b)outputN=ReLU(∑i=0n(outputiN−1∗WiN)+b)output^N=sigmoid(\sum_{i=0}^n(output_i^{N-1}*W^i)+b)\\output^N=ReLU(\sum_{i=0}^n(output_i^{N-1}*W^N_i
- 残差网络中相加后激活的深度解析
浩瀚之水_csdn
#目标分类(理论)网络
残差网络中相加后激活的深度解析在残差网络中,"相加后激活"(post-additionactivation)是ResNet原始设计的关键特征,这一设计选择背后蕴含了深刻的神经网络原理,对模型性能有着重要影响。核心设计原理图示为什么不在相加前激活?数学视角:残差学习原理原始残差块设计目标:y=F(x)+x当F(x)优化到0时,网络退化为恒等映射:y=0+x=x如果在相加前激活:y=ReLU(F(x)
- DAY 53 对抗生成网络
MasterLLL0228
Python入门(坚持)人工智能
知识点回顾:对抗生成网络的思想:关注损失从何而来生成器、判别器nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法leakyReLU介绍:避免relu的神经元失活现象ps;如果你学有余力,对于gan的损失函数的理解,建议去找找视频看看,如果只是用,没必要学作业:对于心脏病数据集,对于病人这个不平衡的样本用GAN来学习并生成病人样本,观察不用GAN和用GAN的F1分数差异。imp
- Python----神经网络发(神经网络发展历程)
蹦蹦跳跳真可爱589
Python深度学习神经网络计算机视觉神经网络人工智能深度学习python
年份网络名称突出点主要成就论文地址1989LeNet首个现代卷积神经网络(CNN),引入卷积、池化操作手写数字识别先驱,奠定CNN基础MNISTDemosonYannLeCun'swebsite2012AlexNet首次大规模使用深度卷积神经网络进行图像识别;引入ReLU、Dropout、重叠池化、GPU加速;大规模数据增强。2012年ImageNet图像识别竞赛冠军,Top-5错误率远低于第二名
- python打卡第53天
whyeekkk
python练习python
知识点回顾:对抗生成网络的思想:关注损失从何而来生成器、判别器nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法leakyReLU介绍:避免relu的神经元失活现象importtorchimporttorch.nnasnnimporttorch.optimasoptimfromtorch.utils.dataimportDataLoader,TensorDatasetimpo
- The SkipSponge Attack: Sponge Weight Poisoning of Deep Neural Networks
TheSkipSpongeAttack:SpongeWeightPoisoningofDeepNeuralNetworksSkipSponge:直接修改预训练模型的参数(偏置)增加能耗,增加激活值的非零比例,从而减少稀疏性,导致模型计算能耗和时间的增加。攻击前提:1.目标模型使用促进稀疏性的层(如ReLU)2.模型的稀疏层中有可调整的偏置b攻击方法:改变偏差以增加用作ReLU层的输入的正值的数量,
- BasicBlock组件的详解
浩瀚之水_csdn
#目标分类(理论)神经网络
BasicBlock是ResNet(残差网络)中的核心组件,主要用于解决深度神经网络中的梯度消失问题,同时提升特征表达能力。以下是其关键特性与实现原理的详细解析:一、基本结构与设计原理双层卷积架构BasicBlock由两个连续的3×3卷积层构成,每层后接BatchNormalization(BN)和ReLU激活函数:第一层:3×3卷积,可调整步长(stride)实现下采样。第二层:3×3卷积,固定
- cnn卷积神经变体
MYH516
cnn人工智能神经网络
CNN(卷积神经网络)在计算机视觉领域取得了巨大成功,其变体主要围绕结构优化、计算效率、多尺度特征融合和注意力机制展开。以下是常见的CNN变体及其核心改进点:一、经典架构演进1.LeNet-5(1998)改进:首个成功应用的CNN,奠定了卷积、池化的基本结构。应用:手写数字识别(MNIST)。2.AlexNet(2012)改进:引入ReLU激活函数、Dropout、数据增强,开启深度学习时代。应用
- 深度学习在非线性场景中的核心应用领域及向量/张量数据处理案例,结合工业、金融等领域的实际落地场景分析
MYH516
深度学习人工智能
一、工业场景:非线性缺陷检测与预测1.半导体晶圆缺陷检测问题:微米级划痕、颗粒污染等缺陷形态复杂,与正常纹理呈非线性关系。解决方案:输入张量:高分辨率晶圆图像→三维张量(Batch,Height,Width,Channels)12模型结构:CNN+ReLU激活函数→多层非线性特征提取38输出:缺陷位置概率热图(二维张量)效果:某大厂误检率从8%降至0.5%,检测速度提升
- 深度学习模型:技术演进、热点突破与未来图景
accurater
c++算法笔记深度学习
第一章深度学习模型的技术演进1.1从感知机到深度神经网络里程碑突破:AlexNet在ImageNet竞赛中实现图像分类性能飞跃,首次验证深度卷积网络(CNN)的潜力。其采用ReLU激活函数、Dropout正则化等创新,奠定现代深度学习基础架构。梯度消失的破解:LSTM网络通过门控机制实现长时序依赖建模,为自然语言处理(NLP)开辟道路,后续双向LSTM、GRU等变体持续优化记忆能力。计算范式革新:
- 《Python星球日记》 第51天:神经网络基础
Code_流苏
Python星球日记Python深度学习机器学习神经网络基础神经元激活函数构建神经网络
名人说:路漫漫其修远兮,吾将上下而求索。——屈原《离骚》创作者:Code_流苏(CSDN)(一个喜欢古诗词和编程的Coder)目录一、引言:走进神经网络的世界二、神经元与激活函数1.神经元:计算的基本单元2.激活函数的种类与特点a)Sigmoid函数b)ReLU函数c)Tanh函数三、多层感知机(MLP)结构1.从单个神经元到神经网络2.MLP的基本组成部分3.多层感知机的特点与优势四、前向传播与
- 【大模型面试每日一题】Day 16:为什么SwiGLU激活函数在LLaMA等模型中取代ReLU?从梯度和稀疏性角度分析
是麟渊
LLMInterviewDaily面试每日一题面试llama深度学习语言模型职场和发展人工智能自然语言处理
【大模型面试每日一题】Day16:为什么SwiGLU激活函数在LLaMA等模型中取代ReLU?从梯度和稀疏性角度分析题目重现面试官:我们在LLaMA等大模型中观察到,SwiGLU激活函数逐渐取代传统ReLU。请从梯度传播特性和激活稀疏性两个维度,对比分析SwiGLU相较于ReLU的核心优势,并解释其对大模型训练的适配性。激活函数选择传统ReLUSwiGLU梯度消失稀疏激活平滑梯度可控稀疏核心考点激
- 深度学习实战 04:卷积神经网络之 VGG16 复现三(训练)
生信探索
深度学习cnn人工智能
在后续的系列文章中,我们将逐步深入探讨VGG16相关的核心内容,具体涵盖以下几个方面:卷积原理篇:详细剖析VGG的“堆叠小卷积核”设计理念,深入解读为何3×3×2卷积操作等效于5×5卷积,以及3×3×3卷积操作等效于7×7卷积。架构设计篇:运用PyTorch精确定义VGG16类,深入解析“Conv-BN-ReLU-Pooling”这一标准模块的构建原理与实现方式。3.训练实战篇:在小规模医学影像数
- java类加载顺序
3213213333332132
java
package com.demo;
/**
* @Description 类加载顺序
* @author FuJianyong
* 2015-2-6上午11:21:37
*/
public class ClassLoaderSequence {
String s1 = "成员属性";
static String s2 = "
- Hibernate与mybitas的比较
BlueSkator
sqlHibernate框架ibatisorm
第一章 Hibernate与MyBatis
Hibernate 是当前最流行的O/R mapping框架,它出身于sf.net,现在已经成为Jboss的一部分。 Mybatis 是另外一种优秀的O/R mapping框架。目前属于apache的一个子项目。
MyBatis 参考资料官网:http:
- php多维数组排序以及实际工作中的应用
dcj3sjt126com
PHPusortuasort
自定义排序函数返回false或负数意味着第一个参数应该排在第二个参数的前面, 正数或true反之, 0相等usort不保存键名uasort 键名会保存下来uksort 排序是对键名进行的
<!doctype html>
<html lang="en">
<head>
<meta charset="utf-8&q
- DOM改变字体大小
周华华
前端
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml&q
- c3p0的配置
g21121
c3p0
c3p0是一个开源的JDBC连接池,它实现了数据源和JNDI绑定,支持JDBC3规范和JDBC2的标准扩展。c3p0的下载地址是:http://sourceforge.net/projects/c3p0/这里可以下载到c3p0最新版本。
以在spring中配置dataSource为例:
<!-- spring加载资源文件 -->
<bean name="prope
- Java获取工程路径的几种方法
510888780
java
第一种:
File f = new File(this.getClass().getResource("/").getPath());
System.out.println(f);
结果:
C:\Documents%20and%20Settings\Administrator\workspace\projectName\bin
获取当前类的所在工程路径;
如果不加“
- 在类Unix系统下实现SSH免密码登录服务器
Harry642
免密ssh
1.客户机
(1)执行ssh-keygen -t rsa -C "
[email protected]"生成公钥,xxx为自定义大email地址
(2)执行scp ~/.ssh/id_rsa.pub root@xxxxxxxxx:/tmp将公钥拷贝到服务器上,xxx为服务器地址
(3)执行cat
- Java新手入门的30个基本概念一
aijuans
javajava 入门新手
在我们学习Java的过程中,掌握其中的基本概念对我们的学习无论是J2SE,J2EE,J2ME都是很重要的,J2SE是Java的基础,所以有必要对其中的基本概念做以归纳,以便大家在以后的学习过程中更好的理解java的精髓,在此我总结了30条基本的概念。 Java概述: 目前Java主要应用于中间件的开发(middleware)---处理客户机于服务器之间的通信技术,早期的实践证明,Java不适合
- Memcached for windows 简单介绍
antlove
javaWebwindowscachememcached
1. 安装memcached server
a. 下载memcached-1.2.6-win32-bin.zip
b. 解压缩,dos 窗口切换到 memcached.exe所在目录,运行memcached.exe -d install
c.启动memcached Server,直接在dos窗口键入 net start "memcached Server&quo
- 数据库对象的视图和索引
百合不是茶
索引oeacle数据库视图
视图
视图是从一个表或视图导出的表,也可以是从多个表或视图导出的表。视图是一个虚表,数据库不对视图所对应的数据进行实际存储,只存储视图的定义,对视图的数据进行操作时,只能将字段定义为视图,不能将具体的数据定义为视图
为什么oracle需要视图;
&
- Mockito(一) --入门篇
bijian1013
持续集成mockito单元测试
Mockito是一个针对Java的mocking框架,它与EasyMock和jMock很相似,但是通过在执行后校验什么已经被调用,它消除了对期望 行为(expectations)的需要。其它的mocking库需要你在执行前记录期望行为(expectations),而这导致了丑陋的初始化代码。
&nb
- 精通Oracle10编程SQL(5)SQL函数
bijian1013
oracle数据库plsql
/*
* SQL函数
*/
--数字函数
--ABS(n):返回数字n的绝对值
declare
v_abs number(6,2);
begin
v_abs:=abs(&no);
dbms_output.put_line('绝对值:'||v_abs);
end;
--ACOS(n):返回数字n的反余弦值,输入值的范围是-1~1,输出值的单位为弧度
- 【Log4j一】Log4j总体介绍
bit1129
log4j
Log4j组件:Logger、Appender、Layout
Log4j核心包含三个组件:logger、appender和layout。这三个组件协作提供日志功能:
日志的输出目标
日志的输出格式
日志的输出级别(是否抑制日志的输出)
logger继承特性
A logger is said to be an ancestor of anothe
- Java IO笔记
白糖_
java
public static void main(String[] args) throws IOException {
//输入流
InputStream in = Test.class.getResourceAsStream("/test");
InputStreamReader isr = new InputStreamReader(in);
Bu
- Docker 监控
ronin47
docker监控
目前项目内部署了docker,于是涉及到关于监控的事情,参考一些经典实例以及一些自己的想法,总结一下思路。 1、关于监控的内容 监控宿主机本身
监控宿主机本身还是比较简单的,同其他服务器监控类似,对cpu、network、io、disk等做通用的检查,这里不再细说。
额外的,因为是docker的
- java-顺时针打印图形
bylijinnan
java
一个画图程序 要求打印出:
1.int i=5;
2.1 2 3 4 5
3.16 17 18 19 6
4.15 24 25 20 7
5.14 23 22 21 8
6.13 12 11 10 9
7.
8.int i=6
9.1 2 3 4 5 6
10.20 21 22 23 24 7
11.19
- 关于iReport汉化版强制使用英文的配置方法
Kai_Ge
iReport汉化英文版
对于那些具有强迫症的工程师来说,软件汉化固然好用,但是汉化不完整却极为头疼,本方法针对iReport汉化不完整的情况,强制使用英文版,方法如下:
在 iReport 安装路径下的 etc/ireport.conf 里增加红色部分启动参数,即可变为英文版。
# ${HOME} will be replaced by user home directory accordin
- [并行计算]论宇宙的可计算性
comsci
并行计算
现在我们知道,一个涡旋系统具有并行计算能力.按照自然运动理论,这个系统也同时具有存储能力,同时具备计算和存储能力的系统,在某种条件下一般都会产生意识......
那么,这种概念让我们推论出一个结论
&nb
- 用OpenGL实现无限循环的coverflow
dai_lm
androidcoverflow
网上找了很久,都是用Gallery实现的,效果不是很满意,结果发现这个用OpenGL实现的,稍微修改了一下源码,实现了无限循环功能
源码地址:
https://github.com/jackfengji/glcoverflow
public class CoverFlowOpenGL extends GLSurfaceView implements
GLSurfaceV
- JAVA数据计算的几个解决方案1
datamachine
javaHibernate计算
老大丢过来的软件跑了10天,摸到点门道,正好跟以前攒的私房有关联,整理存档。
-----------------------------华丽的分割线-------------------------------------
数据计算层是指介于数据存储和应用程序之间,负责计算数据存储层的数据,并将计算结果返回应用程序的层次。J
&nbs
- 简单的用户授权系统,利用给user表添加一个字段标识管理员的方式
dcj3sjt126com
yii
怎么创建一个简单的(非 RBAC)用户授权系统
通过查看论坛,我发现这是一个常见的问题,所以我决定写这篇文章。
本文只包括授权系统.假设你已经知道怎么创建身份验证系统(登录)。 数据库
首先在 user 表创建一个新的字段(integer 类型),字段名 'accessLevel',它定义了用户的访问权限 扩展 CWebUser 类
在配置文件(一般为 protecte
- 未选之路
dcj3sjt126com
诗
作者:罗伯特*费罗斯特
黄色的树林里分出两条路,
可惜我不能同时去涉足,
我在那路口久久伫立,
我向着一条路极目望去,
直到它消失在丛林深处.
但我却选了另外一条路,
它荒草萋萋,十分幽寂;
显得更诱人,更美丽,
虽然在这两条小路上,
都很少留下旅人的足迹.
那天清晨落叶满地,
两条路都未见脚印痕迹.
呵,留下一条路等改日再
- Java处理15位身份证变18位
蕃薯耀
18位身份证变15位15位身份证变18位身份证转换
15位身份证变18位,18位身份证变15位
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
蕃薯耀 201
- SpringMVC4零配置--应用上下文配置【AppConfig】
hanqunfeng
springmvc4
从spring3.0开始,Spring将JavaConfig整合到核心模块,普通的POJO只需要标注@Configuration注解,就可以成为spring配置类,并通过在方法上标注@Bean注解的方式注入bean。
Xml配置和Java类配置对比如下:
applicationContext-AppConfig.xml
<!-- 激活自动代理功能 参看:
- Android中webview跟JAVASCRIPT中的交互
jackyrong
JavaScripthtmlandroid脚本
在android的应用程序中,可以直接调用webview中的javascript代码,而webview中的javascript代码,也可以去调用ANDROID应用程序(也就是JAVA部分的代码).下面举例说明之:
1 JAVASCRIPT脚本调用android程序
要在webview中,调用addJavascriptInterface(OBJ,int
- 8个最佳Web开发资源推荐
lampcy
编程Web程序员
Web开发对程序员来说是一项较为复杂的工作,程序员需要快速地满足用户需求。如今很多的在线资源可以给程序员提供帮助,比如指导手册、在线课程和一些参考资料,而且这些资源基本都是免费和适合初学者的。无论你是需要选择一门新的编程语言,或是了解最新的标准,还是需要从其他地方找到一些灵感,我们这里为你整理了一些很好的Web开发资源,帮助你更成功地进行Web开发。
这里列出10个最佳Web开发资源,它们都是受
- 架构师之面试------jdk的hashMap实现
nannan408
HashMap
1.前言。
如题。
2.详述。
(1)hashMap算法就是数组链表。数组存放的元素是键值对。jdk通过移位算法(其实也就是简单的加乘算法),如下代码来生成数组下标(生成后indexFor一下就成下标了)。
static int hash(int h)
{
h ^= (h >>> 20) ^ (h >>>
- html禁止清除input文本输入缓存
Rainbow702
html缓存input输入框change
多数浏览器默认会缓存input的值,只有使用ctl+F5强制刷新的才可以清除缓存记录。
如果不想让浏览器缓存input的值,有2种方法:
方法一: 在不想使用缓存的input中添加 autocomplete="off";
<input type="text" autocomplete="off" n
- POJO和JavaBean的区别和联系
tjmljw
POJOjava beans
POJO 和JavaBean是我们常见的两个关键字,一般容易混淆,POJO全称是Plain Ordinary Java Object / Pure Old Java Object,中文可以翻译成:普通Java类,具有一部分getter/setter方法的那种类就可以称作POJO,但是JavaBean则比 POJO复杂很多, Java Bean 是可复用的组件,对 Java Bean 并没有严格的规
- java中单例的五种写法
liuxiaoling
java单例
/**
* 单例模式的五种写法:
* 1、懒汉
* 2、恶汉
* 3、静态内部类
* 4、枚举
* 5、双重校验锁
*/
/**
* 五、 双重校验锁,在当前的内存模型中无效
*/
class LockSingleton
{
private volatile static LockSingleton singleton;
pri