- 分享一个基于Spark的招聘数据可视化与分析系统Hadoop大数据源码(源码、调试、LW、开题、PPT)
计算机源码社
大数据大数据spark毕业设计项目计算机毕业设计源码计算机毕设论文hadoop计算机课程设计
作者:计算机源码社个人简介:本人八年开发经验,擅长Java、Python、PHP、.NET、Node.js、Android、微信小程序、爬虫、大数据、机器学习等,大家有这一块的问题可以一起交流!学习资料、程序开发、技术解答、文档报告如需要源码,可以扫取文章下方二维码联系咨询Java项目微信小程序项目Android项目Python项目PHP项目ASP.NET项目Node.js项目选题推荐项目实战|基
- Hadoop大数据实战系列文章之Hive
测试帮日记
hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能,Hive定义了简单的类SQL查询语言,称为HQL,它允许熟悉SQL的用户查询数据可以将sql语句转换为MapReduce任务进行运行,不必开发专门的MapReduce。毕竟会写SQL的人比写JAVA的人多,这样可以让一大批运营人员直接获取海量数据。在数据仓库建设中,HIVE灵活易用且
- Hadoop 大数据技术原理与应用
kk8_
hadoop大数据hdfs
Hadoop大数据技术原理与应用大数据概述定义特征大量,多样,高速,价值研究意义应用场景医疗,金融,零售Hadoop概述历史优势扩容能力强,成本低,高效率,可靠性,高容错Hadoop生态分布式存储系统(HDFS)分布式计算框架(MapReduce)资源管理(YARN)数据迁移(Sqoop)数据挖掘算法库(Mahout)分布式数据库(HBase)分布式协调服务(Zookeeper)数据仓库(Hive
- Hadoop大数据原理(3) - 分布式计算框架MapReduce
小爱玄策
大数据技术hadoopmapreducebigdata
文章目录1.大数据的通用计算2MapReduce编程模型3.MapReduce计算框架3.1三类关键进程大数据应用进程JobTracker进程TaskTracker进程3.2作业启动和运行机制3.3数据合并与连接机制shuffle的过程1.大数据的通用计算 Hadoop出现前就已经有了分布式计算,那个时候的分布式计算是专用的系统,只能专门处理某一类计算,比如进行大规模数据的排序。这样的系统无法复
- Hadoop大数据技术有什么市场价值?2019年Hadoop大数据技术7大应用领域
金光闪闪耶
由于国家对大数据、AI等等技术的关注,在多次发展规划中都提高了大数据技术,因此大数据技术对于这个时代的发展来说至关重要,大数据也正处于发展期、巩固期,基于已有的技术去完善和不断的发展大数据技术产品,满足互联网不符按发在的需求,使国家的技术产业得到进步和发展。大数据已经成长为时代发展的标志,在各大行业机领域都拥有其应用,今天小编就带着大家一起了解一下,大数据技术到底带来了什么?大数据技术是如何发挥自
- 大数据平台的硬件规划、网络调优、架构设计、节点规划
小枫@码
大数据架构师大数据
1.大数据平台硬件选型要对Hadoop大数据平台进行硬件选型,首先需要了解Hadoop的运行架构以及每个角色的功能。在一个典型的Hadoop架构中,通常有5个角色,分别是NameNode、StandbyNameNode、ResourceManager、NodeManager、DataNode以及外围机。其中NameNode负责协调集群上的数据存储,StandbyNameNode属于NameNode
- 【项目实战】基于Hadoop大数据电商平台用户行为分析与可视化系统Hive、Spark计算机程序开发
Q2643365023
项目大数据hadoop大数据hive
注意:该项目只展示部分功能,如需了解,评论区咨询即可。本文目录1设计背景2设计意义3系统展示3.1页面展示3.2视频展示4更多推荐5部分功能代码1设计背景在当今数字化时代,电商行业成为全球商业生态系统的关键组成部分,电商平台已经深入各行各业,影响了人们的购物方式和消费习惯。随着互联网技术的不断发展,电商平台产生了大量的用户数据,包括点击、购买、搜索、浏览历史等行为数据。这些数据蕴含着宝贵的商业洞察
- HADOOP大数据之HDFS管理与运维
奋斗的韭菜汪
一、HDFS数据迁移解决方案HDFS分布式拷贝工具DistCp数据迁移使用场景:冷热集群数据同步、分类存储集群数据整体搬迁数据的准实时同步数据迁移要素考量带宽性能是否支持增量同步4、数据迁移的同步性image.pngDistCp是Hadoop中的一种工具,在hadoop-tools工程下,作为独立子工程存在定位用于数据迁移,定期在集群之间和集群内部备份数据在备份过程中,每次运行DistCp都称为一
- 基于Hadoop的网上购物行为大数据分析及预测系统【flask+echarts+机器学习】前后端交互
王小王-123
hadoopflask网上购物行为分析Hadoop大数据淘宝Hadoop系统
有需要本项目或者部署的系统可以私信博主,提供远程部署和讲解本研究基于淘宝用户行为的开源数据展开大数据分析研究,通过Hadoop大数据分析平台对阿里天池公开的开源数据集进行多维度的用户行为分析,为电商销售提供可行性决策。首先我们将大数据集上传到Hadoop中的HDFS存储,之后利用Hadoop的Flume组件,配置好自动加载数据的环境,将数据加载到hive数据库中进行大数据分析。通过对常见的电商指标
- 【学习笔记】尚硅谷Hadoop大数据教程笔记
棉花糖灬
大数据大数据hadoopMapReduceyarnhdfs
本文是尚硅谷Hadoop教程的学习笔记,由于个人的需要,只致力于搞清楚Hadoop是什么,它可以解决什么问题,以及它的原理是什么。至于具体怎么安装、使用和编写代码不在我考虑的范围内。一、Hadoop入门大数据的特点:Volume(大量)Velocity(高速)Variety(多样)Value(低价值密度)1.Hadoop概念是一个分布式系统基础架构2.Hadoop优势高可靠高扩展性高效性高容错性3
- 《Hadoop大数据技术原理与运用》知识点总结
呆小黎
大数据hadoop数据库分布式
Hadoop学习过程中的一些笔记参考书籍《Hadoop大数据技术原理与应用》清华大学出版社黑马程序员/编著1.什么是大数据?大数据的四个特征是什么?答:一种规模大到在获取、存储、管理、分析方面大大超出了传统数据库软件工具能力范围的数据集合具有海量数据规模、快速数据流转、多样数据类型一级价值密度四大特征。2.另外,在Hadoop架构里面,元数据的含义是什么?答:文件的大小、位置、权限3.本书里面使用
- 大数据开发个人简历范本(2024最新版-附模板)
itLeeyw
简历怎么写大数据简历简历工具个人简历简历模板
大数据开发工程师个人简历范本>男22本科张三计算机科学与技术1234567890个人概述具备深入的Hadoop大数据运维工程师背景,熟悉相关技术和工具具备良好的团队合作能力,善于沟通和协作具有快速学习新知识和解决问题的能力对于数据科学和分析充满热情,喜欢研究和探索新技术专业技能大数据熟悉Hadoop、Spark、Hive等大数据技术栈,具有实际项目经验数据库熟悉MySQL、MongoDB等数据库系
- Hadoop大数据生态系统及常用组件简介
669生活
大数据编程语言人工智能大数据程序员编程语言hadoop
经过多年信息化建设,我们已经进入一个神奇的“大数据”时代,无论是在通讯社交过程中使用的微信、QQ、电话、短信,还是吃喝玩乐时的用到的团购、电商、移动支付,都不断产生海量信息数据,数据和我们的工作生活密不可分、须臾难离。什么是大数据什么是大数据,多大算大,100G算大么?如果是用来存储1080P的高清电影,也就是几部影片的容量。但是如果100G都是文本数据,比如我们的后端kafka里的数据,抽取一条
- 【2023Hadoop大数据技术应用期末复习】填空题题型整理
Lacszer
大数据
大数据的4V特征包含()()()()答案:大量、多样、高速、价值Hadoop三大组件包含()()()答案:HDFS、MapReduce、YarnHadoop2.x版本中的HDFS是由()()()组成答案:NameNode、DataNode、SecondaryNameNodeHadoop发行版本分为答案:开源社区版、商业版目前Hadoop发布的版本主要有()()()答案:Hadoop1.x、Hado
- 【2023Hadoop大数据技术应用期末复习】选择题题型整理
Lacszer
大数据
文章目录单选题多选题单选题创建虚拟机的过程中,网络类型建议选择?A.使用桥接网络B.使用网络地址转换(NAT)C.使用仅主机模式网路D.不适用网路连接答案:B使用什么命令对jdk压缩包解压?A.tar-zxvfjdk-8u141-linux-x64.tar.gzB.zip-zxvfjdk-8u141-linux-x64.tar.gzC.uzipjdk-8u141-linux-x64.tar.gzD
- Hadoop大数据实战系列文章之HDFS文件系统
测试帮日记
Hadoop附带了一个名为HDFS(Hadoop分布式文件系统)的分布式文件系统,专门存储超大数据文件,为整个Hadoop生态圈提供了基础的存储服务。本章内容:1)HDFS文件系统的特点,以及不适用的场景2)HDFS文件系统重点知识点:体系架构和数据读写流程3)关于操作HDFS文件系统的一些基本用户命令1.HDFS特点:HDFS专为解决大数据存储问题而产生的,其具备了以下特点:1)HDFS文件系统
- 基于Hadoop大数据的物资数据可视化分析系统
晨曦编程
python实战项目大数据hadoop分布式1024程序员节spark课程设计python
大家可以帮忙点赞、收藏、关注、评论啦精彩专栏推荐订阅:在下方专栏JAVA实战项目文章目录JAVA实战项目一、项目介绍二、开发环境三、项目展示-基于Hadoop大数据的物资数据可视化分析系统四、代码展示五、项目总结大家点赞、收藏、关注、有问题都可留言交流一、项目介绍一、背景随着经济的快速发展,人类社会面临着诸多挑战,其中之一便是。这一问题的存在已经严重影响到社会各个领域的发展,因此,解决这一问题是当
- hadoop大数据学习笔记
驰宇爱吃鱼
学习笔记大数据hadoop学习
一、Hadoop的作用本质来说hadoop的作用是在多计算机集群环境中营造一个统一而稳定的存储和计算环境,并能为其他分布式应用服务提供平台支持。或者说将多台计算机组织成了一台计算机,让他们做同一件事,在这其中HDFS就相当于这台计算机的硬盘,而MapReduce就是这台计算机的CPU控制器。二、Hadoop环境部署按着正常来说我们想要部署Hadoop集群需要把相同的软件部署到众多计算机上,实际学习
- DKhadoop大数据平台基础框架方案概述
yoku酱
大数据作为当下最为热门的事件之一,其实已经不算是很新鲜的事情了。如果是三五年前在讨论大数据,那可能会给人一种很新鲜的感觉。大数据作为当下最为重要的一项战略资源,已经是越来越得到国家和企业的高度重视,我们从大数据被上升到国家战略层面就可窥见一二!现在关于大数据的知识分享可以说已经是铺天盖地了,作为新手入门想查询的信息基本都可以通过网络查询到一些。我对的大数据的了解其实也不是特别丰富,毕竟学习的时间也
- Hadoop大数据集群搭建(超详细)
小飞飞V5
大数据Hadoophadoop
使用了几个学期的实验手册,应该没有啥大问题了,现在分享给大家,希望对你学习hadoop有用实验环境:Vmwareworkstation+CentOS7+Hadoop3.1.3目录第一步:安装虚拟机第二步:虚拟机克隆第三步:网络配置第四步:ssh服务配置第五步:安装JDK第六步:安装Hadoop第七步:Hadoop集群配置第八步:格式化文件系统第九步:启动和关闭hadoop集群第十步:通过UI界面查
- 大数据开发:Hbase集群安装配置入门
成都加米谷大数据
作为Hadoop大数据生态的重要组件,Hbase的学习是非常重要的一块,Hbase作为Hadoop生态原生支持的数据库,基于列式存储,能够承载规模庞大的数据存储需求任务。今天的大数据开发学习分享,我们就主要来讲讲Hbase集群安装配置入门。一、搭建集群环境1、解压文件tar-zxvfhbase-1.3.1-bin.tar.gz2、配置环境变量vim/etc/profileexportHBASE_H
- 在centos7上搭建hadoop大数据平台
船长灬普朗克
大数据hadoop大数据java
目录一、安装搭建java环境1、安装方法2、查看是否已安装3、卸载4、安装4.1检查yum中有没有java1.8包4.2开始安装5、验证二、Hadoop安装1、下载2、准备启动Hadoop集群2.1配置Hadoop守护进程的环境2.2配置系统环境变量2.3配置etc/hadoop/core-site.xml文件2.4配置etc/hadoop/hdfs-site.xml文件2.5配置etc/hado
- Hadoop大数据开发__Spark on YARN模式分布式集群安装部署
姚华军
大数据大数据hadoopsparkSparkonYARNYARN
1、下载解压sparkcd/home/hadoop/apptar-zxvfspark-3.3.0-bin-hadoop3.tgzrmspark-3.3.0-bin-hadoop3.tgzln-sspark-3.3.0-bin-hadoop3spark2、修改spark-env.shcd/home/hadoop/app/spark/confvispark-env.sh#追加下面的路径HADOOP_C
- HADOOP大数据之HDFS数据安全与隐私保护
奋斗的韭菜汪
HDFSTrash垃圾桶功能概述HDFSTrash机制,叫做回收站或者垃圾桶。Trash就像Windows操作系统中的回收站一样。它的目的是防止你无意中删除某些东西。默认情况下是不开启的。启用ITrash功能后,从HDFS中删除某些内容时,文件或目录不会立即被清除,它们将被移动到回收站Current目录中(/user/$(username}/.Trash/current)。.Trash中的文件在用
- cdh亲测2022/11/12
Tian.Mrs
大数据hadoopspark
一、Hadoop大数据平台1、Hadoop发行版(1)完全开源的原生的ApacheHadoop(2)Cloudera与Hortonworks公司的CDH和HDP:在Cloudera和Hortonworks合并后,Cloudera公司推出了新一代的数据平台产品CDPDataCenter(以下简称为CDP),从2021年1月31日开始,所有Cloudera软件都需要有效的订阅,并且只能通过付费墙进行访
- CDH6安装教程(亲自测试越坑版)
inrgihc
Hadoopbigdatahadoopspark
一、Hadoop大数据平台1、Hadoop发行版(1)完全开源的原生的ApacheHadoop(2)Cloudera与Hortonworks公司的CDH和HDP:在Cloudera和Hortonworks合并后,Cloudera公司推出了新一代的数据平台产品CDPDataCenter(以下简称为CDP),从2021年1月31日开始,所有Cloudera软件都需要有效的订阅,并且只能通过付费墙进行访
- hadoop@bigdate-VirtualBox:/mnt/shared$ tar -xzvf hadoop-2.10.2.tar.gz tar (child): hadoop-2.10.2.tar
北辰Charih
大数据挖掘hadoop大数据分布式
在virtualbox的ubuntu虚拟机上使用共享文件夹安装hadoop大数据软件在在virtualbox的ubuntu虚拟机上设置共享文件夹步骤:1.设置共享文件夹自行设定共享文件夹路径以及名称,记得勾选自动挂载(A),运行虚拟机的时候才会自动加载该文件夹。小提示:我按和下面连接的教程差不多的步骤安装配置VM虚拟机Ubuntu系统https://blog.csdn.net/duchenlong
- Hadoop大数据学习线路图-单篇
doers123
hadoophadoop
入门知识对于我们新手入门学习hadoop的朋友来说,首先了解一下云计算和云计算技术是有必要的。下面先是介绍云计算和云计算技术的:云计算,是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机和其他设备,主要是基于互联网的相关服务地增加、使用和交付模式,通常涉及通过互联网来提供动态易扩展且经常是虚拟化的资源。云是网络、互联网的一种比喻说法。过去在图中往往用云来表示电信
- 《大数据时代》读书笔记
Lucia夏天呀
其实是很久很久之前就应该看的一本书,放在“想读”中,最近终于花了几天时间看完。作者在文中的观点集中在五个方面:一、大数据带来公共卫生、商业、思维的变革,开启重大的时代转型,而预测是大数据的核心作者举了谷歌预测流感的快速有效性、机票价格趋势预测网站这两个例子。介绍了随之而来的hadoop大数据处理技术,同时通过各行业的例子说明了当今时代,数据增速超过以往任何一个时代,海量数据将会最终产生质变,改变这
- 毕设分享 基于hadoop大数据教育可视化系统(源码+论文)
毕设算法家
大数据hadooppython毕业设计数据分析
0简介今天学长向大家介绍一个机器视觉的毕设项目毕设分享基于hadoop大数据教育可视化系统(源码+论文)项目获取:https://gitee.com/sinonfin/algorithm-sharing基于hadoop和echarts的教育大数据可视化系统一、摘要在线教育平台现在是教育体系的重要组成部分,在当前大数据时代的背景下,促进教育机构建立统一平台、统一资源管理的数字化教学系统。如何评估系统
- jvm调优总结(从基本概念 到 深度优化)
oloz
javajvmjdk虚拟机应用服务器
JVM参数详解:http://www.cnblogs.com/redcreen/archive/2011/05/04/2037057.html
Java虚拟机中,数据类型可以分为两类:基本类型和引用类型。基本类型的变量保存原始值,即:他代表的值就是数值本身;而引用类型的变量保存引用值。“引用值”代表了某个对象的引用,而不是对象本身,对象本身存放在这个引用值所表示的地址的位置。
- 【Scala十六】Scala核心十:柯里化函数
bit1129
scala
本篇文章重点说明什么是函数柯里化,这个语法现象的背后动机是什么,有什么样的应用场景,以及与部分应用函数(Partial Applied Function)之间的联系 1. 什么是柯里化函数
A way to write functions with multiple parameter lists. For instance
def f(x: Int)(y: Int) is a
- HashMap
dalan_123
java
HashMap在java中对很多人来说都是熟的;基于hash表的map接口的非同步实现。允许使用null和null键;同时不能保证元素的顺序;也就是从来都不保证其中的元素的顺序恒久不变。
1、数据结构
在java中,最基本的数据结构无外乎:数组 和 引用(指针),所有的数据结构都可以用这两个来构造,HashMap也不例外,归根到底HashMap就是一个链表散列的数据
- Java Swing如何实时刷新JTextArea,以显示刚才加append的内容
周凡杨
java更新swingJTextArea
在代码中执行完textArea.append("message")后,如果你想让这个更新立刻显示在界面上而不是等swing的主线程返回后刷新,我们一般会在该语句后调用textArea.invalidate()和textArea.repaint()。
问题是这个方法并不能有任何效果,textArea的内容没有任何变化,这或许是swing的一个bug,有一个笨拙的办法可以实现
- servlet或struts的Action处理ajax请求
g21121
servlet
其实处理ajax的请求非常简单,直接看代码就行了:
//如果用的是struts
//HttpServletResponse response = ServletActionContext.getResponse();
// 设置输出为文字流
response.setContentType("text/plain");
// 设置字符集
res
- FineReport的公式编辑框的语法简介
老A不折腾
finereport公式总结
FINEREPORT用到公式的地方非常多,单元格(以=开头的便被解析为公式),条件显示,数据字典,报表填报属性值定义,图表标题,轴定义,页眉页脚,甚至单元格的其他属性中的鼠标悬浮提示内容都可以写公式。
简单的说下自己感觉的公式要注意的几个地方:
1.if语句语法刚接触感觉比较奇怪,if(条件式子,值1,值2),if可以嵌套,if(条件式子1,值1,if(条件式子2,值2,值3)
- linux mysql 数据库乱码的解决办法
墙头上一根草
linuxmysql数据库乱码
linux 上mysql数据库区分大小写的配置
lower_case_table_names=1 1-不区分大小写 0-区分大小写
修改/etc/my.cnf 具体的修改内容如下:
[client]
default-character-set=utf8
[mysqld]
datadir=/var/lib/mysql
socket=/va
- 我的spring学习笔记6-ApplicationContext实例化的参数兼容思想
aijuans
Spring 3
ApplicationContext能读取多个Bean定义文件,方法是:
ApplicationContext appContext = new ClassPathXmlApplicationContext(
new String[]{“bean-config1.xml”,“bean-config2.xml”,“bean-config3.xml”,“bean-config4.xml
- mysql 基准测试之sysbench
annan211
基准测试mysql基准测试MySQL测试sysbench
1 执行如下命令,安装sysbench-0.5:
tar xzvf sysbench-0.5.tar.gz
cd sysbench-0.5
chmod +x autogen.sh
./autogen.sh
./configure --with-mysql --with-mysql-includes=/usr/local/mysql
- sql的复杂查询使用案列与技巧
百合不是茶
oraclesql函数数据分页合并查询
本片博客使用的数据库表是oracle中的scott用户表;
------------------- 自然连接查询
查询 smith 的上司(两种方法)
&
- 深入学习Thread类
bijian1013
javathread多线程java多线程
一. 线程的名字
下面来看一下Thread类的name属性,它的类型是String。它其实就是线程的名字。在Thread类中,有String getName()和void setName(String)两个方法用来设置和获取这个属性的值。
同时,Thr
- JSON串转换成Map以及如何转换到对应的数据类型
bijian1013
javafastjsonnet.sf.json
在实际开发中,难免会碰到JSON串转换成Map的情况,下面来看看这方面的实例。另外,由于fastjson只支持JDK1.5及以上版本,因此在JDK1.4的项目中可以采用net.sf.json来处理。
一.fastjson实例
JsonUtil.java
package com.study;
impor
- 【RPC框架HttpInvoker一】HttpInvoker:Spring自带RPC框架
bit1129
spring
HttpInvoker是Spring原生的RPC调用框架,HttpInvoker同Burlap和Hessian一样,提供了一致的服务Exporter以及客户端的服务代理工厂Bean,这篇文章主要是复制粘贴了Hessian与Spring集成一文,【RPC框架Hessian四】Hessian与Spring集成
在
【RPC框架Hessian二】Hessian 对象序列化和反序列化一文中
- 【Mahout二】基于Mahout CBayes算法的20newsgroup的脚本分析
bit1129
Mahout
#!/bin/bash
#
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information re
- nginx三种获取用户真实ip的方法
ronin47
随着nginx的迅速崛起,越来越多公司将apache更换成nginx. 同时也越来越多人使用nginx作为负载均衡, 并且代理前面可能还加上了CDN加速,但是随之也遇到一个问题:nginx如何获取用户的真实IP地址,如果后端是apache,请跳转到<apache获取用户真实IP地址>,如果是后端真实服务器是nginx,那么继续往下看。
实例环境: 用户IP 120.22.11.11
- java-判断二叉树是不是平衡
bylijinnan
java
参考了
http://zhedahht.blog.163.com/blog/static/25411174201142733927831/
但是用java来实现有一个问题。
由于Java无法像C那样“传递参数的地址,函数返回时能得到参数的值”,唯有新建一个辅助类:AuxClass
import ljn.help.*;
public class BalancedBTree {
- BeanUtils.copyProperties VS PropertyUtils.copyProperties
诸葛不亮
PropertyUtilsBeanUtils
BeanUtils.copyProperties VS PropertyUtils.copyProperties
作为两个bean属性copy的工具类,他们被广泛使用,同时也很容易误用,给人造成困然;比如:昨天发现同事在使用BeanUtils.copyProperties copy有integer类型属性的bean时,没有考虑到会将null转换为0,而后面的业
- [金融与信息安全]最简单的数据结构最安全
comsci
数据结构
现在最流行的数据库的数据存储文件都具有复杂的文件头格式,用操作系统的记事本软件是无法正常浏览的,这样的情况会有什么问题呢?
从信息安全的角度来看,如果我们数据库系统仅仅把这种格式的数据文件做异地备份,如果相同版本的所有数据库管理系统都同时被攻击,那么
- vi区段删除
Cwind
linuxvi区段删除
区段删除是编辑和分析一些冗长的配置文件或日志文件时比较常用的操作。简记下vi区段删除要点备忘。
vi概述
引文中并未将末行模式单独列为一种模式。单不单列并不重要,能区分命令模式与末行模式即可。
vi区段删除步骤:
1. 在末行模式下使用:set nu显示行号
非必须,随光标移动vi右下角也会显示行号,能够正确找到并记录删除开始行
- 清除tomcat缓存的方法总结
dashuaifu
tomcat缓存
用tomcat容器,大家可能会发现这样的问题,修改jsp文件后,但用IE打开 依然是以前的Jsp的页面。
出现这种现象的原因主要是tomcat缓存的原因。
解决办法如下:
在jsp文件头加上
<meta http-equiv="Expires" content="0"> <meta http-equiv="kiben&qu
- 不要盲目的在项目中使用LESS CSS
dcj3sjt126com
Webless
如果你还不知道LESS CSS是什么东西,可以看一下这篇文章,是我一朋友写给新人看的《CSS——LESS》
不可否认,LESS CSS是个强大的工具,它弥补了css没有变量、无法运算等一些“先天缺陷”,但它似乎给我一种错觉,就是为了功能而实现功能。
比如它的引用功能
?
.rounded_corners{
- [入门]更上一层楼
dcj3sjt126com
PHPyii2
更上一层楼
通篇阅读完整个“入门”部分,你就完成了一个完整 Yii 应用的创建。在此过程中你学到了如何实现一些常用功能,例如通过 HTML 表单从用户那获取数据,从数据库中获取数据并以分页形式显示。你还学到了如何通过 Gii 去自动生成代码。使用 Gii 生成代码把 Web 开发中多数繁杂的过程转化为仅仅填写几个表单就行。
本章将介绍一些有助于更好使用 Yii 的资源:
- Apache HttpClient使用详解
eksliang
httpclienthttp协议
Http协议的重要性相信不用我多说了,HttpClient相比传统JDK自带的URLConnection,增加了易用性和灵活性(具体区别,日后我们再讨论),它不仅是客户端发送Http请求变得容易,而且也方便了开发人员测试接口(基于Http协议的),即提高了开发的效率,也方便提高代码的健壮性。因此熟练掌握HttpClient是很重要的必修内容,掌握HttpClient后,相信对于Http协议的了解会
- zxing二维码扫描功能
gundumw100
androidzxing
经常要用到二维码扫描功能
现给出示例代码
import com.google.zxing.WriterException;
import com.zxing.activity.CaptureActivity;
import com.zxing.encoding.EncodingHandler;
import android.app.Activity;
import an
- 纯HTML+CSS带说明的黄色导航菜单
ini
htmlWebhtml5csshovertree
HoverTree带说明的CSS菜单:纯HTML+CSS结构链接带说明的黄色导航
在线体验效果:http://hovertree.com/texiao/css/1.htm代码如下,保存到HTML文件可以看到效果:
<!DOCTYPE html >
<html >
<head>
<title>HoverTree
- fastjson初始化对性能的影响
kane_xie
fastjson序列化
之前在项目中序列化是用thrift,性能一般,而且需要用编译器生成新的类,在序列化和反序列化的时候感觉很繁琐,因此想转到json阵营。对比了jackson,gson等框架之后,决定用fastjson,为什么呢,因为看名字感觉很快。。。
网上的说法:
fastjson 是一个性能很好的 Java 语言实现的 JSON 解析器和生成器,来自阿里巴巴的工程师开发。
- 基于Mybatis封装的增删改查实现通用自动化sql
mengqingyu
DAO
1.基于map或javaBean的增删改查可实现不写dao接口和实现类以及xml,有效的提高开发速度。
2.支持自定义注解包括主键生成、列重复验证、列名、表名等
3.支持批量插入、批量更新、批量删除
<bean id="dynamicSqlSessionTemplate" class="com.mqy.mybatis.support.Dynamic
- js控制input输入框的方法封装(数字,中文,字母,浮点数等)
qifeifei
javascript js
在项目开发的时候,经常有一些输入框,控制输入的格式,而不是等输入好了再去检查格式,格式错了就报错,体验不好。 /** 数字,中文,字母,浮点数(+/-/.) 类型输入限制,只要在input标签上加上 jInput="number,chinese,alphabet,floating" 备注:floating属性只能单独用*/
funct
- java 计时器应用
tangqi609567707
javatimer
mport java.util.TimerTask; import java.util.Calendar; public class MyTask extends TimerTask { private static final int
- erlang输出调用栈信息
wudixiaotie
erlang
在erlang otp的开发中,如果调用第三方的应用,会有有些错误会不打印栈信息,因为有可能第三方应用会catch然后输出自己的错误信息,所以对排查bug有很大的阻碍,这样就要求我们自己打印调用的栈信息。用这个函数:erlang:process_display (self (), backtrace).需要注意这个函数只会输出到标准错误输出。
也可以用这个函数:erlang:get_s