- 大数据技术之Flink
第1章Flink概述1.1Flink是什么1.2Flink特点1.3FlinkvsSparkStreaming表Flink和Streaming对比FlinkStreaming计算模型流计算微批处理时间语义事件时间、处理时间处理时间窗口多、灵活少、不灵活(窗口必须是批次的整数倍)状态有没有流式SQL有没有1.4Flink的应用场景1.5Flink分层API第2章Flink快速上手2.1创建项目在准备
- Spark Streaming 与 Flink 实时数据处理方案对比与选型指南
浅沫云归
后端技术栈小结spark-streamingflinkreal-time
SparkStreaming与Flink实时数据处理方案对比与选型指南实时数据处理在互联网、电商、物流、金融等领域均有大量应用,面对海量流式数据,SparkStreaming和Flink成为两大主流开源引擎。本文基于生产环境需求,从整体架构、编程模型、容错机制、性能表现、实践案例等维度进行深入对比,并给出选型建议。一、问题背景介绍业务场景日志实时统计与告警用户行为实时画像实时订单或交易监控流式ET
- Spark Streaming 原理与代码实例讲解
AI智能应用
AI大模型应用入门实战与进阶Python入门实战计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
SparkStreaming原理与代码实例讲解1.背景介绍1.1实时流数据处理的重要性在当今大数据时代,海量的数据正以前所未有的速度不断产生。传统的批处理模式已经无法满足实时性要求较高的应用场景,如实时推荐、实时欺诈检测等。因此,实时流数据处理技术应运而生,成为大数据领域的研究热点。1.2SparkStreaming的优势SparkStreaming是ApacheSpark生态系统中的一个重要组件
- HoRain云--SparkStreaming实时分析的7大优势解析
HoRain 云小助手
spark前端服务器
HoRain云小助手:个人主页⛺️生活的理想,就是为了理想的生活!⛳️推荐前些天发现了一个超棒的服务器购买网站,性价比超高,大内存超划算!忍不住分享一下给大家。点击跳转到网站。目录⛳️推荐1.与Spark生态的深度集成2.高吞吐量与水平扩展能力3.强大的容错机制4.灵活的状态管理与窗口操作5.丰富的输入/输出连接器6.开发与调试便捷性7.成本效益适用场景总结与其他流处理框架的对比总结SparkSt
- Spark快速入门与实战案例解析
喵手
数据库spark大数据分布式
全文目录:开篇语前言️目录什么是ApacheSpark?为什么选择Spark?⚙️Spark核心组件及架构解析Spark的架构设计Spark环境配置与启动1.安装Java2.下载并配置Spark3.启动SparkShell实战案例:使用Spark进行数据分析1.准备数据2.编写Spark程序3.执行结果Spark扩展与高级应用1.数据流处理(SparkStreaming)2.机器学习(MLlib
- 数据分析学习 Day_01
Detachym
sqlhadoopmysqlspark大数据
一、大数据核心概念与典型业务需求实时分析特点:处理短时间内产生的数据流(如日志、交易、传感器数据)。目标:对正在发生的事件进行即时洞察、监控和响应。技术侧重:流式计算框架(如Flink,SparkStreaming,Storm)。批处理/离线分析特点:处理较长时间跨度内积累的海量历史数据(如日/周/月数据)。目标:面向过去,进行周期性(如每日/每周)的统计、汇总、报表生成和深度挖掘。技术侧重:批处
- 征服Spark as a Service
wangruoze
SparkSpark课程Spark培训Spark企业内训Spark讲师
Spark是当今大数据领域最活跃最热门的高效的大数据通用计算平台,基于RDD,Spark成功的构建起了一体化、多元化的大数据处理体系,在“OneStacktorulethemall”思想的引领下,Spark成功的使用SparkSQL、SparkStreaming、MLLib、GraphX近乎完美的解决了大数据中BatchProcessing、StreamingProcessing、Ad-hocQu
- 一天征服Spark!
wangruoze
SparkSpark课程Spark培训Spark企业内训Spark讲师
Spark是当今大数据领域最活跃最热门的高效的大数据通用计算平台,基于RDD,Spark成功的构建起了一体化、多元化的大数据处理体系,在“OneStacktorulethemall”思想的引领下,Spark成功的使用SparkSQL、SparkStreaming、MLLib、GraphX近乎完美的解决了大数据中BatchProcessing、StreamingProcessing、Ad-hocQu
- 使用 PySpark 从 Kafka 读取数据流并处理为表
Bug Spray
kafkalinq分布式
使用PySpark从Kafka读取数据流并处理为表下面是一个完整的指南,展示如何通过PySpark从Kafka消费数据流,并将其处理为可以执行SQL查询的表。1.环境准备确保已安装:ApacheSpark(包含SparkSQL和SparkStreaming)KafkaPySpark对应的Kafka连接器(通常已包含在Spark发行版中)2.完整代码示例frompyspark.sqlimportSp
- Spark实时流数据处理实例(SparkStreaming通话记录消息处理)
qrh_yogurt
sparkpythonpycharm
所用资源:通过网盘分享的文件:spark-streaming-kafka-0-8-assembly_2.11-2.4.8.jar等4个文件链接:https://pan.baidu.com/s/1zYHu29tLgDvS_L2Ud-22ZA?pwd=hnpg提取码:hnpg1.需求分析:假定有一个手机通信计费系统,用户通话时在基站交换机上临时保存了相关记录,由于交换机的容量有限且分散在各地,因此需要
- 【SparkStreaming】面试题
言之。
大数据
SparkStreaming是ApacheSpark提供的一个扩展模块,用于处理实时数据流。它使得可以使用Spark强大的批处理能力来处理连续的实时数据流。SparkStreaming提供了高级别的抽象,如DStream(DiscretizedStream),它代表了连续的数据流,并且可以通过应用在其上的高阶操作来进行处理,类似于对静态数据集的操作(如map、reduce、join等)。Spark
- Spark入门秘籍
£菜鸟也有梦
大数据基础spark大数据分布式
目录一、Spark是什么?1.1内存计算:速度的飞跃1.2多语言支持:开发者的福音1.3丰富组件:一站式大数据处理平台二、Spark能做什么?2.1电商行业:洞察用户,精准营销2.2金融行业:防范风险,智慧决策2.3科研领域:加速研究,探索未知三、Spark核心组件揭秘3.1SparkCore3.2SparkSQL3.3SparkStreaming3.4SparkMLlib3.5SparkGrap
- TasksetManager冲突导致SparkContext异常关闭
liujianhuiouc
spark
背景介绍当正在悠闲敲着代码的时候,业务方兄弟反馈接收到大量线上运行的sparkstreaming任务的告警短信,查看应用的web页面信息,发现spark应用已经退出了,第一时间拉起线上的应用,再慢慢的定位故障原因。本文代码基于spark1.6.1。问题定位登陆到线上机器,查看错误日志,发现系统一直报CannotcallmethodsonastoppedSparkContext.,全部日志如下[ER
- Flink和Spark的选型
静听山水
大数据flinkspark大数据
在Flink和Spark的选型中,需要综合考虑多个技术维度和业务需求,以下是在项目中会重点评估的因素及实际案例说明:一、核心选型因素处理模式与延迟要求Flink:基于事件驱动的流处理优先架构,支持毫秒级低延迟、高吞吐的实时处理,适合严格的无界数据流场景(如实时风控、监控告警)。Spark:基于微批处理(SparkStreaming)或连续处理(StructuredStreaming),延迟通常在秒
- spark运行架构及核心组件介绍
大数据知识搬运工
spark学习spark架构大数据
目录1.Spark的运行架构1.1Driver1.2Executor1.3ClusterManager1.4工作流程2.Spark的核心组件2.1SparkCore2.2SparkSQL2.3SparkStreaming2.4MLlib2.5GraphX3.Spark架构图4.Spark的优势4.1高性能4.2易用性4.3扩展性4.4容错性5.总结1.Spark的运行架构Spark的运行架构采用M
- 大数据Flink相关面试题(一)
从头再来的码农
Flink面试题大数据flink
文章目录一、基础概念1.Flink的核心设计目标是什么?与SparkStreaming的架构差异?2.解释Flink的“有状态流处理”概念。3.Flink的流处理(DataStreamAPI)与批处理(DataSetAPI)底层执行模型有何不同?4.Flink的时间语义(EventTime、ProcessingTime、IngestionTime)区别与应用场景。5.如何配置Flink使用Eve
- SparkStreaming之persist缓存
稳哥的哥
SparkStreaming
SparkStreaming之缓存与RDD的缓存类似,DStream也允许用户将数据持久化到内存中,只需要使用DStream.persist()方法,就会自动将DSstream中的数据缓存在内存中,这对需要多次计算的DStream数据是一个很好的优化,对于window操作「比如reduceByWindow,reduceByKeyAndWindow」和state操作算子如「updateStateBy
- Kafka使用教程
大三小小小白
kafka分布式
1.Kafka简介与应用场景ApacheKafka是一种高性能的分布式消息队列系统,广泛应用于以下场景:日志聚合:收集和汇总系统日志,便于集中管理和分析。事件源:实时处理用户行为事件,如点击流、购买行为等。流处理:与流处理框架(如ApacheFlink、ApacheSparkStreaming)结合,进行实时数据分析。微服务通信:作为微服务架构中的消息中间件,实现服务间异步通信。物联网(IoT):
- Kafka+sparkStreaming+Hbase(一)
郝少
Spark技术经验大数据spark
一、说明1、需求分析实时定位系统:实时定位某个用户的具体位置,将最新数据进行存储;2、具体操作sparkStreaming从kafka消费到原始用户定位信息,进行分析。然后将分析之后且满足需求的数据按rowkey=用户名进行Hbase存储;这里为了简化,kafka消费出的原始数据即是分析好之后的数据,故消费出可以直接进行存储;3、组件版本组件版本kafkakafka_2.10-0.10.2.1sp
- 实时步数统计系统 kafka + spark +redis
ShAn DiAn
rediskafkasparkredis分布式大数据
基于微服务架构设计并实现了一个实时步数统计系统,采用生产者-消费者模式,利用Kafka实现消息队列,SparkStreaming处理实时数据流,Redis提供高性能数据存储,实现了一个高并发、低延迟的数据处理系统,支持多用户运动数据的实时采集、传输、处理和统计分析。1.介绍1.数据采集与生产者(StepDataProducer)作用:负责生成用户步数数据并发送到Kafka主题。原理:生产者会随机生
- Flume+kafka+SparkStreaming整合
逆水行舟如何
大数据架构kafka常用命令flume进行数据收集的编写实时架构
一、需求模拟一个流式处理场景:我再说话,我编写好的一个sparkstreaming做词频统计1.模拟说话:nc-lk3399flumesource:avro(qyl01:3399)channel:memorysink:kafkasink模拟实时的日志生成:echoaabbcc>>/home/qyl/logs/flume.logflumesource:exec(tail-f)channel:memo
- Spark SQL核心解析:大数据时代的结构化处理利器
北屿升:
微信新浪微博百度
在大数据处理领域,Spark以其强大的分布式计算能力脱颖而出,而SparkSQL作为Spark生态系统的重要组成部分,为结构化和半结构化数据处理提供了高效便捷的解决方案。它不仅整合了传统SQL的强大查询功能,还深度集成到Spark的计算框架中,实现了与其他组件(如SparkStreaming、SparkML等)的无缝协作。下面我们将深入探讨SparkSQL的核心概念与技术要点。一、SparkSQL
- SparkStreaming概述
淋一遍下雨天
spark大数据学习
SparkStreaming主要用于流式计算,处理实时数据。DStream是SparkStreaming中的数据抽象模型,表示随着时间推移收到的数据序列。SparkStreaming支持多种数据输入源(如Kafka、Flume、Twitter、TCP套接字等)和数据输出位置(如HDFS、数据库等)。SparkStreaming特点易用性:支持Java、Python、Scala等编程语言,编写实时计
- spark与kafka
zqk-Sun
bigdatasparkkafka
sparkspark基础知识spark的任务提交流程shuffle过程分析rdd的特点与五大属性spark整合kafka1、SparkStreaming+Kafka----Receiver用的是Kafka高层次的消费者api,不能自己维护offsetobjectSparkkafka08ReceiverDStream{defmain(args:Array[String]):Unit={valspar
- kafka spark java_Kafka与Spark整合
weixin_39630247
kafkasparkjava
本篇文章帮大家学习Kafka与Spark整合,包含了Kafka与Spark整合使用方法、操作技巧、实例演示和注意事项,有一定的学习价值,大家可以用来参考。在本章中,将讨论如何将apacheKafka与SparkStreamingAPI集成。Spark是什么?SparkStreamingAPI支持实时数据流的可扩展,高吞吐量,容错流处理。数据可以从Kafka,Flume,Twitter等许多来源获取
- KafkaSpark Streaming整合原理与代码实例讲解
AI天才研究院
计算AI大模型企业级应用开发实战DeepSeekR1&大数据AI人工智能大模型计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
Kafka-SparkStreaming整合原理与代码实例讲解作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming关键词:Kafka,SparkStreaming,大数据处理,实时流处理,分布式系统1.背景介绍1.1问题的由来随着大数据时代的发展,实时数据处理成为了许多业务的关键需求。在这样的背景下,如何有效地从海量数据中提取有价值的信息,成为了一个亟待
- Spark-Streaming核心编程
[太阳]88
spark
以下是今天所学的知识点与代码测试:Spark-StreamingDStream实操案例一:WordCount案例需求:使用netcat工具向9999端口不断的发送数据,通过SparkStreaming读取端口数据并统计不同单词出现的次数实验步骤:添加依赖org.apache.sparkspark-streaming_2.123.0.0编写代码valsparkConf=newSparkConf().
- KafkaSpark Streaming整合原理与代码实例讲解
AGI大模型与大数据研究院
DeepSeekR1&大数据AI人工智能计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
Kafka-SparkStreaming整合原理与代码实例讲解1.背景介绍1.1实时数据处理的重要性在当今大数据时代,海量数据以前所未有的速度持续产生。企业需要实时处理和分析这些数据,以便及时洞察业务状况,快速响应市场变化。传统的批处理方式已无法满足实时性要求,因此实时数据处理技术应运而生。1.2Kafka与SparkStreaming在实时处理中的地位Kafka作为高吞吐量的分布式消息队列,能够
- Spark详解(二、SparkCore)
杨老七
SparkNodespark大数据bigdata
SparkCore是Spark计算引擎的基础,后面的sparksql以及sparkstreaming等,都是基于SparkCore的。这里笔者就开始详细的介绍SparkCore。如果要介绍SparkCore,必须详细介绍一下RDD。一、RDD编程RDD(ResilientDistributedDataset)叫做分布式数据集,是Spark中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并
- Spark
upupfeng
Sparkspark
简介Spark是使用Scala语言编写、基于内存运算的大数据计算框架。以Sparkcore为核心,提供了SparkSQL、SparkStreaming、MLlib几大功能组件中文文档:https://spark.apachecn.org/#/github地址:https://github.com/apache/sparkSparkCoreSpark提供了多种资源调度框架,基于内存计算、提供了DAG
- jvm调优总结(从基本概念 到 深度优化)
oloz
javajvmjdk虚拟机应用服务器
JVM参数详解:http://www.cnblogs.com/redcreen/archive/2011/05/04/2037057.html
Java虚拟机中,数据类型可以分为两类:基本类型和引用类型。基本类型的变量保存原始值,即:他代表的值就是数值本身;而引用类型的变量保存引用值。“引用值”代表了某个对象的引用,而不是对象本身,对象本身存放在这个引用值所表示的地址的位置。
- 【Scala十六】Scala核心十:柯里化函数
bit1129
scala
本篇文章重点说明什么是函数柯里化,这个语法现象的背后动机是什么,有什么样的应用场景,以及与部分应用函数(Partial Applied Function)之间的联系 1. 什么是柯里化函数
A way to write functions with multiple parameter lists. For instance
def f(x: Int)(y: Int) is a
- HashMap
dalan_123
java
HashMap在java中对很多人来说都是熟的;基于hash表的map接口的非同步实现。允许使用null和null键;同时不能保证元素的顺序;也就是从来都不保证其中的元素的顺序恒久不变。
1、数据结构
在java中,最基本的数据结构无外乎:数组 和 引用(指针),所有的数据结构都可以用这两个来构造,HashMap也不例外,归根到底HashMap就是一个链表散列的数据
- Java Swing如何实时刷新JTextArea,以显示刚才加append的内容
周凡杨
java更新swingJTextArea
在代码中执行完textArea.append("message")后,如果你想让这个更新立刻显示在界面上而不是等swing的主线程返回后刷新,我们一般会在该语句后调用textArea.invalidate()和textArea.repaint()。
问题是这个方法并不能有任何效果,textArea的内容没有任何变化,这或许是swing的一个bug,有一个笨拙的办法可以实现
- servlet或struts的Action处理ajax请求
g21121
servlet
其实处理ajax的请求非常简单,直接看代码就行了:
//如果用的是struts
//HttpServletResponse response = ServletActionContext.getResponse();
// 设置输出为文字流
response.setContentType("text/plain");
// 设置字符集
res
- FineReport的公式编辑框的语法简介
老A不折腾
finereport公式总结
FINEREPORT用到公式的地方非常多,单元格(以=开头的便被解析为公式),条件显示,数据字典,报表填报属性值定义,图表标题,轴定义,页眉页脚,甚至单元格的其他属性中的鼠标悬浮提示内容都可以写公式。
简单的说下自己感觉的公式要注意的几个地方:
1.if语句语法刚接触感觉比较奇怪,if(条件式子,值1,值2),if可以嵌套,if(条件式子1,值1,if(条件式子2,值2,值3)
- linux mysql 数据库乱码的解决办法
墙头上一根草
linuxmysql数据库乱码
linux 上mysql数据库区分大小写的配置
lower_case_table_names=1 1-不区分大小写 0-区分大小写
修改/etc/my.cnf 具体的修改内容如下:
[client]
default-character-set=utf8
[mysqld]
datadir=/var/lib/mysql
socket=/va
- 我的spring学习笔记6-ApplicationContext实例化的参数兼容思想
aijuans
Spring 3
ApplicationContext能读取多个Bean定义文件,方法是:
ApplicationContext appContext = new ClassPathXmlApplicationContext(
new String[]{“bean-config1.xml”,“bean-config2.xml”,“bean-config3.xml”,“bean-config4.xml
- mysql 基准测试之sysbench
annan211
基准测试mysql基准测试MySQL测试sysbench
1 执行如下命令,安装sysbench-0.5:
tar xzvf sysbench-0.5.tar.gz
cd sysbench-0.5
chmod +x autogen.sh
./autogen.sh
./configure --with-mysql --with-mysql-includes=/usr/local/mysql
- sql的复杂查询使用案列与技巧
百合不是茶
oraclesql函数数据分页合并查询
本片博客使用的数据库表是oracle中的scott用户表;
------------------- 自然连接查询
查询 smith 的上司(两种方法)
&
- 深入学习Thread类
bijian1013
javathread多线程java多线程
一. 线程的名字
下面来看一下Thread类的name属性,它的类型是String。它其实就是线程的名字。在Thread类中,有String getName()和void setName(String)两个方法用来设置和获取这个属性的值。
同时,Thr
- JSON串转换成Map以及如何转换到对应的数据类型
bijian1013
javafastjsonnet.sf.json
在实际开发中,难免会碰到JSON串转换成Map的情况,下面来看看这方面的实例。另外,由于fastjson只支持JDK1.5及以上版本,因此在JDK1.4的项目中可以采用net.sf.json来处理。
一.fastjson实例
JsonUtil.java
package com.study;
impor
- 【RPC框架HttpInvoker一】HttpInvoker:Spring自带RPC框架
bit1129
spring
HttpInvoker是Spring原生的RPC调用框架,HttpInvoker同Burlap和Hessian一样,提供了一致的服务Exporter以及客户端的服务代理工厂Bean,这篇文章主要是复制粘贴了Hessian与Spring集成一文,【RPC框架Hessian四】Hessian与Spring集成
在
【RPC框架Hessian二】Hessian 对象序列化和反序列化一文中
- 【Mahout二】基于Mahout CBayes算法的20newsgroup的脚本分析
bit1129
Mahout
#!/bin/bash
#
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information re
- nginx三种获取用户真实ip的方法
ronin47
随着nginx的迅速崛起,越来越多公司将apache更换成nginx. 同时也越来越多人使用nginx作为负载均衡, 并且代理前面可能还加上了CDN加速,但是随之也遇到一个问题:nginx如何获取用户的真实IP地址,如果后端是apache,请跳转到<apache获取用户真实IP地址>,如果是后端真实服务器是nginx,那么继续往下看。
实例环境: 用户IP 120.22.11.11
- java-判断二叉树是不是平衡
bylijinnan
java
参考了
http://zhedahht.blog.163.com/blog/static/25411174201142733927831/
但是用java来实现有一个问题。
由于Java无法像C那样“传递参数的地址,函数返回时能得到参数的值”,唯有新建一个辅助类:AuxClass
import ljn.help.*;
public class BalancedBTree {
- BeanUtils.copyProperties VS PropertyUtils.copyProperties
诸葛不亮
PropertyUtilsBeanUtils
BeanUtils.copyProperties VS PropertyUtils.copyProperties
作为两个bean属性copy的工具类,他们被广泛使用,同时也很容易误用,给人造成困然;比如:昨天发现同事在使用BeanUtils.copyProperties copy有integer类型属性的bean时,没有考虑到会将null转换为0,而后面的业
- [金融与信息安全]最简单的数据结构最安全
comsci
数据结构
现在最流行的数据库的数据存储文件都具有复杂的文件头格式,用操作系统的记事本软件是无法正常浏览的,这样的情况会有什么问题呢?
从信息安全的角度来看,如果我们数据库系统仅仅把这种格式的数据文件做异地备份,如果相同版本的所有数据库管理系统都同时被攻击,那么
- vi区段删除
Cwind
linuxvi区段删除
区段删除是编辑和分析一些冗长的配置文件或日志文件时比较常用的操作。简记下vi区段删除要点备忘。
vi概述
引文中并未将末行模式单独列为一种模式。单不单列并不重要,能区分命令模式与末行模式即可。
vi区段删除步骤:
1. 在末行模式下使用:set nu显示行号
非必须,随光标移动vi右下角也会显示行号,能够正确找到并记录删除开始行
- 清除tomcat缓存的方法总结
dashuaifu
tomcat缓存
用tomcat容器,大家可能会发现这样的问题,修改jsp文件后,但用IE打开 依然是以前的Jsp的页面。
出现这种现象的原因主要是tomcat缓存的原因。
解决办法如下:
在jsp文件头加上
<meta http-equiv="Expires" content="0"> <meta http-equiv="kiben&qu
- 不要盲目的在项目中使用LESS CSS
dcj3sjt126com
Webless
如果你还不知道LESS CSS是什么东西,可以看一下这篇文章,是我一朋友写给新人看的《CSS——LESS》
不可否认,LESS CSS是个强大的工具,它弥补了css没有变量、无法运算等一些“先天缺陷”,但它似乎给我一种错觉,就是为了功能而实现功能。
比如它的引用功能
?
.rounded_corners{
- [入门]更上一层楼
dcj3sjt126com
PHPyii2
更上一层楼
通篇阅读完整个“入门”部分,你就完成了一个完整 Yii 应用的创建。在此过程中你学到了如何实现一些常用功能,例如通过 HTML 表单从用户那获取数据,从数据库中获取数据并以分页形式显示。你还学到了如何通过 Gii 去自动生成代码。使用 Gii 生成代码把 Web 开发中多数繁杂的过程转化为仅仅填写几个表单就行。
本章将介绍一些有助于更好使用 Yii 的资源:
- Apache HttpClient使用详解
eksliang
httpclienthttp协议
Http协议的重要性相信不用我多说了,HttpClient相比传统JDK自带的URLConnection,增加了易用性和灵活性(具体区别,日后我们再讨论),它不仅是客户端发送Http请求变得容易,而且也方便了开发人员测试接口(基于Http协议的),即提高了开发的效率,也方便提高代码的健壮性。因此熟练掌握HttpClient是很重要的必修内容,掌握HttpClient后,相信对于Http协议的了解会
- zxing二维码扫描功能
gundumw100
androidzxing
经常要用到二维码扫描功能
现给出示例代码
import com.google.zxing.WriterException;
import com.zxing.activity.CaptureActivity;
import com.zxing.encoding.EncodingHandler;
import android.app.Activity;
import an
- 纯HTML+CSS带说明的黄色导航菜单
ini
htmlWebhtml5csshovertree
HoverTree带说明的CSS菜单:纯HTML+CSS结构链接带说明的黄色导航
在线体验效果:http://hovertree.com/texiao/css/1.htm代码如下,保存到HTML文件可以看到效果:
<!DOCTYPE html >
<html >
<head>
<title>HoverTree
- fastjson初始化对性能的影响
kane_xie
fastjson序列化
之前在项目中序列化是用thrift,性能一般,而且需要用编译器生成新的类,在序列化和反序列化的时候感觉很繁琐,因此想转到json阵营。对比了jackson,gson等框架之后,决定用fastjson,为什么呢,因为看名字感觉很快。。。
网上的说法:
fastjson 是一个性能很好的 Java 语言实现的 JSON 解析器和生成器,来自阿里巴巴的工程师开发。
- 基于Mybatis封装的增删改查实现通用自动化sql
mengqingyu
DAO
1.基于map或javaBean的增删改查可实现不写dao接口和实现类以及xml,有效的提高开发速度。
2.支持自定义注解包括主键生成、列重复验证、列名、表名等
3.支持批量插入、批量更新、批量删除
<bean id="dynamicSqlSessionTemplate" class="com.mqy.mybatis.support.Dynamic
- js控制input输入框的方法封装(数字,中文,字母,浮点数等)
qifeifei
javascript js
在项目开发的时候,经常有一些输入框,控制输入的格式,而不是等输入好了再去检查格式,格式错了就报错,体验不好。 /** 数字,中文,字母,浮点数(+/-/.) 类型输入限制,只要在input标签上加上 jInput="number,chinese,alphabet,floating" 备注:floating属性只能单独用*/
funct
- java 计时器应用
tangqi609567707
javatimer
mport java.util.TimerTask; import java.util.Calendar; public class MyTask extends TimerTask { private static final int
- erlang输出调用栈信息
wudixiaotie
erlang
在erlang otp的开发中,如果调用第三方的应用,会有有些错误会不打印栈信息,因为有可能第三方应用会catch然后输出自己的错误信息,所以对排查bug有很大的阻碍,这样就要求我们自己打印调用的栈信息。用这个函数:erlang:process_display (self (), backtrace).需要注意这个函数只会输出到标准错误输出。
也可以用这个函数:erlang:get_s