- spark-streaming与kafka的整合
王大为学习笔记
1.概述在2.x中,spark有两个用来与kafka整合的代码,版本代号为0.8和0.10,由于在0.8,kafka有两套消费者api,根据高级api得到了Receiver-basedApproach,根据低级api得到了DirectApproach,而在0.10由于kafka只有一套消费者api了,所以也只有DirectApproach2.DirectApproach由于0.8与0.10的Dir
- Spark-Streaming+Kafka+mysql实战示例
大数据魔法师
大数据大数据kafkaspark
文章目录前言一、简介1.Spark-Streaming简介2.Kafka简介二、实战演练1.MySQL数据库部分2.导入依赖3.编写实体类代码4.编写kafka主题管理代码5.编写kafka生产者代码6.编写Spark-Streaming代码7.查看数据库8.代码下载总结前言本文将介绍一个使用SparkStreaming和Kafka进行实时数据处理的示例。通过该示例,您将了解到如何使用SparkS
- Spark-Streaming KafkaClient 异常解决
大猪大猪
在使用Spark-Streaming消费Kafka数据的时候,使用如下命令提交到yarnCausedby:java.lang.IllegalArgumentException:Couldnotfinda'KafkaClient'entryintheJAASconfiguration.Systemproperty'java.security.auth.login.config'isnotsetato
- Flink(一) Flink是什么,特点和优势,应用场景
plenilune-望月
Flink实时计算引擎
在当前数据量激增的时代,各种业务场景都有大量的业务数据产生,对于这些不断产生的数据应该如何进行有效的处理,成为当下大多数公司所面临的问题。目前比较流行的大数据处理引擎ApacheSpark,基本上已经取代了MapReduce成为当前大数据处理的标准。但对实时数据处理来说,ApacheSpark的Spark-Streaming还有性能改进的空间。对于Spark-Streaming的流计算本质上还是批
- 【Spark Streaming】(二)Spark Streaming - 实时数据采集
屡傻不改
SparkStreamingSparkStreaming实时数据采集
导入spark和spark-streaming依赖包org.apache.sparkspark-core_2.112.4.5org.apache.sparkspark-streaming_2.112.4.5案例一:SparkStreaming接受socket数据,实现单词计数WordCountspark版本从本机的7777端口源源不断地收到以换行符分隔的文本数据流,并计算单词个数packagecn
- 2018-12-25
宇智波_佐助
spark-streaming消费kafka数据:首次消费截图:手动kill,再次启动:KafkaManager类:packageorg.apache.spark.streaming.kafkaimportkafka.common.TopicAndPartitionimportkafka.message.MessageAndMetadataimportkafka.serializer.Decode
- 第五篇|Spark-Streaming编程指南(2)
大数据技术与数仓
第四篇|Spark-Streaming编程指南(1)对SparkStreaming执行机制、Transformations与OutputOperations、SparkStreaming数据源(Sources)、SparkStreaming数据汇(Sinks)进行了讨论。本文将延续上篇内容,主要包括以下内容:有状态的计算基于时间的窗口操作持久化检查点Checkpoint使用DataFrames&S
- Spark-Streaming之window滑动窗口应用
kwu_ganymede
Sparksparkstreaming实时
Spark-Streaming之window滑动窗口应用,SparkStreaming提供了滑动窗口操作的支持,从而让我们可以对一个滑动窗口内的数据执行计算操作。每次掉落在窗口内的RDD的数据,会被聚合起来执行计算操作,然后生成的RDD,会作为windowDStream的一个RDD。网官图中所示,就是对每三秒钟的数据执行一次滑动窗口计算,这3秒内的3个RDD会被聚合起来进行处理,然后过了两秒钟,又
- spark-streaming windows netcat
数据萌新
问题描述SparkStreaming的WordCountCentos下安装nc命令工具netcat(nc)是一个简单而有用的工具,被誉为网络安全界的“瑞士军刀”,不仅可以通过使用TCP或UDP协议的网络连接读写数据,同时还是一个功能强大的网络调试和探测工具,能够建立你需要的几乎所有类型的网络连接。在Linux终端窗口可以直接使用yum工具进行安装:[root@master01spark]#yumi
- spark-streaming笔记
最美不过你回眸
老师笔记
SparkStreaming笔记框架的类型:1.离线批处理:mapreduce、hive、SparkCore、Sparksql=》mapreducespark2.SQL的交互式查询:hive、SparkSQL3.流式框架:flume、kafka、SparkStreaming4.实时计算:SparkStreamingStrom(Clojure编写的)/jStrom(java编写的)完全实时的流式数据
- spark 调度优化
skyjunjun
1.问题在做spark-streaming的时候最近遇到个特别的问题:每个batch的任务调度执行的时候,某些excutor上调度的任务特别多,其他的excutor上只调度一个image.png甚至200个task只会调度到2个excutor上:image.png2.分析第二个图上看到下面所有的LocalityLevel都为:NODE_LOCAL第一个图上的调度很多的task也是NODE_LOCA
- 淘宝双11实时数据分析项目报告
阿坨
数据分析kafkasparkhivesocketio
文章目录环境部署项目主要架构具体步骤流计算步骤python连接kafkaspark-streaming集成kafka编写并运行spark-streaming程序(实时词频统计)编写并运行spark-streaming程序(累加词频统计)在kafka上查看数据统计结果批量计算步骤往hive中导入数据sqoop导出数据到mysql淘宝RFM用户划分Flask-SocketIO实时推送数据Echarts
- 11 sparkstreaming监控端口信息
张力的程序园
前面我们已经了解了sparksql的使用,这一节我们将了解spark当中的流处理即spark-streaming。1系统、软件以及前提约束CentOS764工作站作者的机子ip是192.168.100.200,请读者根据自己实际情况设置已完成spark中的DataFrame编程https://www.jianshu.com/nb/37554943xshell为去除权限对操作的影响,所有操作都以ro
- spark jdbc java_spark之JDBC开发(实战)
weixin_39937312
sparkjdbcjava
一、概述SparkCore、Spark-SQL与Spark-Streaming都是相同的,编写好之后打成jar包使用spark-submit命令提交到集群运行应用$SPARK_HOME/bin#./spark-submit--masterspark://Master01:7077--classMainClassFullName[--files$HIVE_HOME/conf/hive-site.xm
- kafka consumer 日志疯狂输出 marking the coordinator host:9092 for dead group consumer-test
xc丶卡卡
kafkakafka
最近在调试spark-streaming消费kafka消息时发现日志疯狂输出markingthecoordinatorhost:9092fordeadgroupconsumer-testkafkaserver为集群,连接时使用的是hostname:9092方法去连接,程序也不报错,去kafkaserver当中查询consumer-test组也存在,经过排查发现是由于我的kafka集群某些hostn
- Spark框架 及 pyspark库
劫径
大数据框架spark大数据
Spark简介开启sparklocal模式(用于调试代码)集群模式spark-core(RDD)RDD的常用算子transformationvalue型transformationkey-value型transformationactionpersist关闭spark案例SparkSQL(DataFrame)DataFrame简介DataFrame常用算子流式计算Spark-Streaming(基
- spark-streaming pull方式拉取 flume-1.6.0-cdh5.10.1数据
sunnyboy_4
hadoopsparkflume
注意:文章末尾提供apache-flume-1.6.0-cdh5.10.1-bin网盘资源连接1、flume配置文件flume-conf-spark-netcat-pull.propertiesa1.sources=r1a1.sinks=k1a1.channels=c1a1.sources.r1.type=netcata1.sources.r1.bind=0.0.0.0a1.sources.r1.
- Apache Flink 在同程艺龙实时计算平台的研发与应用实践
Apache Flink
Flink实时计算大数据大数据实时计算流计算云计算flink
本文主要介绍ApacheFlink在同程艺龙的应用实践,从当前同程艺龙实时计算平台现状、建设过程、易用性提升、稳定性优化四方面分享了同城艺龙实时计算平台的建设经验,供大家参考。1.背景介绍在2015年初,为了能够采集到用户在PC,APP等平台上的行为轨迹,我们开始开发实时应用。那时可选的技术架构还是比较少的,实时计算框架这块,当时比较主流的有Storm和Spark-streaming。综合考虑实时
- 让Spark-Streaming在Yarn上长时间运行
数大招疯
对于长时间运行的SparkStreaming作业,一旦提交到YARN群集便需要永久运行,直到有意停止。任何中断都会引起严重的处理延迟,并可能导致数据丢失或重复。YARN和ApacheSpark都不是为了执行长时间运行的服务而设计的。但是,它们已经成功地满足了近实时数据处理作业的常驻需求。成功并不一定意味着没有技术挑战。这篇博客总结了在安全的YARN集群上,运行一个关键任务且长时间的SparkStr
- spark实时处理hdfs流数据
gk4030
项目说明Spark构建一个实时数据处理及展示系统流数据数据处理:scala调用spark-SQL:python如图:Paste_Image.png问题总结1、spark-streaming流处理2、sbt打包3、hdfs小文件(20150701_记,后续补充)后续1、flume、kafka结合spark2、spark处理数据存放到hbase
- Spark-streaming源码走读(一)
小五_555
继续一下源码的走读啊,最近看了点别的源代码,发现自己好像一个不会写代码的孩子一样。。。。总觉得自己差了一点什么,但是又说不上来,只能继续努力了。继续上一个部分,start方法里面有个eventLoop,估计是监听一堆事件的,command+B,看下JobSchedulerEvent有什么类型Event类型eventLoop内部看到这里的第一反应是,里面是用队列来做的,而且长度没限制,当然也没法限制
- 基于flink sql构建实时数据仓库
愤怒的谜团
1、需求背景根据目前大数据这一块的发展,已经不局限于离线的分析,挖掘数据潜在的价值,数据的时效性最近几年变得刚需,实时处理的框架有storm,spark-streaming,flink等。想要做到实时数据这个方案可行,需要考虑以下几点:1、状态机制2、精确一次语义3、高吞吐量4、可弹性伸缩的应用5、容错机制,刚好这几点,flink都完美的实现了,并且支持flinksql高级API,减少了开发成本,
- 大数据-序篇
太菜了-Andy
大数据
工作多年,回首以前,个人做的技术面宽,而深度不够。而如今失业再次面试,屡屡碰壁,痛定思痛,从基础再次着手,开始巩固定学习.java很核心,但个人一般,javaweb每一段都能自主开发,但不核心scala,python都可以玩,但不够精通大数据中,hive,spark-streaming,spark-sql,kafka都一般般那就大数据领域开始学吧,从mr开始,java/scala/python能满
- 大数据开发-Spark-Streaming处理数据到mysql
大数据
前面一篇讲到streamin读取kafka数据加工处理后写到kafka数据,大数据开发-Spark-开发Streaming处理数据&&写入Kafka是针对比如推荐领域,实时标签等场景对于实时处理结果放到mysql也是一种常用方式,假设一些车辆调度的地理位置信息处理后写入到mysql1.说明数据表如下:createdatabasetest;usetest;DROPTABLEIFEXISTScar_g
- 2021-03-08~09~10~11~12 大数据课程笔记 day47day48day49day50day51
Rich Dad
西行日记lampscipyzkmakefilecrm
@R星校长大数据技术之Flink第一章初识Flink 在当前数据量激增的时代,各种业务场景都有大量的业务数据产生,对于这些不断产生的数据应该如何进行有效的处理,成为当下大多数公司所面临的问题。目前比较流行的大数据处理引擎ApacheSpark,基本上已经取代了MapReduce成为当前大数据处理的标准。但对实时数据处理来说,ApacheSpark的Spark-Streaming还有性能改进的空间
- 【转载】Yarn上常驻Spark-Streaming程序调优
大数据技术进阶
对于长时间运行的SparkStreaming作业,一旦提交到YARN群集便需要永久运行,直到有意停止。任何中断都会引起严重的处理延迟,并可能导致数据丢失或重复。YARN和ApacheSpark都不是为了执行长时间运行的服务而设计的。但是,它们已经成功地满足了近实时数据处理作业的常驻需求。成功并不一定意味着没有技术挑战。这篇博客总结了在安全的YARN集群上,运行一个关键任务且长时间的SparkStr
- 必备干货 | Hbase简介以及数据结构和表详解
陈敬雷-充电了么-CEO兼CTO
人工智能大数据Hbase人工智能大数据数据库hbase分布式
注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷先生的新书《分布式机器学习实战》(人工智能科学与技术丛书)【陈敬雷编著】【清华大学出版社】文章目录前言Hbase原理和功能介绍1.Hbase特性2.Hbase的架构核心组件Hbase数据结构和表详解总结前言Hbase经常用来存储实时数据,比如Storm/Flink/Spark-Streaming消费用户行为日志数据进行处理后存储到Hbase
- spark-streaming-kafka-0-10源码分析
tracy_668
[TOC]spark-streaming为了匹配0.10以后版本的kafka客户端变化推出了一个目前还是Experimental状态的spark-streaming-kafka-0-10客户端首先看下初始化kafkastream的方法声明,defcreateDirectStream[K,V](ssc:StreamingContext,locationStrategy:LocationStrateg
- 如何创建 SparkContext,SQLContext,StreamingContext 的几种方式?
曲健磊
【Spark】
首先,使用ScalaIDE或IDEA创建Scala的Maven工程。需要用到spark-core,spark-sql,spark-streaming的jar包,pom文件如下:2.1.02.11org.apache.sparkspark-core_${scala.version}${spark.version}org.apache.sparkspark-streaming_${scala.vers
- Spark streaming基于kafka 以Receiver方式获取数据 原理和案例实战
二府村
Spark梦想
本博文讲述的内容主要包括:1,SparkStreamingonKafkaReceiver工作原理机制2,SparkStreamingonKafkaReceiver案例实战3,SparkStreamingonKafkaReceiver源码解析一:SparkStreamingonKafkaReceiver简介:1、Spark-Streaming获取kafka数据的两种方式-Receiver与Direc
- java解析APK
3213213333332132
javaapklinux解析APK
解析apk有两种方法
1、结合安卓提供apktool工具,用java执行cmd解析命令获取apk信息
2、利用相关jar包里的集成方法解析apk
这里只给出第二种方法,因为第一种方法在linux服务器下会出现不在控制范围之内的结果。
public class ApkUtil
{
/**
* 日志对象
*/
private static Logger
- nginx自定义ip访问N种方法
ronin47
nginx 禁止ip访问
因业务需要,禁止一部分内网访问接口, 由于前端架了F5,直接用deny或allow是不行的,这是因为直接获取的前端F5的地址。
所以开始思考有哪些主案可以实现这样的需求,目前可实施的是三种:
一:把ip段放在redis里,写一段lua
二:利用geo传递变量,写一段
- mysql timestamp类型字段的CURRENT_TIMESTAMP与ON UPDATE CURRENT_TIMESTAMP属性
dcj3sjt126com
mysql
timestamp有两个属性,分别是CURRENT_TIMESTAMP 和ON UPDATE CURRENT_TIMESTAMP两种,使用情况分别如下:
1.
CURRENT_TIMESTAMP
当要向数据库执行insert操作时,如果有个timestamp字段属性设为
CURRENT_TIMESTAMP,则无论这
- struts2+spring+hibernate分页显示
171815164
Hibernate
分页显示一直是web开发中一大烦琐的难题,传统的网页设计只在一个JSP或者ASP页面中书写所有关于数据库操作的代码,那样做分页可能简单一点,但当把网站分层开发后,分页就比较困难了,下面是我做Spring+Hibernate+Struts2项目时设计的分页代码,与大家分享交流。
1、DAO层接口的设计,在MemberDao接口中定义了如下两个方法:
public in
- 构建自己的Wrapper应用
g21121
rap
我们已经了解Wrapper的目录结构,下面可是正式利用Wrapper来包装我们自己的应用,这里假设Wrapper的安装目录为:/usr/local/wrapper。
首先,创建项目应用
&nb
- [简单]工作记录_多线程相关
53873039oycg
多线程
最近遇到多线程的问题,原来使用异步请求多个接口(n*3次请求) 方案一 使用多线程一次返回数据,最开始是使用5个线程,一个线程顺序请求3个接口,超时终止返回 缺点 测试发现必须3个接
- 调试jdk中的源码,查看jdk局部变量
程序员是怎么炼成的
jdk 源码
转自:http://www.douban.com/note/211369821/
学习jdk源码时使用--
学习java最好的办法就是看jdk源代码,面对浩瀚的jdk(光源码就有40M多,比一个大型网站的源码都多)从何入手呢,要是能单步调试跟进到jdk源码里并且能查看其中的局部变量最好了。
可惜的是sun提供的jdk并不能查看运行中的局部变量
- Oracle RAC Failover 详解
aijuans
oracle
Oracle RAC 同时具备HA(High Availiablity) 和LB(LoadBalance). 而其高可用性的基础就是Failover(故障转移). 它指集群中任何一个节点的故障都不会影响用户的使用,连接到故障节点的用户会被自动转移到健康节点,从用户感受而言, 是感觉不到这种切换。
Oracle 10g RAC 的Failover 可以分为3种:
1. Client-Si
- form表单提交数据编码方式及tomcat的接受编码方式
antonyup_2006
JavaScripttomcat浏览器互联网servlet
原帖地址:http://www.iteye.com/topic/266705
form有2中方法把数据提交给服务器,get和post,分别说下吧。
(一)get提交
1.首先说下客户端(浏览器)的form表单用get方法是如何将数据编码后提交给服务器端的吧。
对于get方法来说,都是把数据串联在请求的url后面作为参数,如:http://localhost:
- JS初学者必知的基础
百合不是茶
js函数js入门基础
JavaScript是网页的交互语言,实现网页的各种效果,
JavaScript 是世界上最流行的脚本语言。
JavaScript 是属于 web 的语言,它适用于 PC、笔记本电脑、平板电脑和移动电话。
JavaScript 被设计为向 HTML 页面增加交互性。
许多 HTML 开发者都不是程序员,但是 JavaScript 却拥有非常简单的语法。几乎每个人都有能力将小的
- iBatis的分页分析与详解
bijian1013
javaibatis
分页是操作数据库型系统常遇到的问题。分页实现方法很多,但效率的差异就很大了。iBatis是通过什么方式来实现这个分页的了。查看它的实现部分,发现返回的PaginatedList实际上是个接口,实现这个接口的是PaginatedDataList类的对象,查看PaginatedDataList类发现,每次翻页的时候最
- 精通Oracle10编程SQL(15)使用对象类型
bijian1013
oracle数据库plsql
/*
*使用对象类型
*/
--建立和使用简单对象类型
--对象类型包括对象类型规范和对象类型体两部分。
--建立和使用不包含任何方法的对象类型
CREATE OR REPLACE TYPE person_typ1 as OBJECT(
name varchar2(10),gender varchar2(4),birthdate date
);
drop type p
- 【Linux命令二】文本处理命令awk
bit1129
linux命令
awk是Linux用来进行文本处理的命令,在日常工作中,广泛应用于日志分析。awk是一门解释型编程语言,包含变量,数组,循环控制结构,条件控制结构等。它的语法采用类C语言的语法。
awk命令用来做什么?
1.awk适用于具有一定结构的文本行,对其中的列进行提取信息
2.awk可以把当前正在处理的文本行提交给Linux的其它命令处理,然后把直接结构返回给awk
3.awk实际工
- JAVA(ssh2框架)+Flex实现权限控制方案分析
白糖_
java
目前项目使用的是Struts2+Hibernate+Spring的架构模式,目前已经有一套针对SSH2的权限系统,运行良好。但是项目有了新需求:在目前系统的基础上使用Flex逐步取代JSP,在取代JSP过程中可能存在Flex与JSP并存的情况,所以权限系统需要进行修改。
【SSH2权限系统的实现机制】
权限控制分为页面和后台两块:不同类型用户的帐号分配的访问权限是不同的,用户使
- angular.forEach
boyitech
AngularJSAngularJS APIangular.forEach
angular.forEach 描述: 循环对obj对象的每个元素调用iterator, obj对象可以是一个Object或一个Array. Iterator函数调用方法: iterator(value, key, obj), 其中obj是被迭代对象,key是obj的property key或者是数组的index,value就是相应的值啦. (此函数不能够迭代继承的属性.)
- java-谷歌面试题-给定一个排序数组,如何构造一个二叉排序树
bylijinnan
二叉排序树
import java.util.LinkedList;
public class CreateBSTfromSortedArray {
/**
* 题目:给定一个排序数组,如何构造一个二叉排序树
* 递归
*/
public static void main(String[] args) {
int[] data = { 1, 2, 3, 4,
- action执行2次
Chen.H
JavaScriptjspXHTMLcssWebwork
xwork 写道 <action name="userTypeAction"
class="com.ekangcount.website.system.view.action.UserTypeAction">
<result name="ssss" type="dispatcher">
- [时空与能量]逆转时空需要消耗大量能源
comsci
能源
无论如何,人类始终都想摆脱时间和空间的限制....但是受到质量与能量关系的限制,我们人类在目前和今后很长一段时间内,都无法获得大量廉价的能源来进行时空跨越.....
在进行时空穿梭的实验中,消耗超大规模的能源是必然
- oracle的正则表达式(regular expression)详细介绍
daizj
oracle正则表达式
正则表达式是很多编程语言中都有的。可惜oracle8i、oracle9i中一直迟迟不肯加入,好在oracle10g中终于增加了期盼已久的正则表达式功能。你可以在oracle10g中使用正则表达式肆意地匹配你想匹配的任何字符串了。
正则表达式中常用到的元数据(metacharacter)如下:
^ 匹配字符串的开头位置。
$ 匹配支付传的结尾位置。
*
- 报表工具与报表性能的关系
datamachine
报表工具birt报表性能润乾报表
在选择报表工具时,性能一直是用户关心的指标,但是,报表工具的性能和整个报表系统的性能有多大关系呢?
要回答这个问题,首先要分析一下报表的处理过程包含哪些环节,哪些环节容易出现性能瓶颈,如何优化这些环节。
一、报表处理的一般过程分析
1、用户选择报表输入参数后,报表引擎会根据报表模板和输入参数来解析报表,并将数据计算和读取请求以SQL的方式发送给数据库。
2、
- 初一上学期难记忆单词背诵第一课
dcj3sjt126com
wordenglish
what 什么
your 你
name 名字
my 我的
am 是
one 一
two 二
three 三
four 四
five 五
class 班级,课
six 六
seven 七
eight 八
nince 九
ten 十
zero 零
how 怎样
old 老的
eleven 十一
twelve 十二
thirteen
- 我学过和准备学的各种技术
dcj3sjt126com
技术
语言VB https://msdn.microsoft.com/zh-cn/library/2x7h1hfk.aspxJava http://docs.oracle.com/javase/8/C# https://msdn.microsoft.com/library/vstudioPHP http://php.net/manual/en/Html
- struts2中token防止重复提交表单
蕃薯耀
重复提交表单struts2中token
struts2中token防止重复提交表单
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
蕃薯耀 2015年7月12日 11:52:32 星期日
ht
- 线性查找二维数组
hao3100590
二维数组
1.算法描述
有序(行有序,列有序,且每行从左至右递增,列从上至下递增)二维数组查找,要求复杂度O(n)
2.使用到的相关知识:
结构体定义和使用,二维数组传递(http://blog.csdn.net/yzhhmhm/article/details/2045816)
3.使用数组名传递
这个的不便之处很明显,一旦确定就是不能设置列值
//使
- spring security 3中推荐使用BCrypt算法加密密码
jackyrong
Spring Security
spring security 3中推荐使用BCrypt算法加密密码了,以前使用的是md5,
Md5PasswordEncoder 和 ShaPasswordEncoder,现在不推荐了,推荐用bcrpt
Bcrpt中的salt可以是随机的,比如:
int i = 0;
while (i < 10) {
String password = "1234
- 学习编程并不难,做到以下几点即可!
lampcy
javahtml编程语言
不论你是想自己设计游戏,还是开发iPhone或安卓手机上的应用,还是仅仅为了娱乐,学习编程语言都是一条必经之路。编程语言种类繁多,用途各 异,然而一旦掌握其中之一,其他的也就迎刃而解。作为初学者,你可能要先从Java或HTML开始学,一旦掌握了一门编程语言,你就发挥无穷的想象,开发 各种神奇的软件啦。
1、确定目标
学习编程语言既充满乐趣,又充满挑战。有些花费多年时间学习一门编程语言的大学生到
- 架构师之mysql----------------用group+inner join,left join ,right join 查重复数据(替代in)
nannan408
right join
1.前言。
如题。
2.代码
(1)单表查重复数据,根据a分组
SELECT m.a,m.b, INNER JOIN (select a,b,COUNT(*) AS rank FROM test.`A` A GROUP BY a HAVING rank>1 )k ON m.a=k.a
(2)多表查询 ,
使用改为le
- jQuery选择器小结 VS 节点查找(附css的一些东西)
Everyday都不同
jquerycssname选择器追加元素查找节点
最近做前端页面,频繁用到一些jQuery的选择器,所以特意来总结一下:
测试页面:
<html>
<head>
<script src="jquery-1.7.2.min.js"></script>
<script>
/*$(function() {
$(documen
- 关于EXT
tntxia
ext
ExtJS是一个很不错的Ajax框架,可以用来开发带有华丽外观的富客户端应用,使得我们的b/s应用更加具有活力及生命力。ExtJS是一个用 javascript编写,与后台技术无关的前端ajax框架。因此,可以把ExtJS用在.Net、Java、Php等各种开发语言开发的应用中。
ExtJs最开始基于YUI技术,由开发人员Jack
- 一个MIT计算机博士对数学的思考
xjnine
Math
在过去的一年中,我一直在数学的海洋中游荡,research进展不多,对于数学世界的阅历算是有了一些长进。为什么要深入数学的世界?作为计算机的学生,我没有任何企图要成为一个数学家。我学习数学的目的,是要想爬上巨人的肩膀,希望站在更高的高度,能把我自己研究的东西看得更深广一些。说起来,我在刚来这个学校的时候,并没有预料到我将会有一个深入数学的旅程。我的导师最初希望我去做的题目,是对appe