- spark常用命令
我是浣熊的微笑
spark
查看报错日志:yarnlogsapplicationIDspark2-submit--masteryarn--classcom.hik.ReadHdfstest-1.0-SNAPSHOT.jar进入$SPARK_HOME目录,输入bin/spark-submit--help可以得到该命令的使用帮助。hadoop@wyy:/app/hadoop/spark100$bin/spark-submit--
- Spark Q&A
耐心的农夫2020
Q:在读取文件的时候,如何忽略空gzip文件?A:从Spark2.1开始,你可以通过启用spark.sql.files.ignoreCorruptFiles选项来忽略损毁的文件。可以将下面的选项添加到你的spark-submit或者pyspark命令中。--confspark.sql.files.ignoreCorruptFiles=true另外spark支持的选项可以通过在spark-shell
- Spark Authorizer支持最新版本Spark 2.3.0
Kent_Yao
今天Spark社区为大家带来了最新的Spark2.3.0SparkRelease2.3.0ApacheSpark2.3.0isthefourthreleaseinthe2.xline.ThisreleaseaddssupportforContinuousProcessinginStructuredStreamingalongwithabrandnewKubernetesSchedulerbacke
- Spark 共享变量
stone_zhu
翻译Spark共享变量部分的官方文档(Spark2.4.3)。通常,当传递给Spark操作(如map或reduce)的函数在远程集群节点上执行时,在函数中使用的所有外部变量都是单独拷贝的变量副本。这些变量被复制到每台机器上,对远程机器上的变量更新不会传播回驱动程序。支持通用的、任务间的读写共享变量是很低效的。不过,Spark确实为两种常见的使用模式提供了两种有限的共享变量类型:广播变量和累加器。一
- 死磕spark中的job、stage、task
NikolasNull
写在前面台风夜的电话面试里被问到了spark运行任务的过程中stage的划分依据。一下子就给整懵了,支支吾吾答非所问。从事大数据的开发也有一年半光景,spark任务的运行原理依旧知之甚少。因此就参阅各种优秀的文章,再配上一个自己工作中的实际项目,特意整理出这篇笔记,以此警示自己的自大与无知。测试环境本地开发环境idea2019.1.2maven3.6spark2.4.3scala2.1.8jdk1
- 69.Kudu、Spark2、Kafka安装—CDH
大勇任卷舒
69.1演示环境介绍CDH集群运行正常操作系统版本为:CentOS6.5CM和CDH版本为:5.12.1CM管理员为:admin用户操作系统用户为:root用户69.2操作演示Kudu安装Kudu的Parcel部署下载Kudu的Parcel包:http://archive.cloudera.com/kudu/parcels/5.12.1/KUDU-1.4.0-1.cdh5.12.1.p0.10-e
- 解决“Spark context stopped while waiting for backend“ issue
江畔独步
Sparkbigdata
在配置为4C16G的虚拟机上安装hadoop生态全家桶,在安装Spark2,使用了社区版2.3的版本。安装完毕后,使用spark2自带的样例程序org.apache.spark.examples.SparkPi测试了下,结果报了如下错误:Sparkcontextstoppedwhilewaitingforbackend完整报错日志如下:2021-03-1215:05:32INFOShutdownH
- Hadoop2.7.6+Mysql5.7+Hive2.3.2+zookeeper3.4.6+kafka2.11+Hbase1.4.9+Sqoop1.4.7+Kylin2.4单机伪分布式安装及官方案例测
运维道上奔跑者
分布式hbasezookeeperhadoop
####################################################################最新消息:关于spark和Hudi的安装部署文档,本人已经写完,连接:Hadoop2.7.6+Spark2.4.4+Scala2.11.12+Hudi0.5.1单机伪分布式安装注意:本篇文章是在本人写的Hadoop+Hive+HBase+Kylin伪分布式安装指南
- 实时数据湖:Flink CDC流式写入Hudi
王知无(import_bigdata)
sparkhadoophive大数据mysql
点击上方蓝色字体,选择“设为星标”回复"面试"获取更多惊喜1.环境准备•Flink1.12.2_2.11•Hudi0.9.0-SNAPSHOT(master分支)•Spark2.4.5、Hadoop3.1.3、Hive3.1.22.FlinkCDC写入HudiMySQL建表语句如下createtableusers(idbigintauto_incrementprimarykey,namevarch
- 数据治理实践 | 小文件治理
语兴数据
大数据数据治理小文件治理数据仓库
前言感谢关注,可以关注B站同名:语兴呀或公众号语数获取资料。小文件是数仓侧长期头痛问题,它们会占用过多的存储空间,影响查询性能。因此,我们需要采取一些措施来对小文件进行治理,以保证Hive的高效性和稳定性。在本文中,我将介绍Hive中小文件治理的方法和技巧,希望对大家有所帮助。背景小文件是如何产生的:日常任务及动态分区插入数据(使用的Spark2MapReduce引擎),产生大量的小文件,从而导致
- Spark SQL中掌控sql语句的执行 - 了解你的查询计划
鸿乃江边鸟
本文翻译自BeinchargeofQueryExcutioninSparkSQL背景自spark2.x的sql以及申明行DataFrameAPi以来,在spark查询数据越来越方便。仅仅用几行代码就能表达出复杂的查询逻辑以及实现复杂的操作。这个api最大的优势在于用户不需要考虑太多的执行情况,自动有优化器优化出最有效率的执行方式去执行此次查询。而且有效的查询语句执行不仅是因为能够节约资源,而且能够
- Spark 2.3.4 StandAlone 集群模式部署
JP.Hu
Sparkspark大数据分布式
Spark2.3.4StandAlone集群模式部署相关文档依赖服务系统优化创建路径配置/etc/profile配置$SPARK_HOME/conf/spark-env.sh配置$SPARK_HOME/conf/spark-defaults.conf配置$SPARK_HOME/conf/slaves分发配置启动Spark验证Spark相关文档介质路径:https://archive.apache.
- 大数据技术之Spark
严同学正在努力
大数据sparkhadoopapachekafka
Spark概述1.1Spark是什么官方解释:Spark是一种基于内存的快速、通用、可扩展的大数据分析计算引擎。1.2SparkandHadoopHadoop的MapReduce是大家广为熟知的计算框架,那为什么咱们还要学习新的计算框架Spark呢,这里简单说一下Spark和Hadoop的关系。在时间节点上(重要)HadoppSpark2006年1月,DougCutting加入Yahoo,领导Ha
- (转)Spark Streaming遇到问题分析
达微
parkStreaming遇到问题分析1、Spark2.0之后搞了个StructuredStreaming还没仔细了解,可参考:https://github.com/lw-lin/Coo...2、Spark的Job与Streaming的Job有区别及StreamingJob并发控制:先看看SparkStreaming的JobSet,Job,与SparkCore的Job,Stage,TaskSet,
- Spark消费Kafka的两种方式
这个程序猿可太秀了
#spark#kafkaspark内核kafkaspark
目录介绍Receiver方式code原理如何保证数据不丢失但是会导致数据重复问题优点缺点Direct(NoReceiver)方式code特点优点缺点介绍kafka版本,kafka0.8支持Receiver和DirectKafka版本大于等于0.10.0,且Spark版本大于等于Spark2.3.0,应使用spark-streaming-kafka-0-10,Kafka0.9版本之前,consume
- shell spark-submit提交之后获取appid,并在程序中扫描状态
南修子
首先看一下提交脚本#/sbin/bash/opt/cloudera/parcels/SPARK2/bin/spark2-submit\exportJAVA_HOME=/opt/jdk1.8.0_31TASK_TYPE=$1TASK_JSON=$2SPARK_CONFIG=$3appId=`$SPARK_CONFIG\"$TASK_JSON"\$TASK_TYPE\2>&1|tee/dev/tty|
- 基于Spark2.x新闻网大数据实时分析可视化系统项目
飞雪雪团队
课程大纲第一章:案例需求分析与设计1.全套课程内容概述2.案例需求分析3.系统架构设计4.系统数据流程设计5.集群资源规划设计第二章:linux环境准备与设置1.Linux系统常规设置2.克隆虚拟机并进行相关的配置3.对集群中的机器进行基本配置第三章:Hadoop2.X分布式集群部署1.Hadoop2.X版本下载及安装2.Hadoop2.X分布式集群配置3.分发到其他各个机器节点4.HDFS启动集
- Spark OFF_HEAP
尼小摩
OFF_HEAPSpark中RDD提供了几种存储级别,不同的存储级别可以带来不同的容错性能,例如MEMORY_ONLY,MEMORY_ONLY_SER_2...其中,有一种特别的是OFF_HEAPoff_heap的优势在于,在内存有限的条件下,减少不必要的内存消耗,以及频繁的GC问题,提升程序性能。Spark2.0以前,默认的off_heap是Tachyon,当然,你可以通过继承ExternalB
- Spark内核解析-内存管理7(六)
有语忆语
大数据之Sparksparkajaxjavascript
1、Spark内存管理Spark作为一个基于内存的分布式计算引擎,其内存管理模块在整个系统中扮演着非常重要的角色。理解Spark内存管理的基本原理,有助于更好地开发Spark应用程序和进行性能调优。本文中阐述的原理基于Spark2.1版本。在执行Spark的应用程序时,Spark集群会启动Driver和Executor两种JVM进程,前者为主控进程,负责创建Spark上下文,提交Spark作业(J
- Spark内核解析-通信架构3(六)
有语忆语
大数据之Sparkspark架构大数据
3、Spark通信架构Spark作为分布式计算框架,多个节点的设计与相互通信模式是其重要的组成部分。Spark一开始使用Akka作为内部通信部件。在Spark1.3年代,为了解决大块数据(如Shuffle)的传输问题,Spark引入了Netty通信框架。到了Spark1.6,Spark可以配置使用Akka或者Netty了,这意味着Netty可以完全替代Akka了。再到Spark2,Spark已经完
- Python_PySpark实战
Hooray11
python自学python开发语言
1.PySpark库的安装清华大学源:pipinstall-ihttps://pypi.tuna.tsinghua.edu.cn/simplepyspark2.构建PySpark执行环境入口对象"""演示获取PySpark的执行环境入库对象并通过SparkContext对象获取当前Spark的版本"""#导包frompysparkimportSparkConf,SparkContext#创建Spa
- Spark源码分析之:Shuffle
你说个der
Sparkspark大数据
这一篇我们来分析Spark2.1的Shuffle流程。其实ShuffleDependency从SparkContext初始化就已经被DAGScheduler划分好了,本文主要探讨在Task运行过程中的ShufleWrite和ShuffleRead。要从Task运行开始说起,就要知道Task在哪里运行的。我们普遍认为Executor是负责执行Task的,但是我们发现Executor其实就是一个类pr
- Spark内容分享(十八):70个Spark面试题
之乎者也·
Spark内容分享大数据(Hadoop)内容分享Spark大数据
1、ApacheSpark有哪些常见的稳定版本,Spark1.6.0的数字分别代表什么意思?常见的大的稳定版本有Spark1.3,Spark1.6,Spark2.0,Spark1.6.0的数字含义第一个数字:1majorversion:代表大版本更新,一般都会有一些api的变化,以及大的优化或是一些结构的改变;第二个数字:6minorversion:代表小版本更新,一般会新加api,或者是对当前的
- Spark大数据分析与实战笔记(第二章 Spark基础-01)
想你依然心痛
#Spark大数据分析与实战spark
文章目录第2章Spark基础章节概要2.1初识Spark2.1.1Spark概述2.1.2Spark的特点2.1.3Spark应用场景2.1.4Spark与Hadoop对比第2章Spark基础章节概要Spark于2009年诞生于美国加州大学伯克利分校的AMP实验室,它是一个可应用于大规模数据处理的统一分析引擎。Spark不仅计算速度快,而且内置了丰富的API,使得我们能够更加容易编写程序。2.1初
- (六)SparkSQL读写本地外部数据源
白面葫芦娃92
https://spark-packages.org/里有很多third-party数据源的package,spark把包加载进来就可以使用了csv格式在spark2.0版本之后是内置的,2.0之前属于第三方数据源一、读取本地外部数据源1.直接读取一个json文件[hadoop@hadoop000bin]$./spark-shell--masterlocal[2]--jars~/software/
- Spark: 在master节点开启worker进程(将master当做slave节点来使用)
玉成226
spark大数据分布式
1.进入master节点:spark2/conf然后:vislaves对其他的slave节点进行同样的操作。2.开启spakr集群用spark-submit命令提交jar:3.jar成功提交后显示:开启的主节点和从节点:
- Zookeeper集群搭建
WE-ubytt
大数据处理与应用zookeeperhadoop大数据
系列文章目录Ubuntu常见基本问题Hadoop3.1.3安装(单机、伪分布)Hadoop集群搭建HBase2.2.2安装(单机、伪分布)Zookeeper集群搭建HBase集群搭建Spark安装和编程实践(Spark2.4.0)Spark集群搭建文章目录系列文章目录一、安装Zookeeper二、集群搭建1、修改配置文件①zoo.cfg②myid2、分发目录3、启动一、安装Zookeeper先把压
- Spark权威指南(中文版)--第23章 生产环境中的结构化流
登峰大数据
SparkTheDefinitiveGuide(Spark权威指南)中文版。本书详细介绍了Spark2.x版本的各个模块,目前市面上最好的Spark2.x学习书籍!!!关注:登峰大数据,阅读中文Spark权威指南(完整版),系统学习Spark大数据框架!如果您觉得作者翻译的内容有帮助,请分享给更多人。您的分享,是作者翻译的动力本书前几章已经从用户的角度介绍了结构化流。这自然是应用程序的核心。本章将
- 六:Spark集群安装和部署
玉成226
spark
写在前面:1.我的系统配置:(1)安装一个虚拟机:三个ubuntu16.04系统;(2)Master节点:内存分配2g;Slave1节点:内存分配512MB;Slave2节点:内存分配512MB;2.安装路径:(1)Hadoop2.6.5:/usr/local/;(2)Spark2.6.0:/usr/local/;(3)Scala2.11.7:/usr/;(4)Jdk1.8.0_151:/usr/
- Java SparkSql 2.4.0 ArrayIndexOutOfBoundsException error
smileyboy2009
spark
在spark2.4中报ArrayIndexOutOfBoundsException原因是Spark2.4.0中引用的paranamer版本是2.7导致问题。在spark-core/spark-sql之前添加以下依赖项为我解决了这个问题。com.thoughtworks.paranamerparanamer2.8
- ztree异步加载
3213213333332132
JavaScriptAjaxjsonWebztree
相信新手用ztree的时候,对异步加载会有些困惑,我开始的时候也是看了API花了些时间才搞定了异步加载,在这里分享给大家。
我后台代码生成的是json格式的数据,数据大家按各自的需求生成,这里只给出前端的代码。
设置setting,这里只关注async属性的配置
var setting = {
//异步加载配置
- thirft rpc 具体调用流程
BlueSkator
中间件rpcthrift
Thrift调用过程中,Thrift客户端和服务器之间主要用到传输层类、协议层类和处理类三个主要的核心类,这三个类的相互协作共同完成rpc的整个调用过程。在调用过程中将按照以下顺序进行协同工作:
(1) 将客户端程序调用的函数名和参数传递给协议层(TProtocol),协议
- 异或运算推导, 交换数据
dcj3sjt126com
PHP异或^
/*
* 5 0101
* 9 1010
*
* 5 ^ 5
* 0101
* 0101
* -----
* 0000
* 得出第一个规律: 相同的数进行异或, 结果是0
*
* 9 ^ 5 ^ 6
* 1010
* 0101
* ----
* 1111
*
* 1111
* 0110
* ----
* 1001
- 事件源对象
周华华
JavaScript
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml&q
- MySql配置及相关命令
g21121
mysql
MySQL安装完毕后我们需要对它进行一些设置及性能优化,主要包括字符集设置,启动设置,连接优化,表优化,分区优化等等。
一 修改MySQL密码及用户
 
- [简单]poi删除excel 2007超链接
53873039oycg
Excel
采用解析sheet.xml方式删除超链接,缺点是要打开文件2次,代码如下:
public void removeExcel2007AllHyperLink(String filePath) throws Exception {
OPCPackage ocPkg = OPCPac
- Struts2添加 open flash chart
云端月影
准备以下开源项目:
1. Struts 2.1.6
2. Open Flash Chart 2 Version 2 Lug Wyrm Charmer (28th, July 2009)
3. jofc2,这东西不知道是没做好还是什么意思,好像和ofc2不怎么匹配,最好下源码,有什么问题直接改。
4. log4j
用eclipse新建动态网站,取名OFC2Demo,将Struts2 l
- spring包详解
aijuans
spring
下载的spring包中文件及各种包众多,在项目中往往只有部分是我们必须的,如果不清楚什么时候需要什么包的话,看看下面就知道了。 aspectj目录下是在Spring框架下使用aspectj的源代码和测试程序文件。Aspectj是java最早的提供AOP的应用框架。 dist 目录下是Spring 的发布包,关于发布包下面会详细进行说明。 docs&nb
- 网站推广之seo概念
antonyup_2006
算法Web应用服务器搜索引擎Google
持续开发一年多的b2c网站终于在08年10月23日上线了。作为开发人员的我在修改bug的同时,准备了解下网站的推广分析策略。
所谓网站推广,目的在于让尽可能多的潜在用户了解并访问网站,通过网站获得有关产品和服务等信息,为最终形成购买决策提供支持。
网站推广策略有很多,seo,email,adv
- 单例模式,sql注入,序列
百合不是茶
单例模式序列sql注入预编译
序列在前面写过有关的博客,也有过总结,但是今天在做一个JDBC操作数据库的相关内容时 需要使用序列创建一个自增长的字段 居然不会了,所以将序列写在本篇的前面
1,序列是一个保存数据连续的增长的一种方式;
序列的创建;
CREATE SEQUENCE seq_pro
2 INCREMENT BY 1 -- 每次加几个
3
- Mockito单元测试实例
bijian1013
单元测试mockito
Mockito单元测试实例:
public class SettingServiceTest {
private List<PersonDTO> personList = new ArrayList<PersonDTO>();
@InjectMocks
private SettingPojoService settin
- 精通Oracle10编程SQL(9)使用游标
bijian1013
oracle数据库plsql
/*
*使用游标
*/
--显示游标
--在显式游标中使用FETCH...INTO语句
DECLARE
CURSOR emp_cursor is
select ename,sal from emp where deptno=1;
v_ename emp.ename%TYPE;
v_sal emp.sal%TYPE;
begin
ope
- 【Java语言】动态代理
bit1129
java语言
JDK接口动态代理
JDK自带的动态代理通过动态的根据接口生成字节码(实现接口的一个具体类)的方式,为接口的实现类提供代理。被代理的对象和代理对象通过InvocationHandler建立关联
package com.tom;
import com.tom.model.User;
import com.tom.service.IUserService;
- Java通信之URL通信基础
白糖_
javajdkwebservice网络协议ITeye
java对网络通信以及提供了比较全面的jdk支持,java.net包能让程序员直接在程序中实现网络通信。
在技术日新月异的现在,我们能通过很多方式实现数据通信,比如webservice、url通信、socket通信等等,今天简单介绍下URL通信。
学习准备:建议首先学习java的IO基础知识
URL是统一资源定位器的简写,URL可以访问Internet和www,可以通过url
- 博弈Java讲义 - Java线程同步 (1)
boyitech
java多线程同步锁
在并发编程中经常会碰到多个执行线程共享资源的问题。例如多个线程同时读写文件,共用数据库连接,全局的计数器等。如果不处理好多线程之间的同步问题很容易引起状态不一致或者其他的错误。
同步不仅可以阻止一个线程看到对象处于不一致的状态,它还可以保证进入同步方法或者块的每个线程,都看到由同一锁保护的之前所有的修改结果。处理同步的关键就是要正确的识别临界条件(cri
- java-给定字符串,删除开始和结尾处的空格,并将中间的多个连续的空格合并成一个。
bylijinnan
java
public class DeleteExtraSpace {
/**
* 题目:给定字符串,删除开始和结尾处的空格,并将中间的多个连续的空格合并成一个。
* 方法1.用已有的String类的trim和replaceAll方法
* 方法2.全部用正则表达式,这个我不熟
* 方法3.“重新发明轮子”,从头遍历一次
*/
public static v
- An error has occurred.See the log file错误解决!
Kai_Ge
MyEclipse
今天早上打开MyEclipse时,自动关闭!弹出An error has occurred.See the log file错误提示!
很郁闷昨天启动和关闭还好着!!!打开几次依然报此错误,确定不是眼花了!
打开日志文件!找到当日错误文件内容:
--------------------------------------------------------------------------
- [矿业与工业]修建一个空间矿床开采站要多少钱?
comsci
地球上的钛金属矿藏已经接近枯竭...........
我们在冥王星的一颗卫星上面发现一些具有开采价值的矿床.....
那么,现在要编制一个预算,提交给财政部门..
- 解析Google Map Routes
dai_lm
google api
为了获得从A点到B点的路劲,经常会使用Google提供的API,例如
[url]
http://maps.googleapis.com/maps/api/directions/json?origin=40.7144,-74.0060&destination=47.6063,-122.3204&sensor=false
[/url]
从返回的结果上,大致可以了解应该怎么走,但
- SQL还有多少“理所应当”?
datamachine
sql
转贴存档,原帖地址:http://blog.chinaunix.net/uid-29242841-id-3968998.html、http://blog.chinaunix.net/uid-29242841-id-3971046.html!
------------------------------------华丽的分割线--------------------------------
- Yii使用Ajax验证时,如何设置某些字段不需要验证
dcj3sjt126com
Ajaxyii
经常像你注册页面,你可能非常希望只需要Ajax去验证用户名和Email,而不需要使用Ajax再去验证密码,默认如果你使用Yii 内置的ajax验证Form,例如:
$form=$this->beginWidget('CActiveForm', array( 'id'=>'usuario-form',&
- 使用git同步网站代码
dcj3sjt126com
crontabgit
转自:http://ued.ctrip.com/blog/?p=3646?tn=gongxinjun.com
管理一网站,最开始使用的虚拟空间,采用提供商支持的ftp上传网站文件,后换用vps,vps可以自己搭建ftp的,但是懒得搞,直接使用scp传输文件到服务器,现在需要更新文件到服务器,使用scp真的很烦。发现本人就职的公司,采用的git+rsync的方式来管理、同步代码,遂
- sql基本操作
蕃薯耀
sqlsql基本操作sql常用操作
sql基本操作
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
蕃薯耀 2015年6月1日 17:30:33 星期一
&
- Spring4+Hibernate4+Atomikos3.3多数据源事务管理
hanqunfeng
Hibernate4
Spring3+后不再对JTOM提供支持,所以可以改用Atomikos管理多数据源事务。Spring2.5+Hibernate3+JTOM参考:http://hanqunfeng.iteye.com/blog/1554251Atomikos官网网站:http://www.atomikos.com/ 一.pom.xml
<dependency>
<
- jquery中两个值得注意的方法one()和trigger()方法
jackyrong
trigger
在jquery中,有两个值得注意但容易忽视的方法,分别是one()方法和trigger()方法,这是从国内作者<<jquery权威指南》一书中看到不错的介绍
1) one方法
one方法的功能是让所选定的元素绑定一个仅触发一次的处理函数,格式为
one(type,${data},fn)
&nb
- 拿工资不仅仅是让你写代码的
lampcy
工作面试咨询
这是我对团队每个新进员工说的第一件事情。这句话的意思是,我并不关心你是如何快速完成任务的,哪怕代码很差,只要它像救生艇通气门一样管用就行。这句话也是我最喜欢的座右铭之一。
这个说法其实很合理:我们的工作是思考客户提出的问题,然后制定解决方案。思考第一,代码第二,公司请我们的最终目的不是写代码,而是想出解决方案。
话粗理不粗。
付你薪水不是让你来思考的,也不是让你来写代码的,你的目的是交付产品
- 架构师之对象操作----------对象的效率复制和判断是否全为空
nannan408
架构师
1.前言。
如题。
2.代码。
(1)对象的复制,比spring的beanCopier在大并发下效率要高,利用net.sf.cglib.beans.BeanCopier
Src src=new Src();
BeanCopier beanCopier = BeanCopier.create(Src.class, Des.class, false);
- ajax 被缓存的解决方案
Rainbow702
JavaScriptjqueryAjaxcache缓存
使用jquery的ajax来发送请求进行局部刷新画面,各位可能都做过。
今天碰到一个奇怪的现象,就是,同一个ajax请求,在chrome中,不论发送多少次,都可以发送至服务器端,而不会被缓存。但是,换成在IE下的时候,发现,同一个ajax请求,会发生被缓存的情况,只有第一次才会被发送至服务器端,之后的不会再被发送。郁闷。
解决方法如下:
① 直接使用 JQuery提供的 “cache”参数,
- 修改date.toLocaleString()的警告
tntxia
String
我们在写程序的时候,经常要查看时间,所以我们经常会用到date.toLocaleString(),但是date.toLocaleString()是一个过时 的API,代替的方法如下:
package com.tntxia.htmlmaker.util;
import java.text.SimpleDateFormat;
import java.util.
- 项目完成后的小总结
xiaomiya
js总结项目
项目完成了,突然想做个总结但是有点无从下手了。
做之前对于客户端给的接口很模式。然而定义好了格式要求就如此的愉快了。
先说说项目主要实现的功能吧
1,按键精灵
2,获取行情数据
3,各种input输入条件判断
4,发送数据(有json格式和string格式)
5,获取预警条件列表和预警结果列表,
6,排序,
7,预警结果分页获取
8,导出文件(excel,text等)
9,修