- 一次线程数超限导致的hive写入hbase作业失败分析
spring208208
大数据组件线上问题分析大数据hivehbase
1.集群配置操作系统:SuSe操作系统集群节点:100台相同配置的服务器单台:核心112Core,内存396G2.问题现象现象1:跑单个入库任务报错,批量提交任务后出现OOM异常执行12个hivesql,将数据写入hbase.hbase入库有近一半的任务报错。每次报错的任务不是同一个,hivesql任务分为2个阶段:第1个阶段是hive自处理阶段,底层是spark计算引擎。出现oom,无法开启新的
- CUDA Toolkit安装和验证
乒乓球爱好AI
人工智能深度学习linux
一、cuda下载网址https://developer.nvidia.com/cuda-toolkit-archive二、Win10下载安装三、ubuntu22下载安装3.1cudatoolkit下载3.2安装命令: wgethttps://developer.download.nvidia.com/compute/cuda/12.3.0/local_installers/cuda_12.3.0_
- 【cran Archive R包的安装方式】
遗落凡尘的萤火-生信小白
r语言开发语言
cranArchiveR包的安装方式添加链接描述1.包被cran移除2.包要求的R语言版本与你电脑上的版本不相符ad=archive包的网址或者是下载到工作目录下,ad等于文件名install,packages(adrepos=NULL)
- CDH角色迁移和硬盘扩容
专注大数据的Lyer
java大数据hadoophivehdfs
1.概述生产CDH集群硬盘不足,HDFSdatanode节点数据不平衡,历史管理角色安装混乱,全部节点需要硬盘扩容。迁移要求HDFS数据不丢失Hive元数据不丢失无临时过渡服务器不能影响用户计算使用CDH5.11.0只能使用centos6.5-6.9x版本大数据组件角色迁移ClouderaManagementService服务迁移服务器由物理机全部改造为虚拟机主节点不迁移角色迁移2.迁移整个迁移的
- Maven 三种项目打包方式:POM、JAR 和 WAR 的区别详解
一休哥助手
javamavenjarjava
一、Maven项目的打包方式简介Maven项目有多种打包方式,定义在pom.xml文件中的标签里。最常见的打包类型有以下几种:POM(ProjectObjectModel):用于聚合项目和管理多模块项目的父项目。JAR(JavaARchive):用于打包Java应用程序的常见格式,主要用于打包库和可执行的Java程序。WAR(WebApplicationArchive):用于打包JavaWeb应用
- Introduction to the S/MIME Toolkit
dash23
protocol
http://www-archive.mozilla.org/projects/security/pki/nss/ref/smime/intro.htmlOverviewofCMSThisdocumentprovidesabriefintroductiontotheS/MIMEToolkitAPI.Morecompletedescriptionsofindividualtypesandfuncti
- RockyLinux9编译安装MySQL5.7
changelzj
MySQLmysql
原文链接:RockyLinux9编译安装MySQL5.7-LiuZijian'sBlog|本文最后更新于2024年12月15日使用源码编译安装MySQL5.71.下载打开MySQL-Community-Server官方下载页面:https://downloads.mysql.com/archives/community/筛选出要下载的版本,ProductVersion选择5.7.44,也就是最后一
- Hadoop3.2.1安装-单机模式和伪分布式模式
花菜回锅肉
大数据hadoophdfs大数据linux
Hadoop入门篇概述Hadoop是使用Java编写的,是为了解决大数据场景下的两大问题,分布式存储和分布式处理而诞生的,包含很多组件、套件。需要运行在Linux系统下。主要包括HDFS和MapReduce两个组件。下载安装下载下载地址https://archive.apache.org/dist/hadoop/common/选择合适自己的tar.gz版本下载,该文档选择V3.2.1。Hadoop
- 【Python】报错: ERROR: Cannot unpack file C:和Cannot determine archive format of C:
Uniquerose
python开发语言
这里举pandas为例,直接在cmd中安装的话很慢pipinstallpandas然后用清华镜像安装开始报错pipinstallihttps://pypi.tuna.tsinghua.edu.cn/simplepandas随后一直搜索寻找解决方法看到说加一个信任此网站就行,pipinstallihttps://pypi.tuna.tsinghua.edu.cn/simple--trusted-ho
- 流媒体娱乐服务平台在AWS上使用Presto作为大数据的交互式查询引擎的具体流程和代码
weixin_30777913
aws大数据python音视频
一家流媒体娱乐服务平台拥有庞大的用户群体和海量的数据。为了高效处理和分析这些数据,它选择了Presto作为其在AWSEMR上的大数据查询引擎。在AWSEMR上使用Presto取得了显著的成果和收获。这些成果不仅提升了数据查询效率,降低了运维成本,还促进了业务的创新与发展。实施过程:Presto集群部署:在AWSEMR上部署了Presto集群,该集群与HiveMetastore和AmazonS3集成
- ORACLE数据库的OGG日志
苦苦挣扎的小码农
数据库oracle
若要使用OGG,ORACLE必须开启归档模式,可以理解为设置ORACLE的REDOLOG落地,这样才能让OGG拿到所需的日志信息.1.查询数据库是否处于归档模式,如果处于归档模式,则返回结果ARCHIVELOGSQL>selectlog_modefromv$database;2.如果不处于归档模式,则要开启归档$>sqlplus/nologSQL>conn/assysdbaSQL>shutdown
- hive怎么处理过滤掉满足多个多个条件的记录_Hive基础面试题总结
weixin_39761422
点击关注上方“知了小巷”,设为“置顶或星标”,第一时间送达干货。1.描述一下Hive动态分区和分桶使用场景和使用方法分区按照数据表的某列或某些列分为多个分区,分区从形式上可以理解为文件夹,比如我们要收集某个大型网站的日志数据,一个网站每天的日志数据存在同一张表上,由于每天会生成大量的日志,导致数据表的内容巨大,在查询时进行全表扫描耗费的资源非常多。那其实这个情况下,我们可以按照日期对数据表进行分区
- Hive面试重点
未来影子
面试hivehive面试bigdata
文章目录Hive介绍Hive架构(重点)Hive内外部表(重点)Hive建表语句Hive数据倾斜以及解决方案(重点)Hive的自定义函数Hive的sortby、distributeby、cluserby、orderby区别Hive分区和分桶的区别HQL转化为MR的过程Hive的存储引擎和计算引擎1、计算引擎2、存储引擎Join的操作原理1、CommonJoin2、MapJoin3、SMBJoinH
- Hive重点面试题
Major Tom _
hivehadoop数据仓库
文章目录Hive面试重点题目及答案1.Hive的优缺点及使用场景2.Hive与数据仓库的区别3.Hive的基本架构与元数据存储4.Hive内外部表的区别及适用场景5.Hive数据倾斜原因与解决方法6.HiveMapReduce的底层实现与优化方式7.Hive窗口函数的使用场景8.Hive分区与分桶的区别9.Hive的存储格式10.Hive计算引擎(MapReduce,Tez,Spark)的对比Hi
- 如何在Java中调用Python
梦想画家
#pythonjava8~9核心功能javapythonjython
Python语言有丰富的系统管理、数据处理、统计类软件包,因此从java应用中调用Python代码的需求很常见、实用。DataX是阿里开源的一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle等)、HDFS、Hive、ODPS、HBase、FTP等各种异构数据源之间稳定高效的数据同步功能。Datax也是通过Java调用Python脚本。本文介绍几种方法从java调用Py
- Hive修复分区
码农小旋风
后端
Hive修复分区简介Hive的MSCKREPAIRTABLE命令用于修复(即添加丢失的)表分区。通常用于那些已在HDFS中存在,但尚未在Hive元数据中注册的分区。当你在HDFS文件系统中手动添加或删除分区目录,Hive并不会自动识别这些更改。为同步元数据与实际文件系统之间的状态,可用命令:MSCK REPAIR TABLE table_name;较老Hive版本,用旧命令:ALTER TABLE
- hive分区和分桶详解
CodeShelby
hive大数据hive
1、分区表分区表实际上就是对应一个HDFS文件系统上的独立的文件夹,该文件夹下是该分区所有的数据文件。Hive中的分区就是分目录,把一个大的数据集根据业务需要分割成小的数据集。在查询时通过WHERE子句中的表达式选择查询所需要的指定的分区,这样的查询效率会提高很多。1)分区表基本操作(1)引入分区表(需要根据日期对日志进行管理,通过部门信息模拟)dept_20200401.logdept_2020
- Qt | windows Qt6.5.3安装&安卓环境搭建&虚拟机调试和真机调试完美版(保姆级教程)
Qt历险记
Qt高级开发工程师qtwindowsandroidQt安卓Qt6.5.3安装
Qt安卓发布的手机01、第一章Qt6.5.3安装资源运行成功的界面全网最全Qt国内下载地址清华大学开源软件镜像站https://mirrors.tuna.tsinghua.edu.cn/qt/archive/online_installers/
- Hive 分区和分桶总结
Stray_Lambs
大数据hive
目录分区和分桶总结1、分区1、分区介绍2、分区表的操作3、动态分区2、分桶表1、分桶表介绍2、分桶表的操作3、分区表和分桶表的区别参考分区和分桶总结1、分区1、分区介绍由于数据量过于庞大,使用分区,可以并行的进行处理数据,有点类似于Hadoop当中的切片操作,将数据分开,然后并行去处理,避免去全表扫描。分区表在生产环境当中用的非常多。分区表实际上就是对应一个在HDFS(或者是其他分布式文件系统)文
- 【博学谷学习记录】超强总结,用心分享 | Hive分区表和分桶表
Onzswhite
hive大数据hadoop
#博学谷IT技术支持#一、分区表分区表就是对一个表的文件数据进行分类管理,表现形式就是有很多的文件夹(dt=2019-02-27)。分区表的作用是以后查询时,我们可以手动指定对应分区的数据,避免全表扫描,提高查询效率。所谓的分区表,指的就是将数据按照表中的某一个字段进行统一归类,并存储在表中的不同的位置,也就是说,一个分区就是一类,这一类的数据对应到hdfs存储上就是对应一个目录。当我们需要进行处
- Hive分区和分桶
码农小旋风
后端
Hive分区和分桶两种用于优化查询性能的数据组织策略,数仓设计的关键概念,可提升Hive在读取大量数据时的性能。1分区(Partitioning)根据表的某列的值来组织数据。每个分区对应一个特定值,并映射到HDFS的不同目录。为大幅减少数据量,基本必须要做!常用于经常查询的列,如日期、区域等。这样可以在查询时仅扫描相关的分区,而不是整个数据集,从而减少查询所需要处理的数据量,提高查询效率。物理上将
- Qt5离线安装包无法下载问题解决办法
Sudouble
Qt学习笔记qt开发语言
想在电脑里装一个Qt,但是直接报错。果然还是有解决办法滴。qtdownloadfromyouripisnotallowedQt5安装包下载办法方法一:简单直接,直接科学一下,不过违法行为咱不做,遵纪守法好公民(不过没办法阻止别人不做↔️)。方法二:使用【迅雷】就可以下载,只需要知道Qt离线安装包的url地址;https://download.qt.io/archive/qt/5.14/5.14.
- mysql大表的解决方案,及Hive分页查询
字节全栈_ZKt
mysqlhive数据库
1.mysql表查询数据量较大(最大的一张表已经达到33亿条数据,整个mysql已经达到2.9T的数据存储),2.mysql表每日新增数据量较大(增量最大的表,每日新增数据量在4千万条左右的数据)3.需要支持事务操作,部分表需要支持更新操作。4.支持复杂操作,包括模糊,排序,分组统计和分页等操作。5.低延迟,用户选择的任务条件查询,响应时间应该控制在3-5s。6.实时数据的写入和查询操作,目前实时
- linux的apache安装,Apache Kylin | 安装指南
姜白的树洞
linux的apache安装
软件要求Hadoop:2.7+,3.1+(sincev2.5)Hive:0.13-1.2.1+HBase:1.1+,2.0(sincev2.5)Spark(可选)2.3.0+Kafka(可选)1.0.0+(sincev2.5)JDK:1.8+(sincev2.5)OS:Linuxonly,CentOS6.5+orUbuntu16.0.4+在HortonworksHDP2.2-2.6and3.0,C
- kylin linux 安装教程,Apache Kylin | 安装指南
社本
kylinlinux安装教程
软件要求Hadoop:2.7+Hive:0.13-1.2.1+HBase:1.1+Spark2.1.1+JDK:1.7+OS:Linuxonly,CentOS6.5+orUbuntu16.0.4+用HortonworksHDP2.2-2.6,ClouderaCDH5.7-5.11,AWSEMR5.7-5.10,AzureHDInsight3.5-3.6进行测试。出于试用和开发的目的,我们建议您使用
- sqoop导出orc数据至mysql,将Sqoop导入为OrC文件
终有尽头
IsthereanyoptioninsqooptoimportdatafromRDMSandstoreitasORCfileformatinHDFS?Alternativestried:importedastextformatandusedatemptabletoreadinputastextfileandwritetohdfsasorcinhive解决方案AtleastinSqoop1.4.5t
- sqoop从orc文件到oracle,Sqoop import as OrC file
余革革
问题IsthereanyoptioninsqooptoimportdatafromRDMSandstoreitasORCfileformatinHDFS?Alternativestried:importedastextformatandusedatemptabletoreadinputastextfileandwritetohdfsasorcinhive回答1:AtleastinSqoop1.4.
- Hadoop---(6)Sqoop(数据传输)
Mr Cao
sqoop大数据
6.SqoopSqoop是一个用于hadoop数据和结构化数据之间转换的工具。全称SQL-TO-HADOOP.它可以把hadoop数据,包括hive和hbase存储的数据转化为结构化数据也就是数据库的数据,也可以把关系型数据库数据转化为hadoop数据这些转换操作全是通过Hadoop的MapTask来完成的,并不会涉及到Reduce操作。这是因为我们只是进行数据的拷贝,并不会对数据进行处理或者计算
- Sqoop 支持 ORC 文件格式
吃鱼的羊
sqoop
ORC介绍ORC文件格式是Hive0.11.0版本引入的一种文件格式。ORC的引入是为了解决其他Hive文件格式的局限性。使用ORC文件格式提升Hive读取、写入及处理数据的性能。与RCFile对比,ORC文件格式有很多优点:每个Task只输出一个文件,降低NameNode的负载。Hive数据类型支持,包括:datetime、decimal以及复杂数据类型(struct、list、map、unio
- 【漏洞复现】广联达 Linkworks OA ArchiveWebService XML实体注入漏洞
0x0000001
漏洞复现xml网络安全web安全渗透测试网络安全
免责声明:本文旨在提供有关特定漏洞的信息,以帮助用户了解潜在风险。发布此信息旨在促进网络安全意识和技术进步,并非出于恶意。读者应理解,利用本文提到的漏洞或进行相关测试可能违反法律或服务协议。未经授权访问系统、网络或应用程序可能导致法律责任或严重后果。作者对读者基于本文内容的行为不承担责任。读者在使用信息时必须遵守适用法律法规和服务协议,独自承担所有风险和责任。如有侵权,请联系删除。漏洞描述广联达L
- 基本数据类型和引用类型的初始值
3213213333332132
java基础
package com.array;
/**
* @Description 测试初始值
* @author FuJianyong
* 2015-1-22上午10:31:53
*/
public class ArrayTest {
ArrayTest at;
String str;
byte bt;
short s;
int i;
long
- 摘抄笔记--《编写高质量代码:改善Java程序的151个建议》
白糖_
高质量代码
记得3年前刚到公司,同桌同事见我无事可做就借我看《编写高质量代码:改善Java程序的151个建议》这本书,当时看了几页没上心就没研究了。到上个月在公司偶然看到,于是乎又找来看看,我的天,真是非常多的干货,对于我这种静不下心的人真是帮助莫大呀。
看完整本书,也记了不少笔记
- 【备忘】Django 常用命令及最佳实践
dongwei_6688
django
注意:本文基于 Django 1.8.2 版本
生成数据库迁移脚本(python 脚本)
python manage.py makemigrations polls
说明:polls 是你的应用名字,运行该命令时需要根据你的应用名字进行调整
查看该次迁移需要执行的 SQL 语句(只查看语句,并不应用到数据库上):
python manage.p
- 阶乘算法之一N! 末尾有多少个零
周凡杨
java算法阶乘面试效率
&n
- spring注入servlet
g21121
Spring注入
传统的配置方法是无法将bean或属性直接注入到servlet中的,配置代理servlet亦比较麻烦,这里其实有比较简单的方法,其实就是在servlet的init()方法中加入要注入的内容:
ServletContext application = getServletContext();
WebApplicationContext wac = WebApplicationContextUtil
- Jenkins 命令行操作说明文档
510888780
centos
假设Jenkins的URL为http://22.11.140.38:9080/jenkins/
基本的格式为
java
基本的格式为
java -jar jenkins-cli.jar [-s JENKINS_URL] command [options][args]
下面具体介绍各个命令的作用及基本使用方法
1. &nb
- UnicodeBlock检测中文用法
布衣凌宇
UnicodeBlock
/** * 判断输入的是汉字 */ public static boolean isChinese(char c) { Character.UnicodeBlock ub = Character.UnicodeBlock.of(c);
- java下实现调用oracle的存储过程和函数
aijuans
javaorale
1.创建表:STOCK_PRICES
2.插入测试数据:
3.建立一个返回游标:
PKG_PUB_UTILS
4.创建和存储过程:P_GET_PRICE
5.创建函数:
6.JAVA调用存储过程返回结果集
JDBCoracle10G_INVO
- Velocity Toolbox
antlove
模板toolboxvelocity
velocity.VelocityUtil
package velocity;
import org.apache.velocity.Template;
import org.apache.velocity.app.Velocity;
import org.apache.velocity.app.VelocityEngine;
import org.apache.velocity.c
- JAVA正则表达式匹配基础
百合不是茶
java正则表达式的匹配
正则表达式;提高程序的性能,简化代码,提高代码的可读性,简化对字符串的操作
正则表达式的用途;
字符串的匹配
字符串的分割
字符串的查找
字符串的替换
正则表达式的验证语法
[a] //[]表示这个字符只出现一次 ,[a] 表示a只出现一
- 是否使用EL表达式的配置
bijian1013
jspweb.xmlELEasyTemplate
今天在开发过程中发现一个细节问题,由于前端采用EasyTemplate模板方法实现数据展示,但老是不能正常显示出来。后来发现竟是EL将我的EasyTemplate的${...}解释执行了,导致我的模板不能正常展示后台数据。
网
- 精通Oracle10编程SQL(1-3)PLSQL基础
bijian1013
oracle数据库plsql
--只包含执行部分的PL/SQL块
--set serveroutput off
begin
dbms_output.put_line('Hello,everyone!');
end;
select * from emp;
--包含定义部分和执行部分的PL/SQL块
declare
v_ename varchar2(5);
begin
select
- 【Nginx三】Nginx作为反向代理服务器
bit1129
nginx
Nginx一个常用的功能是作为代理服务器。代理服务器通常完成如下的功能:
接受客户端请求
将请求转发给被代理的服务器
从被代理的服务器获得响应结果
把响应结果返回给客户端
实例
本文把Nginx配置成一个简单的代理服务器
对于静态的html和图片,直接从Nginx获取
对于动态的页面,例如JSP或者Servlet,Nginx则将请求转发给Res
- Plugin execution not covered by lifecycle configuration: org.apache.maven.plugin
blackproof
maven报错
转:http://stackoverflow.com/questions/6352208/how-to-solve-plugin-execution-not-covered-by-lifecycle-configuration-for-sprin
maven报错:
Plugin execution not covered by lifecycle configuration:
- 发布docker程序到marathon
ronin47
docker 发布应用
1 发布docker程序到marathon 1.1 搭建私有docker registry 1.1.1 安装docker regisry
docker pull docker-registry
docker run -t -p 5000:5000 docker-registry
下载docker镜像并发布到私有registry
docker pull consol/tomcat-8.0
- java-57-用两个栈实现队列&&用两个队列实现一个栈
bylijinnan
java
import java.util.ArrayList;
import java.util.List;
import java.util.Stack;
/*
* Q 57 用两个栈实现队列
*/
public class QueueImplementByTwoStacks {
private Stack<Integer> stack1;
pr
- Nginx配置性能优化
cfyme
nginx
转载地址:http://blog.csdn.net/xifeijian/article/details/20956605
大多数的Nginx安装指南告诉你如下基础知识——通过apt-get安装,修改这里或那里的几行配置,好了,你已经有了一个Web服务器了。而且,在大多数情况下,一个常规安装的nginx对你的网站来说已经能很好地工作了。然而,如果你真的想挤压出Nginx的性能,你必
- [JAVA图形图像]JAVA体系需要稳扎稳打,逐步推进图像图形处理技术
comsci
java
对图形图像进行精确处理,需要大量的数学工具,即使是从底层硬件模拟层开始设计,也离不开大量的数学工具包,因为我认为,JAVA语言体系在图形图像处理模块上面的研发工作,需要从开发一些基础的,类似实时数学函数构造器和解析器的软件包入手,而不是急于利用第三方代码工具来实现一个不严格的图形图像处理软件......
&nb
- MonkeyRunner的使用
dai_lm
androidMonkeyRunner
要使用MonkeyRunner,就要学习使用Python,哎
先抄一段官方doc里的代码
作用是启动一个程序(应该是启动程序默认的Activity),然后按MENU键,并截屏
# Imports the monkeyrunner modules used by this program
from com.android.monkeyrunner import MonkeyRun
- Hadoop-- 海量文件的分布式计算处理方案
datamachine
mapreducehadoop分布式计算
csdn的一个关于hadoop的分布式处理方案,存档。
原帖:http://blog.csdn.net/calvinxiu/article/details/1506112。
Hadoop 是Google MapReduce的一个Java实现。MapReduce是一种简化的分布式编程模式,让程序自动分布到一个由普通机器组成的超大集群上并发执行。就如同ja
- 以資料庫驗證登入
dcj3sjt126com
yii
以資料庫驗證登入
由於 Yii 內定的原始框架程式, 採用綁定在UserIdentity.php 的 demo 與 admin 帳號密碼: public function authenticate() { $users=array( &nbs
- github做webhooks:[2]php版本自动触发更新
dcj3sjt126com
githubgitwebhooks
上次已经说过了如何在github控制面板做查看url的返回信息了。这次就到了直接贴钩子代码的时候了。
工具/原料
git
github
方法/步骤
在github的setting里面的webhooks里把我们的url地址填进去。
钩子更新的代码如下: error_reportin
- Eos开发常用表达式
蕃薯耀
Eos开发Eos入门Eos开发常用表达式
Eos开发常用表达式
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
蕃薯耀 2014年8月18日 15:03:35 星期一
&
- SpringSecurity3.X--SpEL 表达式
hanqunfeng
SpringSecurity
使用 Spring 表达式语言配置访问控制,要实现这一功能的直接方式是在<http>配置元素上添加 use-expressions 属性:
<http auto-config="true" use-expressions="true">
这样就会在投票器中自动增加一个投票器:org.springframework
- Redis vs Memcache
IXHONG
redis
1. Redis中,并不是所有的数据都一直存储在内存中的,这是和Memcached相比一个最大的区别。
2. Redis不仅仅支持简单的k/v类型的数据,同时还提供list,set,hash等数据结构的存储。
3. Redis支持数据的备份,即master-slave模式的数据备份。
4. Redis支持数据的持久化,可以将内存中的数据保持在磁盘中,重启的时候可以再次加载进行使用。
Red
- Python - 装饰器使用过程中的误区解读
kvhur
JavaScriptjqueryhtml5css
大家都知道装饰器是一个很著名的设计模式,经常被用于AOP(面向切面编程)的场景,较为经典的有插入日志,性能测试,事务处理,Web权限校验, Cache等。
原文链接:http://www.gbtags.com/gb/share/5563.htm
Python语言本身提供了装饰器语法(@),典型的装饰器实现如下:
@function_wrapper
de
- 架构师之mybatis-----update 带case when 针对多种情况更新
nannan408
case when
1.前言.
如题.
2. 代码.
<update id="batchUpdate" parameterType="java.util.List">
<foreach collection="list" item="list" index=&
- Algorithm算法视频教程
栏目记者
Algorithm算法
课程:Algorithm算法视频教程
百度网盘下载地址: http://pan.baidu.com/s/1qWFjjQW 密码: 2mji
程序写的好不好,还得看算法屌不屌!Algorithm算法博大精深。
一、课程内容:
课时1、算法的基本概念 + Sequential search
课时2、Binary search
课时3、Hash table
课时4、Algor
- C语言算法之冒泡排序
qiufeihu
c算法
任意输入10个数字由小到大进行排序。
代码:
#include <stdio.h>
int main()
{
int i,j,t,a[11]; /*定义变量及数组为基本类型*/
for(i = 1;i < 11;i++){
scanf("%d",&a[i]); /*从键盘中输入10个数*/
}
for
- JSP异常处理
wyzuomumu
Webjsp
1.在可能发生异常的网页中通过指令将HTTP请求转发给另一个专门处理异常的网页中:
<%@ page errorPage="errors.jsp"%>
2.在处理异常的网页中做如下声明:
errors.jsp:
<%@ page isErrorPage="true"%>,这样设置完后就可以在网页中直接访问exc