考试复习

选择20道

填空10道

判断10道

简答4-5道

编程题2道

一、选择题

1.js中更改一个input框的值:

通过a.value改变他的值

方法:

  • 在script标签中通过id获得该输入框对象,然后通过value属性修改

考试复习_第1张图片

2.CSS更改文字颜色

css中通过标签选择器,来改变标签内字体的颜色

考试复习_第2张图片

3.CSS样式的内外边距(上下左右四个值)

 看padding属性值的个数

       

4.超链接 下划线 鼠标移到超链接使超链接的下划线消失


  
    
    
    
  
  
  a    
  

   

5.js中的函数function 可不可以有返回值,可不可以有参数

js 中的函数可以有返回值,也可以有参数 通过 return 返回。

 

6.hadoop中用递归方式查询子目录命令

hdfs dfs -ls  文件夹名

考试复习_第3张图片

7.在数据库中查询名称不为空或者为空的用什么样的查询语句。

select * from 表名 where name is not null;

8. 有条件(where)的分组查询

select count(uid),uid from 表名 where level=0 groupby uid;

  • 分组条件要与前面统计函数的条件相同
  • where要在group之前

9.启动/停止Hadoop的所有服务

启动:start-all.sh

停止:stop-all.sh

考试复习_第4张图片

10.在linux中创建/查看文件有哪些方式

创建文件

  • vi a.txt        //编辑器创建文件
  • echo "aa" >b  //重定向创建文件
  • touch abc

考试复习_第5张图片

查看文件

  • ls  查看文件夹
  • cat 查看文件

11.数据库中的模糊查询(查询所有带2的数据)

select uid from 表名 where uid like '%2%'

使用like函数进行模糊查询 并且 % 作为替位符用于匹配多个值

12.mysql数据库中主键和唯一约束的区别

主键和唯一约束都是用于保证表中数据的唯一性,但它们之间还是有一些区别的。

主键是一种特殊的唯一约束,它要求表中的每一条记录都必须有一个唯一标识,这个标识就是主键。主键可以由一个或多个列组成,但是主键列上的值必须是唯一的,而且不能为空。主键还可以作为外键,用于建立表与表之间的关系。

唯一约束也要求表中的每一行都有唯一标识,但是它与主键的区别在于,唯一约束允许空值(NULL),而主键不允许空值。此外,一个表可以有多个唯一约束,但只能有一个主键。

  • 主键不能为空 可以使任意类型的数据
  • 唯一约束约束的字段可以为空
  • 一个表可以有多个唯一约束,但是只能有一个主键

13.hdfs配置副本的数量

        

        dfs.replication //副本

                1 //配置副本的数量  默认情况为3

        

        

                dfs.permissions

                false

        

14.java中如何抛出异常

Public void a() throws Exception{   //抛出异常

        throw New Exception();   //产生异常并抛给上级(方法)

}

15.=&==的区别

        boolean a = false;

If(a=true){ //注意“=”还是“==”

        System.out.println(“aaa”);

        }

a=true 只是个赋值语句 而非== 判断是否相等 a永远是true 所以会打印

16.Session

考试复习_第6张图片

  • session 主要保存id 用于浏览器和服务器的交互
  • 第一次访问后服务端会向浏览器发送一个id 由Session携带(与cookie组成会话跟踪技术)
  • 下一次访问仍携带该id证明已经登陆过。
  • session是服务端机制  不是客户端机制
  • 17.servlet的生命周期中,容器只调用一次的方法

  • servlet的初始化方法  init()
  • 18.servlet实现请求转发的方法

  •  forward  通过RequestDispatcher.forward()方法转发

  • 19.hdfs-site.xml中配置的属性

  •         

            dfs.replication //副本

                    1 //配置副本的数量  默认情况为3

            

            

                    dfs.permissions//配置hdfs权限

                    false

            

  • 1.dfs.replication
  • 2.dfs.permissions
  • 二、填空题

  • 1.java的数据类型有 基本类型引用类型

  • 2.通过display属性进行弹性盒子布局的属性有 flex 

  • 1.其默认值为inline,这意味着此元素会被显示为一个内联元素,在元素前后没有换行符;
  • 2.设置display的值为flex,则表示用于指定弹性盒的容器;
  • 3.如果设置display的值为none,则表示此元素不会被显示。
  • 3.html中根据标签的特点分成哪几类,三大类 行内元素块级元素、行内块级元素

  • 4.在hadoop中查看进程,看进程命令  jps     

  • 5.Java中集合分两大类,有序和无序两大类 list set

  • 6.hdfs中进行数据存储的节点 datanode

  • 三、判断题

  • 1.在vi中删除一行用什么命令 ?dd

  1. 2.主键的创建 即可以在创建表时创建 也可以在创建表后 使用alter命令更新主键  正确

  2. 3.SQL语句大小写是敏感的   错误 

  3. sql语句的大小写是不敏感的,mysql不会区分大小写

  4. 4.在Java中可以用来声明方法和类,如果方法抽象必须使用关键词abstract   正确

  5. 5.在Java中多态将一个父类的引用指向一个子类,需要进行强制转换  错误  

  6. 不需要强制转换  直接可以用 子类转父类需要转换  父类转子类不需要转换

  7. 6.在css里如果是弹性布局是css3  

  8. CSS3中有弹性布局新样式  CSS2中没有
  9. 7.JavaEE中两个对象HttpServletResponse的接口继承于HttpServlet调用HttpResponse的请求  错误  

  10. response 是响应信息  request是请求信息
  11. 8.htfs有多个副本,所以NameNode不存在单节点问题  错误

  12. 名称节点只有一个 所以存在单节点问题
  13. 9.hadoop中block size 块大小128MB不能改变  错误

  14. 可以改变
  15. 三、简答题

  16. 1.简单,简要描述如何安装配置一个阿帕奇开源版的hadoop描述即可

  •   下载解压、关闭防火墙,安装jdk、配置环境变量、修改主机名、修改配置文件、格式化hdfs、启动进程start-all

  • 2.statement,preparedstatement关系和区别

  • 关系:Statement和PreparedStatement都是Java中用于执行SQL语句的接口,其中PreparedStatement继承自Statement。

  • 区别:

  • 1.PreparedStatement可以使用占位符,是预编译的,批处理比Statement效率高。

    • 2.Statement在执行一次性存储的时候使用,因为PreparedStatement的开销比较大。

      3.PreparedStatement可以在执行SQL语句之前进行预编译,这样可以提高执行效率。而Statement则是每次执行SQL语句时都需要进行编译,效率相对较低。

    • 4.PreparedStatement可以使用占位符,这样可以避免SQL注入攻击。而Statement则需要将参数直接拼接到SQL语句中,容易受到SQL注入攻击。

    • 3.抽象类和接口的区别:

    • 抽象类是一个特殊的类,不能被实例化,可以包含抽象方法和非抽象方法,派生类必须覆盖抽象方法。而接口是一种引用类型,不能被实例化,只包含未实现的方法声明和常量,派生类必须实现接口中的所有方法。
    • 抽象类可以有构造函数,而接口不能有构造函数。
    • 抽象类可以包含成员变量,而接口只能包含常量。
    • 一个类只能继承一个抽象类,但可以实现多个接口。
    • 抽象类的目的是为了代码重用,而接口的目的是为了实现多态性。
    • 4、事务的四大特性

      •         事务的四大特性是ACID,分别是原子性(Atomicity)、一致性(Consistency)、隔离性(Isolation)和持久性(Durability)。

    • 原子性:指一个事务中的所有操作要么全部完成,要么全部不完成,不可能停滞在中间某个环节。如果在事务执行过程中发生错误,会被回滚(Rollback)到事务开始前的状态,就像这个事务从来没有执行过一样。

    • 一致性:指事务执行前后,数据库从一个一致性状态变为另一个一致性状态。在事务开始之前和事务结束以后,数据库的完整性约束没有被破坏。比如,转账事务中,无论事务是否成功,转账前后两个账户的总金额应该保持不变。

    • 隔离性:指并发执行的事务之间是相互隔离的,一个事务的执行不能被其他事务干扰。每个事务都有完整的数据空间,事务内部的操作及使用的数据对其它并发事务是隔离的,各个事务之间是不能互相干扰的。

    • 持久性:指一个事务一旦提交,它对数据库中数据的改变就应该是永久性的。接下来的其他操作或故障不应该对其执行结果有任何影响。数据库应该能够保证即使发生了系统故障,也不会丢失提交事务的操作。

5.hdfs体系结构

        主从结构模型,可以一主多从,hadoop3也可以多主多从,一个hdfs集群主要时由一个NameNode和若干个DataNode组成的,其中NameNode为主服务器,也就是主从结构,管理文件,系统的命名空间,和客户端对文件的访问操作。集群中的DataNode管理存储的数据

四、代码题

1.在hadoop中wordCount

public class WordCount {
    /**
     * 创建一个Map类
     * 存储数据
     */
    public static class TokenizerMapper extends Mapper {
        // 定义一个常量:1
        private final static IntWritable one = new IntWritable(1);
        // 定义一个key对象 Text
        private Text word = new Text();

        protected void map(Object key, Text value, Mapper.Context context) throws IOException, InterruptedException {
            // Spark    HBase
            StringTokenizer itr = new StringTokenizer(value.toString());
            while (itr.hasMoreElements()) {
                word.set(itr.nextToken());
                // 输出给reduce
                context.write(word, one);
            }
        }
    }

    /**
     * 创建一个Reduce类
     * 计算
     */
    public static class SumReduce extends Reducer {
        private IntWritable result = new IntWritable();

        protected void reduce(Text key, Iterable values, Reducer.Context context) throws IOException, InterruptedException {
            Iterator var4 = values.iterator();
            int sum = 0;
            while (var4.hasNext()) {
                IntWritable data = (IntWritable) var4.next();
                sum += data.get();
            }
            result.set(sum);
            context.write(key, result);
        }
    }

    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
        String inputPath = "hdfs://hadoopMaster:9000/data/words";
        String outPath = "hdfs://hadoopMaster:9000/data/result";

        // 1.创建配置
        Configuration conf = new Configuration();
        // 2.创建一个任务
        Job job = Job.getInstance(conf, "word count");
        // client
        job.setJarByClass(WordCount.class);
        // 设置Mapper类
        job.setMapperClass(TokenizerMapper.class);
        // 合并
        job.setCombinerClass(SumReduce.class);
        // 计算
        job.setReducerClass(SumReduce.class);
        // Text 要与reduce指定输出类型对应
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);
        // 指定输入数据
        FileInputFormat.addInputPath(job, new Path(inputPath));
        // 指定输出结果
        FileOutputFormat.setOutputPath(job, new Path(outPath));

        // 等待任务结果
        System.exit(job.waitForCompletion(true) ? 0 : 1);
    }

2.Web开发servlet写一个登录,使用jsp写一个表单提交,用户名和密码,用servlet里面获取数据

考试复习_第7张图片

考试复习_第8张图片

你可能感兴趣的:(java)