ARTS-第三周

Algorithm

这周实现了最基本的动态数据结构链表,并用数组和链表分别实现了栈和队列。

git代码地址

数组和链表的总结

一、什么是链表?

1.和数组一样,链表也是一种线性表。

2.从内存结构来看,链表的内存结构是不连续的内存空间,是将一组零散的内存块串联起来,从而进行数据存储的数据结构。

3.链表中的每一个内存块被称为节点Node。节点除了存储数据外,还需记录链上下一个节点的地址,即后继指针next。

二、为什么使用链表?即链表的特点

1.插入、删除数据效率高O(1)级别(只需更改指针指向即可),随机访问效率低O(n)级别(需要从链头至链尾进行遍历)。

2.和数组相比,内存空间消耗更大,因为每个存储数据的节点都需要额外的空间存储后继指针。

三、常用链表:单链表、循环链表和双向链表

1.单链表

1)每个节点只包含一个指针,即后继指针。

2)单链表有两个特殊的节点,即首节点和尾节点。为什么特殊?用首节点地址表示整条链表,尾节点的后继指针指向空地址null。

3)性能特点:插入和删除节点的时间复杂度为O(1),查找的时间复杂度为O(n)。

2.循环链表

1)除了尾节点的后继指针指向首节点的地址外均与单链表一致。

2)适用于存储有循环特点的数据,比如约瑟夫问题。

3.双向链表

1)节点除了存储数据外,还有两个指针分别指向前一个节点地址(前驱指针prev)和下一个节点地址(后继指针next)。

2)首节点的前驱指针prev和尾节点的后继指针均指向空地址。

3)性能特点:

和单链表相比,存储相同的数据,需要消耗更多的存储空间。
插入、删除操作比单链表效率更高O(1)级别。以删除操作为例,删除操作分为2种情况:给定数据值删除对应节点和给定节点地址删除节点。对于前一种情况,单链表和双向链表都需要从头到尾进行遍历从而找到对应节点进行删除,时间复杂度为O(n)。对于第二种情况,要进行删除操作必须找到前驱节点,单链表需要从头到尾进行遍历直到p->next = q,时间复杂度为O(n),而双向链表可以直接找到前驱节点,时间复杂度为O(1)。
对于一个有序链表,双向链表的按值查询效率要比单链表高一些。因为我们可以记录上次查找的位置p,每一次查询时,根据要查找的值与p的大小关系,决定是往前还是往后查找,所以平均只需要查找一半的数据。
4.双向循环链表:首节点的前驱指针指向尾节点,尾节点的后继指针指向首节点。

四、选择数组还是链表?

1.插入、删除和随机访问的时间复杂度

数组:插入、删除的时间复杂度是O(n),随机访问的时间复杂度是O(1)。

链表:插入、删除的时间复杂度是O(1),随机访问的时间复杂端是O(n)。

2.数组缺点

1)若申请内存空间很大,比如100M,但若内存空间没有100M的连续空间时,则会申请失败,尽管内存可用空间超过100M。

2)大小固定,若存储空间不足,需进行扩容,一旦扩容就要进行数据复制,而这时非常费时的。

3.链表缺点

1)内存空间消耗更大,因为需要额外的空间存储指针信息。

2)对链表进行频繁的插入和删除操作,会导致频繁的内存申请和释放,容易造成内存碎片,如果是Java语言,还可能会造成频繁的GC(自动垃圾回收器)操作。

4.如何选择?

数组简单易用,在实现上使用连续的内存空间,可以借助CPU的缓冲机制预读数组中的数据,所以访问效率更高,而链表在内存中并不是连续存储,所以对CPU缓存不友好,没办法预读。
如果代码对内存的使用非常苛刻,那数组就更适合。

Review

Flink官网 https://flink.apache.org/
从一手资料出发了解Flink架构,使用场景,基本概念(DataStream、DataSet、并行度、State和CheckPoint等)
调用Flink方法测试demo上传至github。

FlinkExemple

Tips

kafka可视化工具

Kafka Tool

redis可视化工具

1、fastoredis

2、Redis Desktop Manager

Share

一次很失败的股市操作

这个月可谓是中国股市辉煌的一个月,超越了2015的大牛市涨幅。我虽然在底部开始定投股市,但这波可谓挣的教训比钱要多的多。低位定投50ETF,和创业板50,证券,一手好牌打烂。本来给自己定的规则是每月只买不卖,默默操作至少一年,无所谓一时涨跌做好所谓的价值投资。没想到自己并不是股神。

所有政策为什么要禁“赌”,因为在赌局中情绪这货真的控制不住,短期节奏之中,玩着玩着就忘记了当时的原则,一旦好运气休假会赌的忘记自己。我曾经觉得自己是一个股市可以做到坚守原则的人。没想到熊市没有扰乱我,反而是突如其来的大涨把我弄到情绪崩溃,先盈利后踏空再追高。

事后反思。贪欲背后就是妄念,深深的妄念背后是人们对自己的不自知,人往往都是高估自己的。所以先认清自己再丢掉妄念,让我们会成为更加真实而理性的人。

Research

本周预研方向主要是Flink

目前需要完成的业务场景为:

  • 从官方支持的Connector流式数据源(kafka)读数据作为Source,然后从静态数据源(HDFS)读数据,都注册成表,并完成标准sql的编写,后入到Sink中。
  • Flink中注册UDF函数,并在SQL模块中使用
  • 自定义Connector包括(redis、hbase、hive、es 等)

你可能感兴趣的:(ARTS-第三周)