本文档翻译自 Databricks Scala Guide,你也可以在 Github 上阅读:Databricks Scala 编程风格指南,代码高亮支持得更好。
Spark 有超过 800 位贡献者,就我们所知,应该是目前大数据领域里最大的开源项目且是最活跃的 Scala 项目。这份指南是在我们指导,或是与 Spark 贡献者及 Databricks 工程团队一起工作时总结出来的。
代码由作者一次编写,然后由大量工程师多次阅读并修改。事实上,大部分的 bug 来源于后人对代码的修改,因此我们需要长期去优化我们的代码,提升代码的可读性和可维护性。达到这个目标最好的方式就是编写简单易懂的代码。
Scala 是一种强大到令人难以置信的多范式编程语言。我们总结出了以下指南,它可以很好地应用在一个高速发展的项目。当然,这个指南并非绝对,根据团队需求的不同,可以有不同的标准。
我们主要遵循 Java 和 Scala 的标准命名约定。
类,trait, 对象应该遵循 Java 中类的命名约定,即 PascalCase 风格。
class ClusterManager
trait Expression
包名应该遵循 Java 中包名的命名约定,即使用全小写的 ASCII 字母。
package com.databricks.resourcemanager
方法/函数应当使用驼峰式风格命名。
常量命名使用全大写字母,并将它们放在伴生对象中。
object Configuration {
val DEFAULT_PORT = 10000
}
枚举命名与类命名一致,使用 PascalCase 风格。
注解也应遵循 Java 中的约定,即使用 PascalCase 风格。注意,这一点与 Scala 的官方指南不同。
final class MyAnnotation extends StaticAnnotation
「如果一个元素包含的子元素超过 30 个,那么极有可能出现了严重的问题」 - Refactoring in Large Software Projects。
一般来说:
一般情况下,使用两个空格的缩进。
if (true) {
println("Wow!")
}
对于方法声明,如果一行无法容纳下所有的参数,那么使用 4 个空格来缩进它们。返回类型可以与最后一个参数在同一行,也可以放在下一行,使用两个空格缩进。
def newAPIHadoopFile[K, V, F <: NewInputFormat[K, V]](
path: String,
fClass: Class[F],
kClass: Class[K],
vClass: Class[V],
conf: Configuration = hadoopConfiguration): RDD[(K, V)] = {
// method body
}
def newAPIHadoopFile[K, V, F <: NewInputFormat[K, V]](
path: String,
fClass: Class[F],
kClass: Class[K],
vClass: Class[V],
conf: Configuration = hadoopConfiguration)
: RDD[(K, V)] = {
// method body
}
如果一行无法容纳下类头(即 extends 后面那部分),则把它们放到新的一行,用两个空格缩进,然后在类内空一行再开始函数或字段的定义(或是包的导入)。
class Foo(
val param1: String, // 4 space indent for parameters
val param2: String,
val param3: Array[Byte])
extends FooInterface // 2 space here
with Logging {
def firstMethod(): Unit = { ... } // blank line above
}
不要使用垂直对齐。它使你的注意力放在代码的错误部分并增大了后人修改代码的难度。
// Don't align vertically
val plus = "+"
val minus = "-"
val multiply = "*"
// Do the following
val plus = "+"
val minus = "-"
val multiply = "*"
方法声明应该加括号(即使没有参数列表),除非它们是没有副作用(状态改变,IO 操作都认为是有副作用的)的访问器(accessor)。
class Job {
// Wrong: killJob changes state. Should have ().
def killJob: Unit
// Correct:
def killJob(): Unit
}
函数调用应该与函数声明在形式上保持一致,也就是说,如果一个方法声明时带了括号,那调用时也要把括号带上。注意这不仅仅是语法层面的人为约定,当返回对象中定义了 apply
方法时,这一点还会影响正确性。
class Foo {
def apply(args: String*): Int
}
class Bar {
def foo: Foo
}
new Bar().foo // This returns a Foo
new Bar().foo() // This returns an Int!
即使条件语句或循环语句只有一行时,也请使用大括号。唯一的例外是,当你把 if/else 作为一个单行的三元操作符来使用并且没有副作用时,这时你可以不加大括号。
// Correct:
if (true) {
println("Wow!")
}
// Correct:
if (true) statement1 else statement2
// Correct:
try {
foo()
} catch {
...
}
// Wrong:
if (true)
println("Wow!")
// Wrong:
try foo() catch {
...
}
长整型字面量使用大写的 L
作为后缀,不要使用小写,因为它和数字 1
长得很像,常常难以区分。
val longValue = 5432L // Do this
val longValue = 5432l // Do NOT do this
使用 Java Doc 风格,而非 Scala Doc 风格。
/** This is a correct one-liner, short description. */
/**
* This is correct multi-line JavaDoc comment. And
* this is my second line, and if I keep typing, this would be
* my third line.
*/
/** In Spark, we don't use the ScalaDoc style so this
* is not correct.
*/
如果一个类很长,包含许多的方法,那么在逻辑上把它们分成不同的部分并加上注释头,以此组织它们。
class DataFrame {
///
// DataFrame operations
///
...
///
// RDD operations
///
...
}
当然,强烈不建议把一个类写得这么长,一般只有在构建某些公共 API 时才允许这么做。
scala.util.Random
) ,而不是相对路径 (如:util.Random
)。java.*
和 javax.*
scala.*
org.*
, com.*
, 等)com.databricks.*
或 org.apache.spark
)你可以使用 IntelliJ 的「import organizer」来自动处理,请使用以下配置:
java
javax
_______ blank line _______
scala
_______ blank line _______
all other imports
_______ blank line _______
com.databricks // or org.apache.spark if you are working on spark
如果整个方法就是一个模式匹配表达式,可能的话,可以把 match 关键词与方法声明放在同一行,以此减少一级缩进。
def test(msg: Message): Unit = msg match {
case ...
}
当以闭包形式调用一个函数时,如果只有一个 case 语句,那么把 case 语句与函数调用放在同一行。
list.zipWithIndex.map { case (elem, i) =>
// ...
}
如果有多个 case 语句,把它们缩进并且包起来。
list.map {
case a: Foo => ...
case b: Bar => ...
}
避免中缀表示法,除非是符号方法(即运算符重载)。
// Correct
list.map(func)
string.contains("foo")
// Wrong
list map (func)
string contains "foo"
// 重载的运算符应该以中缀形式调用
arrayBuffer += elem
避免在类里定义 apply 方法。这些方法往往会使代码的可读性变差,尤其是对于不熟悉 Scala 的人。它也难以被 IDE(或 grep)所跟踪。在最坏的情况下,它还可能影响代码的正确性,正如你在括号一节中看到的。
然而,将 apply 方法作为工厂方法定义在伴生对象中是可以接受的。在这种情况下,apply 方法应该返回其伴生类的类型。
object TreeNode {
// 下面这种定义是 OK 的
def apply(name: String): TreeNode = ...
// 不要像下面那样定义,因为它没有返回其伴生类的类型:TreeNode
def apply(name: String): String = ...
}
无论是覆盖具体的方法还是实现抽象的方法,始终都为方法加上 override 修饰符。实现抽象方法时,不加 override 修饰符,Scala 编译器也不会报错。即便如此,我们也应该始终把 override 修饰符加上,以此显式地表示覆盖行为。以此避免由于方法签名不同(而你也难以发现)而导致没有覆盖到本应覆盖的方法。
trait Parent {
def hello(data: Map[String, String]): Unit = {
print(data)
}
}
class Child extends Parent {
import scala.collection.Map
// 下面的方法没有覆盖 Parent.hello,
// 因为两个 Map 的类型是不同的。
// 如果我们加上 override 修饰符,编译器就会帮你找出问题并报错。
def hello(data: Map[String, String]): Unit = {
print("This is supposed to override the parent method, but it is actually not!")
}
}
解构绑定(有时也叫元组提取)是一种在一个表达式中为两个变量赋值的便捷方式。
val (a, b) = (1, 2)
然而,请不要在构造函数中使用它们,尤其是当 a
和 b
需要被标记为 transient
的时候。Scala 编译器会产生一个额外的 Tuple2 字段,而它并不是暂态的(transient)。
class MyClass {
// 以下代码无法 work,因为编译器会产生一个非暂态的 Tuple2 指向 a 和 b
@transient private val (a, b) = someFuncThatReturnsTuple2()
}
避免使用按名传参. 显式地使用 () => T
。
背景:Scala 允许按名称来定义方法参数,例如:以下例子是可以成功执行的:
def print(value: => Int): Unit = {
println(value)
println(value + 1)
}
var a = 0
def inc(): Int = {
a + 1
a
}
print(inc())
在上面的代码中,inc()
以闭包的形式传递给 print
函数,并且在 print
函数中被执行了两次,而不是以数值 1
传入。按名传参的一个主要问题是在方法调用处,我们无法区分是按名传参还是按值传参。因此无法确切地知道这个表达式是否会被执行(更糟糕的是它可能会被执行多次)。对于带有副作用的表达式来说,这一点是非常危险的。
避免使用多参数列表。它们使运算符重载变得复杂,并且会使不熟悉 Scala 的程序员感到困惑。例如:
// Avoid this!
case class Person(name: String, age: Int)(secret: String)
一个值得注意的例外是,当在定义底层库时,可以使用第二个参数列表来存放隐式(implicit)参数。尽管如此,我们应该避免使用 implicits!
不要使用符号作为方法名,除非你是在定义算术运算的方法(如:+
, -
, *
, /
),否则在任何其它情况下,都不要使用。符号化的方法名让人难以理解方法的意图是什么,来看下面两个例子:
// 符号化的方法名难以理解
channel ! msg
stream1 >>= stream2
// 下面的方法意图则不言而喻
channel.send(msg)
stream1.join(stream2)
Scala 的类型推导,尤其是左侧类型推导以及闭包推导,可以使代码变得更加简洁。尽管如此,也有一些情况我们是需要显式地声明类型的:
闭包中避免使用 return。return
会被编译器转成 scala.runtime.NonLocalReturnControl
异常的 try/catch
语句,这可能会导致意外行为。请看下面的例子:
def receive(rpc: WebSocketRPC): Option[Response] = {
tableFut.onComplete { table =>
if (table.isFailure) {
return None // Do not do that!
} else { ... }
}
}
.onComplete
方法接收一个匿名闭包并把它传递到一个不同的线程中。这个闭包最终会抛出一个 NonLocalReturnControl
异常,并在 一个不同的线程中被捕获,而这里执行的方法却没有任何影响。
然而,也有少数情况我们是推荐使用 return
的。
使用 return
来简化控制流,避免增加一级缩进。
def doSomething(obj: Any): Any = {
if (obj eq null) {
return null
}
// do something ...
}
使用 return
来提前终止循环,这样就不用额外构造状态标志。
while (true) {
if (cond) {
return
}
}
避免使用递归,除非问题可以非常自然地用递归来描述(比如,图和树的遍历)。
对于那些你意欲使之成为尾递归的方法,请加上 @tailrec
注解以确保编译器去检查它是否真的是尾递归(你会非常惊讶地看到,由于使用了闭包和函数变换,许多看似尾递归的代码事实并非尾递归)。
大多数的代码使用简单的循环和状态机会更容易推理,使用尾递归反而可能会使它更加繁琐且难以理解。例如,下面的例子中,命令式的代码比尾递归版本的代码要更加易读:
// Tail recursive version.
def max(data: Array[Int]): Int = {
@tailrec
def max0(data: Array[Int], pos: Int, max: Int): Int = {
if (pos == data.length) {
max
} else {
max0(data, pos + 1, if (data(pos) > max) data(pos) else max)
}
}
max0(data, 0, Int.MinValue)
}
// Explicit loop version
def max(data: Array[Int]): Int = {
var max = Int.MinValue
for (v <- data) {
if (v > max) {
max = v
}
}
max
}
避免使用 implicit,除非:
ClassTag
,TypeTag
)当使用 implicit 时,我们应该确保另一个工程师可以直接理解使用语义,而无需去阅读隐式定义本身。Implicit 有着非常复杂的解析规则,这会使代码变得极其难以理解。Twitter 的 Effective Scala 指南中写道:「如果你发现你在使用 implicit,始终停下来问一下你自己,是否可以在不使用 implicit 的条件下达到相同的效果」。
如果你必需使用它们(比如:丰富 DSL),那么不要重载隐式方法,即确保每个隐式方法有着不同的名字,这样使用者就可以选择性地导入它们。
// 别这么做,这样使用者无法选择性地只导入其中一个方法。
object ImplicitHolder {
def toRdd(seq: Seq[Int]): RDD[Int] = ...
def toRdd(seq: Seq[Long]): RDD[Long] = ...
}
// 应该将它们定义为不同的名字:
object ImplicitHolder {
def intSeqToRdd(seq: Seq[Int]): RDD[Int] = ...
def longSeqToRdd(seq: Seq[Long]): RDD[Long] = ...
}
不要捕获 Throwable 或 Exception 类型的异常。请使用 scala.util.control.NonFatal
:
try {
...
} catch {
case NonFatal(e) =>
// 异常处理;注意 NonFatal 无法匹配 InterruptedException 类型的异常
case e: InterruptedException =>
// 处理 InterruptedException
}
这能保证我们不会去捕获 NonLocalReturnControl
异常(正如在Return 语句中所解释的)。
不要在 API 中使用 Try
,即,不要在任何方法中返回 Try。对于异常执行,请显式地抛出异常,并使用 Java 风格的 try/catch 做异常处理。
背景资料:Scala 提供了单子(monadic)错误处理(通过 Try
,Success
和 Failure
),这样便于做链式处理。然而,根据我们的经验,发现使用它通常会带来更多的嵌套层级,使得代码难以阅读。此外,对于预期错误还是异常,在语义上常常是不明晰的。因此,我们不鼓励使用 Try
来做错误处理,尤其是以下情况:
一个人为的例子:
class UserService {
/** Look up a user's profile in the user database. */
def get(userId: Int): Try[User]
}
以下的写法会更好:
class UserService {
/**
* Look up a user's profile in the user database.
* @return None if the user is not found.
* @throws DatabaseConnectionException when we have trouble connecting to the database/
*/
@throws(DatabaseConnectionException)
def get(userId: Int): Option[User]
}
第二种写法非常明显地能让调用者知道需要处理哪些错误情况。
Option
。相对于 null
,Option
显式地表明了一个 API 的返回值可能为空。构造 Option
值时,请使用 Option
而非 Some
,以防那个值为 null
。
def myMethod1(input: String): Option[String] = Option(transform(input))
// This is not as robust because transform can return null, and then
// myMethod2 will return Some(null).
def myMethod2(input: String): Option[String] = Some(transform(input))
Option
值上直接调用 get
方法,除非你百分百确定那个 Option
值不是 None
。单子链接是 Scala 的一个强大特性。Scala 中几乎一切都是单子(如:集合,Option,Future,Try 等),对它们的操作可以链接在一起。这是一个非常强大的概念,但你应该谨慎使用,尤其是:
flatMap
和 fold
。通过给中间结果显式地赋予一个变量名,将链接断开变成一种更加过程化的风格,能让单子链接更加易于理解。来看下面的例子:
class Person(val data: Map[String, String])
val database = Map[String, Person]
// Sometimes the client can store "null" value in the store "address"
// A monadic chaining approach
def getAddress(name: String): Option[String] = {
database.get(name).flatMap { elem =>
elem.data.get("address")
.flatMap(Option.apply) // handle null value
}
}
// 尽管代码会长一些,但以下方法可读性更高
def getAddress(name: String): Option[String] = {
if (!database.contains(name)) {
return None
}
database(name).data.get("address") match {
case Some(null) => None // handle null value
case Some(addr) => Option(addr)
case None => None
}
}
优先考虑使用 java.util.concurrent.ConcurrentHashMap
而非 scala.collection.concurrent.Map
。尤其是 scala.collection.concurrent.Map
中的 getOrElseUpdate
方法要慎用,它并非原子操作(这个问题在 Scala 2.11.16 中 fix 了:SI-7943)。由于我们做的所有项目都需要在 Scala 2.10 和 Scala 2.11 上使用,因此要避免使用 scala.collection.concurrent.Map
。
有 3 种推荐的方法来安全地并发访问共享状态。不要混用它们,因为这会使程序变得难以推理,并且可能导致死锁。
java.util.concurrent.ConcurrentHashMap
:当所有的状态都存储在一个 map 中,并且有高程度的竞争时使用。
private[this] val map = new java.util.concurrent.ConcurrentHashMap[String, String]
java.util.Collections.synchronizedMap
:使用情景:当所有状态都存储在一个 map 中,并且预期不存在竞争情况,但你仍想确保代码在并发下是安全的。如果没有竞争出现,JVM 的 JIT 编译器能够通过偏置锁(biased locking)移除同步开销。
private[this] val map = java.util.Collections.synchronizedMap(new java.util.HashMap[String, String])
通过同步所有临界区进行显式同步,可用于监视多个变量。与 2 相似,JVM 的 JIT 编译器能够通过偏置锁(biased locking)移除同步开销。
class Manager {
private[this] var count = 0
private[this] val map = new java.util.HashMap[String, String]
def update(key: String, value: String): Unit = synchronized {
map.put(key, value)
count += 1
}
def getCount: Int = synchronized { count }
}
注意,对于 case 1 和 case 2,不要让集合的视图或迭代器从保护区域逃逸。这可能会以一种不明显的方式发生,比如:返回了 Map.keySet
或 Map.values
。如果需要传递集合的视图或值,生成一份数据拷贝再传递。
val map = java.util.Collections.synchronizedMap(new java.util.HashMap[String, String])
// This is broken!
def values: Iterable[String] = map.values
// Instead, copy the elements
def values: Iterable[String] = map.synchronized { Seq(map.values: _*) }
java.util.concurrent.atomic
包提供了对基本类型的无锁访问,比如:AtomicBoolean
, AtomicInteger
和 AtomicReference
。
始终优先考虑使用原子变量而非 @volatile
,它们是相关功能的严格超集并且从代码上看更加明显。原子变量的底层实现使用了 @volatile
。
优先考虑使用原子变量而非显式同步的情况:(1)一个对象的所有临界区更新都被限制在单个变量里并且预期会有竞争情况出现。原子变量是无锁的并且允许更为有效的竞争。(2)同步被明确地表示为getAndSet
操作。例如:
// good: 明确又有效地表达了下面的并发代码只执行一次
val initialized = new AtomicBoolean(false)
...
if (!initialized.getAndSet(true)) {
...
}
// poor: 下面的同步就没那么明晰,而且会出现不必要的同步
val initialized = false
...
var wasInitialized = false
synchronized {
wasInitialized = initialized
initialized = true
}
if (!wasInitialized) {
...
}
注意,private
字段仍然可以被相同类的其它实例所访问,所以仅仅通过 this.synchronized
(或 synchronized
)来保护它从技术上来说是不够的,不过你可以通过 private[this]
修饰私有字段来达到目的。
// 以下代码仍然是不安全的。
class Foo {
private var count: Int = 0
def inc(): Unit = synchronized { count + 1 }
}
// 以下代码是安全的。
class Foo {
private[this] var count: Int = 0
def inc(): Unit = synchronized { count + 1 }
}
一般来说,并发和同步逻辑应该尽可能地被隔离和包含起来。这实际上意味着:
对于你写的绝大多数代码,性能都不应该成为一个问题。然而,对于一些性能敏感的代码,以下有一些小建议:
由于 Scala 编译器和 JVM JIT 编译器会对你的代码做许多神奇的事情,因此要写出一个好的微基准程序(microbenchmark)是极其困难的。更多的情况往往是你的微基准程序并没有测量你想要测量的东西。
如果你要写一个微基准程序,请使用 jmh。请确保你阅读了所有的样例,这样你才理解微基准程序中「死代码」移除、常量折叠以及循环展开的效果。
使用 while
循环而非 for
循环或函数变换(如:map
、foreach
),for 循环和函数变换非常慢(由于虚函数调用和装箱的缘故)。
val arr = // array of ints
// 偶数位置的数置零
val newArr = list.zipWithIndex.map { case (elem, i) =>
if (i % 2 == 0) 0 else elem
}
// 这是上面代码的高性能版本
val newArr = new Array[Int](arr.length)
var i = 0
val len = newArr.length
while (i < len) {
newArr(i) = if (i % 2 == 0) 0 else arr(i)
i += 1
}
对于性能有要求的代码,优先考虑使用 null
而不是 Option
,以此避免虚函数调用以及装箱操作。用 Nullable 注解明确标示出可能为 null
的值。
class Foo {
@javax.annotation.Nullable
private[this] var nullableField: Bar = _
}
对于性能有要求的代码,优先考虑使用 Java 集合库而非 Scala 集合库,因为一般来说,Scala 集合库要比 Java 的集合库慢。
对于性能有要求的代码,优先考虑使用 private[this]
而非 private
。private[this]
生成一个字段而非生成一个访问方法。根据我们的经验,JVM JIT 编译器并不总是会内联 private
字段的访问方法,因此通过使用 private[this]
来确保没有虚函数调用会更保险。
class MyClass {
private val field1 = ...
private[this] val field2 = ...
def perfSensitiveMethod(): Unit = {
var i = 0
while (i < 1000000) {
field1 // This might invoke a virtual method call
field2 // This is just a field access
i += 1
}
}
}
本节内容介绍的是构建 Java 兼容 API 的准则。如果你构建的组件并不需要与 Java 有交互,那么请无视这一节。这一节的内容主要是从我们开发 Spark 的 Java API 的经历中得出的。
以下的 Java 特性在 Scala 中是没有的,如果你需要使用以下特性,请在 Java 中定义它们。然而,需要提醒一点的是,你无法为 Java 源文件生成 ScalaDoc。
对于允许从外部实现的接口,请记住以下几点:
// 以下默认实现无法在 Java 中使用
trait Listener {
def onTermination(): Unit = { ... }
}
// 可以在 Java 中使用
abstract class Listener {
def onTermination(): Unit = { ... }
}
不要使用类型别名,它们在字节码和 Java 中是不可见的。
不要使用默认参数值,通过重载方法来代替。
// 打破了与 Java 的互操作性
def sample(ratio: Double, withReplacement: Boolean = false): RDD[T] = { ... }
// 以下方法是 work 的
def sample(ratio: Double, withReplacement: Boolean): RDD[T] = { ... }
def sample(ratio: Double): RDD[T] = sample(ratio, withReplacement = false)
不要使用多参数列表。
为可变参数方法添加 @scala.annotation.varargs
注解,以确保它能在 Java 中使用。Scala 编译器会生成两个方法,一个给 Scala 使用(字节码参数是一个 Seq),另一个给 Java 使用(字节码参数是一个数组)。
@scala.annotation.varargs
def select(exprs: Expression*): DataFrame = { ... }
需要注意的一点是,由于 Scala 编译器的一个 bug(SI-1459,SI-9013),抽象的变参方法是无法在 Java 中使用的。
重载变参方法时要小心,用另一个类型去重载变参方法会破坏源码的兼容性。
class Database {
@scala.annotation.varargs
def remove(elems: String*): Unit = ...
// 当调用无参的 remove 方法时会出问题。
@scala.annotation.varargs
def remove(elems: People*): Unit = ...
}
// remove 方法有歧义,因此编译不过。
new Database().remove()
一种解决方法是,在可变参数前显式地定义第一个参数:
class Database {
@scala.annotation.varargs
def remove(elems: String*): Unit = ...
// 以下重载是 OK 的。
@scala.annotation.varargs
def remove(elem: People, elems: People*): Unit = ...
}
不要为类或方法使用 implicit,包括了不要使用 ClassTag
和 TypeTag
。
class JavaFriendlyAPI {
// 以下定义对 Java 是不友好的,因为方法中包含了一个隐式参数(ClassTag)。
def convertTo[T: ClassTag](): T
}
当涉及到伴生对象和静态方法/字段时,有几件事情是需要注意的:
伴生对象在 Java 中的使用是非常别扭的(伴生对象 Foo
会被定义为 Foo$
类内的一个类型为 Foo$
的静态字段 MODULE$
)。
object Foo
// 等价于以下的 Java 代码
public class Foo$ {
Foo$ MODULE$ = // 对象的实例化
}
如果非要使用伴生对象,可以在一个单独的类中创建一个 Java 静态字段。
不幸的是,没有办法在 Scala 中定义一个 JVM 静态字段。请创建一个 Java 文件来定义它。
伴生对象里的方法会被自动转成伴生类里的静态方法,除非方法名有冲突。确保静态方法正确生成的最好方式是用 Java 写一个测试文件,然后调用生成的静态方法。
class Foo {
def method2(): Unit = { ... }
}
object Foo {
def method1(): Unit = { ... } // 静态方法 Foo.method1 会被创建(字节码)
def method2(): Unit = { ... } // 静态方法 Foo.method2 不会被创建
}
// FooJavaTest.java (in test/scala/com/databricks/...)
public class FooJavaTest {
public static compileTest() {
Foo.method1(); // 正常编译
Foo.method2(); // 编译失败,因为 method2 并没有生成
}
}
样例对象(case object) MyClass 的类型并不是 MyClass。
case object MyClass
// Test.java
if (MyClass$.MODULE instanceof MyClass) {
// 上述条件始终为 false
}
要实现正确的类型层级结构,请定义一个伴生类,然后用一个样例对象去继承它:
class MyClass
case object MyClass extends MyClass
当要计算持续时间或者检查超时的时候,避免使用 System.currentTimeMillis()
。请使用 System.nanoTime()
,即使你对亚毫秒级的精度并不感兴趣。
System.currentTimeMillis()
返回的是当前的时钟时间,并且会跟进系统时钟的改变。因此,负的时钟调整可能会导致超时而挂起很长一段时间(直到时钟时间赶上先前的值)。这种情况可能发生在网络已经中断一段时间,ntpd 走过了一步之后。最典型的例子是,在系统启动的过程中,DHCP 花费的时间要比平常的长。这可能会导致非常难以理解且难以重现的问题。而 System.nanoTime()
则可以保证是单调递增的,与时钟变化无关。
注意事项:
nanoTime()
值或是把它传递给另一个系统。绝对的 nanoTime()
值是无意义的、与系统相关的,并且在系统重启时会重置。nanoTime()
值并不保证总是正数(但 t2 - t1
能确保总是产生正确的值)。nanoTime()
每 292 年就会重新计算起。所以,如果你的 Spark 任务需要花非常非常非常长的时间,你可能需要别的东西来处理了:) 当存储服务的 URL 时,你应当使用 URI
来表示。
URL
的相等性检查)实际上执行了一次网络调用(这是阻塞的)来解析 IP 地址。URI
类在表示能力上是 URL
的超集,并且它执行的是字段的相等性检查。