那些绕不过去的 Java 知识点

关于本文

 虽然接触 Java 已经 8 年之久,可惜学习之初的笔记文档没能很好地保存下来。本文是近几年工作学习中遇到的一些零散的知识点,包括了 基础概念、实用的编程技巧、代码可读性、设计模式、性能优化(工具 & 编码)、测试相关、JVM 相关、常用的工具和常见问题。本着好记性不如烂笔头的初衷,在不断地踩坑和爬坑的过程中,慢慢地记录成文。期待着本文能起到抛砖引玉的作用,以看到大家的真知灼见。

基础知识

注解

GuardedBy

 @GuardedBy 注解可以作用于某一个属性或者方法,约定在访问这些被注解标记的资源时,能被同步代码块保护着。简单的使用案例如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
@GuardedBy("obj")
private ConcurrentMap<String, String> map = new ConcurrentHashMap<>();
private final Object obj = new Object();

public void put(String k, String v) {
synchronized (obj) {
map.put(k, v);
}
}

/**
* If you use `error prone` tool to check this, this annotation should be `@SuppressWarnings("GuardedBy")`
* {@see https://errorprone.info/bugpattern/GuardedBy}
* {@see https://github.com/apache/incubator-druid/pull/6868#discussion_r249639199}
*/
@SuppressWarnings("FieldAccessNotGuarded")
public void remove(String k) {
map.remove(k);
}

@Override
public String toString() {
synchronized (obj) {
return "GuardedByExample{" +
"map=" + map +
'}';
}
}

Tips: Code Example from Apache Druid;另外,error-prone 工具支持对多种版本@GuardedBy 进行检查

InterfaceStability

  • @InterfaceStability.Stable
    主版本是稳定的,不同主版本间,可能不兼容

  • @InterfaceStability.Evolving
    不断变化中,不同的次版本间,可能不兼容

  • @InterfaceStability.Unstable
    不对可靠性和健壮性做任何保证

InterfaceAudience

  • @InterfaceAudience.Public
    对所有工程可用

  • @InterfaceAudience.LimitedPrivate
    仅限特定的工程,如 HBaseZookeeperHDFS 等(以 Hadoop 为例)

  • @InterfaceAudience.Private
    仅限于工程内部使用

序列化

transient

 给实现了 Serializable 接口的类中的字段,增加 transient 修饰符,则可以让该字段跳过序列化的过程

Tips: Full code is here and here.

类中包含没有实现 Serializable 接口的字段

 需要自己实现 serializedeserialize 方法

Tips: Full code is here and here.

实用技巧

Collection 内元素类型转换

1
2
// 对集合里面的元素类型进行转换(A -> B)
List<B> variable = (List<B>)(List<?>) collectionOfListA;

集合的差集、交集、并集

1
2
3
4
5
6
// 使用 Guava 中封装的 Sets 类
import com.google.common.collect.Sets;

Sets.difference(set1, set2)
Sets.intersection(set1, set2)
Sets.union(set1, set2)

数组转为 Set

1
2
3
4
// JDK8
new HashSet<>(Arrays.asList(str.trim().split(",")))
// JDK9+
Set.of(str.trim().split(","));

TransmittableThreadLocal 解决跨父子线程和线程池缓存问题

编码

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
String tlMsg = "tl";
String ttlMsg = "ttl";

final ThreadLocal<String> tl = new ThreadLocal<>();
tl.set(tlMsg);
final TransmittableThreadLocal<String> ttl = new TransmittableThreadLocal<>();
ttl.set(ttlMsg);

assertEquals(tl.get(), tlMsg);
assertEquals(ttl.get(), ttlMsg);

new Thread(() -> {
assertNull(tl.get());
assertEquals(ttl.get(), ttlMsg);
}).start();

Tips: Full code is here.

参考

计算中位数

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
private static int COUNT;
private static final PriorityQueue<Double> MAX = new PriorityQueue<>(Collections.reverseOrder());
private static final PriorityQueue<Double> MIN = new PriorityQueue<>();

public static void main(String[] args) {
add(1D);
add(2D);
add(3D);
add(4D);
add(4D);
// 3.0
System.out.println(median());
}

private static void add(double v) {
if (!Double.isNaN(v)) {
if (COUNT % 2 == 0) {
MIN.add(v);
MAX.add(MIN.peek());
MIN.poll();
} else {
MAX.add(v);
MIN.add(MAX.peek());
MAX.poll();
}
COUNT++;
}
}

@SuppressWarnings("ConstantConditions")
private static double median() {
if (COUNT == 0) {
return Double.NaN;
}
if (COUNT % 2 == 0) {
return (MAX.peek() + MIN.peek()) / 2.0;
} else {
return MAX.peek();
}
}

Shutdown Hook

描述

 进程异常退出时,可能 try-finally 也无法保证可以及时释放类似数据库连接资源或清理临时文件,使用 Shutdown Hook 则可以避免该问题。不过也有可能存在无法触发 Shutdown Hook 的情况,例如执行 kill -9 退出进程等,但绝大部分的情况下,都能成功触发,具体如下:

  • 程序正常退出
  • 使用 System.exit()
  • OutOfMemory 宕机
  • 终端 Ctrl+C 触发的中断
  • 使用 kill pid 命令退出进程

编码

1
2
3
4
5
6
7
System.out.println("registering");
Runtime.getRuntime().addShutdownHook(new Thread(() -> System.out.println("shutdown1...")));
Runtime.getRuntime().addShutdownHook(new Thread(() -> System.out.println("shutdown2...")));
Runtime.getRuntime().addShutdownHook(new Thread(() -> System.out.println("shutdown3...")));
System.out.println("registered");
System.out.println("exit");
System.exit(0);
1
2
3
4
5
6
registering
registered
exit
shutdown2...
shutdown3...
shutdown1...
这里需要注意的是,注册的多个 Shutdown Hook 由各自不同的线程执行完成,是无法保证执行的先后顺序的

测试

1
2
3
4
5
6
7
8
9
10
11
12
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>4.12</version>
<scope>test</scope>
</dependency>
<dependency>
<groupId>com.github.stefanbirkner</groupId>
<artifactId>system-rules</artifactId>
<version>1.18.0</version>
<scope>test</scope>
</dependency>
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
import org.junit.Rule;
import org.junit.Test;
import org.junit.contrib.java.lang.system.ExpectedSystemExit;

public class ShutdownHookTest {

@Rule
public final ExpectedSystemExit exit = ExpectedSystemExit.none();

@Test
public void test_shutdown_hook() {
Runtime.getRuntime().addShutdownHook(new Thread(() -> System.out.println("shutdown...")));

exit.expectSystemExit();
System.exit(0);
}
}
使用 ExpectedSystemExit 可以避免执行 System.exit 后所有测试用例都被终止的问题

可读性

魔法数字

 编码过程中,应该避免出现没有声明含义的纯数字

反面示例

1
2
3
4
5
6
// org.apache.kafka.connect.runtime.distributed.DistributedHerder#stop
@Override
public void stop() {
if (!forwardRequestExecutor.awaitTermination(10000L, TimeUnit.MILLISECONDS))
forwardRequestExecutor.shutdownNow();
}

正面示例

1
2
3
4
5
6
7
8
9
10
// 这里除了需要将 10000L 抽象成 FORWARD_REQUEST_SHUTDOWN_TIMEOUT_MS 静态变量
// 还可以进一步使用 10_000L 方便阅读
// 因为这里和时间有关,更进一步,可以使用 TimeUnit.SECONDS.toMillis(10) 来代替纯数字
private static final long FORWARD_REQUEST_SHUTDOWN_TIMEOUT_MS = TimeUnit.SECONDS.toMillis(10);

@Override
public void stop() {
if (!forwardRequestExecutor.awaitTermination(FORWARD_REQUEST_SHUTDOWN_TIMEOUT_MS, TimeUnit.MILLISECONDS))
forwardRequestExecutor.shutdownNow();
}

Tips: Full code is here and here.

字符串判空

反面示例

1
2
// org.apache.kafka.connect.runtime.distributed.DistributedHerder#reconfigureConnector
leaderUrl.equals("")

正面示例

1
2
3
4
// 一方面,需要考虑不能将对象放在 equals 方法之前,避免空指针异常
// 另一方面,使用 `str.length() == 0` 的方式,效率会高一些
// 进一步,使用 isEmpty() 方法,则可以使得代码更加可读
leaderUrl == null || leaderUrl.trim().isEmpty()

Tips: Full code is here.

箭头型代码

反面示例

1
2
3
4
5
6
7
8
9
public void m(String s) {
if (s != null) {
if (s.trim().length() > 0) {
if (s.contains("yuzhouwan")) {
System.out.println("https://yuzhouwan.com");
}
}
}
}

正面示例

1
2
3
4
5
6
7
8
9
10
11
12
public void m(String s) {
if (s == null) {
return;
}
if (s.trim().length() == 0) {
return;
}
if (!s.contains("yuzhouwan")) {
return;
}
System.out.println("https://yuzhouwan.com");
}

参考

函数式编程

Optional

反面示例
1
2
3
public Long deserialize(ByteArrayDataInput in) {
return isNullByteSet(in) ? null : in.readLong();
}
正面示例
1
2
3
4
return Optional.ofNullable(in)
.filter(InputRowSerde::isNotNullByteSet)
.map(ByteArrayDataInput::readLong)
.get();
参考
  • Write null byte when indexing numeric dimensions with Hadoop #7020

anyMatch

反面示例
1
2
3
4
5
6
7
8
private boolean isTaskPending(Task task) {
for (TaskRunnerWorkItem workItem : taskRunner.getPendingTasks()) {
if (workItem.getTaskId().equals(task.getId())) {
return true;
}
}
return false;
}
正面示例
1
2
3
4
final String taskId = task.getId();
return taskRunner.getPendingTasks()
.stream()
.anyMatch(t -> taskId.equals(t.getTaskId()));
参考
  • Run pending tasks when assigned a task that is already pending #6991

list 去重统计

反面示例
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
List<String> list = new ArrayList<>(5);
list.add("a");
list.add("a");
list.add("a");
list.add("b");
list.add("c");
final Map<String, Integer> res = new HashMap<>();
for (String s : list) {
if (res.containsKey(s)) {
res.put(s, res.get(s) + 1);
} else {
res.put(s, 1);
}
}
// {"a":3,"b":1,"c":1}
System.out.println(JSON.toJSONString(res));
正面示例
1
2
3
4
5
6
7
8
9
10
List<String> list = new ArrayList<>(5);
list.add("a");
list.add("a");
list.add("a");
list.add("b");
list.add("c");
final Map<String, Integer> res = new HashMap<>();
list.forEach(s -> res.compute(s, (k, v) -> (v == null) ? 1 : ++v));
// {"a":3,"b":1,"c":1}
System.out.println(JSON.toJSONString(res));

嵌套 list 遍历求和

1
2
3
4
5
6
7
8
9
10
11
12
13
List<List<Integer>> l = new ArrayList<>(2);
List<Integer> l0 = new ArrayList<>(2);
l0.add(1);
l0.add(2);
l.add(l0);
l.add(Collections.singletonList(3));
int sum = 0;
for (List<Integer> ints : l) {
for (Integer i : ints) {
sum += i;
}
}
Assert.assertEquals(6, sum);
正面示例
1
2
3
4
5
6
7
8
9
10
11
List<List<Integer>> l = new ArrayList<>(2);
List<Integer> l0 = new ArrayList<>(2);
l0.add(1);
l0.add(2);
l.add(l0);
l.add(Collections.singletonList(3));
int sum = l.stream()
.flatMap(Collection::stream)
.mapToInt(Integer::intValue)
.sum();
Assert.assertEquals(6, sum);

设计模式

单一功能原则

描述

 在面向对象编程领域中,单一功能原则Single responsibility principle,SRP)规定每个类都应该有一个单一的功能,并且该功能应该由这个类完全封装起来。所有它的(这个类的)服务都应该严密的和该功能平行(功能平行,意味着没有依赖)

参考

开闭原则

描述

 在面向对象编程领域中,开闭原则Open-closed principle,OCP)规定“软件中的对象(类,模块,函数等等)应该对于扩展是开放的,但是对于修改是封闭的”,这意味着一个实体是允许在不改变它的源代码的前提下变更它的行为

参考

里氏替换原则

描述

 里氏替换原则Liskov substitution principle,LSP)强调的是 面向对象程序设计中的 可替代性,说明在计算机程序中,如果 S 是 T 的子类型,那么类型 T 的对象可以用类型 S 的对象替换(即 T 类型的对象可以被任何子类型 S 的对象替换),而不改变程序的任何期望属性(正确地执行的任务等)

参考

接口隔离原则

描述

 接口隔离原则Interface-segregation principles,ISP)指明客户(client)应该不依赖于它不使用的方法。接口隔离原则拆分非常庞大臃肿的接口,成为更小的和更具体的接口,这样客户将只需要知道他们感兴趣的方法。这种缩小的接口也被称为角色接口(Role interfaces)。接口隔离原则的目的是系统解开耦合,从而容易重构,更改和重新部署

参考

依赖反转原则

描述

 在面向对象编程领域中,依赖反转原则Dependency inversion principle,DIP)是指一种特定的解耦(传统的依赖关系创建在高层次上,而具体的策略设置则应用在低层次的模块上)形式,使得高层次的模块不依赖于低层次的模块的实现细节,依赖关系被颠倒(反转),从而使得低层次模块依赖于高层次模块的需求抽象。 该原则规定:

  • 高层次的模块不应该依赖于低层次的模块,两者都应该依赖于抽象接口
  • 抽象接口不应该依赖于具体实现。而具体实现则应该依赖于抽象接口

参考

五大原则的速记:SOLID

性能优化

工具层面

性能指标监控

1
2
3
4
5
6
7
8
9
10
11
12
13
<metrics.version>3.2.0</metrics.version>

<dependency>
<groupId>io.dropwizard.metrics</groupId>
<artifactId>metrics-core</artifactId>
<version>${metrics.version}</version>
<exclusions>
<exclusion>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-api</artifactId>
</exclusion>
</exclusions>
</dependency>

JMH 基准测试

增加 Maven 依赖
1
2
3
4
5
6
7
8
9
10
11
12
13
<jmh.version>1.19</jmh.version>

<!-- JMH -->
<dependency>
<groupId>org.openjdk.jmh</groupId>
<artifactId>jmh-core</artifactId>
<version>${jmh.version}</version>
</dependency>
<dependency>
<groupId>org.openjdk.jmh</groupId>
<artifactId>jmh-generator-annprocess</artifactId>
<version>${jmh.version}</version>
</dependency>
编写 JMH 测试案例
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
import org.openjdk.jmh.annotations.*;
import org.openjdk.jmh.runner.Runner;
import org.openjdk.jmh.runner.RunnerException;
import org.openjdk.jmh.runner.options.Options;
import org.openjdk.jmh.runner.options.OptionsBuilder;

import java.util.concurrent.TimeUnit;

@BenchmarkMode(Mode.Throughput)
@OutputTimeUnit(TimeUnit.MILLISECONDS)
@State(Scope.Thread)
public class BenchmarkSimple {

@Benchmark
public void bench() {
add(1, 1);
}

private static int add(int a, int b) {
return a + b;
}

/*
Benchmark Mode Cnt Score Error Units
BenchmarkSimple.bench thrpt 5 13352311.603 ± 767137.272 ops/ms
*/
public static void main(String[] args) throws RunnerException {
Options opt = new OptionsBuilder()
.include(BenchmarkSimple.class.getSimpleName())
.forks(1)
.warmupIterations(5)
.measurementIterations(5)
.threads(10)
.build();
new Runner(opt).run();
}
}

Tips: Full code is here.

优势
  • 不和会 JUnit 冲突,不用担心 Jenkins 会自动跑 Benchmark 测试而影响效率(否则需要添加 @Ignore 让 CI 系统忽略掉性能相关的 JUnit 测试用例)
  • 支持 warm up,可以解决 JIT 预热问题

BTrace

介绍

 BTrace is a safe, dynamic tracing tool for the Java platform. BTrace can be used to dynamically trace a running Java program (similar to DTrace for OpenSolaris applications and OS). BTrace dynamically instruments the classes of the target application to inject tracing code (“bytecode tracing”).

参考

LooseJar

介绍

 分析没有被加载任何 class 的 jar 包,帮助删除工程中不必要的 jar 包。不过,需要注意的是,有些类是动态加载的(比如数据类型转换类的,只有加载数据时才会用到),需要尽可能地多测试,才能保证 LooseJar 分析准确

使用步骤
  • 下载
    在 LooseJar 的 release 页面,下载 loosejar-1.1.0.jar

  • 拷贝
    将 loosejar.jar 放到应用的 WEB-INF 下的 lib 目录中,比如说路径是 /yuzhouwan/yuzhouwan-site/yuzhouwan-site-web/src/main/webapp/WEB-INF/lib/loosejar.jar

  • 配置
    在 IDE 中的 installed JRES 里面的 JDK 处配置 -Dfile.encoding=uft8 -javaagent:/yuzhouwan/yuzhouwan-site/yuzhouwan-site-web/src/main/webapp/WEB-INF/lib/loosejar.jar

  • 启动
    启动应用,尽可能做到路径全覆盖地测试应用,让每段代码都被执行到

  • 查看结果
    运行 JDK 自带的 Jconsole 工具,选择 BootStrap 的那个端口,然后选择 MBean 下的 com.googlecode.loosejar,并点击 summary,即可看到分析结果

编码层面

并发相关

synchronized

 详见,《如何运用 JVM 知识提高编程水平 - synchronized 的性能之争

StampedLock
特性

 StampedLock 是 JDK8 新引入的一个针对读写锁进行改进的类。其主要思想是,如果在读的同时又发生了写,则应当重读,而不是在读的时候阻塞写。如此可以做到,不仅读操作之间不会相互阻塞,还可以保证读操作不会阻塞写操作

参考

集合优化

HashMap
为什么 Java 8 版本中引入红黑树
  • 原因

    JDK8 以前 HashMap 的实现是 数组+链表,即使哈希函数取得再好,也很难达到元素百分百均匀分布

    当 HashMap 中有大量的元素都存放到同一个桶中时,这个桶下有一条长长的链表,这个时候 HashMap 就相当于一个单链表,假如单链表有 n 个元素,遍历的时间复杂度就是 $O(n)$,完全失去了它的优势

    针对这种情况,JDK8 中引入了 红黑树(查找时间复杂度为 $O(\log n)$)来优化这个问题

  • 流程

    添加时,当桶中链表个数超过 8 时会转换成红黑树

    删除、扩容时,如果桶中结构为红黑树,并且树中元素个数太少的话,会进行修剪或者直接还原成链表结构

    查找时即使哈希函数设计不合理,大量元素集中在一个桶中,由于有红黑树结构,性能也不会差

Collections 类
空集合

 Collections.emptyList() 重用一个对象而不是创建一个新对象,就像 Arrays.asList() 一样。不同的是,Collections.singletonList(something) 是不可变的,而 Arrays.asList(something) 是一个固定大小的 List,其中 List 和 Array 在 Heap 中已经连接。

参考
LinkedList vs. ArrayList vs. ArrayDeque

 绝对大部分的场景,都能用 ArrayList 和 ArrayDeque 满足需求。而 LinkedList 唯一最擅长的场景是,遍历元素的时候,删除当前元素。ArrayList 使用下标访问元素时,因为不需要遍历链表,所以比 LinkedList 快很多。而 ArrayDeque 对开头和结尾进行增加或者删除时,因为不涉及分配链表节点和 GC 成本,所以也比 LinkedList 更快。不过,ArrayDeque 不支持 null 是硬伤

参考
java.util.Random vs. java.util.concurrent.ThreadLocalRandom vs. java.util.SplittableRandom
说明

 目前,JDK 中存在三种常用的方法来产生随机数,分别是 JDK1.0 的 java.util.Random、JDK1.7 的 java.util.concurrent.ThreadLocalRandom 和 JDK1.8 的 java.util.SplittableRandom(另外,java.lang.Math.random() 本质上还是 java.util.Random;而 java.security.SecureRandom 主要适用于加密场景,这里不做展开)。其中,java.util.Random 使用的是最普遍使用的线性同余法,该方法主要思路是通过对前一个数进行线性运算并取模从而得到下一个随机数。如此会带来一个问题,如果想保证线程安全,就需要在多线程之间共享 seed 值,同步的过程就会导致性能的损失。而 ThreadLocalRandomSplittableRandom 为了避免该问题,则使用新发明的 SPLITMIX 算法,通过构建图谱和混合函数的方式,避免了加锁或 CAS 的过程。后两者都是基于同一个算法实现,不过也有稍微的区别,比如混合函数中引起雪崩效应的常数值不一致等。从工程实现角度来看,相比于 Random,后两者基于 Fork-Join 思想,使得其在并发场景下,性能更佳。并且,ThreadLocalRandom 继承于 Random,而 SplittableRandom 则是完全独立的类。
 从 Doug Lea 的论文可以看出,后两者无论是单线程还是多线程的场景下,都是优于 java.util.Random 的。而针对 32-bits 和 64-bits 两种场景下,ThreadLocalRandomSplittableRandom 则各有千秋。

Sequential Throughput for Random

Parallel Stream Throughput for Random

(图片来源:《Fast Splittable Pseudorandom Number Generators》)
参考
contains 方法
HashSet

 时间复杂度 和 内存使用率 角度看,HashSet 为最佳之选

参考
toArray 方法
说明

 使用 Collection.toArray 将集合转数组的时候,应该传入长度为 0 的数组(例如,new String[0])),而非预分配大小的。如此不仅代码可读性更佳,性能也会更好。

 JDK6 之前推荐传入预分配大小的数组,是因为 toArray 会调用 Array.newArray,而该方法使用了反射的方式初始化数组,因而性能低下。而在 JDK6 之后,JVM 将 newArray 调用标记为 @HotSpotIntrinsicCandidate 方法,使得其直接调用 JVM 内部实现而不走正常 JNI 逻辑,从而规避了昂贵的反射操作。另外,数组在初始化的时候,需要通过 zeroing 的过程,将已经分配给数组的内存空间覆盖为初始值。而长度为 0 的数组,则可以节省下这部分的性能开销。

压测
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
@State(Scope.Thread)
@OutputTimeUnit(TimeUnit.NANOSECONDS)
@BenchmarkMode(Mode.AverageTime)
public class ToArrayBenchmark {

@Param({"1", "100", "1000", "5000", "10000", "100000"})
private int n;

private final List<Object> list = new ArrayList<>();

@Setup
public void populateList() {
for (int i = 0; i < n; i++) {
list.add(0);
}
}

@Benchmark
public Object[] preSize() {
return list.toArray(new Object[n]);
}

@Benchmark
public Object[] resize() {
return list.toArray(new Object[0]);
}

/*
Integer List:
Benchmark (n) Mode Cnt Score Error Units
ToArrayBenchmark.preSize 1 avgt 3 41.552 ± 108.030 ns/op
ToArrayBenchmark.preSize 100 avgt 3 216.449 ± 799.501 ns/op
ToArrayBenchmark.preSize 1000 avgt 3 2087.965 ± 6027.778 ns/op
ToArrayBenchmark.preSize 5000 avgt 3 9098.358 ± 14603.493 ns/op
ToArrayBenchmark.preSize 10000 avgt 3 24204.199 ± 121468.232 ns/op
ToArrayBenchmark.preSize 100000 avgt 3 188183.618 ± 369455.090 ns/op
ToArrayBenchmark.resize 1 avgt 3 18.987 ± 36.449 ns/op
ToArrayBenchmark.resize 100 avgt 3 265.549 ± 1125.008 ns/op
ToArrayBenchmark.resize 1000 avgt 3 1560.713 ± 2922.186 ns/op
ToArrayBenchmark.resize 5000 avgt 3 7804.810 ± 8333.390 ns/op
ToArrayBenchmark.resize 10000 avgt 3 24791.026 ± 78459.936 ns/op
ToArrayBenchmark.resize 100000 avgt 3 158891.642 ± 56055.895 ns/op

Object List:
Benchmark (n) Mode Cnt Score Error Units
ToArrayBenchmark.preSize 1 avgt 3 36.306 ± 96.612 ns/op
ToArrayBenchmark.preSize 100 avgt 3 52.372 ± 84.159 ns/op
ToArrayBenchmark.preSize 1000 avgt 3 449.807 ± 215.692 ns/op
ToArrayBenchmark.preSize 5000 avgt 3 2080.172 ± 2003.726 ns/op
ToArrayBenchmark.preSize 10000 avgt 3 4657.937 ± 8432.624 ns/op
ToArrayBenchmark.preSize 100000 avgt 3 51980.829 ± 46920.314 ns/op
ToArrayBenchmark.resize 1 avgt 3 16.747 ± 85.131 ns/op
ToArrayBenchmark.resize 100 avgt 3 43.803 ± 28.704 ns/op
ToArrayBenchmark.resize 1000 avgt 3 404.681 ± 132.986 ns/op
ToArrayBenchmark.resize 5000 avgt 3 1972.649 ± 174.691 ns/op
ToArrayBenchmark.resize 10000 avgt 3 4021.440 ± 1114.212 ns/op
ToArrayBenchmark.resize 100000 avgt 3 44204.167 ± 76714.850 ns/op
*/
public static void main(String[] args) throws Exception {
Options opt = new OptionsBuilder()
.include(ToArrayBenchmark.class.getSimpleName())
.forks(1)
.warmupIterations(1)
.measurementIterations(3)
.threads(1)
.build();
new Runner(opt).run();
}
}

Tips: Full code is here.

instanceof
OperationRuntime in nanoseconds per operationRelative to instanceof
INSTANCEOF39,598 ± 0,022 ns/op100,00 %
GETCLASS39,687 ± 0,021 ns/op100,22 %
TYPE46,295 ± 0,026 ns/op116,91 %
OO48,078 ± 0,026 ns/op121,42 %
参考

字符串相关

repeat

 借鉴 JDK11 中新增的 String#repeat 特性,实现高效的 repeat 工具方法

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
import java.nio.charset.StandardCharsets;

/**
* Returns a string whose value is the concatenation of the
* string {@code s} repeated {@code count} times.
* <p>
* If count or length is zero then the empty string is returned.
* <p>
* This method may be used to create space padding for
* formatting text or zero padding for formatting numbers.
*
* @param count number of times to repeat
* @return A string composed of this string repeated
* {@code count} times or the empty string if count
* or length is zero.
* @throws IllegalArgumentException if the {@code count} is negative.
* @link https://bugs.openjdk.java.net/browse/JDK-8197594
*/
public static String repeat(String s, int count) {
if (count < 0) {
throw new IllegalArgumentException("count is negative, " + count);
}
if (count == 1) {
return s;
}
byte[] value = s.getBytes(StandardCharsets.UTF_8);
final int len = value.length;
if (len == 0 || count == 0) {
return "";
}
if (len == 1) {
final byte[] single = new byte[count];
Arrays.fill(single, value[0]);
return new String(single, StandardCharsets.UTF_8);
}
if (Integer.MAX_VALUE / count < len) {
throw new OutOfMemoryError();
}
final int limit = len * count;
final byte[] multiple = new byte[limit];
System.arraycopy(value, 0, multiple, 0, len);
int copied = len;
for (; copied < limit - copied; copied <<= 1) {
System.arraycopy(multiple, 0, multiple, copied, copied);
}
System.arraycopy(multiple, 0, multiple, copied, limit - copied);
return new String(multiple, StandardCharsets.UTF_8);
}
参考

Fork / Join 思想

 这里以查找最小数为例,具体实现如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
import java.util.Random;
import java.util.concurrent.ForkJoinPool;
import java.util.concurrent.RecursiveTask;

/**
* Copyright @ 2019 yuzhouwan.com
* All right reserved.
* Function:Minimum Finder
*
* @author Benedict Jin
* @since 2019/4/13
*/
public class MinimumFinder extends RecursiveTask<Integer> {

private static final int JOIN_THRESHOLD = 5;

private final int[] data;
private final int start;
private final int end;

private MinimumFinder(int[] data, int start, int end) {
this.data = data;
this.start = start;
this.end = end;
}

private MinimumFinder(int[] data) {
this(data, 0, data.length);
}

@Override
protected Integer compute() {
final int len = end - start;
if (len < JOIN_THRESHOLD) {
return internal();
}
final int split = len / 2;
final MinimumFinder left = new MinimumFinder(data, start, start + split);
left.fork();
final MinimumFinder right = new MinimumFinder(data, start + split, end);
return Math.min(right.compute(), left.join());
}

private Integer internal() {
System.out.println(Thread.currentThread() + " computing: " + start + " to " + end);
int min = Integer.MAX_VALUE;
for (int i = start; i < end; i++) {
if (data[i] < min) {
min = data[i];
}
}
return min;
}

public static void main(String[] args) {
final int[] data = new int[1000];
final Random random = new Random(System.nanoTime());
for (int i = 0; i < data.length; i++) {
data[i] = random.nextInt(100);
}
final ForkJoinPool pool = new ForkJoinPool(Runtime.getRuntime().availableProcessors());
final MinimumFinder finder = new MinimumFinder(data);
System.out.println(pool.invoke(finder));
}
}

 另外,JDK8+ 中使用 parallelStream() 方法将集合转为并行的 Stream 进行处理,内部使用的便是 Fork/Join 思想。需要注意的是,parallelStream 内部创建的线程池大小可以通过 java.util.concurrent.ForkJoinPool.common.parallelism 参数来控制,最大不能超过 ForkJoinPool#MAX_CAP,即 32767。默认情况下,直接使用 CPU 的虚拟核数作为线程池大小。

参考

Memoization

 摘自一段来自 wikipedia.org 的定义,如下

In computing, memoization or memoisation is an optimization technique used primarily to speed up computer programs by storing the results of expensive function calls and returning the cached result when the same inputs occur again.

 由此可见,Memoization 也就是我们常用的单例设计模式的由来。如果项目中使用到了 Guava,则可以很方便地通过调用 Suppliers.memoize(() -> {...}) 来实现。其内部实现了一个 2-field 变种的 Double-check 锁,具体如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
/**
* Returns a supplier which caches the instance retrieved during the first
* call to {@code get()} and returns that value on subsequent calls to
* {@code get()}. See:
* <a href="http://en.wikipedia.org/wiki/Memoization">memoization</a>
*
* <p>The returned supplier is thread-safe. The supplier's serialized form
* does not contain the cached value, which will be recalculated when {@code
* get()} is called on the reserialized instance.
*
* <p>If {@code delegate} is an instance created by an earlier call to {@code
* memoize}, it is returned directly.
*/
public static <T> Supplier<T> memoize(Supplier<T> delegate) {
return (delegate instanceof MemoizingSupplier)
? delegate
: new MemoizingSupplier<T>(Preconditions.checkNotNull(delegate));
}

@VisibleForTesting
static class MemoizingSupplier<T> implements Supplier<T>, Serializable {
final Supplier<T> delegate;
transient volatile boolean initialized;
// "value" does not need to be volatile; visibility piggy-backs
// on volatile read of "initialized".
transient T value;

MemoizingSupplier(Supplier<T> delegate) {
this.delegate = delegate;
}

@Override public T get() {
// A 2-field variant of Double Checked Locking.
if (!initialized) {
synchronized (this) {
if (!initialized) {
T t = delegate.get();
value = t;
initialized = true;
return t;
}
}
}
return value;
}

@Override public String toString() {
return "Suppliers.memoize(" + delegate + ")";
}

private static final long serialVersionUID = 0;
}

堆栈优化

ByteBuffer

 通过 allocateDirect(int capacity) 方法可以避开堆栈,直接通过操作系统创建内存块作为缓冲区。该方式与操作系统能更好地耦合,因而能进一步提高 I/O 操作的速度。缺点是,分配直接缓冲区的系统开销很大。因此,只有在缓冲区较大并会长期存在,或者需要经常重用时,才使用这种缓冲区

位运算

奇偶数
1
2
3
public static boolean isEven(int i) {
return (i & 1) == 0;
}
毫秒
1
2
3
4
5
public static final long SECOND_MASK = 0xFFFFFFFF00000000L;

public static boolean isMillis(long timestamp) {
return (timestamp & SECOND_MASK) != 0;
}
参考

时间戳

 System.currentTimeMillis() 通过 GetSystemTimeAsFileTime API 可以快速地获取系统的全局变量值,以得到毫秒值。但是,这个接口取决于操作系统底层的实现,所以有可能该全局变量值的更新频率不高,导致无法满足毫秒级别的精度。如果,是在高精度监控或者游戏等,对时间精度要求很高的领域,则需要使用 System.nanoTime()。后者,使用了 PIT(programmable-interval-timer)、PMT(power management timer)或 TSC(CPU-level timestamp-counter)几种高精度的时间计数器,以保证准确性。但 System.nanoTime() 的执行过程会存在微秒级别的耗时,所以也很难真正达到纳秒级的精度

强引用 vs. 软引用 vs. 弱引用 vs. 虚引用

 合理地利用软引用和弱引用,可以有效解决 OOM 问题,下表是关于四种引用类型的比对:

例子用途生命周期触发回收的时刻
强引用Object o = new Object()对象的一般状态JVM 停止运行时终止从来不会
软引用new SoftReference<>("yuzhouwan")对象缓存内存不足时终止内存不足时
弱引用new WeakReference<>("asdf")对象缓存GC 运行后终止垃圾回收时
虚引用new PhantomReference<>("2014", new ReferenceQueue<>())跟踪对象被垃圾回收器回收的活动无生命周期任何时候

日志相关

log4j 开启 BufferedIO

参考

测试相关

参数驱动

 利用 @Parameterized.Parameters 注解可以指定多个可能的传值,使得当前测试类下的所有测试用例可以被多次复用。但是该注解并不能让参数之间自行组合,所以严格来说,并不是参数驱动(后续介绍的 HttpRunner 框架则是严格意义上的参数驱动)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
import com.yuzhouwan.compression.CompressionType;
import org.junit.FixMethodOrder;
import org.junit.Test;
import org.junit.runner.RunWith;
import org.junit.runners.MethodSorters;
import org.junit.runners.Parameterized;

import java.util.Arrays;

@FixMethodOrder(MethodSorters.JVM)
@RunWith(Parameterized.class)
public class CompressionTest {

@Parameterized.Parameter()
public CompressionType compressionType4ts;
@Parameterized.Parameter(1)
public CompressionType compressionType4longValue;
@Parameterized.Parameter(2)
public CompressionType compressionType4doubleValue;

@Parameterized.Parameters
public static Iterable<Object[]> getParameters() {
return Arrays.asList(new Object[][]{
{CompressionType.NONE, CompressionType.NONE, CompressionType.NONE},
{CompressionType.SIMPLE8B, CompressionType.NONE, CompressionType.GORILLA},
{CompressionType.SIMPLE8B_WITH_RLE, CompressionType.ZIGZAG_WITH_SIMPLE8B, CompressionType.NONE},
});
}

/**
* NONE - NONE - NONE
* SIMPLE8B - NONE - GORILLA
* SIMPLE8B_WITH_RLE - ZIGZAG_WITH_SIMPLE8B - NONE
*/
@Test
public void test() {
System.out.println(compressionType4ts + " - " + compressionType4longValue + " - " + compressionType4doubleValue);
}
}

测试先行

参考

自动生成 Test Case

参考

自动化测试

HttpRunner

介绍

 HttpRunner™ 是一款面向 HTTP(S) 协议的通用测试框架,只需编写维护一份 YAML/JSON 脚本,即可实现自动化测试、性能测试、线上监控、持续集成等多种测试需求。这里将以测试 OpenTSDB 为例,更加具象地介绍 HttpRunner

QuickStart
安装
1
2
3
4
5
6
7
$ pip install httprunner==1.5.15

$ hrun -V
1.5.15

$ har2case -V
0.2.0
启动 Flask
1
2
3
4
5
6
7
8
9
10
$ pip install flask

$ mkdir docs/data/
$ wget https://cn.httprunner.org/data/api_server.py -P docs/data/
$ export FLASK_APP=docs/data/api_server.py
$ export FLASK_ENV=development
$ flask run

$ curl localhost:5000
Hello World!
测试
1
2
3
4
5
6
$ wget https://cn.httprunner.org/data/demo-quickstart.har -P docs/data/

# 将 demo-quickstart.har 转换为 HttpRunner 的测试用例文件
# 默认输出 JSON 文件,加 `-2y` 参数,可以转化为 YAML
$ har2case docs/data/demo-quickstart.har
$ hrun docs/data/demo-quickstart.json
新建测试项目
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
# 新建目录
$ httprunner --startproject yuzhouwan

$ ls -sail
12891420763 4 -rw-r--r-- 1 benedictjin wheel 44 Feb 2 11:37 .env
12891384628 0 drwxr-xr-x 2 benedictjin wheel 64 Feb 1 16:44 api/
12891454305 4 -rw-r--r-- 1 benedictjin wheel 2389 Feb 2 14:34 debugtalk.py
12891454901 4 -rw-r--r-- 1 benedictjin wheel 1452 Feb 2 15:21 locustfile.py
12891454386 0 drwxr-xr-x 8 benedictjin wheel 256 Feb 2 15:30 reports/
12891384629 0 drwxr-xr-x 7 benedictjin wheel 224 Feb 2 14:47 testcases/
12891384630 0 drwxr-xr-x 2 benedictjin wheel 64 Feb 1 16:44 testsuites/
# .env 存放环境变量的 properties 文件
# testcases 存放所有 httprunner 的 json 测试实例
# debugtalk.py 存放所有 httprunner 测试实例中,需要用到自定义函数
# reports 生成的 html 结果页面
性能测试
环境部署
1
2
3
4
5
6
7
8
9
$ python -m pip install --trusted-host pypi.python.org --trusted-host files.pythonhosted.org --trusted-host pypi.org locustio

$ locusts -V
[2019-02-02 10:17:55,387] BenedictJin.local/INFO/stdout: Locust 0.9.0
[2019-02-02 10:17:55,387] BenedictJin.local/INFO/stdout:

$ locusts -f put_one_point_with_variable_data_types.json --processes 4
[2019-02-02 10:18:53,668] BenedictJin.local/INFO/locust.main: Starting web monitor at *:8089
[2019-02-02 10:18:53,668] BenedictJin.local/INFO/locust.main: Starting Locust 0.9.0
测试限流
1
2
3
4
# 需要先打开服务端的限流
$ source .env
$ locusts -f testcases/limit/limit_tps_with_number.json --processes 4 -H ${base_url_from_env} -L DEBUG
$ locusts -f testcases/limit/limit_tps_with_string.json --processes 4 -H ${base_url_from_env} -L DEBUG

(对 HttpRunner™ 的截图)
抓包并转为 TestCase
使用 Charles 抓包工具

 通过该方法,可以将现有的测试用例,轻松地转为 http_runner 的表现形式。具体步骤如下:

a) 安装 Charles Proxy

1
2
3
4
5
6
7
8
9
10
11
12
# Mac
# https://www.charlesproxy.com/download/

# Linux
$ cat <<EOF > /etc/yum.repos.d/Charles.repo
[charlesproxy]
name=Charles Proxy Repository
baseurl=https://www.charlesproxy.com/packages/yum
gpgkey=https://www.charlesproxy.com/packages/yum/PublicKey
EOF

$ sudo yum install charles-proxy

b) 关闭 browsermob-proxy

1
$ pkill -1 -f browsermob-proxy

c) 在 Http Request 中增加 Proxy

1
2
request.setConfig(RequestConfig.custom().setProxy(new HttpHost("127.0.0.1", 8888)).build());
// 修改好之后,重新打包编译即可
使用 browsermobproxy 代理库

 也可以通过编写 Python 脚本,来创建 Proxy,并使用 Json 库将 Proxy 抓包内容以 har 的形式保存为文件

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
import json
import os
import time

import psutil
from browsermobproxy import Server

# pkill -1 -f browsermob-proxy
for proc in psutil.process_iter():
if proc.name() == "browsermob-proxy":
proc.kill()

server = Server(path="/apps/browsermob-proxy-2.1.4/bin/browsermob-proxy",
options={'port': 8880})
server.start()

time.sleep(1)
proxy = server.create_proxy(params={'port': 8881})
time.sleep(1)

with open('testcases.txt', "r+", encoding="utf8") as of:
os.chdir("/code/yuzhouwan-test-cloud")
for line in of.readlines():

line = line.strip('\n')
print(line)
if '.' not in line:
continue
splits = line.split('.')
clazz = splits[0]
method = splits[1]
proxy.new_har("com.yuzhouwan.yuzhouwan.client.%s,%s" % (clazz, method),
options={'captureHeaders': True, 'captureContent': True, 'captureBinaryContent': True})

command = 'java -ea -Didea.test.cyclic.buffer.size=1048576 -javaagent:' \
'<...>" ' \
'com.intellij.rt.execution.junit.JUnitStarter -ideVersion5 -junit4 ' \
'com.yuzhouwan.yuzhouwan.client.%s,%s' % (clazz, method)
os.system(command)

json_obj = json.dumps(proxy.har)

file_dir = '/Users/benedictjin/Documents/http_runner/%s/' % clazz
file_name = method
file_extension = '.har'
if not os.path.exists(file_dir):
os.makedirs(file_dir)

fileObject = open(file_dir + file_name + file_extension, 'w')
fileObject.write(json_obj)
fileObject.close()

server.stop()
二次开发
解决 http_runner 中只能解析部分 parameters 的问题
1
2
3
4
5
6
7
8
9
10
11
# vim httprunner/parser.py
parsed_parameters_list = []
for parameter in parameters:
parameter_name, parameter_content = list(parameter.items())[0]
parameter_name_list = parameter_name.split("-")


# 改为
parsed_parameters_list = []
for parameter_name, parameter_content in parameters.items():
parameter_name_list = parameter_name.split("-")
使得 har2case 支持 list 结构的 JSON

 详见:Let _make_validate method supports the list structures JSON #18

使得 har2case 支持普通文本的返回类型
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
# vim har2case/core.py
mime_type = resp_content_dict.get("mimeType")
if mime_type and mime_type.startswith("application/json"):

encoding = resp_content_dict.get("encoding")
if encoding and encoding == "base64":
content = base64.b64decode(text).decode('utf-8')
try:
resp_content_json = json.loads(content)
except JSONDecodeError:
logging.warning("response content can not be loaded as json.")
return
else:
resp_content_json = json.loads(text)

# 改为
mime_type = resp_content_dict.get("mimeType")
if mime_type and mime_type.startswith("application/json"):

encoding = resp_content_dict.get("encoding")
if encoding and encoding == "base64":
text = base64.b64decode(text).decode('utf-8')
try:
resp_content_json = json.loads(text)
except JSONDecodeError:
logging.warning("response content can not be loaded as json.")
return
print("resp_content_json", resp_content_json)
使二次开发的改动生效
1
2
3
4
5
$ pip uninstall har2case -y
$ cd /usr/local/har2case/har2case
$ python setup.py install

$ har2case --log-level DEBUG test.har
可视化管理系统
部署

 按照部署手册即可部署成功。相关的,比如,MySQL 安装RabbitMQ 安装,都能找到很多资料。这里,主要记录几个可能踩到的坑

可视化管理页面

 配置环境、增加测试用例、组合测试套件等,效果如下图所示:

 运行结果报告页面,效果如下图所示:

 支持权限管理,超级管理员可以配置整个管理系统,效果如下图所示:

(对 HttpRunner™ 的截图)
踩到的坑
MySQL 默认编码导致 Django 报错 OperationalError
  • 描述
1
2
$ python manage.py migrate
# 报错 django.db.utils.OperationalError: (1366, "Incorrect string value for column 'name' at row 1")
  • 解决

 这个问题是因为新安装的 MySQL 默认的编码不是 UTF-8 导致的,停掉 mysql 实例配置 my.cnf 再重启即可。如果停止不掉,可以 pkill mysql 强制停止。之前创建的数据库也需要删掉重新创建

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
$ cd /usr/local/mysql/support-files
$ sudo ./mysql.server stop
$ vim my.cnf
[client]
default-character-set=utf8

[mysql]
default-character-set=utf8

[mysqld]
collation-server=utf8_unicode_ci
init-connect='SET NAMES utf8'
character-set-server=utf8

# 如果 my.cnf 没有生效,可能需要拷贝一份到 /private/etc 目录下
$ cd /private/etc
$ sudo cp /usr/local/mysql/support-files/my.cnf .

$ sudo ./mysql.server restart
$ mysql -u root -p
mysql> show variables like '%char%';
+--------------------------+-----------------------------------------------------------+
| Variable_name | Value |
+--------------------------+-----------------------------------------------------------+
| character_set_client | utf8 |
| character_set_connection | utf8 |
| character_set_database | utf8 |
| character_set_filesystem | binary |
| character_set_results | utf8 |
| character_set_server | utf8 |
| character_set_system | utf8 |
| character_sets_dir | /usr/local/mysql-5.7.25-macos10.14-x86_64/share/charsets/ |
+--------------------------+-----------------------------------------------------------+
8 rows in set (0.00 sec)

mysql> drop database HttpRunner;
Query OK, 27 rows affected (0.05 sec)

mysql> create database HttpRunner;
Query OK, 1 row affected (0.00 sec)

# 增加 `TEST_CHARSET` 连接配置
$ vim HttpRunnerManager/settings.py
DATABASES = {
'default': {
# ...
'TEST_CHARSET': 'utf-8'
}
}

$ python manage.py migrate
资料
Doc
Github
Blog

JVM 相关

基本概念

堆内 vs. 堆外

堆内内存

 一般情况下,Java 中分配的非空对象都是由 Java 虚拟机的垃圾收集器管理的,也称为堆内内存(on-heap memory)

堆外内存

 堆外内存(off-heap memory)意味着把内存对象分配在 Java 虚拟机的堆以外的内存,这些内存直接受操作系统管理(而不是虚拟机)

堆外内存的优势
  • 对于大内存有良好的伸缩性
  • 对垃圾回收停顿的改善可以明显感觉到
  • 在进程间可以共享,减少虚拟机间的复制
堆外内存的劣势
  • 数据结构变得不那么直观,发生内存溢出的时候,排查定位会很麻烦
  • 如果数据结构比较复杂,就要对它进行串行化(serialization),而串行化本身也会影响性能
  • 可以使用更大的内存的同时,需要担心虚拟内存(即硬盘)的速度对应用的影响
示例
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
/*
-XX:MaxDirectMemorySize=64M 可以控制堆外内存大小,默认在 VM 静态变量 directMemory 为 64M

maxDirectMemory: 67108864
isDirect: true
*/
public static void main(String[] args) throws InterruptedException {
System.out.println("maxDirectMemory: " + VM.maxDirectMemory());
ByteBuffer buffer = ByteBuffer.allocateDirect(1024 * 1024 * 64);
Thread.sleep(200);
boolean isDirect = buffer.isDirect();
System.out.println("isDirect: " + isDirect);
if (isDirect) ((DirectBuffer) buffer).cleaner().clean();
else buffer.clear();
Thread.sleep(200);
System.exit(0);
}
参考

指针压缩

定义

 64 位环境下, 寄存器是 64 位的,对应指针也就成 64 位了,也就是 8 字节。我们知道 4 字节可以表示 4G,实际中基本不会有需要加载这么多对象的情况。因此 8 字节就显得浪费了,narrowKlass 只使用 4 个字节,预分配给 _metadata 的 8 字节中的另外 4 字节就可以用做它用了。看似 4 个字节无关紧要,但是堆中存在上千万到亿个对象时,省下的内存就是几百兆啊

流程

基于以下事实

  • CPU 使用的虚拟地址是 64 位的,访问内存时,必须使用 64 位的指针访问内存对象
  • Java 对象是分配于具体的某个内存位置的,对其访问必须使用 64 位地址
  • 对 Java 对象内的引用字段进行访问时, 必须经过虚拟机这一层, 操作某个对象引用不管是 getfield 还是 putfield,都是由虚拟机来执行。或者简单来说,要改变 Java 对象某个引用字段, 必须经过虚拟机的参与

 细心的你从上面一定可以看出一点线索,由于存一个对象引用和取一个对象引用必须经过虚拟机,所以完全可以在虚拟机这一层做些手脚。对于外部来说,putfield 提供的对象地址是 64 位的,经过虚拟机的转换,映射到 32 位,然后存入对象;getfield 指定目标对象的 64 位地址和其内部引用字段的偏移,取 32 位的数据,然后反映射到 64 位内存地址。对于外部来说,只看见 64 位的对象放进去,拿出来,内部的转换是透明的(本质上,就是按字节寻址,变成了按字寻址

原理
描述

 CompressedOops 的原理是,解释器在解释字节码时,植入压缩指令(不影响正常和 JVM 优化后的指令顺序)
 具体逻辑是,当对象被读取时,解压,存入 heap 时,压缩

压缩指令伪码
1
2
3
4
5
6
7
8
! int R8; oop[] R9; // R9 is 64 bits
! oop R10 = R9[R8]; // R10 is 32 bits
! load compressed ptr from wide base ptr:
movl R10, [R9 + R8<<3 + 16]
! klassOop R11 = R10._klass; // R11 is 32 bits
! void* const R12 = GetHeapBase();
! load compressed klass ptr from compressed base ptr:
movl R11, [R12 + R10<<3 + 8]
零基压缩优化(Zero Based Compressd Oops)

 零基压缩是针对压解压动作的进一步优化。它通过改变正常指针的随机地址分配特性,强制从零开始做分配(需要 OS 支持),进一步提高了压解压效率

 要启用零基压缩,你分配给 JVM 的内存大小必须控制在 4G 以上,32G 以下
 如果小于 4G,那么 JVM 会使用低虚拟地址空间(low virutal address space,64 位下模拟 32 位),这样就不需要做压解压动作了
 而对于大于 32G,将采用默认的随机地址分配特性,进行压解压

适用场景

 CompressedOops,可以让跑在 64 位平台下的 JVM,不需要因为更宽的寻址,而付出 Heap 容量损失的代价。
 不过,它的实现方式是在机器码中植入压缩与解压指令,可能会给 JVM 增加额外的开销

参数控制

 -XX:+UseCompressedOops 开启(jdk1.6.0_14+
 -XX:-UseCompressedOops 关闭

零基压缩的边界
1
2
3
4
5
6
7
8
9
$ JAVA_HOME=`/usr/libexec/java_home -v 1.8` java -Xmx32766m -XX:+PrintFlagsFinal 2> /dev/null | grep UseCompressedOops
bool UseCompressedOops := true

$ JAVA_HOME=`/usr/libexec/java_home -v 1.8` java -Xmx32767m -XX:+PrintFlagsFinal 2> /dev/null | grep UseCompressedOops
bool UseCompressedOops = false

# 如果已经 JVM 进程已经启动了,可以通过 jinfo 进行查询
$ jinfo -flag UseCompressedOops 18979
-XX:-UseCompressedOops
压缩 class 信息中的指针

 从 JDK6_u23 开始 UseCompressedOops 被默认打开了。因此既能享受 64bit 带来的好处,又避免了 64bit 带来的性能损耗。当然,如果你有机会使用超过 32G 的堆内存,记得把这个选项关了

 到了 Java8,永久代被干掉了,有了 “meta space” 的概念,存储 JVM 中的元数据,包括 Byte code,class 等信息。Java8 在 UseCompressedOops 之外,额外增加了一个新选项叫做 UseCompressedClassPointer。这个选项打开后,class 信息中的指针也用 32bit 的 Compressed 版本。而这些指针指向的空间被称作 “Compressed Class Space”。默认大小是 1G,但可以通过 “CompressedClassSpaceSize” 调整

 如果你的 Java 程序引用了太多的包,有可能会造成这个空间不够用,于是会看到

1
java.lang.OutOfMemoryError: Compressed class space

 这时,一般调大 CompreseedClassSpaceSize 就可以了

常用 Collector

CMS

定义

 CMS,全称 Concurrent Mark Sweep,是一款并发的、使用标记-清除算法的垃圾回收器

内存碎片

 CMS 本身是不会移动内存的,长时间运行后,会产生很多内存碎片,导致没有一段足够大的连续区域可以存放大对象,导致 promotion failedconcurrent mode failure 等异常,从而触发 Full GC

 启用 -XX:+UseCMSCompactAtFullCollection 参数之后,会在 Full GC 的时候,对年老代的内存进行压缩。再配合 -XX:CMSFullGCsBeforeCompaction=0 参数可以控制多少次 FGC 后对老年代做压缩操作。默认值为 0,代表每次都压缩。该参数开启后,会把对象移动到内存的最左边,可能会影响性能,但是可以消除碎片

浮动垃圾

 由于 CMS 并发清理阶段用户线程还在运行着,伴随程序运行自然就还会有新的垃圾不断产生,这一部分垃圾出现在标记过程之后,CMS 无法在当次收集中处理掉它们,只好留待下一次 GC 时再清理掉。这些无法被 GC 掉,留到下一次 GC 的垃圾,称之为浮动垃圾

G1GC

Shenandoah

ZGC

常用参数

默认配置

-Xss 堆栈大小
PlatformDefault(KB)
Windows IA3264
Linux IA32128
Windows x86_64128
Linux x86_64256
Windows IA64320
Linux IA641024
Solaris Sparc512

Tips: 实际案例 OpenTSDB 大查询导致 java.long.StackOverflowError 后,调整 -Xss32m 得以解决

日志方面

常用的配置项
FlagComment
-verbose:gcThe -verbose:gc option enables logging of garbage collection (GC) information.
-XX:+PrintGCDetails -XX:+PrintGCTimeStamps-XX:+PrintGCDetails and -XX:+PrintGCTimeStamps are used to print detailed information about garbage collection.(这里由于 -verbose:gc 相当于 -XX:+PrintGCDetails 的别名,避免冗余,应该去掉 -verbose:gc
-XX:-PrintTenuringDistributionPrint tenuring age information.
-XX:-UseGCLogFileRotationEnabled GC log rotation, requires -Xloggc.
-XX:NumberOfGCLogFiles=3Set the number of files to use when rotating logs, must be >= 1. The rotated log files will use the following naming scheme, <filename>.0, <filename>.1, …, <filename>.n-1.
-XX:GCLogFileSize=8KThe size of the log file at which point the log will be rotated, must be >= 8K.
实际效果
描述

 以 Apache Druid 为例,在 Tranquility 组件启动时,加上 -XX:+PrintTenuringDistribution 参数后的效果如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
$ nohup ./bin/tranquility -J-XX:+HeapDumpOnOutOfMemoryError -J-XX:HeapDumpPath=/data02/druid/ -J-verbose:gc -J-XX:+PrintGCDetails -J-XX:+PrintGCDateStamps -J-XX:+PrintGCDetails -J-XX:+PrintTenuringDistribution -J-Xloggc:/data02/druid/gc.log -Ddruid.extensions.directory=/home/druid/software/druid/extensions -Ddruid.extensions.loadList='["druid-avro-extensions"]' kafka -configFile conf/service/hbase_metrics_kafka2_avro.json > /home/druid/logs/tranquility/hbase_metrics_kafka2_avro.log 2>&1 &

# before
2017-03-23T14:38:23.582+0800: 90.288: [GC (Allocation Failure) [PSYoungGen: 9934821K->5622K(10469376K)] 12602986K->7093554K(28291584K), 0.6114898 secs] [Times: user=13.74 sys=0.06, real=0.61 secs]
2017-03-23T14:38:24.801+0800: 91.507: [GC (Allocation Failure) [PSYoungGen: 10071976K->3022K(10469376K)] 17159909K->8861529K(28291584K), 0.1748974 secs] [Times: user=3.91 sys=0.03, real=0.17 secs]
2017-03-23T14:38:26.178+0800: 92.884: [GC (Allocation Failure) [PSYoungGen: 10303201K->3733K(10469376K)] 19161707K->9746931K(28291584K), 0.1744318 secs] [Times: user=3.89 sys=0.02, real=0.17 secs]
2017-03-23T14:38:27.277+0800: 93.983: [GC (Allocation Failure) [PSYoungGen: 10091092K->902K(10469888K)] 19834290K->10628837K(28292096K), 0.1108355 secs] [Times: user=2.48 sys=0.01, real=0.12 secs]
2017-03-23T14:38:28.586+0800: 95.292: [GC (Allocation Failure) [PSYoungGen: 10089131K->1078K(10472448K)] 20717066K->11513094K(28294656K), 0.1054663 secs] [Times: user=2.34 sys=0.01, real=0.11 secs]
2017-03-23T14:38:29.840+0800: 96.546: [GC (Allocation Failure) [PSYoungGen: 10400114K->1501K(10461696K)] 21912131K->13281552K(28283904K), 0.1337201 secs] [Times: user=2.99 sys=0.01, real=0.13 secs]
2017-03-23T14:38:30.865+0800: 97.571: [GC (Allocation Failure) [PSYoungGen: 10133038K->1099K(10472448K)] 23413089K->15049201K(28294656K), 0.1312707 secs] [Times: user=2.94 sys=0.02, real=0.13 secs]
2017-03-23T14:38:30.996+0800: 97.702: [Full GC (Ergonomics) [PSYoungGen: 1099K->0K(10472448K)] [ParOldGen: 15048102K->1783009K(17664000K)] 15049201K->1783009K(28136448K), [Metaspace: 54341K->54341K(1095680K)], 0.3020992 secs] [Times: user=3.90 sys=0.00, real=0.31 secs]

# after
2017-03-23T14:41:03.576+0800: 31.699: [GC (Allocation Failure)
Desired survivor size 23592960 bytes, new threshold 1 (max 15)
[PSYoungGen: 9975727K->6112K(10454016K)] 13540045K->6222293K(27026432K), 0.2530233 secs] [Times: user=5.67 sys=0.03, real=0.25 secs]
2017-03-23T14:41:05.031+0800: 33.154: [GC (Allocation Failure)
Desired survivor size 23592960 bytes, new threshold 1 (max 15)
[PSYoungGen: 10241863K->11872K(10457088K)] 16458045K->8885401K(27029504K), 0.2811251 secs] [Times: user=6.27 sys=0.05, real=0.29 secs]
2017-03-23T14:41:06.022+0800: 34.145: [GC (Allocation Failure)
Desired survivor size 25165824 bytes, new threshold 1 (max 15)
[PSYoungGen: 10378567K->15664K(10458624K)] 19252097K->10661383K(27031040K), 0.2552984 secs] [Times: user=5.70 sys=0.05, real=0.25 secs]
2017-03-23T14:41:06.893+0800: 35.016: [GC (Allocation Failure)
Desired survivor size 24117248 bytes, new threshold 1 (max 15)
[PSYoungGen: 10054634K->10669K(10460160K)] 20700353K->12431545K(27032576K), 0.3152384 secs] [Times: user=6.89 sys=0.19, real=0.31 secs]
2017-03-23T14:41:07.208+0800: 35.33
1: [Full GC (Ergonomics) [PSYoungGen: 10669K->0K(10460160K)] [ParOldGen: 12420876K->1803376K(14484992K)] 12431545K->1803376K(24945152K), [Metaspace: 54185K->54185K(1095680K)], 0.2905749 secs] [Times: user=4.77 sys=0.00, real=0.29 secs]
参考

内存方面

-XX:+AlwaysPreTouch
描述

 Pre-touch the Java heap during JVM initialization. Every page of the heap is thus demand-zeroed during initialization rather than incrementally during application execution.

参考
-XX:+UseStringDeduplication
描述

 在 JDK 1.7.0_6 版本之后,每个 String 对象内部都持有一个私有 char[] 数组。因为该数组没有暴露出来,所以 JVM 可以先判断两个 String 的内容是否一致,再将 char[] 替换成另一个字符串的 char[]。该特性在 JDK 1.8.0_20 版本中引入,但只有在 JVM 使用了 G1GC 的情况下,才可以开启。相关的还有两个参数,其一是 -XX:StringDeduplicationAgeThreshold(默认值:3,即多次 GC 后仍然存活的 String 对象),用来避免作用于生命周期短的字符串;其二是 +PrintStringDeduplicationStatistics,用来打印一些统计信息,以判断特性是否生效。最后,需要注意的是,该特性的执行是发生在 GC 过程中的,如果 String 去重率不高的话,有可能会得不偿失,反而导致 GC 时间变长

参考

启动方面

-ea
1
2
3
4
5
6
7
8
# Usage:
-enableassertions[:<packageName>"..." | :<className>]
-ea[:<packageName>"..." | :<className>]

该参数用来设置 jvm 是否启动断言机制(从 JDK 1.4 开始支持),默认 JVM 是关闭断言机制的,增加 `-ea` 参数可打开断言机制
不指定 packageName 和 className 时运行所有包和类中的断言
如果希望只运行某些包或类中的断言,可将包名或类名加到 `-ea` 之后
比如想要启动包 `com.yuzhouwan.common` 下的断言机制,可用命令 `java -ea:com.yuzhouwan.common...<Main Class>`

实战技巧

查看 JVM 参数的默认值

1
2
3
4
5
6
7
8
# 查看 JDK8 中是否默认打开了 “对象头压缩” 开关
# 实际上,JDK6u23 版本之后,Hotspot 都已经打开了 -XX:+UseCompressedOops 功能(OOP,Ordinary Object Pointer)
$ java -XX:+PrintFlagsFinal -version | grep UseCompressedOops
bool UseCompressedOops := true
{lp64_product}
java version "1.8.0_111"
Java(TM) SE Runtime Environment (build 1.8.0_111-b14)
Java HotSpot(TM) 64-Bit Server VM (build 25.111-b14, mixed mode)

查看 Java 进程的 JVM 参数

1
2
3
$ jcmd 666 VM.flags
666:
-XX:CICompilerCount=15 -XX:ConcGCThreads=6 -XX:G1HeapRegionSize=33554432 -XX:InitialHeapSize=197904039936 -XX:MarkStackSize=4194304 -XX:MaxGCPauseMillis=200 -XX:MaxHeapSize=197904039936 -XX:MaxNewSize=118715580416 -XX:MinHeapDeltaBytes=33554432 -XX:+PrintGC -XX:+PrintGCDateStamps -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -XX:+UseFastUnorderedTimeStamps -XX:+UseG1GC

堆内内存分析

1
$ jmap -histo:live <pid> | less

堆外内存分析

google-perftools
安装
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
# 先安装 g++
$ yum -y install gcc gcc-c++

# 安装 libunwind
$ wget http://download.savannah.gnu.org/releases/libunwind/libunwind-0.99.tar.gz
$ tar -xzvf libunwind-0.99.tar.gz
$ cd libunwind-0.99
$ ./configure --prefix=/data0/java/deploy/google-perftools/local/libunwind
$ make && make install

# 安装 gperftools
$ wget https://github.com/gperftools/gperftools/releases/download/gperftools-2.5/gperftools-2.5.tar.gz
$ tar -xzvf gperftools-2.5.tar.gz
$ cd gperftools-2.5
$ ./configure --prefix=/data0/java/deploy/google-perftools/local/gperftools-2.5/
$ make && make install

# 使配置生效
$ vim /etc/ld.so.conf.d/usr_local_lib.conf
/data0/java/deploy/google-perftools/local/libunwind/lib

# 执行 ldconfig 命令,使libunwind生效。 需要 sudo 权限
$ /sbin/ldconfig

# 创建 tmp 目录
$ mkdir -p /data0/java/deploy/google-perftools/local/tmp

# 加入环境变量
# 不要加在 .bashrc 里面,放在 jvm 启动脚本里面即可
export LD_PRELOAD=/data0/java/deploy/google-perftools/local/gperftools-2.5/lib/libtcmalloc.so
export HEAPPROFILE=/data0/java/deploy/google-perftools/local/tmp/gzip

# 启动 jvm 进程,就会在 /data0/java/deploy/google-perftools/local/ 目录下生成 heap 文件
$ bin/hitsdb restart
分析
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
# 分析函数调用
$ /data0/java/deploy/google-perftools/local/gperftools-2.5/bin/pprof --text /usr/local/jdk1.8.0_181/bin/java /data0/java/deploy/google-perftools/local/tmp/gzip.0001.heap

Using local file /usr/local/jdk1.8.0_181/bin/java.
Using local file /data0/java/deploy/google-perftools/local/tmp/gzip.0001.heap.
Total: 0.0 MB
0.0 87.9% 87.9% 0.0 100.0% __FRAME_END__
0.0 9.6% 97.5% 0.0 9.6% _nl_intern_locale_data
0.0 1.2% 98.7% 0.0 1.2% __gconv_lookup_cache
0.0 0.6% 99.3% 0.0 0.6% new_composite_name
0.0 0.3% 99.6% 0.0 10.0% _nl_load_locale_from_archive
0.0 0.2% 99.8% 0.0 0.2% __GI___strdup
0.0 0.1% 99.9% 0.0 1.3% __wcsmbs_load_conv
0.0 0.1% 100.0% 0.0 0.1% __bindtextdomain
0.0 0.0% 100.0% 0.0 10.7% __GI_setlocale
0.0 0.0% 100.0% 0.0 1.3% __btowc
0.0 0.0% 100.0% 0.0 1.2% __gconv_find_transform
0.0 0.0% 100.0% 0.0 100.0% __libc_start_main
0.0 0.0% 100.0% 0.0 0.0% __textdomain
0.0 0.0% 100.0% 0.0 10.0% _nl_find_locale

常用工具

JMC 监控报警工具(Java Mission Control)

 JMC 工具是 JDK 里面自带的,只需要运行 jmc 命令即可

(对 JMC™ 的截图)

GCViewer

安装

 在 GCViewer 的下载页面,找到当前最新版本 gcviewer-1.35.jar 进行下载

使用

1
2
# 文件 gc.log 是由增加了 `-verbose:gc -XX:+PrintGCDetails -XX:+PrintGCDateStamps -Xloggc:/home/yuzhouwan/gc.log` 参数的 JVM 进程生成的 GC 日志
$ java -jar gcviewer-1.35.jar gc.log

效果图

JVM GCViewer

(对 GCViewer™ 的截图)

参考

MAT 内存分析工具(Memory Analyzer Tool)

创建 dump 文件

1
2
# 如果指定 live 参数的话,将会在 dump 之前,强制进行一次 Full GC
$ jmap -dump:[live,]format=b,file=<file_name>.hprof <pid>
如果 hprof 文件过大,打开时可能会有 OOM 的报错,此时则需要修改 /Applications/mat.app/Contents/Eclipse/MemoryAnalyzer.ini 文件中的 -Xmx1024m 默认参数为 -Xmx4096m,并重启 MAT

火焰图

简介

 火焰图是一个二维图片,火焰图的 X 轴代表采样总量,而 Y 轴代表栈深度。每个框就代表了一个栈里的函数,其宽度代表了所占用的 CPU 总时间。因此,比较宽的框就表示,该函数运行时间较慢或被调用次数较多,从而占用的 CPU 时间多。通过火焰图,相关设计或分析人员就可以轻松观察到各个应用占用 CPU 的情况

 Linux 平台上,对于多数 C/C++ 编写的应用,可以通过 perf 来方便的采样,还可以进一步生成火焰图来更直观地观察。Java 是没法直接用 perf 的。虽然有一个 perf-map-agent,但是并不方便,尝试过程中还弄出了 kernel panic,所以这玩意是不敢在线上用了。不过 JDK 自己其实已经带了一个采样工具 FlightRecorder,算是 JMC 的一部分

以往获得火焰图所需要的复杂步骤

 首先,应用启动的时候,要给 java 加上参数

1
-XX:+UnlockCommercialFeatures -XX:+FlightRecorder -XX:FlightRecorderOptions=loglevel=info

 因为 JVM 默认在 safepoint 的地方才可以返回栈,所以最好加上下面两个参数,让 JVM 在非 safepoint 的时候也提供原数据

1
-XX:+UnlockDiagnosticVMOptions -XX:+DebugNonSafepoints

 然后在准备开始采样的时候,使用下面命令,指定输出的文件路径,和采样时间

1
sudo -u <java_user> -i jcmd <pid> JFR.start filename=/tmp/app.jfr duration=60s

 之后可以用 JFR.check 来检查采样是不是已经完成了(详见:Java Platform, Standard Edition Java Flight Recorder Runtime Guide

1
sudo -u <java_user> -i jcmd <pid> JFR.check

 确认完成后,就可以把 jfr 文件传回本地,用 jmc 来分析了。如果想要生成火焰图,还有这么个工具:jfr-flame-graph。具体用法可以看文档。大致上,代码拖回来后就编译好了。另外还需要 FlameGraph

1
2
3
cd jfr-flame-graph
install-mc-jars.sh
mvn clean install -U

 工具准备好以后,执行下面命令,就能生成一个漂亮的火焰图了

1
2
path/to/jfr-flame-graph/run.sh -f app.jfr -o app.txt
cat app.txt | path/to/FlameGraph/flamegraph.pl >app.svg

使用新版 JVM Profile 功能之后一键搞定

这里我们以 2018.3 版本为例,但只要是高于该版本的 IDEA 也都是支持的

 打开下载 Intellij Idea 下载页面,找到 Coming in 2018.3,然后下载 EAP 版本的 Intellij Idea

 打开项目后,使用快捷键 ⌘⌥⇧/ 打开 Maintenance 面板,选择 Experimantal features,勾选 linux.native.menuidea.profiler.enabled

 使用 Run xxx with Async Profiler 执行任意程序

 即可获得火焰图、方法调用链、方法列表

(对 Intellij IDEA™ 的截图)

火焰图,主要用于分析 CPU 性能消耗。可以交互式地分析 JVM 进程中所有线程的 CPU 消耗火焰图,也可以选择某一个线程来分析;
方法调用链,可以找到在某个线程中,消耗 CPU 最多的方法
方法列表,可以看到每个方法的调用次数,展开后还可以看到详细的调用栈

Tips: Spark 任务生成火焰图

序列化 ID 排查工具

使用

1
2
3
4
5
6
7
serialver [ options ] [ classnames ]

options
The command-line options. See Options.

classnames
The classes for which the serialVersionUID is to be returned.

参考

Arthas 诊断工具

(图片来源:Arthas™ 官网,已获得 Collaborator 的授权)

 如果你想要对线上运行的 JVM 进程进行逻辑或性能分析,但是此时如果进程本身重启很耗时,或者进程内存很大无法进行 Dump 操作,亦或是不想有任何的代码侵入,就统计出各个方法的调用次数和耗时,那么,Arthas 绝对是不二之选

tsar 资源监控工具

安装

1
2
3
4
5
$ wget -O tsar.zip https://github.com/alibaba/tsar/archive/master.zip --no-check-certificate
$ unzip tsar.zip
$ cd tsar-master
$ make
$ make install

使用

1
$ tsar -l -i 1

常见问题

编码相关

SimpleDateFormat 多线程安全问题

分析

 不安全的主要原因是,SimpleDateFormat 继承的 DateTime 类,本身就是不安全的。而根本原因是 DateTime 的类属性中 Calendar 实例,并没有使用同步代码块进行多线程安全处理。如果在执行 format(...) 方法的同时,有其他线程调用 setCalendar(Calendar newCalendar) 方法,则会出现混乱。处理的方法有很多,除了在每次需要使用重新初始化 SimpleDateFormat 实例,另外还可使用 ThreadLocal 对其进行缓存,再或者使用 Joda-time 替换 Jdk 原生的 SimpleDateFormat 和 Java 8 里面的 DateTimeFormatter(注意别触发 JDK-8031085,该问题在 JDK9 才修复),亦可

Tips: Full code is here and here.

参考

java.lang.IllegalThreadStateException

 报错是因为 Thread 不可以使用 start() 启动多次,可以将逻辑放在 Runnable 对象中,每次启动的时候,再通过 new Thread(runnable).start() 初始化一个 Thread 对象来启动即可

取消数值的科学计数法

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
// 数值过大后,double、long 的 toString 可能会出现科学计数法
// 可以通过 NumberFormat 来解决
NumberFormat nf = NumberFormat.getInstance();
nf.setGroupingUsed(false);
nf.setMaximumFractionDigits(0);
nf.setMaximumIntegerDigits(64);

assertEquals("1234567890123456789", nf.format(1234567890123456789L));
assertEquals(1234567890123456789L, Long.valueOf(nf.format(1234567890123456789L)).longValue());
// 或者转换 double 的字符串为 long
assertEquals(0L, Long.valueOf(nf.format(0.0)).longValue());

nf.setMaximumFractionDigits(64);
assertEquals("0.12345678901234568", nf.format(0.1234567890_12345678D));
assertEquals(0.12345678901234568D, Double.valueOf(nf.format(0.1234567890_12345678D)), 64);

File#toURL 过期

 使用 file.toURI().toURL() 替代

Jersey 的 @Produces 默认不设置 UTF-8 存在中文乱码

方案

 实现 ContainerResponseFilter 接口,给 @Produces 注解增加 charset=UTF-8 属性

实现
编码 MediaTypeFilter
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
import com.sun.jersey.core.util.Priority;
import com.sun.jersey.spi.container.*;

import javax.ws.rs.Priorities;
import javax.ws.rs.Produces;
import javax.ws.rs.core.MediaType;
import javax.ws.rs.ext.Provider;
import java.lang.annotation.Annotation;

@Provider
@Priority(Priorities.HEADER_DECORATOR)
public class MediaTypeFilter implements ResourceFilter, ContainerResponseFilter {

@Override
public ContainerResponse filter(ContainerRequest request, ContainerResponse response) {
Annotation[] annotations = response.getAnnotations();
for (int i = 0; i < annotations.length; i++) {
if (!(annotations[i] instanceof Produces)) {
continue;
}
Produces produces = (Produces) annotations[i];
String[] producesValues = produces.value();
for (int j = 0; j < producesValues.length; j++) {
if (!MediaType.APPLICATION_JSON.equals(producesValues[j]) && !MediaType.TEXT_PLAIN.equals(producesValues[j])) {
continue;
}
producesValues[j] += ";charset=UTF-8";
}
annotations[i] = produces;
}
response.setAnnotations(annotations);
return response;
}

@Override
public ContainerRequestFilter getRequestFilter() {
return null;
}

@Override
public ContainerResponseFilter getResponseFilter() {
return this;
}
}
在 BrokerResource 中使用
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
import com.google.common.collect.ImmutableMap;
import com.google.inject.Inject;
import com.sun.jersey.spi.container.ResourceFilters;
import org.apache.druid.client.BrokerServerView;
import org.apache.druid.server.http.security.StateResourceFilter;

import javax.ws.rs.GET;
import javax.ws.rs.Path;
import javax.ws.rs.Produces;
import javax.ws.rs.core.MediaType;
import javax.ws.rs.core.Response;

@Path("/druid/broker/v1")
@ResourceFilters({StateResourceFilter.class, MediaTypeFilter.class})
public class BrokerResource
{
private final BrokerServerView brokerServerView;

@Inject
public BrokerResource(BrokerServerView brokerServerView)
{
this.brokerServerView = brokerServerView;
}

@GET
@Path("/loadstatus")
@Produces(MediaType.APPLICATION_JSON)
public Response getLoadStatus()
{
return Response.ok(ImmutableMap.of("inventoryInitialized", brokerServerView.isInitialized())).build();
}
}
参考

FastJSON 默认将浮点型反序列化为 BigDecimal

1
2
3
4
5
6
// 全局
JSON.DEFAULT_PARSER_FEATURE &= ~Feature.UseBigDecimal.getMask();

// 局部
int disable = JSON.DEFAULT_PARSER_FEATURE & ~Feature.UseBigDecimal.getMask();
JSON.parseObject(json, clazz, disable);

IDE 相关

[Intellij Idea] Code Check 中设置行长度为 120,却仍然有一条虚线竖在 80

 依次选择菜单 Settings - Editor - Code Style - Java,这时候可以将默认的 Scheme 设置成想要的方案,也可以在 Wrapping and Braces 中修改 Hard wrap at120,以达到想要的效果

版本相关

Unsupported major.minor version 52.0

 此类报错,是因为用低版本 JDK 去运行高版本的 Java 程序了

JDK 版本Major Version Number
Java SE 1155
Java SE 1054
Java SE 953
Java SE 852
Java SE 751
Java SE 6.050
Java SE 5.049
JDK 1.448
JDK 1.347
JDK 1.246
JDK 1.145

Maven 相关

需要正确地在 Maven 的 checkstyle 插件的 Regexp 正则中使用 XML 关键字

 如果不对下面 5 个符号加 \ 反斜杠转义的话,就需要使用 HTML 来表示

原始符号含义HTML
$\lt$小于&lt;
$\gt$大于&gt;
&&amp;
单引号&apos;
双引号&quot;

LogBack 相关

日志文件过大

描述

 多个 JVM 进程将日志写入同一个日志文件中,导致按照文件大小切割的策略失效,xxx.log.1 会持续写下去,以至于磁盘被撑爆

解决

 在日志路径上增加 ${JVM_PREFIX} 变量,并在不同的 JVM 启动的时候,通过 -DJVM_PREFIX="process001" 的方式传入,使得不同的 JVM 进程将日志写入各自的日志文件中

参考

配置相关

ConfigFactory.load() 只能加载固定目录下的配置文件

 对于 Java 开发而言,要实现加载配置文件的功能,一般都会选用 typesafe 下 config 框架,它具备纯 Java 源码和无任何外部依赖的优点。而调用 ConfigFactory.load() 方法只能加载 src/main/resources 下配置文件的问题。针对该问题,只需调用 ConfigFactory.parseFile(new File("yuzhouwan.conf")) 方法,即可指定其他任意位置的配置文件

JVM 相关

Too small initial heap

 -Xmx1024 -Xms512 应改为 -Xmx1024M -Xms512M

如何计算 Java 对象实际占用内存

定位 OOM

 -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=xxx

堆外内存使用不当,导致 OOM 问题

描述
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
java.lang.OutOfMemoryError: Direct buffer memory
at java.nio.Bits.reserveMemory(Bits.java:658)
at java.nio.DirectByteBuffer.<init>(DirectByteBuffer.java:123)
at java.nio.ByteBuffer.allocateDirect(ByteBuffer.java:311)
at org.jboss.netty.channel.socket.nio.SocketReceiveBufferAllocator.newBuffer(SocketReceiveBufferAllocator.java:64)
at org.jboss.netty.channel.socket.nio.SocketReceiveBufferAllocator.get(SocketReceiveBufferAllocator.java:41)
at org.jboss.netty.channel.socket.nio.NioWorker.read(NioWorker.java:62)
at org.jboss.netty.channel.socket.nio.AbstractNioWorker.process(AbstractNioWorker.java:108)
at org.jboss.netty.channel.socket.nio.AbstractNioSelector.run(AbstractNioSelector.java:337)
at org.jboss.netty.channel.socket.nio.AbstractNioWorker.run(AbstractNioWorker.java:89)
at org.jboss.netty.channel.socket.nio.NioWorker.run(NioWorker.java:178)
at org.jboss.netty.util.ThreadRenamingRunnable.run(ThreadRenamingRunnable.java:108)
at org.jboss.netty.util.internal.DeadLockProofWorker$1.run(DeadLockProofWorker.java:42)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:745)
解决

 升级 JDK 版本到 1.8u102+,并使用 -Djdk.nio.maxCachedBufferSize 参数限制每个线程的 DirectByteBuffer 大小

该参数不支持 M、G 这些单位,只能填写数字,且单位为 Byte

G1GC 报错 To-space Exhausted

描述
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
2018-08-12T00:52:36.255+0800: 17308164.871: [GC pause (G1 Evacuation Pause) (young) (to-space exhausted), 2.3349764 secs]
[Parallel Time: 331.1 ms, GC Workers: 23]
[GC Worker Start (ms): Min: 17308164872.2, Avg: 17308164872.3, Max: 17308164872.3, Diff: 0.2]
[Ext Root Scanning (ms): Min: 0.7, Avg: 1.0, Max: 3.1, Diff: 2.4, Sum: 23.1]
[Update RS (ms): Min: 56.3, Avg: 58.3, Max: 59.2, Diff: 2.9, Sum: 1341.8]
[Processed Buffers: Min: 75, Avg: 95.6, Max: 133, Diff: 58, Sum: 2199]
[Scan RS (ms): Min: 0.8, Avg: 1.4, Max: 1.5, Diff: 0.7, Sum: 33.0]
[Code Root Scanning (ms): Min: 0.0, Avg: 0.0, Max: 0.0, Diff: 0.0, Sum: 0.1]
[Object Copy (ms): Min: 269.3, Avg: 269.5, Max: 269.8, Diff: 0.6, Sum: 6197.7]
[Termination (ms): Min: 0.0, Avg: 0.4, Max: 0.6, Diff: 0.5, Sum: 9.3]
[Termination Attempts: Min: 1, Avg: 290.0, Max: 325, Diff: 324, Sum: 6669]
[GC Worker Other (ms): Min: 0.0, Avg: 0.1, Max: 0.2, Diff: 0.2, Sum: 3.0]
[GC Worker Total (ms): Min: 330.7, Avg: 330.8, Max: 331.0, Diff: 0.3, Sum: 7608.0]
[GC Worker End (ms): Min: 17308165202.9, Avg: 17308165203.0, Max: 17308165203.1, Diff: 0.2]
[Code Root Fixup: 0.2 ms]
[Code Root Purge: 0.0 ms]
[Clear CT: 1.1 ms]
[Other: 2002.7 ms]
[Evacuation Failure: 779.0 ms]
[Choose CSet: 0.0 ms]
[Ref Proc: 1217.9 ms]
[Ref Enq: 1.6 ms]
[Redirty Cards: 0.8 ms]
[Humongous Register: 0.2 ms]
[Humongous Reclaim: 0.9 ms]
[Free CSet: 1.5 ms]
[Eden: 8520.0M(8520.0M)->0.0B(3536.0M) Survivors: 368.0M->440.0M Heap: 14.8G(16.0G)->10.4G(16.0G)]
[Times: user=25.22 sys=0.29, real=2.33 secs]
原因

 在日志中看到类似 Evacuation Failure、To-space Exhausted 或者 To-space Overflow 这样的输出(取决于不同版本的 JVM,输出略有不同)。这是 G1GC 收集器在将某个需要垃圾回收的分区进行回收时,无法找到一个能将其中存活对象拷贝过去的空闲分区。这种情况被称为 Evacuation Failure,常常会引发 Full GC

解决
  1. 增加 -XX:G1ReservePercent 选项的值(并相应增加总的堆大小),为目标空间增加预留内存量
  2. -XX:InitiatingHeapOccupancyPercent 参数调低(默认值是45),可以使 G1GC 收集器更早开始 Mixed GC;但另一方面,会增加 GC 发生频率
  3. 提高 -XX:ConcGCThreads 的值,在 Mixed GC 阶段投入更多的并发线程,争取提高每次暂停的效率。但是此参数会占用一定的有效工作线程资源
参考

资料

Doc

Tool

Blog

Architecture

Performance

Concurrent

JVM

Github

Tool

欢迎加入我们的技术群,一起交流学习

人工智能 (高级)& (进阶)| BigData | 算法

Benedict Jin wechat
Subscribe to my blog by scanning my public wechat account.