Influxdb是由Golang 构建的时序数据库,由于由Go语言构建使得其跨平台部署相对方便。用户只需下载其可执行文件到相应系统执行即可。
核心概念
示例数据(解释某些概念用)
_time | _measurement | location | scientist | _field | _value |
---|---|---|---|---|---|
2019-08-18T00:00:00Z | census | klamath | anderson | bees | 23 |
2019-08-18T00:00:00Z | census | portland | mullen | ants | 30 |
2019-08-18T00:06:00Z | census | klamath | anderson | bees | 28 |
2019-08-18T00:06:00Z | census | portland | mullen | ants | 32 |
Organization
organization
是一组用户的工作空间,一个组下用户可以创建多个bucket
bucket
所有的 influxdb数据都存储在bucket中,bucket
结合了数据库和保存期限(每条数据会被保留的时间)的概念,类似于RDMS的database的概念。bucket
属于一个organization
Measurement
measurement
是所有 tags fields 和时间的容器和RDMS的table的概念类似,是一个数据集的容器
Fields
数据属性包括field key 和 field value 分别存储在 _field
和 _value
当中, 并且一个measurement中必须包含至少一个filed
Field key
field key 是一个代表属性名称的字段,在示例数据中bees
和ants
就是field key
Field value
field value 是对应 field key 的值,在示例数据中在2019-08-18T00:00:00Z
该时间点 bees
的值为23,而ants
的值为30
Field set
field set 表示在同一时间内 所有fields的集合
Tags
和Fields类似,Tags也有 key value。但与Fields不同的是,field key存储在_field
列中 而tag key则是本省就是列
tag key 和 tag value
即tag 的 key 和 value 在Line Protocl中有更为直观的体现
timestamp
所有存储在influxdb中的数据都有一个_time
列用来记录时间,在磁盘中以纳秒之间戳存储,但客户端查询时返回的是格式化的更易读的 RFC3339 UTC时间格式
对于Fields 和 Tags 简单来说他们都是一组键值对的集合。在存储形式上,field 的key 被存储在一个名为_field
的列中,而tag 的key则是以列头的形式存在的,该列的内容即为tag value。可以从示例数据中直观的看出其区别。
另外值得注意的是,field 和 tag 都可以用来存储数据,但tag只能存储字符串类型数据,而filed既可以存储字符串类型又可以存储数值类型数据。
那么我是否可以在tag中存储字符串形式的数据呢?
当然可以但其不可以参与flux查询中的mean()
max()
等聚合函数的计算。所以field 和 tag 还是有着本质上的区别的。
安装
手动安装
influxdb 安装比较简单直接下载可执行文件运行即可
Windows下载链接
Linux下载链接
解压后直接运行influxd
即可,服务启动后访问 localhost:8086 进行首次配置。
docker
使用docker方式运行时可直接docker run
访问IP:8086进行初始化,也可在启动容器时初始化。
若想启动时初始化可按如下命令启动
docker run -d -p 8086:8086 \
-e DOCKER_INFLUXDB_INIT_MODE=setup \
-e DOCKER_INFLUXDB_INIT_USERNAME=alming \
-e DOCKER_INFLUXDB_INIT_PASSWORD=wuxianming \
-e DOCKER_INFLUXDB_INIT_ORG=alming \
-e DOCKER_INFLUXDB_INIT_BUCKET=alming \
influxdb:2.0
-e DOCKER_INFLUXDB_INIT_MODE=setup
指其定为初始化模式。
-e DOCKER_INFLUXDB_INIT_USERNAME=alming
指定用户名
-e DOCKER_INFLUXDB_INIT_PASSWORD=wuxianming
指定密码
-e DOCKER_INFLUXDB_INIT_ORG=alming
创建初始org
-e DOCKER_INFLUXDB_INIT_BUCKET=alming
创建初始bucket
influx CLI
为了避免不必要的错误以下influx命令均手动传递token,也可以使用influx config
命令将一些常用选项配置在配置文件中,则每次执行命令会默认带上influx config
指定的flag,例如
influx config create --active -t
# 执行过后,所有需要该token的指令就不需要指定token了
用户管理
创建用户
influx user create -n -p -o -t
查看用户
influx user list -t
删除用户
influx user delete -t -t
更新用户
influx user update -i -n -t
修改密码
influx user password -n -t
# 指令执行后,CLI会引导密码修改
oganization管理
官方建议一个influxdb实例中建组不超过20个,因为influxdb支持大约20个bucket的写入或查询,超过这个值将会对influxdb性能造成影响
创建oganization
创建组有两种方式一种是使用UI管理界面创建,一种是使用influx命令。UI界面根据引导点击就行了
influx命令
influx org create -t
查看oganization
influx org list -t
更新oganization
influx org update -i -n
删除oganization
influx org delete -i
bucket管理
bucket内的数据是有保存期限的influxdb称之为retention-period-duration
,bucket在创建之初就会指定
bucket创建
influx bucket create -n -o -r -t
# -o 指定organization名称,-r指定数据保留时间
# 数据保留时间单位在以下单位中取值:
#纳秒 (ns)
#微秒 (us or µs)
#毫秒 (ms)
#秒 (s)
#分 (m)
#时 (h)
#日 (d)
#周 (w)
#示例
influx bucket create -n test-bucket -o wxm -r 72h5m -t 58s6gl9hD8lk-AS_i6mUaYMMCGe6N1vIfVpJUo2xJ2HkWMlWx2yp7r7IKZsyF6h8vQdTPfIpGyHtbALayLgUQw==
bucket更新
更新bucket名称
influx bucket update -i -n
更新数据保存时间
influx bucket update -i -r
bucket查看
influx bucket list -o -t
bucket删除
通过名称删除
influx bucket delete -n -o
通过id删除
influx bucket delete -i
Line Protocol(数据写入协议)
通过Post请求方式向influxdb中写入数据进行测试,可使用Postman 详细见 Postman Influx http api 调用 章节。
Line Protocol 语法
# 以下取自官方文档
# 语法
[,=[,=]] =[,=] []
# 示例
myMeasurement,tag1=value1,tag2=value2 fieldKey="fieldValue" 1556813561098000000
一个\n
代表一条数据协议的结束,所以数据内容不支持\n
Line Protocol 支持部分特殊字符但需要进行转义
Flux查询语言
Flux 可归类为一门新的编程语言,这里仅介绍针对查询需要的一些常用函数和操作,了解更多Flux见Flux官方文档
大多数Flux查询遵循如下几个步骤
- 指定数据源
- 过滤数据
- 对数据整形(重新组织数据结构)
- 数据内容计算
//例
from(bucket: "example-bucket") // ── Source
|> range(start: -1d) // ── Filter on time
|> filter(fn: (r) => r._field == "foo") // ── Filter on column values
|> group(columns: ["sensorID"]) // ── Shape
|> mean() // ── Process
flux查询语言看起来会像下面这样
from(bucket: "wxm-influx")
|> range(start: 0)
|> filter(fn:(r)=>(r.owner=="wxm"))
|> window(every: 1s)
|> mean()
其中 from
,range
,filter
等以下称作查询函数。flux查询语言允许使用|>
分割符将上一个函数的输出传递给下一个函数,类似于linux的管道
基础规定
每个查询语句必须包含数据源,时间区间和过滤器。对应关键字分别为 from
,range
,filter
。实际上不包含filter
也是可以的,可以理解为filter
过滤条件就是all
Flux 标准库(部分)
该部分列举常用flux标准库函数,根据用法可举一反三使用所有标准库函数
buckets
buckets()返回当前组中所有的桶
from
指定从那个bucket查询数据
from(bucket:"bucket名称")
range
指定时间区间,range接收两个参数,start
和stop
其中stop
可以省略,缺省值是当前时间。start
不能省略,否则会报语法错误。
start
和stop
既可以使用相对的时间区间,也可以使用绝对的时间戳。相对时间区间格式为 时间间隔h/m/s
例如 -1h
,-5m
。时间戳格式2021-01-01T00:00:00Z
#示例1
from(bucket:"bucket名称")
|> range(start: -1h)
#示例2
from(bucket:"bucket名称")
|> range(start: 2021-01-01T00:00:00Z, stop: 2021-01-01T12:00:00Z)
filter
对数据进行过滤,接收一个判断函数。类似于java中的lamda,它看起来像是下面这样
(r) => (r.recordProperty comparisonOperator comparisonExpression)
判断函数返回一个boolean类型值。只有符合条件的记录才会被返回。
#示例
from(bucket: "wxm-influx")
|> range(start: -24h)
|> filter(fn:(r)=>(r.owner=="wxm"))
#取最近24小时,含有owner标签且值为wxm的记录
当filter内含有多个条件时可用 and
或 or
连接各个条件
#示例
from(bucket: "wxm-influx")
|> range(start: -24h)
|> filter(fn:(r)=>(r.owner=="wxm" or r.key=="indoor"))
#取最近24小时,含有owner标签且值为wx或含有标签key且值为indoor的记录
contains
参数
value
需要比较的值
set
被比较的集合
判断value
是否包含在set
中。
#示例
fiels = ["wxm","ali"]
from(bucket: "wxm-influx")
|> range(start: 2022-03-12T08:14:04Z,stop:2022-03-13T08:19:05Z)
|> filter(fn:(r)=>contains(value:r.owner,set:fiels))
window
window函数根据时间将数据分组.
参数
every
:
every 指定每个时间窗口的时间,例如 every = 5 那么 时间窗口可以是 0m-5m,5m-10m,10m-15m。默认为 period 的值
period
period 明确在每个时间窗口中需要从时间窗口起始到多久的数据,例如时间窗口为10m-15m period = 3 则只取10m-13m的数据,13m-15m的数据会被抛弃。默认为 every 的值
offset
offset 指定每个时间窗口的时间偏移量,例如时间窗口为10m-15m offset = 3 那么会取 13m-15m的数据,10m-13m的数据会被抛弃,但注意当offset = every 时 offset不生效。且offset大于every 时 生效offset = offset % every
min
参数
column
求最小值的列,默认为_value
取每个分组中最小值
max
参数
column
求最大值的列,默认为_value
取每个分组最大值
mean
参数
column
求平均值的列,默认为_value
对每个分组的数据求平局值
bottom
参数
columns
按那些列进行排序
n
返回最上层 n 条数据
根据columns进行排序并返回最上层 n 条记录
count
参数
columns
按那列统计个数
统计数据个数
cumulativeSum
参数
columns
按那列进行累加
根据给定列对该列数据进行累加,模拟输出忽略 _start, _stop 等列:
原始数据:
_measurement | _field | 62 |
---|---|---|
temperature | wxm | 62 |
temperature | wxm | 65 |
temperature | wxm | 81.5 |
temperature | wxm | 81.5 |
cumulativeSum函数执行后:
_measurement | _field | 62 |
---|---|---|
temperature | wxm | 62 |
temperature | wxm | 127 |
temperature | wxm | 208.5 |
temperature | wxm | 290 |
group
参数
columns
按那些列进行分组操作 默认值为[]
mode
:
mode 可以是以下值
"by",按 columns 内指定的列进行分组
"expect",按除了columns 列中指定的列进行分组
columns
参数
column
存放列标签名的列。
返回所有列标签名并存储在指定的列中默认为_value
通过column
参数指定
derivative
参数
unit
求多长时间内的变化速率。变化速率=(下一个值-上一个值)/(下一个时间-上一个时间)* unit
默认值1s
nonNegative
变化速率是否可以是负值,如果是负数influxdb会假定前一个值为0 默认值true
columns
指定计算变化速率的列 默认值 ["_value"]
timeColumn
手动指定时间列 默认值 "_time"
difference
参数
nonNegative
是否允许差值为负数,如果是负数influxdb会假定前一个值为0 默认值false
计算相邻两行的差值(next-pre)
keepFirst
是否保留第一行,默认值为false
distinct
参数
column
指定按那列去重
按指定列去重
influxdb-client-java
官方Client仓库地址
Spring boot 集成
引入influxdb-client-java依赖
maven
com.influxdb
influxdb-client-java
4.0.0
gradle
dependencies {
compile "com.influxdb:influxdb-client-java:4.0.0"
}
集成方式一
在配置文件中指定influxdb url,token,org,bucket信息
influx:
url: http://172.21.220.141:8086
token: 58s6gl9hD8lk-AS_i6mUaYMMCGe6N1vIfVpJUo2xJ2HkWMlWx2yp7r7IKZsyF6h8vQdTPfIpGyHtbALayLgUQw==
bucket: wxm-influx
org: wxm
添加influx配置类
//InfluxConfig.java
@Configuration
@ConfigurationProperties(prefix = "influx")
public class InfluxConfig {
private String url;
private String token;
private String org;
private String bucket;
@Bean
public InfluxDBClient influxDBClient(){
return InfluxDBClientFactory.create(url, token.toCharArray(),org,bucket);
}
public void setUrl(String url) {
this.url = url;
}
public void setToken(String token) {
this.token = token;
}
public void setOrg(String org) {
this.org = org;
}
public void setBucket(String bucket) {
this.bucket = bucket;
}
}
随后便可以在其他位置注入并使用InfluxDBClient
了
集成方式二
再resource目录下创建名为influx2.properties
的配置文件并添加如下配置
influx2.url=http://172.23.64.25:8086
influx2.org=wxm
influx2.token=58s6gl9hD8lk-AS_i6mUaYMMCGe6N1vIfVpJUo2xJ2HkWMlWx2yp7r7IKZsyF6h8vQdTPfIpGyHtbALayLgUQw==
influx2.bucket=wxm-influx
添加influx配置类
@Configuration
public class InfluxConfigProperties {
@Bean
public InfluxDBClient influxDBClient() {
return InfluxDBClientFactory.create();
}
}
个人推荐使用第二种方式,influx2.properties还可用于配置默认tag
等
Write Data
- Write by Line Protocl
try(WriteApi writeApi = influxDBClient.makeWriteApi()) {
String val = "temperature,location=north wxm=69.0";
writeApi.writeRecord(WritePrecision.NS,val);
}
- Write by POJO
//Temperature.java
@Measurement(name = "temperature")
public class Temperature {
@Column(tag = true)
private String location;
@Column
private Double value;
@Column(timestamp = true)
Instant time;
getterAndSeter.....
}
try (WriteApi writeApi = influxDBClient.makeWriteApi()) {
Temperature temperature = new Temperature();
temperature.setLocation("east");
temperature.setValue(106.2D);
temperature.setTime(Instant.now());
writeApi.writeMeasurement(WritePrecision.NS,temperature);
}
- Write Data by Data Point
try (WriteApi writeApi = influxDBClient.makeWriteApi()) {
Point point = Point.measurement("temperature")
.addTag("location","south")
.addTag("owner","wxm")
.addField("wxm",230.8);
writeApi.writePoint(point);
}
写数据时为所有数据指定默认标签
指定默认标签有两种方式,通过配置文件和通过编码配置
- 通过配置文件
在influx2.properties中指定默认标签及标签值
# 自定义默认标签
influx2.tags.customer=ALMING
- 通过编码配置
首先编写配置
private InfluxDBClientOptions influxDBClientOptions() {
return InfluxDBClientOptions.builder()
.url("http://172.23.64.25:8086")
.org("wxm")
.bucket("wxm-influx")
.authenticateToken("58s6gl9hD8lk-AS_i6mUaYMMCGe6N1vIfVpJUo2xJ2HkWMlWx2yp7r7IKZsyF6h8vQdTPfIpGyHtbALayLgUQw==".toCharArray())
.addDefaultTag("id", "wxm-id")
.build();
}
随后在创建客户端时指定配置
@Bean
public InfluxDBClient influxDBClient() {
return InfluxDBClientFactory.create(influxDBClientOptions());
}
需要注意的是使用编码配置会覆盖默认从配置文件读取的InfluxDBClientOptions
,所以使用编码方式指定配置文件会失效
- 同步阻塞写入
以上写入都是异步写入,influxdb同时支持同步阻塞写入。使用如下方式获取阻塞写入API
WriteApiBlocking writeApiBlocking = influxDBClient.getWriteApiBlocking();
Query Data
- 查询返回
FluxTable
String flux = "from(bucket: \"wxm-influx\")\n" +
" |> range(start: 2022-03-12T08:18:04Z,stop:2022-03-13T08:19:05Z)\n" +
" |> filter(fn:(r)=>(r.owner==\"wxm\"))";
List tables = influxDBClient.getQueryApi().query(flux);
for (FluxTable fluxTable : tables) {
List records = fluxTable.getRecords();
for (FluxRecord fluxRecord : records) {
System.out.println(fluxRecord.getTime() + ": " + fluxRecord.getValueByKey("_value"));
}
}
- 查询结果影射成为POJO
String flux = "from(bucket: \"wxm-influx\")\n" +
" |> range(start: 2022-03-12T08:18:04Z,stop:2022-03-13T08:19:05Z)\n" +
" |> filter(fn:(r)=>(r.owner==\"wxm\"))";
List query = influxDBClient.getQueryApi().query(flux, Temperature.class);
query.forEach(System.out::println);
- 异步查询
String flux = "from(bucket: \"wxm-influx\")\n" +
" |> range(start: 2022-03-12T08:18:04Z,stop:2022-03-13T08:19:05Z)\n" +
" |> filter(fn:(r)=>(r.owner==\"wxm\"))";
influxDBClient.getQueryApi().query(flux,
(cancellable, fluxRecord) -> {
System.out.println(fluxRecord.getTime() + ": " + fluxRecord.getValueByKey("_value"));
},
throwable -> {
//invoke when exception
System.out.println("Error");
},
() -> {
//complete
System.out.println("complete");
});
System.out.println("Query invoke done");
TimeUnit.SECONDS.sleep(3);
/**
* 输出结果:
* Query invoke done
* 2022-03-12T08:18:16.543834Z: 62.0
* 2022-03-12T08:19:44.833253500Z: 65.0
* 2022-03-12T09:25:43.388488100Z: 81.5
* complete
*/
- 异步查询并映射成为POJO
String flux = "from(bucket: \"wxm-influx\")\n" +
" |> range(start: 2022-03-12T08:18:04Z,stop:2022-03-13T08:19:05Z)\n" +
" |> filter(fn:(r)=>(r.owner==\"wxm\"))";
influxDBClient.getQueryApi().query(flux,Temperature.class,
(cancellable, fluxRecord) -> {
System.out.println(fluxRecord);
},
throwable -> {
//invoke when exception
System.out.println("Error");
},
() -> {
//complete
System.out.println("complete");
});
System.out.println("Query invoke done");
TimeUnit.SECONDS.sleep(3);
/**
* 输出结果:
* Query invoke done
* Temperature(location=north, value=62.0, time=2022-03-12T08:18:16.543834Z)
* Temperature(location=north, value=65.0, time=2022-03-12T08:19:44.833253500Z)
* Temperature(location=north, value=81.5, time=2022-03-12T09:25:43.388488100Z)
* complete
*/
- 查询并返回源CSV格式数据
返回一个字符串,其内容是以逗号为分隔的CSV格式。使用Postman进行测试时返回就是该格式。
String flux = "from(bucket: \"wxm-influx\")\n" +
" |> range(start: 2022-03-12T08:18:04Z,stop:2022-03-13T08:19:05Z)\n" +
" |> filter(fn:(r)=>(r.owner==\"wxm\"))";
String raw = influxDBClient.getQueryApi().queryRaw(flux);
System.out.println(raw);
- 源数据异步查询
String flux = "from(bucket: \"wxm-influx\")\n" +
" |> range(start: 2022-03-12T08:18:04Z,stop:2022-03-13T08:19:05Z)\n" +
" |> filter(fn:(r)=>(r.owner==\"wxm\"))";
influxDBClient.getQueryApi().queryRaw(flux,
(cancellable, fluxRecord) -> {
System.out.println(fluxRecord);
},
throwable -> {
//invoke when exception
System.out.println("Error");
},
() -> {
//complete
System.out.println("complete");
});
System.out.println("Query invoke done");
TimeUnit.SECONDS.sleep(3);
/**
* 输出结果:
* Query invoke done
* ,result,table,_start,_stop,_time,_value,_field,_measurement,location,owner
* ,_result,0,2022-03-12T08:18:04Z,2022-03-13T08:19:05Z,2022-03-12T08:18:16.543834Z,62,wxm,temperature,north,wxm
* ,_result,0,2022-03-12T08:18:04Z,2022-03-13T08:19:05Z,2022-03-12T08:19:44.8332535Z,65,wxm,temperature,north,wxm
* ,_result,0,2022-03-12T08:18:04Z,2022-03-13T08:19:05Z,2022-03-12T09:25:43.3884881Z,81.5,wxm,temperature,north,wxm
*
* complete
*/
Delete Data
OffsetDateTime start = OffsetDateTime.now().minus(24, ChronoUnit.HOURS);
OffsetDateTime stop = OffsetDateTime.now();
influxDBClient.getDeleteApi().delete(start,stop,"","wxm-influx","wxm");
flux-dsl
官方文档中有一章节是描写如何使用flux-dsl来构建flux语句,但在使用过程中发现官方使用的Flux类在当前情况下并不能被引入,实际influxdb-client-java
这个依赖也确实不包含Flux。所以需要手动构建 flux-dsl module 并在项目中引用。
flux-dsl 模块构建
- clone 官方仓库地址,并在idea中引入。
- 进入命令行在项目根目录执行
mvn install
如果时windows系统该指令会失败但不用担心,flux-dsl模块需要的module已经构建成功。 然后cd
到flux-dsl目录下执行mvn clean install
-
成功执行后在本台电脑上其他项目中以如下GAV引入maven依赖。
图片截取自flux-dsl
模块pom.xml,版本号(V)根据下载的项目版本进行填写
在其他项目中引用如下
com.influxdb
flux-dsl
3.5.0-SNAPSHOT
gradle用户需先在repositories
下添加 mavenLocal()
然后在依赖中引入如下
repositories {
...
mavenLocal()
}
dependencies {
...
implementation 'com.influxdb:flux-dsl:4.3.0-SNAPSHOT'
}
flux-dsl 使用
- 使用内建函数
Flux flux = Flux
.from("wxm-influx")
.window(15L, ChronoUnit.MINUTES, 20L, ChronoUnit.SECONDS)
.sum();
/**
* from(bucket:"wxm-influx")
* |> window(every:15m, period:20s)
* |> sum()
*/
- 使用内建函数属性
SumFlux flux = Flux.from("wxm-influx")
.window()
.withEvery(15L, ChronoUnit.MINUTES)
.withPeriod(20L, ChronoUnit.SECONDS)
.sum();
/**
* from(bucket:"wxm-influx")
* |> window(every:15m, period:20s)
* |> sum()
*/
- 手动声明属性名称
SumFlux flux = Flux.from("wxm-influx")
.window()
.withPropertyValue("every", 15L, ChronoUnit.MINUTES)
.withPropertyValue("period", 20L, ChronoUnit.SECONDS)
.sum();
/**
* from(bucket:"wxm-influx")
* |> window(every:15m, period:20s)
* |> sum()
*/
- 声明一个可重用的属性集合
Map properties = new HashMap<>();
properties.put("every", new TimeInterval(15L, ChronoUnit.MINUTES));
properties.put("period", new TimeInterval(20L, ChronoUnit.SECONDS));
Flux flux = Flux
.from("telegraf")
.window()
.withPropertyNamed("every")
.withPropertyNamed("period")
.sum();
//使用时指定使用的属性集
System.out.println(flux.toString(properties));
/**
* from(bucket:"telegraf")
* |> window(every:15m, period:20s)
* |> sum()
*/
- 自定义表达式
Flux flux = Flux.from("wxm-influx")
.expression("filter(fn:(r)=>(r.owner==\"wxm\"))")
.expression("sum()");
/**
* from(bucket:"wxm-influx")
* |> filter(fn:(r)=>(r.owner=="wxm"))
* |> sum()
*/
其余函数都比较类似,详见flux-dsl README
influxdb task
influxdb支持创建任务,可选周期执行或以cron表达式定义的时间执行。执行任务的内容为自定义的一段flux脚本。
通过UI创建一个简单任务
选择Task选项卡 > create task > 定义task执行规则,编写task脚本。
influxdb alerts
alerts中有三个核心概念 Checks,Notification Endpoint 和 Notification Rules。
Checks 负责检测报警并将检测结果分级。
Notification Endpoint 负责定义通知切点,即报警通知会发送到哪里
Notification Rules 负责绑定 Checks 和 Notification Endpoint
Checks
Checks 分为两种,一种是threshold Checks 一种是deadman Checks,Checks会周期执行一段指定查询脚本,并查看结果是否匹配其Checks规则,一旦匹配就会生成一条Checks记录。
threshold checks
threshold alert 为某个点指定阈值和比较规则(大于小于等),判断查询结果是否符合阈值表达式
deadman alert
deadman alert 在测试时并没有符合预期,按照官方的介绍应该时当某一个点在规定时间内没有上报数据就会报警。测试时未得到预期结果
Notification Endpoint
定义 Notification Endpoint
Notification Ruls
定义 Notification Ruls
定义绑定 Checks 和 Notification Endpoint 后当Check产生相应等级的报警后等待Notification Rules检测周期到即可将预先定义好的报警信息推送到通知节点
Postman Influx http api 调用
鉴权设置
进入Postman Collections 或单个请求的 Authorization 功能选项。
- Type 选择API Key
- Key 填入 Authorization
- Value 填入 Token YOUR_TOKEN
- Add to 选择Header
例:
随后在访问influxdb的各项http API
Query API
鉴权后调用 /api/query
可使用查询语句进行查询。
如何使用
将
org
或orgID
通过url传参的形式添加到参数中添加或修改Accept请求头为
appliction/csv
(Postman中不需要添加)添加或修改Content-Type请求头为
application/vnd.flux
将查询语句放在请求体中
Write API
- 将
org
,bucket
通过url传参形式添加到参数中 - 添加或修改Accept请求头为
appliction/json
(实测该接口不反回数据,可选填) - 添加或修改Content-Type请求头为
text/plain
- 将Line Protocol的数据添加到请求体中
数据备份与恢复
备份
influxdb 使用 influx 命令进行数据和元数据的备份。1.x 和 2.x备份数据不兼容。以下为2.x的备份方法
influx backup -t
# 例:
influx backup ./back -t 58s6gl9hD8lk-AS_i6mUaYMMCGe6N1vIfVpJUo2xJ2HkWMlWx2yp7r7IKZsyF6h8vQdTPfIpGyHtbALayLgUQw==
token 可以在管理界面Tokens处找到
恢复
influx 使用influx命令进行数据恢复
influx restore
#例:
influx restore ./back
恢复指定 bucket
influx restore --bucket exmple-bucket
如果恢复的 bucket 名称已经在现有数据库中存在 则使用--new-bucket 为恢复的数据库指定一个新名称并将数据恢复到新名称的bucket中
关于无法启动UI管理界面的问题
问题描述
这个不一定每个人都能遇到。笔者的电脑现在无法启动UI界面,但在虚拟机中是可以启动的。推测是我在第一次启动时在配置文件中手动指定了静态资源位置,而此时该位置是一个无效路径。
解决办法
UI界面在初始化过程中报错可自己下载UI项目手动构建后,由influx配置文件指定静态资源路径解决。
UI项目Github地址(网页地址不要直接clone!!!)
git clone https://github.com/influxdata/ui.git
yarn build
需要注意的是无论是build还是 start指令都要在linux或mac os 上进行,因为构建和启动指令包含对 export
指令的调用 windows使用set
无法兼容。期间可能会有网络问题,可以根据报错手动下在所需文件放在根目录下即可。
构建完成后在influxd启动目录创建 config.yml 文件并键入以下内容
assets-path: 构建结果路径
influxdb默认会读取启动目录下的config.yml文件,启动后前端访问的就是自构建的UI了
其他
更多API信息详见influxdb官方文档
其他语言客户端库
- C#
- Golang
- JavaScript Browser
- JavaScript Node.js
- Python