kettle 转换控件翻译

转载:http://hi.baidu.com/zpf912/blog/item/4f69ca83a29e2b9bf703a64e.html

官网:http://wiki.pentaho.com/display/EAI/Pentaho+Data+Integration+Steps

1.Transform=转换
Dummy Plugin=空操作
=这是一个空的测试步骤


2.Input=导入数据
ESRI Shapefile Reader=读取矢量数据
=从SHP文件中读取图形数据和属性数据

S3 CSV Input=CSV文件输入
=将读取的CSV文件数据并行存储到Amazon中


3.输入
Access Input=导入数据库文件
=从微软数据库文件中读取数据

CSV file input=导入CSV文件
=导入简单的CSV文件

Cube 输入=导入Cube文件
=从一个cube文件中读取数据

Excel 输入=导入Excel文件
=从微软的Excel文件中读取数据,兼容Excel 95,97,2000

Fixed file input=导入文本文件
=导入文本文件

Generate random value=生成随机数
=随机数生成器

Get file Names=获得文件名称
=从系统中获得文件并将其发送到下一步

Get files Rows Count=获取文件行数
=获取文件行数

Get SubFolder names=获取子文件夹名称
=读取一个主文件夹获取所有的子文件

Get data from XML=从xml文件中获取数据
=使用XPath路径读取xml文件,这个步骤也允许你解析以前字段定义的xml文件

LDAP Input=使用LDAP协议读取远程数据
=利用LDAP协议连接远程主机读取数据

LDIF Input=导入LDIF文件
=从LDIF文件中读取数据

Mondrian Input=导入MDX文件
=用MDX查询语句执行和审核数据,分析LDAP服务器

Property Input=导入属性文件
=从属性文件中读入键值对

RSS Input=导入RSS订阅
=读取RSS订阅信息

SalesForce Input=导入salesforce服务
=读取slaseforce模块服务,并将其转换成数据,并把这些数据写入多个输出流

XBase输入=导入DBF文件
=从一个XBase类型的DBF文件中读取记录


4.输出
Access Output=导出数据
=将记录存储到微软的数据库表中

Cube输出=导出Cube文件
=将数据写入Cube文件中

Excel Output=导出Excel文件
=存储记录到Excel格式化文档中

Properties Output=导出属性信息
=将数据写入属性文件

RSS Output=导出RSS订阅信息
=读RSS订阅信息流

SQL File Output=导出SQL文件
=SQL INSERT语句输出到文件

Synchronize after merge=合并后同步信息
=根据某个字段值的条件插入,删除,更新数据库表


5.转换
Add XML=添加xml文件内容
=将几个字段编码写入xml文件

Add a checksum=添加checksum列
=为每个输入行添加checksum列(校验和)

Closure Generator=结束操作
=允许利用ID的父子关系生成一个结束表


Number range=编码范围
=创建数字字段的范围

Replace in string=替换字符串
=用另一个单词替换当前的所以得字符串

Row Normaliser=行转换(数据恢复)
=从透视表中还原数据到事实表(通过指定维度字段及其分类值,度量字段,最终还原出事实表数据)

Split field to rows=拆分字段
=按指定分隔符拆分字段

Strings cut=裁剪字符串
=裁剪字符串生成子串

Unique rows (HashSet)=除去重复行
=去掉输入流中的重复行(在使用该节点前要先排序,否则只能删除连续的重复行。)

XSL Transformation=XSL转换
=实现XML到XSL的转换

值映射=值映射
=实现对特定字段总一个值到另一值得映射

行扁平化=行扁平化
=将输入流出现的结果字段进行扁平化处理(指定需处理的字段和扃平化后的新字段,将其它字段做为组合Key进行扃平化处理)

行转列=行转列
=通过检索键值对拆分行,分配他们到新的字段中。(同Normaliser过程相反,)

5.utility(应用)
Clone row=复制行
=根据需要可以多次复制行

Delay row=延迟行
=对输入字段延迟一定时间后输出

Execute a process=执行一个进程
=执行一个进程然后返回一个结果

If field value is null=如果字段为空
=如果字段为空,为它设置一个常数

Mail=邮递
=发送一个邮件

Metadata structure of stream=数据流结构
=读取传入数据流

Null if...=设置空字符
=如果某个字符值为指定的值,就将它设置为null

Process files=文件操作
=通过输入文件名,对文件进行删除,拷贝,转移操作

Write to log=写日志
=向日志文件中写入数据


6. Flow()
Abort=中止
=中止一个转变

Append streams=追加流
=追加一个有序流

Blocking Step=阻塞
=阻塞到所有的输入行都执行完

Detect empty stream=空输入流检测
=如果输入流里没有字段将会输出空字段

Identify last row in a stream=区分最后的一个输入流
=对最后一个输入流进行标识

Switch / Case=判断
=根据判断条件,转到特定的路径


7. 脚本
Execute row SQL script=执行sql脚本语言
=对前一步创建的字段执行SQL

Modified Java Script Value=建设JavaScript表达式
=建设JavaScript表达式更好的性能和更容易表达的用户界面,也允许您创建多个脚本

Regex Evaluation=正则表达式验证
=允许你输入一个字段用正则表达式就行验证

User Defined Java Expression=用户定义java表达式
=利用Janino优化java性能


8. 查询
Check if a column exists=检索列
=此步骤可以验证数据库表中的一个特定的列是否存在

Dynamic SQL row=动态SQL语句
=以前的字段执行动态SQL语句

File exists=文件存在
=检索文件是否存在

HTTP Post=HTTP 请求
=使用URL请求一个web Service服务

HTTP client=HTTP 客户端
=HTTP客户端执行一个简单的调用

Table exists=表存在
=验证某一个表在数据库中是否存在


9. 连接
Merge Join=合并连接
=执行一个典型的数据集之间的合并

Sorted Merge=排序合并
=用给定的关键字段对多个输入流进行排序

XML Join=添加XML标签
=向目标XML字段中添加一个XML标签

11. Validation(验证)
Credit card validator=信用卡验证
=1.帮助你验证一个信用卡号是有效的,2.判断信用卡类别

Data Validator=数据验证
=根据设置规则对数据进行验证

Mail Validator=邮件验证
=验证邮件地址是否有效

XSD Validator=xml文件验证
=根据XML模式定义验证XML文件


12. statistics(统计)
Analytic Query=分析查询
=执行分析查询有序集

Reservoir Sampling=数据仓库抽样
=从输入流中抽取复制的数据行

Sample rows=抽样记录
=根据设置数目过滤记录

Univariate Statistics=变量分析
=对一个输入字段进行一些简单的计算

13. 作业
Get Variables=获得变量
=找到指定的变量,将他们放到有用的字段中

Get files from result=从以前的结果中获得文件
=这个步骤允许你读取先前的文件,或者上一个job工程的入口

Set Variables=设置环境变量
=根据输入行设置环境变量

Set files in result=复制文件名到结果
=设置文件名到转换结果,以后的job工程入口可以运用这个信息

15.内联
Injector=记录注册器
=通过API端口注册行记录到转换过程

Socket reader=套接字读取器
=用在集群环境下实现服务器之间的数据传输

Socket writer=写套接字
=用在集群环境,利用TCP/IP协议实现服务器之间数据传输


16. 实验
GZIP CSV Input=导入压缩文件
=导入压缩文件到输入流读取器

Greenplum Bulk Loader=Greenplum批量加载
=加载

MySQL Bulk Loader=MySQL批量加载
=利用已知通道进行文件加载

PostgreSQL Bulk Loader=PostgreSQL批量加载
=PostgreSQL批量加载

Set field value=设置字段值
=和其他字段共同设置字段值

Set field value to a constant=设置常数字段
=为一个字段设置常数


17.不推荐
Get previous row fields=获得先前的字段
=获得先前字段的值

Streaming XML Input=导入XML文件流
=基于SAX分析器,对XML文件提供价值分析


18. Bulk Loading(批量加载)
Infobright Loader=数据仓库加载器
=加载数据到数据仓库表中

LucidDB Bulk Loader=批量加载LucidDB数据库
=使用流模式加载数据到LucidDB数据库

MonetDB Bulk Loader=批量加载MonetDB数据库
=使用流模式加载数据到MonetDB数据库

Oracle Bulk Loader=批量加载数据到Oracle数据库
=使用流模式加载数据到Oracle数据库

19. History(history)

Modified Java Script Value=更新java脚本
=为了实现更好的性能和更好的用户界面,对java脚本进行修改更新


你可能感兴趣的:(数据库,xml,Excel,PostgreSQL,input,csv)