转载:http://hi.baidu.com/zpf912/blog/item/4f69ca83a29e2b9bf703a64e.html
官网:http://wiki.pentaho.com/display/EAI/Pentaho+Data+Integration+Steps
1.Transform=转换
Dummy Plugin=空操作
=这是一个空的测试步骤
2.Input=导入数据
ESRI Shapefile Reader=读取矢量数据
=从SHP文件中读取图形数据和属性数据
S3 CSV Input=CSV文件输入
=将读取的CSV文件数据并行存储到Amazon中
3.输入
Access Input=导入数据库文件
=从微软数据库文件中读取数据
CSV file input=导入CSV文件
=导入简单的CSV文件
Cube 输入=导入Cube文件
=从一个cube文件中读取数据
Excel 输入=导入Excel文件
=从微软的Excel文件中读取数据,兼容Excel 95,97,2000
Fixed file input=导入文本文件
=导入文本文件
Generate random value=生成随机数
=随机数生成器
Get file Names=获得文件名称
=从系统中获得文件并将其发送到下一步
Get files Rows Count=获取文件行数
=获取文件行数
Get SubFolder names=获取子文件夹名称
=读取一个主文件夹获取所有的子文件
Get data from XML=从xml文件中获取数据
=使用XPath路径读取xml文件,这个步骤也允许你解析以前字段定义的xml文件
LDAP Input=使用LDAP协议读取远程数据
=利用LDAP协议连接远程主机读取数据
LDIF Input=导入LDIF文件
=从LDIF文件中读取数据
Mondrian Input=导入MDX文件
=用MDX查询语句执行和审核数据,分析LDAP服务器
Property Input=导入属性文件
=从属性文件中读入键值对
RSS Input=导入RSS订阅
=读取RSS订阅信息
SalesForce Input=导入salesforce服务
=读取slaseforce模块服务,并将其转换成数据,并把这些数据写入多个输出流
XBase输入=导入DBF文件
=从一个XBase类型的DBF文件中读取记录
4.输出
Access Output=导出数据
=将记录存储到微软的数据库表中
Cube输出=导出Cube文件
=将数据写入Cube文件中
Excel Output=导出Excel文件
=存储记录到Excel格式化文档中
Properties Output=导出属性信息
=将数据写入属性文件
RSS Output=导出RSS订阅信息
=读RSS订阅信息流
SQL File Output=导出SQL文件
=SQL INSERT语句输出到文件
Synchronize after merge=合并后同步信息
=根据某个字段值的条件插入,删除,更新数据库表
5.转换
Add XML=添加xml文件内容
=将几个字段编码写入xml文件
Add a checksum=添加checksum列
=为每个输入行添加checksum列(校验和)
Closure Generator=结束操作
=允许利用ID的父子关系生成一个结束表
Number range=编码范围
=创建数字字段的范围
Replace in string=替换字符串
=用另一个单词替换当前的所以得字符串
Row Normaliser=行转换(数据恢复)
=从透视表中还原数据到事实表(通过指定维度字段及其分类值,度量字段,最终还原出事实表数据)
Split field to rows=拆分字段
=按指定分隔符拆分字段
Strings cut=裁剪字符串
=裁剪字符串生成子串
Unique rows (HashSet)=除去重复行
=去掉输入流中的重复行(在使用该节点前要先排序,否则只能删除连续的重复行。)
XSL Transformation=XSL转换
=实现XML到XSL的转换
值映射=值映射
=实现对特定字段总一个值到另一值得映射
行扁平化=行扁平化
=将输入流出现的结果字段进行扁平化处理(指定需处理的字段和扃平化后的新字段,将其它字段做为组合Key进行扃平化处理)
行转列=行转列
=通过检索键值对拆分行,分配他们到新的字段中。(同Normaliser过程相反,)
5.utility(应用)
Clone row=复制行
=根据需要可以多次复制行
Delay row=延迟行
=对输入字段延迟一定时间后输出
Execute a process=执行一个进程
=执行一个进程然后返回一个结果
If field value is null=如果字段为空
=如果字段为空,为它设置一个常数
Mail=邮递
=发送一个邮件
Metadata structure of stream=数据流结构
=读取传入数据流
Null if...=设置空字符
=如果某个字符值为指定的值,就将它设置为null
Process files=文件操作
=通过输入文件名,对文件进行删除,拷贝,转移操作
Write to log=写日志
=向日志文件中写入数据
6. Flow()
Abort=中止
=中止一个转变
Append streams=追加流
=追加一个有序流
Blocking Step=阻塞
=阻塞到所有的输入行都执行完
Detect empty stream=空输入流检测
=如果输入流里没有字段将会输出空字段
Identify last row in a stream=区分最后的一个输入流
=对最后一个输入流进行标识
Switch / Case=判断
=根据判断条件,转到特定的路径
7. 脚本
Execute row SQL script=执行sql脚本语言
=对前一步创建的字段执行SQL
Modified Java Script Value=建设JavaScript表达式
=建设JavaScript表达式更好的性能和更容易表达的用户界面,也允许您创建多个脚本
Regex Evaluation=正则表达式验证
=允许你输入一个字段用正则表达式就行验证
User Defined Java Expression=用户定义java表达式
=利用Janino优化java性能
8. 查询
Check if a column exists=检索列
=此步骤可以验证数据库表中的一个特定的列是否存在
Dynamic SQL row=动态SQL语句
=以前的字段执行动态SQL语句
File exists=文件存在
=检索文件是否存在
HTTP Post=HTTP 请求
=使用URL请求一个web Service服务
HTTP client=HTTP 客户端
=HTTP客户端执行一个简单的调用
Table exists=表存在
=验证某一个表在数据库中是否存在
9. 连接
Merge Join=合并连接
=执行一个典型的数据集之间的合并
Sorted Merge=排序合并
=用给定的关键字段对多个输入流进行排序
XML Join=添加XML标签
=向目标XML字段中添加一个XML标签
11. Validation(验证)
Credit card validator=信用卡验证
=1.帮助你验证一个信用卡号是有效的,2.判断信用卡类别
Data Validator=数据验证
=根据设置规则对数据进行验证
Mail Validator=邮件验证
=验证邮件地址是否有效
XSD Validator=xml文件验证
=根据XML模式定义验证XML文件
12. statistics(统计)
Analytic Query=分析查询
=执行分析查询有序集
Reservoir Sampling=数据仓库抽样
=从输入流中抽取复制的数据行
Sample rows=抽样记录
=根据设置数目过滤记录
Univariate Statistics=变量分析
=对一个输入字段进行一些简单的计算
13. 作业
Get Variables=获得变量
=找到指定的变量,将他们放到有用的字段中
Get files from result=从以前的结果中获得文件
=这个步骤允许你读取先前的文件,或者上一个job工程的入口
Set Variables=设置环境变量
=根据输入行设置环境变量
Set files in result=复制文件名到结果
=设置文件名到转换结果,以后的job工程入口可以运用这个信息
15.内联
Injector=记录注册器
=通过API端口注册行记录到转换过程
Socket reader=套接字读取器
=用在集群环境下实现服务器之间的数据传输
Socket writer=写套接字
=用在集群环境,利用TCP/IP协议实现服务器之间数据传输
16. 实验
GZIP CSV Input=导入压缩文件
=导入压缩文件到输入流读取器
Greenplum Bulk Loader=Greenplum批量加载
=加载
MySQL Bulk Loader=MySQL批量加载
=利用已知通道进行文件加载
PostgreSQL Bulk Loader=PostgreSQL批量加载
=PostgreSQL批量加载
Set field value=设置字段值
=和其他字段共同设置字段值
Set field value to a constant=设置常数字段
=为一个字段设置常数
17.不推荐
Get previous row fields=获得先前的字段
=获得先前字段的值
Streaming XML Input=导入XML文件流
=基于SAX分析器,对XML文件提供价值分析
18. Bulk Loading(批量加载)
Infobright Loader=数据仓库加载器
=加载数据到数据仓库表中
LucidDB Bulk Loader=批量加载LucidDB数据库
=使用流模式加载数据到LucidDB数据库
MonetDB Bulk Loader=批量加载MonetDB数据库
=使用流模式加载数据到MonetDB数据库
Oracle Bulk Loader=批量加载数据到Oracle数据库
=使用流模式加载数据到Oracle数据库
19. History(history)
Modified Java Script Value=更新java脚本
=为了实现更好的性能和更好的用户界面,对java脚本进行修改更新