- 《Hadoop系列》Docker安装Hadoop
DATA数据猿
HadoopDockerdockerhadoop
文章目录Docker安装Hadoop1安装docker1.1添加docker到yum源1.2安装docker2安装Hadoop2.1使用docker自带的hadoop安装2.2免密操作2.2.1master节点2.2.2slave1节点2.2.3slave2节点2.2.4将三个容器中的authorized_keys拷贝到本地合并2.2.5将本地authorized_keys文件分别拷贝到3个容器中
- 【笔记】HDFS基础笔记
哇咔咔哇咔
Hadoophdfs笔记hadoop大数据ubuntu
启动hadoop命令(未配环境变量):进入hadoop安装目录输入./sbin/start-dfs.sh已配环境变量:start-dfs.sh关闭hadoop命令:stop-dfs.sh启动完成后,可以通过命令jps来判断是否成功启动,若成功启动则会列出如下进程:"NameNode"、"DataNode"和"SecondaryNameNode"三种Shell命令方式:1.hadoopfs2.had
- macos安装local模式spark
SparklingTheo
大数据-linuxmacosspark大数据
文章目录配置说明安装hadoop安装Spark测试安装成功配置说明Scala-3.18+Spark-3.5.0Hadoop-3.3.6安装hadoop从这里下载相应版本的hadoop下载后解压,配置系统环境变量>sudovim/etc/profile添加以下两行exportHADOOP_HOME=/Users/collinsliu/hadoop-3.3.6/exportPATH=$PATH:$HA
- Hadoop搭建(完全分布式)
莫噶
搭建分布式hadoop大数据
节点分布:bigdata-masterbigdata-slave1bigdata-salve2NameNodeNodeManagerNodeManagerSecondaryNameNodeDataNodeDataNodeResourceManagerNodeManagerDataNode目录一、jdk安装:二、hadoop安装一、jdk安装:jdk-8u212链接:https://pan.baid
- 现成Hadoop安装和配置,图文手把手交你
叫我小唐就好了
一些好玩的事hadoop大数据分布式课程设计运维
为了可以更加快速的可以使用Hadoop,便写了这篇文章,想尝试自己配置一下的可以参考从零开始配置Hadoop,图文手把手教你,定位错误资源1.两台已经配置好的hadoop2.xshell+Vmware链接:https://pan.baidu.com/s/1oX35G8CVCOzVqmtjdwrfzQ?pwd=3biz提取码:3biz--来自百度网盘超级会员V4的分享两台虚拟机用户名和密码均为roo
- CentOS7搭建Hadoop集群
在下区区俗物
Hadoop集群安装部署hadoopeclipsejava
准备工作1、准备三台虚拟机,参考:CentOS7集群环境搭建(3台)-CSDN博客2、配置虚拟机之间免密登录,参考:CentOS7集群配置免密登录-CSDN博客3、虚拟机分别安装jdk,参考:CentOS7集群安装JDK1.8-CSDN博客4、下载Hadoop安装包,下载地址:链接:https://pan.baidu.com/s/1f1DmqNNFBvBDKi5beYl3Jg?pwd=6666搭建
- linux安装hadoop详细步骤(伪分布式)
红烧柯基
linuxhadooplinux
今天重装了下hadoop,特在此记录下!一.准备好hdk和hadoop安装文件,上传到linux二.安装jdk,我之前博客有专门写过安装jdk步骤,这里就不重复了,有需要的小伙伴可以去翻翻之前的三.安装hadoop1.解压hadooptar-zxvfhadoop文件2.修改配置文件/usr/wangjian/software/hadoop/hadoop-2.10.0/etc/hadoop第一个:h
- Hadoop环境搭建
业里村牛欢喜
hadoop大数据hdfs
目录一、简介1.1、概念1.2、优势1.3、Hadoop组成部分二、Hadoop运行环境搭建2.1安装VM(虚拟机管理环境)2.2VM网络设置2.3安装CentOS7系统2.4master主机进行网络配置2.5同步时间2.6Xshell6的安装与使用2.7关闭防火墙2.8设置主机名2.9hosts设置2.10安装JDK2.11Hadoop安装与环境配置启动关闭Hadoop一、简介1.1、概念Had
- 解决There are 0 datanode(s) running and no node(s) are excluded in this operation.
有一束阳光叫温暖
出现上述问题可能是格式化两次hadoop,导致没有datanode解决方法1:重启linux,再使用start-dfs.sh和start-yarn.sh重启一下hadoop解决办法2:找到hadoop安装目录下hadoop-2.4.1/data/dfs/data里面的current文件夹删除然后从新执行一下hadoopnamenode-format再使用start-dfs.sh和start-yar
- IDEA中Hadoop的环境配置
hhhhhhhhhhhnb
intellij-ideajavaintellijideahadooplinux
没有配置HadoopHome:在Windows下解压一份Hadoop安装包Hadoop使用log4j进行日志输出,明显没有配置log4j再次运行,显示了作业的运行情况
- WARNING: HADOOP_SECURE_DN_USER has been replaced by HDFS_DATANODE_SECURE_USER. Using value of HADOOP
W_yhhh
hadoophdfs大数据
Hadoop启动时报错WARNING:HADOOP_SECURE_DN_USERhasbeenreplacedbyHDFS_DATANODE_SECURE_USER.UsingvalueofHADOOP_SECURE_DN_USER.原因是Hadoop安装配置于root用户下,对文件需要进一步的配置,应该是由于新版Hadoop这个配置的参数更新了,所以出现了警告。只需将参数更新即可。需要更新的文件
- 大数据[1] -- 安装hadoop
天下一般
环境的配置与软件的使用操作系统大数据linux
文章目录Hadoop安装以及配置一、安装1.安装SSH,设置SSH无密码登录2.安装jdk3.安装Hadoop二、配置三、其他配置四、出现的问题五参考文章Hadoop安装以及配置一、安装1.安装SSH,设置SSH无密码登录ssh可以让访问其他Linux虚拟机而不用输入密码,可以为集群做准备在被访问主机上生成公钥ssh-keygen-trsa-P''-f~/.ssh/id_rsa在访问主机上获取公钥
- Hadoop搭建集群中输入hdfs namenode -format格式化节点时,提示:hdfs command not found 解决办法
drhrht
javajava后端
分析原因:hadoop的安装路径没有加入到当前路径中解决办法:方法1:进入hadoop的安装目录,在执行hadoop命令时在前面加上:./bin./sbin方法2:进入/etc/profile文件中添加hadoop的安装路径sudovim/etc/profile添加:exportHADOOP_HOME=本机的hadoop安装路径exportPATH=$HADOOP_HOME/bin:$HADOOP
- Hadoop中hdfs-default.xml的位置
BugEveryday
Hadoophadoop
在hadoop安装包中hadoop-2.7.2\share\hadoop\hdfs\hadoop-hdfs-2.7.jar里面
- 搭建vmware虚拟化平台的基础配置,以及Hadoop平台的搭建
rootwiki
云计算与大数据技术学习专栏hadoopbigdata大数据
需要准备的东西:vmwareworkstationscentos.isohadoop3.3.0mobaxterm/xshell/pietty/winscpjdk的tar包第一步:安装centos操作系统第二步:克隆虚拟机(也可以在hadoop安装后再克隆)我们这里需要选择完整克隆然后稍作等待,在列表中会刷新虚拟计算机第三步:配置虚拟网络3.1预备知识网络模式简介:VMWare提供了3种工作模式,它
- hadoop安装遇到的一些障碍
GetIdea
一.start-dfs.sh(开启不成功)原因:1.dadoop文件所属者与执行时登陆者不一致(权限不足)报错:WARNING:HADOOP_SECURE_DN_USERhasbeenreplacedbyHDFS_DATANODE_SECURE_USER.UsingvalueofHADOOP_SECURE_DN_USER.Startingnamenodeson[centos7]centos7:Pe
- 基于CentOS7 Hadoop-2.7.2伪分布式部署
程序员小H
1、基本环境Linux版本:CentOS7.0JDK版本:jdk-7u79-linux-x64.tar.gzHadoop版本:hadoop-2.7.2.tar.gzjdk以及Hadoop安装在/usr目录下2、安装JDK注意:若CentOS7已安装OpenJDK,可以使用以下命令进行卸载。2.1查看系统中的jdk#rpm-qa|grepjdk(查看目前系统中jdk版本)file2.2卸载#yum-
- 部署Hadoop集群
%HelloWorld%
java开发语言
在node1节点执行,以root身份1:在VMware虚拟机集群上部署HDFS集群1)准备好hadoop安装包;目前最新3.3.4;了解:2)上传解压hadoop①:上传hadoop到node1节点;②:解压安装包到/export/server(自己定的文件夹)中:tar-zxvfhadoop-3.3.4.tar.gz-C/export/server③:构建软连接也可改名(修改文件名用mv)cd/
- Hadoop安装配置HBase
m0_69595107
Hadoophadoophbase大数据分布式centos
1、文件准备http://archive.apache.org/dist/hbase/1.3.1/下载hbase-1.3.1-bin.tar.gz并上传到虚拟机/root目录下。2、安装切换目录[root@hadoop00~]#cd/usr/local新建文件夹[root@hadoop00local]#mkdirhbase解压文件[root@hadoop00local]#tarzxvf/root/
- Linux修改hadoop配置文件及启动hadoop集群详细步骤
CatalinaCatherine
Linuxlinuxhadoop运维
目录一、配置Hadoop环境1.查看Hadoop解压位置2.配置环境变量3.编辑环境变量4.重启环境变量5.查看Hadoop版本,查看成功就表示Hadoop安装成功了二、修改配置文件1.检查三台虚拟机:2.切换到配置文件目录3.修改hadoop-env.sh文件4.修改core-site.xml文件5.修改mapred-site.xml文件6.修改hdfs-site.xml文件7.修改yarn-s
- hadoop dfs web页面访问增加鉴权
花菜回锅肉
大数据数据仓库hadoop前端大数据dfs
前言装好了Hadoop,通过浏览器访问,发现竟然不需要鉴权就能访问,且暴露了很多服务器层文件路径信息,基于多年积累的安全意识,必须得配置些鉴权信息,就有了该文,仅做学习记录,下次自己再装时能提高效率。生成密码//hadoop安装目录下创建secret目录,存放密码mkdir-p/home/test/hadoop-3.2.2/secret//创建密码文件touchhadoop-http-auth-s
- 记录学习Spark+Kafka构建实时分析Dashboard案例中遇到的问题(一)安装
白令屿
大数据处理sparkkafkapython大数据
目录推荐环境系统和软件安装安装Ubuntu分辨率问题虚拟机桥接模式连不上网Hadoop安装Ubuntu16.04下用aria2下载百度网盘大文件其他在安装hadoop时遇到的问题hadoop用法小结单机模式伪分布式Spark、Kafka、python依赖包、pycharm安装SparkKafkaPyCharmPython依赖现阶段在学习大数据处理相关的项目,先通过厦门大学林子雨老师的案例教程学习S
- Hadoop/Spark安装
周倜吉
单机安装Hadoop安装Javasudoapt-getinstalldefault-jdkjava-version2.设置Hadoop用户和组sudoaddgrouphadoopsudoadduser--ingrouphadoophduser3.安装并配置SSH$sudoapt-getinstallssh$suhduser$ssh-keygen-trsa-P""cat~/.ssh/id_rsa.p
- Hadoop安装遇到的一些问题
博弈史密斯
image.pngimage.png解决选择CentOs.vmx无反应问题:image.png打开之后,选择Poweron之后,选择Imovedit:第一次点mved,以后点copiedroot登陆,密码:hadoop修改时间,选择时区打开一个终端查看ip查看主机名、防火墙状态在桌面中打开的终端,以root权限运行,否则一些文件没有修改权限
- YARN 配置文件 capacity-scheduler.xml 参数解读
我很ruo
hadoop大数据
capacity-scheduler.xml文件中配置了yarn资源调度器运行中的各项参数,位于hadoop安装目录/hadoop-2.7.2/etc/hadoop目录下。打开后可以看到默认配置。所有的配置有注有英文注释,考虑到可能对部分朋友不太友好,所以笔者结合自己的理解对这些注释进行了翻译,如有错误,恳请指正:#最多可以运行的应用数,默认10000yarn.scheduler.capacity
- 《数据采集与预处理环境》实验环境安装
活下去.
pythonmysqlhadoop
文章目录1.安装Python及第三方库2.jupyternotebook安装3.jdk安装4.MySQL安装1.在根目录下创建文件my.ini2.初始化3.安装服务4.启动服务5.登录6.配置环境变量5.hadoop安装1.文件解压缩,删除bin文件,解压缩apache-hadoop-3.1.3-winutils-master.zip文件,将bin文件复制到hadoop根目录中。2.在根目录下,新
- 1.大数据概述
流月up
大数据hadoop大数据发行版模块
目录概述hadoophadoop模块hadoop发行版apache社区版本CDP(CDH+HDP)其它云产商框架选择hadoop安装结束概述先了解几个常用的网站apache官网hadoop官网hadoopgithubhttps://github.com/apache/xxx[https://github.com/apache/spark(example)]hadoophadoop模块hadoop包
- 【2023】hadoop基础介绍
方渐鸿
数据分析hadoop大数据分布式python
目录Hadoop组成HDFSHDFS操作HDFS分布式文件存储NameNode元数据数据读写流程YARN和MapReduceMapReduce:分布式计算YARN:资源管控调度YARN架构提交任务到**YARN中运行**Hadoop组成hadoop安装教程可以看我这篇文章===>hadoop通过docker安装HDFS组件:是Hadoop内的分布式存储组件,可以构建分布式文件系统用于数据存储。Ma
- Linux Hadoop安装
神游御风
Hadoop下载地址:http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.7.0.tar.gz
- VitulBox中Ubuntu虚拟机安装JAVA环境——备赛笔记——2024全国职业院校技能大赛“大数据应用开发”赛项
Stitch .
我的大学笔记Linuxubuntujava笔记大数据linux
前言在进行之后操作是请下载好JDK,之后的内容是以Ubuntu虚拟机中安装java环境续写。提示:以下操作是在虚拟机hadoop用户下操作的,并为安装java环境作准备一、更新APT为了确保Hadoop安装过程顺利进行,建议用hadoop用户登录Linux系统后打开一个终端,执行下面命令更新APT软件:sudoapt-getupdate二、安装SSH1,安装SSH服务端代码如下(示例):sudoa
- Spring中@Value注解,需要注意的地方
无量
springbean@Valuexml
Spring 3以后,支持@Value注解的方式获取properties文件中的配置值,简化了读取配置文件的复杂操作
1、在applicationContext.xml文件(或引用文件中)中配置properties文件
<bean id="appProperty"
class="org.springframework.beans.fac
- mongoDB 分片
开窍的石头
mongodb
mongoDB的分片。要mongos查询数据时候 先查询configsvr看数据在那台shard上,configsvr上边放的是metar信息,指的是那条数据在那个片上。由此可以看出mongo在做分片的时候咱们至少要有一个configsvr,和两个以上的shard(片)信息。
第一步启动两台以上的mongo服务
&nb
- OVER(PARTITION BY)函数用法
0624chenhong
oracle
这篇写得很好,引自
http://www.cnblogs.com/lanzi/archive/2010/10/26/1861338.html
OVER(PARTITION BY)函数用法
2010年10月26日
OVER(PARTITION BY)函数介绍
开窗函数 &nb
- Android开发中,ADB server didn't ACK 解决方法
一炮送你回车库
Android开发
首先通知:凡是安装360、豌豆荚、腾讯管家的全部卸载,然后再尝试。
一直没搞明白这个问题咋出现的,但今天看到一个方法,搞定了!原来是豌豆荚占用了 5037 端口导致。
参见原文章:一个豌豆荚引发的血案——关于ADB server didn't ACK的问题
简单来讲,首先将Windows任务进程中的豌豆荚干掉,如果还是不行,再继续按下列步骤排查。
&nb
- canvas中的像素绘制问题
换个号韩国红果果
JavaScriptcanvas
pixl的绘制,1.如果绘制点正处于相邻像素交叉线,绘制x像素的线宽,则从交叉线分别向前向后绘制x/2个像素,如果x/2是整数,则刚好填满x个像素,如果是小数,则先把整数格填满,再去绘制剩下的小数部分,绘制时,是将小数部分的颜色用来除以一个像素的宽度,颜色会变淡。所以要用整数坐标来画的话(即绘制点正处于相邻像素交叉线时),线宽必须是2的整数倍。否则会出现不饱满的像素。
2.如果绘制点为一个像素的
- 编码乱码问题
灵静志远
javajvmjsp编码
1、JVM中单个字符占用的字节长度跟编码方式有关,而默认编码方式又跟平台是一一对应的或说平台决定了默认字符编码方式;2、对于单个字符:ISO-8859-1单字节编码,GBK双字节编码,UTF-8三字节编码;因此中文平台(中文平台默认字符集编码GBK)下一个中文字符占2个字节,而英文平台(英文平台默认字符集编码Cp1252(类似于ISO-8859-1))。
3、getBytes()、getByte
- java 求几个月后的日期
darkranger
calendargetinstance
Date plandate = planDate.toDate();
SimpleDateFormat df = new SimpleDateFormat("yyyy-MM-dd");
Calendar cal = Calendar.getInstance();
cal.setTime(plandate);
// 取得三个月后时间
cal.add(Calendar.M
- 数据库设计的三大范式(通俗易懂)
aijuans
数据库复习
关系数据库中的关系必须满足一定的要求。满足不同程度要求的为不同范式。数据库的设计范式是数据库设计所需要满足的规范。只有理解数据库的设计范式,才能设计出高效率、优雅的数据库,否则可能会设计出错误的数据库.
目前,主要有六种范式:第一范式、第二范式、第三范式、BC范式、第四范式和第五范式。满足最低要求的叫第一范式,简称1NF。在第一范式基础上进一步满足一些要求的为第二范式,简称2NF。其余依此类推。
- 想学工作流怎么入手
atongyeye
jbpm
工作流在工作中变得越来越重要,很多朋友想学工作流却不知如何入手。 很多朋友习惯性的这看一点,那了解一点,既不系统,也容易半途而废。好比学武功,最好的办法是有一本武功秘籍。研究明白,则犹如打通任督二脉。
系统学习工作流,很重要的一本书《JBPM工作流开发指南》。
本人苦苦学习两个月,基本上可以解决大部分流程问题。整理一下学习思路,有兴趣的朋友可以参考下。
1 首先要
- Context和SQLiteOpenHelper创建数据库
百合不是茶
androidContext创建数据库
一直以为安卓数据库的创建就是使用SQLiteOpenHelper创建,但是最近在android的一本书上看到了Context也可以创建数据库,下面我们一起分析这两种方式创建数据库的方式和区别,重点在SQLiteOpenHelper
一:SQLiteOpenHelper创建数据库:
1,SQLi
- 浅谈group by和distinct
bijian1013
oracle数据库group bydistinct
group by和distinct只了去重意义一样,但是group by应用范围更广泛些,如分组汇总或者从聚合函数里筛选数据等。
譬如:统计每id数并且只显示数大于3
select id ,count(id) from ta
- vi opertion
征客丶
macoprationvi
进入 command mode (命令行模式)
按 esc 键
再按 shift + 冒号
注:以下命令中 带 $ 【在命令行模式下进行】,不带 $ 【在非命令行模式下进行】
一、文件操作
1.1、强制退出不保存
$ q!
1.2、保存
$ w
1.3、保存并退出
$ wq
1.4、刷新或重新加载已打开的文件
$ e
二、光标移动
2.1、跳到指定行
数字
- 【Spark十四】深入Spark RDD第三部分RDD基本API
bit1129
spark
对于K/V类型的RDD,如下操作是什么含义?
val rdd = sc.parallelize(List(("A",3),("C",6),("A",1),("B",5))
rdd.reduceByKey(_+_).collect
reduceByKey在这里的操作,是把
- java类加载机制
BlueSkator
java虚拟机
java类加载机制
1.java类加载器的树状结构
引导类加载器
^
|
扩展类加载器
^
|
系统类加载器
java使用代理模式来完成类加载,java的类加载器也有类似于继承的关系,引导类是最顶层的加载器,它是所有类的根加载器,它负责加载java核心库。当一个类加载器接到装载类到虚拟机的请求时,通常会代理给父类加载器,若已经是根加载器了,就自己完成加载。
虚拟机区分一个Cla
- 动态添加文本框
BreakingBad
文本框
<script> var num=1; function AddInput() { var str=""; str+="<input 
- 读《研磨设计模式》-代码笔记-单例模式
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
public class Singleton {
}
/*
* 懒汉模式。注意,getInstance如果在多线程环境中调用,需要加上synchronized,否则存在线程不安全问题
*/
class LazySingleton
- iOS应用打包发布常见问题
chenhbc
iosiOS发布iOS上传iOS打包
这个月公司安排我一个人做iOS客户端开发,由于急着用,我先发布一个版本,由于第一次发布iOS应用,期间出了不少问题,记录于此。
1、使用Application Loader 发布时报错:Communication error.please use diagnostic mode to check connectivity.you need to have outbound acc
- 工作流复杂拓扑结构处理新思路
comsci
设计模式工作算法企业应用OO
我们走的设计路线和国外的产品不太一样,不一样在哪里呢? 国外的流程的设计思路是通过事先定义一整套规则(类似XPDL)来约束和控制流程图的复杂度(我对国外的产品了解不够多,仅仅是在有限的了解程度上面提出这样的看法),从而避免在流程引擎中处理这些复杂的图的问题,而我们却没有通过事先定义这样的复杂的规则来约束和降低用户自定义流程图的灵活性,这样一来,在引擎和流程流转控制这一个层面就会遇到很
- oracle 11g新特性Flashback data archive
daizj
oracle
1. 什么是flashback data archive
Flashback data archive是oracle 11g中引入的一个新特性。Flashback archive是一个新的数据库对象,用于存储一个或多表的历史数据。Flashback archive是一个逻辑对象,概念上类似于表空间。实际上flashback archive可以看作是存储一个或多个表的所有事务变化的逻辑空间。
- 多叉树:2-3-4树
dieslrae
树
平衡树多叉树,每个节点最多有4个子节点和3个数据项,2,3,4的含义是指一个节点可能含有的子节点的个数,效率比红黑树稍差.一般不允许出现重复关键字值.2-3-4树有以下特征:
1、有一个数据项的节点总是有2个子节点(称为2-节点)
2、有两个数据项的节点总是有3个子节点(称为3-节
- C语言学习七动态分配 malloc的使用
dcj3sjt126com
clanguagemalloc
/*
2013年3月15日15:16:24
malloc 就memory(内存) allocate(分配)的缩写
本程序没有实际含义,只是理解使用
*/
# include <stdio.h>
# include <malloc.h>
int main(void)
{
int i = 5; //分配了4个字节 静态分配
int * p
- Objective-C编码规范[译]
dcj3sjt126com
代码规范
原文链接 : The official raywenderlich.com Objective-C style guide
原文作者 : raywenderlich.com Team
译文出自 : raywenderlich.com Objective-C编码规范
译者 : Sam Lau
- 0.性能优化-目录
frank1234
性能优化
从今天开始笔者陆续发表一些性能测试相关的文章,主要是对自己前段时间学习的总结,由于水平有限,性能测试领域很深,本人理解的也比较浅,欢迎各位大咖批评指正。
主要内容包括:
一、性能测试指标
吞吐量、TPS、响应时间、负载、可扩展性、PV、思考时间
http://frank1234.iteye.com/blog/2180305
二、性能测试策略
生产环境相同 基准测试 预热等
htt
- Java父类取得子类传递的泛型参数Class类型
happyqing
java泛型父类子类Class
import java.lang.reflect.ParameterizedType;
import java.lang.reflect.Type;
import org.junit.Test;
abstract class BaseDao<T> {
public void getType() {
//Class<E> clazz =
- 跟我学SpringMVC目录汇总贴、PDF下载、源码下载
jinnianshilongnian
springMVC
----广告--------------------------------------------------------------
网站核心商详页开发
掌握Java技术,掌握并发/异步工具使用,熟悉spring、ibatis框架;
掌握数据库技术,表设计和索引优化,分库分表/读写分离;
了解缓存技术,熟练使用如Redis/Memcached等主流技术;
了解Ngin
- the HTTP rewrite module requires the PCRE library
流浪鱼
rewrite
./configure: error: the HTTP rewrite module requires the PCRE library.
模块依赖性Nginx需要依赖下面3个包
1. gzip 模块需要 zlib 库 ( 下载: http://www.zlib.net/ )
2. rewrite 模块需要 pcre 库 ( 下载: http://www.pcre.org/ )
3. s
- 第12章 Ajax(中)
onestopweb
Ajax
index.html
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/
- Optimize query with Query Stripping in Web Intelligence
blueoxygen
BO
http://wiki.sdn.sap.com/wiki/display/BOBJ/Optimize+query+with+Query+Stripping+in+Web+Intelligence
and a very straightfoward video
http://www.sdn.sap.com/irj/scn/events?rid=/library/uuid/40ec3a0c-936
- Java开发者写SQL时常犯的10个错误
tomcat_oracle
javasql
1、不用PreparedStatements 有意思的是,在JDBC出现了许多年后的今天,这个错误依然出现在博客、论坛和邮件列表中,即便要记住和理解它是一件很简单的事。开发者不使用PreparedStatements的原因可能有如下几个: 他们对PreparedStatements不了解 他们认为使用PreparedStatements太慢了 他们认为写Prepar
- 世纪互联与结盟有感
阿尔萨斯
10月10日,世纪互联与(Foxcon)签约成立合资公司,有感。
全球电子制造业巨头(全球500强企业)与世纪互联共同看好IDC、云计算等业务在中国的增长空间,双方迅速果断出手,在资本层面上达成合作,此举体现了全球电子制造业巨头对世纪互联IDC业务的欣赏与信任,另一方面反映出世纪互联目前良好的运营状况与广阔的发展前景。
众所周知,精于电子产品制造(世界第一),对于世纪互联而言,能够与结盟