- 【面试题】构建高并发、高可用服务架构:技术选型与设计
言之。
redispython面试架构
监控系统消息队列缓存层数据存储层应用层Web层负载均衡与流量分配GrafanaPrometheusAlertmanager消息队列Kafka/RabbitMQ集群/镜像队列缓存层Redis/Memcached数据库MySQL/PostgreSQL主从复制/主主复制应用服务器SpringBoot/Node.js应用服务器SpringBoot/Node.js应用服务器SpringBoot/Node.j
- spark2如何集成到cdh里
蘑菇丁
经验hadoop大数据+机器学习+oracle
最近做性能测试需要spark2测试下和spark1.6性能有多大差别,官方文档里写着可以集成,但是自己怎么搞都不行,折磨了3天的时间,目前终于把spark2集成到集群里了我安装的是最新版本的下载spark2安装包wgethttp://archive.cloudera.com/beta/spark2/parcels/latest/SPARK2-2.0.0.cloudera.beta2-1.cdh5.
- kafka开启kerberos
蘑菇丁
debian运维
一、基本环境准备创建票据创建Kerberos主体(Principal):使用kadmin.local或kadmin命令为Zookeeper和Kafka服务创建Kerberos主体。例如:注意有几台机器创建几个kadmin.local-q"addprinc-randkeyzookeeper/
[email protected]"kadmin.local-q"addprinc-rand
- HBase工具类(Scala 版)
Amin-沐
大数据私人日记帮助文档hbasescalaspark大数据
objectHBaseHelper{privatevallogger=LoggerFactory.getLogger(getClass)valQUORUM:String=PropertiesUtils.getString("hbase.zookeeper.quorum")valPORT:String=PropertiesUtils.getString("hbase.zookeeper.port")
- execute sql error: HdfsOrcScanner::do_open failed. reason = Failed to parse the postscript from file
chimchim66
sql数据库
目录一、背景概述二、定位原因三、解决方法一、背景概述通过hivecatalog同步hive表数据到starrocks数据库,结果报错执行语句:insertintosr_db.sr_table_nameselect*fromhive_catalog.hive_db.hive_table_name;报错内容:executesqlerror:HdfsOrcScanner::do_openfailed.r
- 大数据StarRocks(六) :Catalog_starroccks支持oracle外部表了吗(1)
2401_84181975
程序员大数据oracle数据库
StarRocks自2.3版本起支持Catalog(数据目录)功能,实现在一套系统内同时维护内、外部数据,方便您轻松访问并查询存储在各类外部源的数据。1.基本概念内部数据:指保存在StarRocks中的数据。外部数据:指保存在外部数据源(如ApacheHive™、ApacheIceberg、ApacheHudi、DeltaLake、JDBC)中的数据。2.Catalog当前StarRocks提供两
- springboot kafka配置与使用
摘星喵Pro
javaweb编程技巧kafkaspringbootjava
springbootkafka配置与使用引入spring-kafka依赖org.springframework.kafkaspring-kafkaapplication配置可以根据情况只配置生产着或消费者spring:kafka:#以逗号分隔的地址列表,用于建立与Kafka集群的初始连接(kafka默认的端口号为9092)bootstrap-servers:ip:port,ip:port,ip:p
- flume+ Elasticsearch +kibana环境搭建及讲解
pincharensheng
大数据flumekibanaelasticsearch分布式
1、软件介绍1.1、flume1.1.1、flume介绍1)flume概念1、flume是一个分布式的日志收集系统,具有高可靠、高可用、事务管理、失败重启等功能。数据处理速度快,完全可以用于生产环境;2、flume的核心是agent。agent是一个java进程,运行在日志收集端,通过agent接收日志,然后暂存起来,再发送到目的地;3、agent里面包含3个核心组件:source、channel
- MQ的可靠消息投递机制
言之。
面试架构面试
确保消息在发送、传递和消费过程中不会丢失、重复消费或错乱。1.消息的可靠投递消息持久化:消息被发送到队列后会存储在磁盘上,即使消息队列崩溃,消息也不会丢失。例如:Kafka、RabbitMQ等都支持持久化消息。Kafka通过将消息存储在日志文件中,而RabbitMQ通过磁盘队列持久化消息。消息确认机制(ACK):消息生产者发送消息后,消费者需要返回确认(ACK)表示已成功处理,若在超时时间内未确认
- Linux ar命令详解
写代码的猫_531
arlinux
ar命令是一个用于创建、修改和提取归档文件的工具,通常用于创建静态库(静态链接库)。这些静态库可以包含多个目标文件(.o文件),并在链接时将这些目标文件打包成一个单一的库文件(通常以.a结尾)。 以下是ar命令的详细解释,包括常用选项和示例:1、基本语法ar[options]archive-filefile...常用选项r:添加或替换文件到归档文件中。如果归档文件不存在,则创建一个新的归档文
- kafka-保姆级配置说明(consumer)
xiao-xiang
kafkakafka分布式
bootstrap.servers=#deserializer应该与producer保持对应#key.deserializer=#value.deserializer=##fetch请求返回时,至少获取的字节数,默认值为1##当数据量不足时,客户端请求将会阻塞##此值越大,客户端请求阻塞的时间越长,这取决于producer生产效率和网络传输能力fetch.min.bytes=1##如果broker
- kafka-部署安装
xiao-xiang
kafkakafka分布式
一.简述:Kafka是一个分布式流处理平台,常用于构建实时数据管道和流应用。二.安装部署:1.依赖:a).Java:Kafka需要Java8或更高版本。b).zookeeper:#tarfxvzzookeeper-3.7.0.tar.gz#mvzookeeper-3.7.0zookeeper&&cdzookeeper#mkdirdatalog编辑conf/zoo.cfg文件,设置dataDir和其
- 简述kafka生产者ack确认机制
技匠三石弟弟
数据开发kafka
一、总结该章节主要探讨造成数据丢失问题生产者ack确认机制(目的是要有多少个分区副本收到消息,生产者才认为该消息写入成功;acks参数对数据是否丢失起重要的作用)(1)ack=0,就是表示生产者不会和broker确认消息是否写入成功。这就有可能造成服务器broker因出现问题,导致没有接收到生产者的消息,而生产者却无从得知。这也就造成数据的丢失。--较低延迟和高吞吐量,但是以消息丢失的高风险为代价
- Kafka 生产者中的ack的配置
欧阳冰轩
Kafkakafka分布式
在同步发送的前提下,⽣产者在获得集群返回的ack之前会⼀直阻塞。那么集群什么时候返回ack呢?此时ack有3个配置:1.ack=0kafka-cluster不需要任何的broker收到消息,就⽴即返回ack给⽣产者,最容易丢消息的,效率是最⾼的2.ack=1(默认):多副本之间的leader已经收到消息,并把消息写⼊到本地的log中,才会返回ack给⽣产者,性能和安全性是最均衡的3.ack=-1/
- python链接hbase模块_Python连接Hbase
weixin_40001395
python链接hbase模块
1、安装Hbase库pipinstallhappybase2、连接Hbase2.1、查看Hbase配置image.png2.2、使用happyhase连接hbaseimporthappybase#注意protocol和transport这两个参数,需要和hbase启动命令中的相同,否则会报错connection=happybase.Connection('qa-cdh-001',port=9090
- python操作HBase
王壮_
大数据Pythonhbase数据库大数据
1.安装happybase和thriftpipinstallhappybasepipinstallthrift2.启动hbase的thrift进程,并指定端口9090hbase-daemon.shstartthrift-p90903.操作HBaseimporthappybaseconnection=happybase.Connection(host='hadoop10',port=9090)tab
- kafka 生产者发送流程
jxj_cd
mysql数据库
Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者在网站中的所有动作流数据。kafka的基础架构:Kafka生产者发送流程详解:拦截器序列化器分区器生产者端由两个线程协调完成,分别是main线程和Sender线程。main线程在将消息通过拦截器、序列化器和分区器处理后缓存到消息累加器(Reco
- HBase伪分布式安装配置流程
TheMountainGhost
hbase数据库大数据
要配置HBase的伪分布式模式,以下是详细的操作步骤,确保每一步都执行准确。1.准备工作确保已经安装并配置好了Hadoop(伪分布式),因为HBase依赖HDFS。Hadoop已经配置并能够正常运行。Java已经安装并配置好了环境变量。SSH配置免密登录(通常在Hadoop环境中已配置)。2.下载并解压HBase下载HBase安装包并解压到你想要的目录:tar-zxvfhbase-2.4.18-b
- 【53】Camunda8-Zeebe核心引擎-Partitions分区与Internal processing内部处理
AlieNeny
Camundacamunda8流程引擎zeebepartitions分区
Partitions分区在Zeebe中,所有数据都是基于分区的。(一个)分区本质上是一个关于流程事件的持久化流。在broker集群中,分区分布在节点之间,因此可以将其视为分片。启动/初始化Zeebe集群时,用户可以配置所需的分区数。如果使用过Kafka,这部分内容是比较相似的。每当部署流程时,都会将其部署到第一个分区。然后,该流程将分发到所有分区。在所有分区上,此流程接收相同的key和版本,以便可
- Kafka生产者ACK参数与同步复制
WannaRunning
kafka分布式
目录生产者的ACK参数ack等于0ack等于1(默认)ack等于-1或allKafka的同步复制使用误区生产者的ACK参数Kafka的ack机制可以保证生产者发送的消息被broker接收成功。Kafkaproducer有三种ack机制,分别是0,1,-1。这个配置可以在初始化producer时在config中进行配置。默认值是1。ack等于0producer不等待broker同步完成的确认,只要发
- Flink访问Kerberos环境下的Hive
我若成风zhb
flinkflinkkerberoshivehadoop
目录测试环境工程搭建示例代码及运行总结本文主要介绍如何使用Flink访问Kerberos环境下的Hive。测试环境1.hive版本为2.1.12.flink版本为1.10.0工程搭建使用IDE工具通过Maven创建一个Java工程,具体创建过程就不详细描述了。1.在工程的pom.xml文件中增加如下依赖org.apache.flinkflink-java${flink.version}provid
- Tesla V100驱动安装
郭宝才
linux服务器运维
确认操作系统kernel版本,参考链接:https://docs.nvidia.com/cuda/archive/12.2.0/cuda-installation-guide-linux/index.html安装依赖yuminstall-ygccgcc-c++rdma-coredkmselfutils-libelf-develntpyuminstall-ykernel-devel-$(uname-
- hive窗口函数和hive基础使用
醉与浮
hivehive大数据hadoop
7.270.连接客户端beeline-ujdbc:hive2://localhost:100001.建库并使用createdatabasexxxusexxx2.建表createtablexxxcreateexternaltableifnotexists如果该外部表不存在则创建外部表被删除时只会删除元数据不会删除数据。(hive不认为自己拥有这份数据)3.导入数据loaddatainpath‘/ro
- Hive 窗口函数
b1gx
Hivehive窗口函数
文章目录一、常见聚合操作1.sum、avg、min、max二、排序相关的窗口函数1.row_number2.rank3.dense_rank三、其它窗口函数1.NTILE2.cume_dist3.percent_rank4.LAG5.LEAD6.FIRST_VALUE7.LAST_VALUE四、增强聚合操作1.GROUPINGSETS2.CUBE3.ROLLUP4.GROUPING__ID有ORD
- Apache Hive 聚合函数与 OVER 窗口函数:从基础到高级应用
大鳥
sqlhiveapachehivehadoop
在大数据时代,ApacheHive是处理和分析海量数据的强大工具。Hive提供了丰富的聚合函数和强大的OVER窗口函数,能够帮助我们高效地进行数据分析。本文将综合介绍Hive的聚合函数和OVER窗口函数,结合实际使用场景和代码示例,帮助读者深入理解这些功能,尤其是它们在时间序列分析中的应用。一、Hive聚合函数基础聚合函数是Hive中用于对一组数据进行计算并返回单个值的函数。它们在数据分析中非常常
- filebeat收集各种类型日志写入logstash,再从logstash中读取日志写入kafka中(有filebeat)
运维实战课程
kafka分布式
filebeat收集各种类型日志写入logstash,再从logstash中读取日志写入kafka中(有filebeat)如果对运维课程感兴趣,可以在b站上、A站或csdn上搜索我的账号:运维实战课程,可以关注我,学习更多免费的运维实战技术视频0.环境机器规划:192.168.43.163kafka1192.168.43.164kafka2192.168.43.165kafka3192.168.4
- kafka日志策略
神云瑟瑟
kafkakafka日志删除配置
kafka日志清除策略kafkalog的清理策略有两种:delete,compact,默认是delete这个对应了kafka中每个topic对于record的管理模式delete:一般是使用按照时间保留的策略,当不活跃的segment的时间戳是大于设置的时间的时候,当前segment就会被删除compact:日志不会被删除,会被去重清理,这种模式要求每个record都必须有key,然后kafka会
- Kafka 日志存储 — 日志索引
黄名富
微服务kafka分布式java微服务
每个日志分段文件对应两个索引文件:偏移量索引文件用来建立消息偏移量到物理地址之间的映射;时间戳索引文件根据指定的时间戳来查找对应的偏移量信息。1日志索引Kafka的索引文件以稀疏索引的方式构造消息的索引。它并不保证每个消息在索引文件中都有对应的索引项。每当写入一定量的消息时,偏移量索引文件和时间戳索引文件分别增加一个索引项。使用二分查找法来快速定位偏移量的位置。1.1日志分段切分的条件日志分段文件
- Kafka 2.2.0 消息日志清理机制:日志删除 日志压缩
A__Plus
kafkaKafka消息队列
Kafka将消息持久化到磁盘中的Log中,为了控制日志文件的大小就需要对消息进行清理操作。每个Log对应一个分区副本,Log可以分为多个日志分段,便于日志的清理操作。在了解日志清理机制之前,请先了解日志存储方式Kafka有两种日志清理策略:日志删除:按照保留策略删除日志分段需要将Broker端参数log.cleanup.policy设置为delete(默认值)日志压缩:根据每个消息的key进行整合
- mysql的单表数据导入到hive数据库中
熏陶
数据库mysqlhive
1、将mysql的数据导出借助dbeaver工具,将单表数据table1格式导出为csv文件2、将csv的后缀名手动改为txt后缀,为了让每行的的字段是以,分隔3、将得到的txt文件上传到hdfs文件系统中4、目标机创建和table1一样的表结构的表,创建过程中要加上这几句ROWFORMATDELIMITEDFIELDSTERMINATEDBY','STOREDASTEXTFILE;如:CREAT
- js动画html标签(持续更新中)
843977358
htmljs动画mediaopacity
1.jQuery 效果 - animate() 方法 改变 "div" 元素的高度: $(".btn1").click(function(){ $("#box").animate({height:"300px
- springMVC学习笔记
caoyong
springMVC
1、搭建开发环境
a>、添加jar文件,在ioc所需jar包的基础上添加spring-web.jar,spring-webmvc.jar
b>、在web.xml中配置前端控制器
<servlet>
&nbs
- POI中设置Excel单元格格式
107x
poistyle列宽合并单元格自动换行
引用:http://apps.hi.baidu.com/share/detail/17249059
POI中可能会用到一些需要设置EXCEL单元格格式的操作小结:
先获取工作薄对象:
HSSFWorkbook wb = new HSSFWorkbook();
HSSFSheet sheet = wb.createSheet();
HSSFCellStyle setBorder = wb.
- jquery 获取A href 触发js方法的this参数 无效的情况
一炮送你回车库
jquery
html如下:
<td class=\"bord-r-n bord-l-n c-333\">
<a class=\"table-icon edit\" onclick=\"editTrValues(this);\">修改</a>
</td>"
j
- md5
3213213333332132
MD5
import java.security.MessageDigest;
import java.security.NoSuchAlgorithmException;
public class MDFive {
public static void main(String[] args) {
String md5Str = "cq
- 完全卸载干净Oracle11g
sophia天雪
orale数据库卸载干净清理注册表
完全卸载干净Oracle11g
A、存在OUI卸载工具的情况下:
第一步:停用所有Oracle相关的已启动的服务;
第二步:找到OUI卸载工具:在“开始”菜单中找到“oracle_OraDb11g_home”文件夹中
&
- apache 的access.log 日志文件太大如何解决
darkranger
apache
CustomLog logs/access.log common 此写法导致日志数据一致自增变大。
直接注释上面的语法
#CustomLog logs/access.log common
增加:
CustomLog "|bin/rotatelogs.exe -l logs/access-%Y-%m-d.log 
- Hadoop单机模式环境搭建关键步骤
aijuans
分布式
Hadoop环境需要sshd服务一直开启,故,在服务器上需要按照ssh服务,以Ubuntu Linux为例,按照ssh服务如下:
sudo apt-get install ssh
sudo apt-get install rsync
编辑HADOOP_HOME/conf/hadoop-env.sh文件,将JAVA_HOME设置为Java
- PL/SQL DEVELOPER 使用的一些技巧
atongyeye
javasql
1 记住密码
这是个有争议的功能,因为记住密码会给带来数据安全的问题。 但假如是开发用的库,密码甚至可以和用户名相同,每次输入密码实在没什么意义,可以考虑让PLSQL Developer记住密码。 位置:Tools菜单--Preferences--Oracle--Logon HIstory--Store with password
2 特殊Copy
在SQL Window
- PHP:在对象上动态添加一个新的方法
bardo
方法动态添加闭包
有关在一个对象上动态添加方法,如果你来自Ruby语言或您熟悉这门语言,你已经知道它是什么...... Ruby提供给你一种方式来获得一个instancied对象,并给这个对象添加一个额外的方法。
好!不说Ruby了,让我们来谈谈PHP
PHP未提供一个“标准的方式”做这样的事情,这也是没有核心的一部分...
但无论如何,它并没有说我们不能做这样
- ThreadLocal与线程安全
bijian1013
javajava多线程threadLocal
首先来看一下线程安全问题产生的两个前提条件:
1.数据共享,多个线程访问同样的数据。
2.共享数据是可变的,多个线程对访问的共享数据作出了修改。
实例:
定义一个共享数据:
public static int a = 0;
- Tomcat 架包冲突解决
征客丶
tomcatWeb
环境:
Tomcat 7.0.6
win7 x64
错误表象:【我的冲突的架包是:catalina.jar 与 tomcat-catalina-7.0.61.jar 冲突,不知道其他架包冲突时是不是也报这个错误】
严重: End event threw exception
java.lang.NoSuchMethodException: org.apache.catalina.dep
- 【Scala三】分析Spark源代码总结的Scala语法一
bit1129
scala
Scala语法 1. classOf运算符
Scala中的classOf[T]是一个class对象,等价于Java的T.class,比如classOf[TextInputFormat]等价于TextInputFormat.class
2. 方法默认值
defaultMinPartitions就是一个默认值,类似C++的方法默认值
- java 线程池管理机制
BlueSkator
java线程池管理机制
编辑
Add
Tools
jdk线程池
一、引言
第一:降低资源消耗。通过重复利用已创建的线程降低线程创建和销毁造成的消耗。第二:提高响应速度。当任务到达时,任务可以不需要等到线程创建就能立即执行。第三:提高线程的可管理性。线程是稀缺资源,如果无限制的创建,不仅会消耗系统资源,还会降低系统的稳定性,使用线程池可以进行统一的分配,调优和监控。
- 关于hql中使用本地sql函数的问题(问-答)
BreakingBad
HQL存储函数
转自于:http://www.iteye.com/problems/23775
问:
我在开发过程中,使用hql进行查询(mysql5)使用到了mysql自带的函数find_in_set()这个函数作为匹配字符串的来讲效率非常好,但是我直接把它写在hql语句里面(from ForumMemberInfo fm,ForumArea fa where find_in_set(fm.userId,f
- 读《研磨设计模式》-代码笔记-迭代器模式-Iterator
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.util.Arrays;
import java.util.List;
/**
* Iterator模式提供一种方法顺序访问一个聚合对象中各个元素,而又不暴露该对象内部表示
*
* 个人觉得,为了不暴露该
- 常用SQL
chenjunt3
oraclesqlC++cC#
--NC建库
CREATE TABLESPACE NNC_DATA01 DATAFILE 'E:\oracle\product\10.2.0\oradata\orcl\nnc_data01.dbf' SIZE 500M AUTOEXTEND ON NEXT 50M EXTENT MANAGEMENT LOCAL UNIFORM SIZE 256K ;
CREATE TABLESPA
- 数学是科学技术的语言
comsci
工作活动领域模型
从小学到大学都在学习数学,从小学开始了解数字的概念和背诵九九表到大学学习复变函数和离散数学,看起来好像掌握了这些数学知识,但是在工作中却很少真正用到这些知识,为什么?
最近在研究一种开源软件-CARROT2的源代码的时候,又一次感觉到数学在计算机技术中的不可动摇的基础作用,CARROT2是一种用于自动语言分类(聚类)的工具性软件,用JAVA语言编写,它
- Linux系统手动安装rzsz 软件包
daizj
linuxszrz
1、下载软件 rzsz-3.34.tar.gz。登录linux,用命令
wget http://freeware.sgi.com/source/rzsz/rzsz-3.48.tar.gz下载。
2、解压 tar zxvf rzsz-3.34.tar.gz
3、安装 cd rzsz-3.34 ; make posix 。注意:这个软件安装与常规的GNU软件不
- 读源码之:ArrayBlockingQueue
dieslrae
java
ArrayBlockingQueue是concurrent包提供的一个线程安全的队列,由一个数组来保存队列元素.通过
takeIndex和
putIndex来分别记录出队列和入队列的下标,以保证在出队列时
不进行元素移动.
//在出队列或者入队列的时候对takeIndex或者putIndex进行累加,如果已经到了数组末尾就又从0开始,保证数
- C语言学习九枚举的定义和应用
dcj3sjt126com
c
枚举的定义
# include <stdio.h>
enum WeekDay
{
MonDay, TuesDay, WednesDay, ThursDay, FriDay, SaturDay, SunDay
};
int main(void)
{
//int day; //day定义成int类型不合适
enum WeekDay day = Wedne
- Vagrant 三种网络配置详解
dcj3sjt126com
vagrant
Forwarded port
Private network
Public network
Vagrant 中一共有三种网络配置,下面我们将会详解三种网络配置各自优缺点。
端口映射(Forwarded port),顾名思义是指把宿主计算机的端口映射到虚拟机的某一个端口上,访问宿主计算机端口时,请求实际是被转发到虚拟机上指定端口的。Vagrantfile中设定语法为:
c
- 16.性能优化-完结
frank1234
性能优化
性能调优是一个宏大的工程,需要从宏观架构(比如拆分,冗余,读写分离,集群,缓存等), 软件设计(比如多线程并行化,选择合适的数据结构), 数据库设计层面(合理的表设计,汇总表,索引,分区,拆分,冗余等) 以及微观(软件的配置,SQL语句的编写,操作系统配置等)根据软件的应用场景做综合的考虑和权衡,并经验实际测试验证才能达到最优。
性能水很深, 笔者经验尚浅 ,赶脚也就了解了点皮毛而已,我觉得
- Word Search
hcx2013
search
Given a 2D board and a word, find if the word exists in the grid.
The word can be constructed from letters of sequentially adjacent cell, where "adjacent" cells are those horizontally or ve
- Spring4新特性——Web开发的增强
jinnianshilongnian
springspring mvcspring4
Spring4新特性——泛型限定式依赖注入
Spring4新特性——核心容器的其他改进
Spring4新特性——Web开发的增强
Spring4新特性——集成Bean Validation 1.1(JSR-349)到SpringMVC
Spring4新特性——Groovy Bean定义DSL
Spring4新特性——更好的Java泛型操作API
Spring4新
- CentOS安装配置tengine并设置开机启动
liuxingguome
centos
yum install gcc-c++
yum install pcre pcre-devel
yum install zlib zlib-devel
yum install openssl openssl-devel
Ubuntu上可以这样安装
sudo aptitude install libdmalloc-dev libcurl4-opens
- 第14章 工具函数(上)
onestopweb
函数
index.html
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/
- Xelsius 2008 and SAP BW at a glance
blueoxygen
BOXelsius
Xelsius提供了丰富多样的数据连接方式,其中为SAP BW专属提供的是BICS。那么Xelsius的各种连接的优缺点比较以及Xelsius是如何直接连接到BEx Query的呢? 以下Wiki文章应该提供了全面的概览。
http://wiki.sdn.sap.com/wiki/display/BOBJ/Xcelsius+2008+and+SAP+NetWeaver+BW+Co
- oracle表空间相关
tongsh6
oracle
在oracle数据库中,一个用户对应一个表空间,当表空间不足时,可以采用增加表空间的数据文件容量,也可以增加数据文件,方法有如下几种:
1.给表空间增加数据文件
ALTER TABLESPACE "表空间的名字" ADD DATAFILE
'表空间的数据文件路径' SIZE 50M;
&nb
- .Net framework4.0安装失败
yangjuanjava
.netwindows
上午的.net framework 4.0,各种失败,查了好多答案,各种不靠谱,最后终于找到答案了
和Windows Update有关系,给目录名重命名一下再次安装,即安装成功了!
下载地址:http://www.microsoft.com/en-us/download/details.aspx?id=17113
方法:
1.运行cmd,输入net stop WuAuServ
2.点击开