E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
hdfs源码分析
Hadoop1.0和2.0的主要区别
Hadoop1.0指的是版本为ApacheHadoop0.20.x、1.x或者CDH3系列的Hadoop,组件主要由
HDFS
和MapReduce两个系统组成,
HDFS
是一个分布式文件存储系统,MapReduce
web_15534274656
·
2025-02-06 03:43
java
hadoop
大数据
hdfs
dubbo
java-zookeeper
Hadoop1.0-
HDFS
介绍
最核心的模块包括HadoopCommon、
HDFS
与MapReduce。
szjianzr
·
2025-02-06 03:13
HADOOP介绍
hadoop
HDFS
SQL on Hadoop
SQL引擎通常运行在Hadoop系统外部,作为一个桥梁查询
HDFS
Lostgreen
·
2025-02-06 03:42
大数据管理
sql
hadoop
数据库
笔记
学习
分布式
物联网架构之Hadoop
其核心架构包括以下几个关键组件:1.HadoopDistributedFileSystem(
HDFS
)
HDFS
是Hadoop的分布式文件系统,用于存储大数据集。
moluxiangfenglo
·
2025-02-06 01:54
架构
hadoop
大数据
QML音视频架构与设计
QML音视频架构与设计使用AI技术辅助生成QT界面美化视频课程QT性能优化视频课程QT原理与
源码分析
视频课程QTQMLC++扩展开发视频课程免费QT视频课程您可以看免费1000+个QT技术视频免费QT视频课程
QT性能优化QT原理源码QT界面美化
·
2025-02-05 23:43
qt
qt6.3
qt5
QT教程
c++
开源项目推荐:基于Lambda架构的大数据管道
基于Lambda架构的大数据管道big-data-pipeline-lambda-archAfullbigdatapipeline(LambdaArchitecture)withSpark,Kafka,
HDFS
andCassandra
柳旖岭
·
2025-02-05 16:53
顺序表ArrayList
源码分析
顺序表中的ArrayList源码新增元素add(intindex,Eelement)的时候,用到了位运算右移一位,此时扩容后的数组大小是原来的1.5倍(n+0.5n=1.5n),代码如下:intnewCapacity=oldCapacity+(oldCapacity>>1);然后用到了如下代码来将旧的数组中的元素移动到扩容后的数组中去:elementData=Arrays.copyOf(eleme
汤坤Sunshine
·
2025-02-05 11:10
Java基础
面试
java
ArrayList
【知识分享】
HDFS
基础操作以及修改配置文件命令
HDFS
基本操作命令查看文件常用命令命令格式
hdfs
dfs-lspath--查看文件列表
hdfs
dfs-ls-Rpath--递归查看文件列表
hdfs
dfs-dupath--查看path下磁盘情况,单位字节使用示例
星环科技TDH社区版
·
2025-02-05 09:27
数据库
大数据
数据库架构
hdfs
运维
CDH角色迁移和硬盘扩容
1.概述生产CDH集群硬盘不足,
HDFS
datanode节点数据不平衡,历史管理角色安装混乱,全部节点需要硬盘扩容。
专注大数据的Lyer
·
2025-02-05 09:56
java
大数据
hadoop
hive
hdfs
Hadoop
HDFS
安装详细步骤
Hadoop安装详细步骤安装前分别在master、slave1、slave2三台机器的root用户下的主目录下创建目录bigdata,即执行下面的命令:mkdir~/bigdataHadoop安装包下载检查Hadopp和java版本是否对应,在官网中查hadoop-3.1.3JDK1.8hadoop-2.10.2JDK1.7or1.8hadoop-2.9.2JDK1.7or1.8hadoop-2.
碟中碟山
·
2025-02-05 07:16
hadoop
hdfs
大数据
Hadoop框架及
HDFS
详细概述
文章目录Hadoop概述一、Hadoop1、分布式和集群2、Hadoop框架2.1概述2.2版本更新2.3Hadoop架构详解2.4官方示例2.4.1圆周率练习2.4.2词频统计3、Hadoop的
HDFS
3.1
搬砖人_li
·
2025-02-05 07:14
大数据技术栈专栏
hadoop
hdfs
大数据
ThreadLocal原理和使用场景
核心
源码分析
注意:ThreadLocal通常都定义为static,ThreadLo
Happytoo_
·
2025-02-05 07:14
java
java
开发语言
ThreadLocal
Android Audio基础(20)——AudioTrack音频控制
一、
源码分析
1、主要方法构造函数:创建AudioTrack时调用。play():播放音频文件。pause():暂停播放音频文件。stop():停止播放音频文件。flus
yyc_audio
·
2025-02-04 20:56
音频
android
音视频
驱动开发
VSCode
源码分析
参考资料
VSCodeArchitectureAnalysis-ElectronProjectCross-PlatformBestPractices中文版VSCode架构分析-Electron项目跨平台最佳实践SihanLi博客上的vscode
源码分析
系列
AI时代的程序员
·
2025-02-04 10:05
vscode
ide
编辑器
Hadoop3.2.1安装-单机模式和伪分布式模式
主要包括
HDFS
和MapReduce两个组件。
花菜回锅肉
·
2025-02-04 07:13
大数据
hadoop
hdfs
大数据
linux
Spark3.1.2单机安装部署
类似Hadoop,但对Hadoop做了优化,计算任务的中间结果可以存储在内存中,不需要每次都写入
HDFS
,更适用于需要迭代运算的算法场景中。
花菜回锅肉
·
2025-02-04 07:43
大数据
spark
大数据
hadoop
apollo-client
源码分析
文章目录Apollo-Client1、基础客户端1.1、客户端获取配置流程1.1.1、初始化1.1.2、获取配置1.1.3、感知远程配置更新1.1.4、ConfigRepository监听器更新数据2、远程服务端设置3、Spring集成3.1、Spring初始化3.2、Config监听器更新数据Apollo-Client1、基础客户端Configconfig=ConfigService.getAp
肥牛火锅
·
2025-02-04 06:09
Java
Spring
java
开发语言
Python结合py
hdfs
模块操作
HDFS
分布式文件系统
使用python操作
hdfs
本身并不难,只不过是把对应的shell功能“翻译”成高级语言,我这里选用的是
hdfs
,下边的实例都是基于
hdfs
包进行的。
唐僧不爱八戒
·
2025-02-04 00:50
python
hdfs
开发语言
Ubuntu 下 nginx-1.24.0
源码分析
ngx_debug_init();
目录ngx_debug_init()函数:NGX_LINUX的定义:ngx_debug_init()函数:ngx_debug_init()函数定义在src\os\unix目录下的ngx_linux_config.h中#definengx_debug_init()也就是说这个环境下的main函数中的ngx_debug_init()这行代码其实什么都没有做在nginx.c的开头引入了#include而
若云止水
·
2025-02-03 18:25
nginx
运维
Ubuntu 下 nginx-1.24.0
源码分析
- ngx_strerror_init()函数
目录ngx_strerror_init()函数声明ngx_int_t类型声明定义intptr_t类型ngx_strerror_init()函数实现NGX_HAVE_STRERRORDESC_NPngx_strerror_init()函数声明在nginx.c的开头引入了:#include在ngx_core.h中引入了#include在ngx_errno.h这个文件中声明了ngx_strerror_i
若云止水
·
2025-02-03 17:51
nginx
运维
如何在Java中调用Python
DataX是阿里开源的一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle等)、
HDFS
、Hive、ODPS、HBase、FTP等各种异构数据源之间稳定高效的数据同步功能。
梦想画家
·
2025-02-03 17:17
#
python
java8~9核心功能
java
python
jython
Hive修复分区
通常用于那些已在
HDFS
中存在,但尚未在Hive元数据中注册的分区。当你在
HDFS
文件系统中手动添加或删除分区目录,Hive并不会自动识别这些更改。
码农小旋风
·
2025-02-03 14:27
后端
hive分区和分桶详解
1、分区表分区表实际上就是对应一个
HDFS
文件系统上的独立的文件夹,该文件夹下是该分区所有的数据文件。Hive中的分区就是分目录,把一个大的数据集根据业务需要分割成小的数据集。
CodeShelby
·
2025-02-03 14:56
hive
大数据
hive
Hive 分区和分桶总结
分区表实际上就是对应一个在
HDFS
(或者是其他分布式文件系统)文
Stray_Lambs
·
2025-02-03 14:23
大数据
hive
【博学谷学习记录】超强总结,用心分享 | Hive分区表和分桶表
所谓的分区表,指的就是将数据按照表中的某一个字段进行统一归类,并存储在表中的不同的位置,也就是说,一个分区就是一类,这一类的数据对应到
hdfs
存储上就是对应一个目录。当我们需要进行处
Onzswhite
·
2025-02-03 14:52
hive
大数据
hadoop
Hive分区和分桶
每个分区对应一个特定值,并映射到
HDFS
的不同目录。为大幅减少数据量,基本必须要做!常用于经常查询的列,如日期、区域等。
码农小旋风
·
2025-02-03 14:51
后端
Java 中 List 源码解析:深度剖析与实现
通过对List接口及其常见实现类的
源码分析
,开发者可以深入理解其内部机制和实现方式,进而优化应用程序的性能,做出更合适的选择。
HelloZheQ
·
2025-02-03 00:34
java
list
windows
深入解析 Python 装饰器:高级用法、最佳实践与源码剖析
本文将从装饰器的底层原理、高级用法、性能优化、常见陷阱及
源码分析
等多个角度,深度解析Python装饰器的强大之处。1.Python装饰器的底层原理装饰器本质
赵大仁
·
2025-02-03 00:26
Python
后端
技术
python
开发语言
人工智能
sqoop导出orc数据至mysql,将Sqoop导入为OrC文件
IsthereanyoptioninsqooptoimportdatafromRDMSandstoreitasORCfileformatin
HDFS
?
终有尽头
·
2025-02-02 15:28
sqoop从orc文件到oracle,Sqoop import as OrC file
问题IsthereanyoptioninsqooptoimportdatafromRDMSandstoreitasORCfileformatin
HDFS
?
余革革
·
2025-02-02 15:58
【llm对话系统】大模型 Llama
源码分析
之并行训练方案
1.引言训练大型语言模型(LLM)需要巨大的计算资源和内存。为了高效地训练这些模型,我们需要采用各种并行策略,将计算和数据分布到多个GPU或设备上。Llama作为当前最流行的开源大模型之一,其训练代码中采用了多种并行技术。本文将深入Llama的训练代码,分析其并行训练方案,主要关注参数并行和部分结构参数共享。2.并行训练策略概述常见的并行训练策略包括:数据并行(DataParallelism,DP
kakaZhui
·
2025-02-02 13:14
llama
人工智能
AIGC
chatgpt
【llm对话系统】大模型 Llama
源码分析
之 LoRA 微调
1.引言微调(Fine-tuning)是将预训练大模型(LLM)应用于下游任务的常用方法。然而,直接微调大模型的所有参数通常需要大量的计算资源和内存。LoRA(Low-RankAdaptation)是一种高效的微调方法,它通过引入少量可训练参数,固定预训练模型的权重,从而在保持性能的同时大大减少了计算开销。本文将深入分析LoRA的原理,并结合Llama源码解读其实现逻辑,最后探讨LoRA的优势。2
kakaZhui
·
2025-02-02 13:14
llama
深度学习
pytorch
AIGC
chatgpt
【llm对话系统】大模型 Llama
源码分析
之 Flash Attention
1.写在前面近年来,基于Transformer架构的大型语言模型(LLM)在自然语言处理(NLP)领域取得了巨大的成功。Transformer的核心组件是自注意力(Self-Attention)机制,它允许模型捕捉输入序列中不同位置之间的关系。然而,标准的自注意力机制的计算复杂度与序列长度的平方成正比,这使得它在处理长序列时效率低下。为了解决这个问题,FlashAttention被提出,它是一种高
kakaZhui
·
2025-02-02 13:43
llama
人工智能
AIGC
chatgpt
java.io.FileNotFoundException: /tmp/log/flume-ng/flume.log (Permission denied)
文章目录问题描述:原因分析:解决方案:问题描述:使用Flume将本地文件监控上传到
HDFS
上时出现log4j:ERRORsetFile(null,true)callfailed.java.io.FileNotFoundException
海洋 之心
·
2025-02-02 04:05
Flume问题解决
Hadoop问题解决
java
flume
开发语言
zookeeper
大数据
HDFS
分布式文件系统3-2 shell定期采集数据到
HDFS
1、准备工作创建目录:/export/data/logs/log/export/data/logs/toupload2、在/export/data/logs目录下创建upload2
HDFS
.sh内容如下
诺特兰德
·
2025-02-02 03:38
hdfs
hadoop
大数据
Hive 整合 Spark 全教程 (Hive on Spark)
hadoop.proxyuser.luanhao.groups*hadoop.proxyuser.luanhao.groups*2)
HDFS
配置文件配置
hdfs
-site.xmldfs.namenode.http-addressBigdata00
字节全栈_rJF
·
2025-02-02 02:56
hive
spark
hadoop
HBase Shell基本操作
一、进入HbaseShell客户端先在LinuxShell命令行终端执行start-dfs.sh脚本启动
HDFS
,再执行start-hbase.sh脚本启动HBase。
wanglingli95
·
2025-02-01 17:20
大数据开发
hbase
数据库
大数据
Hadoop--HA架构详解
一、HA架构工作背景
HDFS
集群中的nameNode存在单点故障因素。
娘子,出来看上帝
·
2025-02-01 10:20
Hadoop
Hadoop
大数据
HA
Hadoop HA 架构
企业里面,多台机器伪分布式每一个角色都是一个进程
HDFS
:NNSNNDNYARN:RMNM大数据所有组件,都是主从架构master-slave
HDFS
读写请求都是先到NN节点,但是,HBase读写请求不是经过
weixin_30569033
·
2025-02-01 09:49
shell
大数据
hive表指定分区字段搜索_Hive学习-Hive基本操作(建库、建表、分区表、写数据)...
hive简单认识Hive是建立在
HDFS
之上的数据仓库,所以Hive的数据全部存储在
HDFS
上。
weixin_39710660
·
2025-02-01 04:00
hive表指定分区字段搜索
HDFS
总结
基于前面的学习与配置,相信对于
HDFS
有了一定的了解
HDFS
概述1.什么是
HDFS
HadoopDistributedFileSystem:分步式文件系统
HDFS
是Hadoop体系中数据存储管理的基础
HDFS
ChenJieYaYa
·
2025-01-31 20:03
Hadoop
hdfs
hadoop
big
data
HDFS
读写流程
因为namenode维护管理了文件系统的元数据信息,这就造成了不管是读还是写数据都是基于NameNode开始的,也就是说NameNode成为了
HDFS
访问的唯一入口。
金州饿霸
·
2025-01-30 14:37
Hadoop
Big
Data
hdfs
hadoop
大数据
HDFS
读写流程(全面深入理解)
1、
HDFS
写流程 (1)客户端通过对FileSystem.create()对象创建建文件,DistributedFileSystem会创建输出流FSDataOutputStream。
AnAn-66.
·
2025-01-30 14:05
hadoop
hdfs
面试
hadoop
HDFS
的读写流程
一,
HDFS
的读写流程1.
hdfs
的写入流程文上传流程如下:创建文件:①
HDFS
client向
HDFS
写入数据,先调用DistributedFileSystem.create()②RPC调用namenode
熊與猫v
·
2025-01-30 13:05
大数据
hadoop
big
data
HDFS
的读写流程步骤(附图文解析)
1、
HDFS
的写入流程:详细步骤:client发起文件上传请求,通过RPC与NameNode建立通讯,NameNode检查目标文件是否已存在,父目录是否存在,返回是否可以上传;client请求第一个block
m0_67265464
·
2025-01-30 13:05
面试
学习路线
阿里巴巴
hdfs
hadoop
大数据
面试
intellij-idea
hdfs
的读写流程
1.
hdfs
写数据面试回答方式1、客户端向NameNode发起上传请求2、NameNode进行权限检查,如果没有问题,返回可以上传通知3、客户端将文件切分多个block,并上传第一个block,NameNode
披星戴月的蝈蝈
·
2025-01-30 13:35
hadoop面试题
hdfs
hadoop
大数据
HDFS
安全模式
当
hdfs
集群启动的时候,由于要做很多的事情,这期间集群进入了安全模式离开安全模式的条件:NameNode启动后会进入一个称为安全模式的特殊状态。处于安全模式的NameNode对于客户端来说是只读的。
哒啵Q297
·
2025-01-30 13:03
hdfs
hadoop
大数据
【llm对话系统】大模型
源码分析
之llama模型的long context更长上下文支持
1.引言Llama模型的一个重要特性是支持长上下文处理。本文将深入分析Llama源码中实现长上下文的关键技术点,包括位置编码(positionembedding)的外推方法、注意力机制的优化等。我们将通过详细的代码解析来理解其实现原理。2.位置编码的外推实现2.1旋转位置编码(RoPE)基础Llama采用旋转位置编码(RoPE,RotaryPositionEmbedding)来编码token的位置
kakaZhui
·
2025-01-30 12:57
llama
深度学习
pytorch
AIGC
chatgpt
YOLOv11小白的进击之路(六)创新YOLO的iou及损失函数时的
源码分析
iou或者说是损失函数的修改经常作为论文的创新点之一,那这篇文章就总结分析了在对YOLO11进行损失函数创新时需要关注的源代码,新的一年祝大家论文与财都发发发!总的来看需要关注三个函数,分别位于YOLO庞大源码的不同文件,下面逐一分析:bbox_iou函数bbox_iou函数位于/ultralytics-main/ultralytics/utils/metrics.py,这个函数的目的是计算两个边
水静川流
·
2025-01-30 12:23
YOLO
YOLO
pytorch
yolo
计算机视觉
人工智能
python
skynet
源码分析
(7)--skynet中的timer
作者:
[email protected]
,转载请注明作者skynet的timer是做游戏用得比较频繁的一个功能,分析一下它的源码还是有意义的。而且核心的C源码除了timer和网络以外,已经基本分析得差不多了。其它都是跟luacapi相关,或者是跟lua交互比较多的。timer的源码在skynet-timer.c和skynet-timer.h中。在开始看代码之前,请大家默念三遍:1秒=10
心中那自由的世界
·
2025-01-30 08:56
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他