E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Spark源码解析
Spark
-submit提交任务的常用参数
#参数名称#含义--clusterc3prc-hadoop#--masterMASTER_URL#可以是
spark
://host:port,mesos://host:port,yarn,yarn-cluster
liuzx32
·
2024-09-02 20:22
MyBatis
源码解析
:DefaultSqlSessionFactory 的创建与管理
摘要在MyBatis中,SqlSessionFactory是执行数据库操作的核心对象,它负责创建和管理SqlSession的生命周期。你是否想了解SqlSessionFactory的创建和管理过程?本文将通过自定义实现一个简化版的DefaultSqlSessionFactory,带你深入探讨MyBatis中DefaultSqlSessionFactory的创建与管理机制,并帮助你更好地掌握SqlS
捕风捉你
·
2024-09-02 20:36
MyBatis
源码解读
mybatis
Spark
MLlib模型训练—回归算法 Random forest regression
Spark
MLlib模型训练—回归算法Randomforestregression随机森林回归(RandomForestRegression)是一种集成学习方法,通过结合多个决策树的预测结果来提升模型的准确性和稳健性
不二人生
·
2024-09-02 17:54
Spark
ML
实战
spark-ml
回归
随机森林
FFmpeg
源码解析
系列(一)目录和编译
引言当我们欣赏一部电影、观看一段视频或者享受一首音乐时,很少有人会停下来思考这一切是如何呈现在我们眼前的。然而,在每一帧的画面、每一秒的声音背后,有着一个不可思议的技术世界这个充满音视频的世界的核心之一,就是FFmpeg。FFmpeg是一个强大而复杂的多媒体处理工具,它为视频和音频编解码、流媒体传输、格式转换等提供了优秀的解决方案。在这个系列博客中,我们将深入探讨FFmpeg源码,解析它的工作原理
头快撑不住了
·
2024-09-02 13:59
FFmpeg
源码解析
ffmpeg
音视频
视频编解码
实时音视频
图像处理
Spark
MLlib LinearRegression线性回归算法
源码解析
线性回归一元线性回归hθ(x)=θ0+θ1xhθ(x)=θ0+θ1x——————–1多元线性回归hθ(x)=∑mi=1θixi=θTXhθ(x)=∑i=1mθixi=θTX—————–2损失函数J(θ)=1/2∑mi=1(hθ(xi)−yi)2J(θ)=1/2∑i=1m(hθ(xi)−yi)2—————31/2是为了求导时系数为1,平方里是真实值减去估计值我们的目的就是求其最小值最小二乘法要求较为
SmileySure
·
2024-09-02 09:33
Spark
人工智能算法
Spark
MLlib
Spark
MLlib模型训练—回归算法 GLR( Generalized Linear Regression)
Spark
MLlib模型训练—回归算法GLR(GeneralizedLinearRegression)在大数据分析中,线性回归虽然常用,但在许多实际场景中,目标变量和特征之间的关系并非线性,这时广义线性回归
猫猫姐
·
2024-09-02 08:28
Spark
实战
回归
spark-ml
线性回归
spark
自然语言处理系列五十》文本分类算法》SVM支持向量机算法原理
下面介绍其原理,并用
Spark
MLlib机器
陈敬雷-充电了么-CEO兼CTO
·
2024-09-02 07:52
算法
大数据
人工智能
算法
自然语言处理
分类
nlp
ai
人工智能
chatgpt
【python】python指南(十四):**操作符解包字典传参
大学的时候参加ACM/ICPC一直使用的是C语言,实习的时候做一个算法策略后台用的是php,毕业后做策略算法开发,因为要用
spark
,所以写了scala,后来用基于storm开发实时策略,用的java。
LDG_AGI
·
2024-09-01 21:17
Python
python
开发语言
人工智能
机器学习
图像处理
深度学习
计算机视觉
HashMap
源码解析
目录一:put方法流程二:get方法三:扩容机制一:put方法流程publicVput(Kkey,Vvalue){returnputVal(hash(key),key,value,false,true);}finalVputVal(inthash,Kkey,Vvalue,booleanonlyIfAbsent,booleanevict){Node[]tab;Nodep;intn,i;//判断数组是
dlwlrma ⥳
·
2024-09-01 20:42
兴趣类
哈希算法
散列表
算法
Spring之启动过程
源码解析
前言分析通常,我们说的Spring启动,就是构造ApplicationContext对象以及调用refresh()方法的过程。首先,Spring启动过程主要做了这么几件事情:构造一个BeanFactory对象解析配置类,得到BeanDefinition,并注册到BeanFactory中解析@ComponentScan,此时就会完成扫描解析@Import解析@Bean...因为Application
阿立聊代码
·
2024-09-01 18:34
spring
spring
数据库
oracle
【HuggingFace Transformers】BertIntermediate 和 BertPooler
源码解析
BertIntermediate和BertPooler
源码解析
1.介绍1.1位置与功能1.2相似点与不同点2.
源码解析
2.1BertIntermediate
源码解析
2.2BertPooler
源码解析
1.
CS_木成河
·
2024-09-01 17:25
Hugging
Face
深度学习
人工智能
bert
python
大模型
Transformer
vue.js项目实战案例详细源码讲解
前言:为帮助大家更好地掌握Vue.js项目的开发流程,我将为你讲解一个完整的Vue.js实战案例,并提供详细的
源码解析
。
程序员小羊!
·
2024-09-01 12:20
Java
vue.js
前端
javascript
大数据毕业设计hadoop+
spark
+hive微博舆情情感分析 知识图谱微博推荐系统
+numpy或MapReduce对数据进行数据清洗,生成最终的.csv文件并上传到hdfs;(三)使用hive数仓技术建表建库,导入.csv数据集;(四)离线分析采用hive_sql完成,实时分析利用
Spark
qq_79856539
·
2024-09-01 11:16
javaweb
大数据
hadoop
课程设计
基于hadoop+
spark
的旅游大数据分析平台
S2023132基于hadoop+
spark
的旅游大数据分析平台使用BeautifulSoup爬取数据,爬取成功以后使用
spark
分析数据,将分析的结果保存到mysql,flask读取mysql数据,结合
源码空间站11
·
2024-09-01 11:16
hadoop
spark
旅游
大数据毕业设计天hadoop+
spark
+hive游戏推荐系统 游戏数据分析可视化大屏 steam游戏爬虫 游戏大数据 机器学习 知识图谱 计算机毕业设计 机器学习 深度学习 人工智能 知识图谱
|—||一、选题的目的和意义用户往往因为不能及时查看游戏信息而造成许多烦恼。另一方面,游戏商城平台没能进行系统的管理与维护使游戏信息没能及时的更新。而传统的游戏信息管理,采用的还是手工备案、人工查询的方式。但是随之游戏信息的增多这种管理方式的工作量不断加大,这种做法就存在费时费力、缺乏时效性、不利于调动人员的积极性等缺点。一旦网站建立好之后,一方面,用户可以在第一时间在系统里查询所需的信息,另一方
2401_84159688
·
2024-09-01 11:45
程序员
大数据
hadoop
人工智能
Go Context使用及
源码解析
概述context包提供了一种在Go程序中不同组件之间传递请求范围的值、取消信号和截止时间的方式。context包的设计目的是为了解决在Go的并发模型中,尤其是在goroutines之间,如何安全、高效地传递控制信息的问题。当Context被取消时,从其派生的所有Context也将被取消。Context接口Context接口定义了4个方法typeContextinterface{//返回Conte
zhangj1125
·
2024-09-01 09:29
Go
golang
后端
c#视觉应用开发中如何使用OpenCV库进行计算机视觉处理?
microPythonPython最小内核
源码解析
NI-motion运动控制c语言示例代码解析python编程示例系列python编程示例系列二python的Web神器Streamlit如何应聘高薪职位在
openwin_top
·
2024-09-01 05:38
C#视觉应用开发问题系列
计算机视觉
c#
opencv
Spark
Streaming结合kafka将offSet保存在redis中
Spark
Streaming结合kafka将offSet保存在redis中
Spark
Streaming结合kafka的两种方式1、
Spark
Streaming的高级APiCreateDStream,容易发生数据多次读取
哈哈xxy
·
2024-09-01 03:28
bigdata
sparkStreaming
kafka
offset
redis
Spark
Streaming+Kafka整合+offset管理
,并通过第三方存储zookeeper来手动管理offset目录前言offset管理一个完整的整合代码Demo(Java版)导入相关的Maven依赖创建通过ZK管理Offset的工具类测试类Demo前言
Spark
Streaming
JiahuiTian
·
2024-09-01 03:27
大数据
#
Spark
#
Kafka
kafka
spark
大数据
Spark
(46) --
Spark
Streaming整合kafka数据源
1.回顾Kafka可以看我前面kafka文章核心概念图解Broker:安装Kafka服务的机器就是一个brokerProducer:消息的生产者,负责将数据写入到broker中(push)Consumer:消息的消费者,负责从kafka中拉取数据(pull),老版本的消费者需要依赖zk,新版本的不需要Topic:主题,相当于是数据的一个分类,不同topic存放不同业务的数据--主题:区分业务Rep
erainm
·
2024-09-01 03:26
大数据学习
spark
【基于Hadoop3.3.6+
Spark
3.4.3电商用户行为分析】
基于Hadoop3.3.6+
Spark
3.4.3电商用户行为分析一、摘要二、正文2.1需求分析2.2架构设计2.3实施过程2.3.1系统环境说明2.3.2系统开发思路说明2.3.4代码实现及测试2.3.5
若兰幽竹
·
2024-09-01 00:09
大数据项目
大数据
基于
Spark
的云南旅游大数据分析平台
一、项目概述Hi,大家好,今天分享的项目是《基于
Spark
的云南旅游大数据分析平台》。随着旅游业的发展和数字化进程的加速,智慧旅游已成为旅游业的重要发展方向。
Sweican
·
2024-08-31 19:09
毕业设计
spark
大数据
分布式
Spark
SQL 结构化数据处理流程及原理是什么?
Spark
SQL结构化数据处理流程及原理是什么?
Spark
SQL可以使用现有的Hive元存储、SerDes和UDF。它可以使用JDBC/ODBC连接到现有的BI工具。
我想去吃ya
·
2024-08-31 16:18
spark
sql
hive
数据库
大数据
简单的PHP订单小程序
$totalqty=0;#总数$totalamount=0.0;#总金额define('TIREPRICE',100);#轮胎单价define('OILPRICE',50);#油耗单价define('
SPARK
PRICE
董.
·
2024-08-31 09:01
php
小程序
chrome
Py
Spark
操作DataFrame常用方法
文章目录PY
SPARK
DataFrame操作.na1.
百流
·
2024-08-30 16:07
PySpark使用笔记
spark
python
大数据
Android 12.0 App全屏时通过系统属性控制上划下拉是否显示虚拟导航栏和状态栏
参考资料https://zhuanlan.zhihu.com/p/440810585Android12系统源码_SystemUI(九)WindowInsetsController
源码解析
-CSDN博客解决方案
VaporRuby
·
2024-08-30 10:27
android
常见的实时数仓方案
实时部分以消息队列的方式实时增量消费,一般以Flink+Kafka的组合实现,维度表存在关系型数据库或者HBase;离线部分一般采用T+1周期调度分析历史存量数据,每天凌晨产出,更新覆盖前一天的结果数据,计算引擎通常会选择Hive或者
Spark
北极冰雨
·
2024-08-30 05:27
大数据
大数据
Spark
MLlib 数据预处理-特征变换
2019独角兽企业重金招聘Python工程师标准>>>Tokenizer(分词器)算法介绍:Tokenization将文本划分为独立个体(通常为单词)。RegexTokenizer基于正则表达式提供更多的划分选项。默认情况下,参数“pattern”为划分文本的分隔符。或者可以指定参数“gaps”来指明正则“patten”表示“tokens”而不是分隔符,这样来为分词结果找到所有可能匹配的情况。调用
weixin_33841722
·
2024-08-29 14:40
大数据
人工智能
scala
spark
应用程序转换_4.
Spark
特征提取、转换和选择 - 简书
在实际机器学习项目中,我们获取的数据往往是不规范、不一致、有很多缺失数据,甚至不少错误数据,这些数据有时又称为脏数据或噪音,在模型训练前,务必对这些脏数据进行处理,否则,再好的模型,也只能脏数据进,脏数据出。这章我们主要介绍对数据处理涉及的一些操作,主要包括:特征提取特征转换特征选择4.1特征提取特征提取一般指从原始数据中抽取特征。4.1.1词频-逆向文件频率(TF-IDF)词频-逆向文件频率(T
weixin_39956182
·
2024-08-29 14:10
spark应用程序转换
Spark
权威指南读书笔记(二):结构化API
API主要指三种核心分布式集合类型API:Dataset、DataFrame、SQL表和视图DataFrame和Dataset类型DataFrame和Dataset是具有行和列的类似于数据表的集合类型
Spark
kaiker
·
2024-08-29 11:23
Spark
-RDD迭代器管道计算
一、上下文《
Spark
-Task启动流程》中讲到我们提交Stage是传入的是这个Stage最后一个RDD,当Task中触发ShuffleWriter、返回Driver数据或者写入Hadoop文件系统时才触发这个
隔着天花板看星星
·
2024-08-29 07:24
spark
大数据
scala
每天一个数据分析题(五百零五)- 提升方法
A.AdaboostB.GBDTC.XGBOOSTD.随机森林数据分析认证考试介绍:点击进入题目来源于CDA模拟题库点击此处获取答案数据分析专项练习题库内容涵盖Python,SQL,统计学,数据分析理论,深度学习,可视化,机器学习,
Spark
跟着紫枫学姐学CDA
·
2024-08-29 05:43
数据分析题库
数据分析
每天一个数据分析题(五百零六)- 装袋方法
A.AdaboostB.GBDTC.XGBOOSTD.随机森林数据分析认证考试介绍:点击进入题目来源于CDA模拟题库点击此处获取答案数据分析专项练习题库内容涵盖Python,SQL,统计学,数据分析理论,深度学习,可视化,机器学习,
Spark
跟着紫枫学姐学CDA
·
2024-08-29 05:43
数据分析
数据挖掘
Spring之Bean生命周期
源码解析
上
Spring最重要的功能就是帮助程序员创建对象(也就是IOC),而启动Spring就是为创建Bean对象做准备,所以我们先明白Spring到底是怎么去创建Bean的,也就是先弄明白Bean的生命周期。Bean的生命周期就是指:在Spring中,一个Bean是如何生成的,如何销毁的Bean的生成过程1.生成BeanDefinitionSpring启动的时候会进行扫描,会先调用org.springfr
阿立聊代码
·
2024-08-29 05:12
spring
spring
java
后端
spark
mllib 特征学习笔记 (一)
Py
Spark
MLlib特征处理详解Py
Spark
MLlib提供了丰富的特征处理工具,帮助我们进行特征提取、转换和选择。以下是Py
Spark
MLlib中常用的特征处理类及其简要介绍。
路人与大师
·
2024-08-29 03:57
spark-ml
学习
笔记
Spark
MLlib 特征工程系列—特征转换VectorSizeHint
Spark
MLlib特征工程系列—特征转换VectorSizeHintVectorSizeHint是
Spark
提供的一个特征转换器,用于指定向量列的大小(即维度)。
不二人生
·
2024-08-29 03:56
Spark
实战
spark-ml
机器学习
spark
每天一个数据分析题(五百零二)- 分割式聚类算法
B.CentroidMethodC.Ward’sMethodD.以上皆非数据分析认证考试介绍:点击进入题目来源于CDA模拟题库点击此处获取答案数据分析专项练习题库内容涵盖Python,SQL,统计学,数据分析理论,深度学习,可视化,机器学习,
Spark
跟着紫枫学姐学CDA
·
2024-08-28 13:19
数据分析题库
算法
数据分析
聚类
Spark
Streaming 如何保证消费Kafka的数据不丢失不重复
目录
Spark
Streaming接收Kafka数据的方式有两种:Receiver接收数据和采用Direct方式。
K. Bob
·
2024-08-28 10:02
Spark
Spark
Spark
Sql
Spark
SQL基本介绍什么是
Spark
SQL?用于处理结构化数据的
Spark
模块。可以通过DataFrame和DataSet处理数据。
李思缘的大数据之路
·
2024-08-28 09:00
spark
sparksql
Spark
SQL优化查询性能的方法
一、Py
Spark
如何提高程序的运行效率和性能Py
Spark
的运行效率和性能受到多个因素的影响,包括数据大小、算法复杂度、硬件资源等。
大数据海中游泳的鱼
·
2024-08-28 09:57
Spark
大数据
优化
spark
大数据
Spark
on YARN
Apache
Spark
和ApacheHadoopYARN是两个紧密相关的项目,它们经常一起使用来处理大规模数据集。
静听山水
·
2024-08-28 09:26
Spark
spark
大数据
分布式
分享一个基于
Spark
的招聘数据可视化与分析系统Hadoop大数据源码(源码、调试、LW、开题、PPT)
作者:计算机源码社个人简介:本人八年开发经验,擅长Java、Python、PHP、.NET、Node.js、Android、微信小程序、爬虫、大数据、机器学习等,大家有这一块的问题可以一起交流!学习资料、程序开发、技术解答、文档报告如需要源码,可以扫取文章下方二维码联系咨询Java项目微信小程序项目Android项目Python项目PHP项目ASP.NET项目Node.js项目选题推荐项目实战|基
计算机源码社
·
2024-08-27 20:05
大数据
大数据
spark
毕业设计项目
计算机毕业设计源码
计算机毕设论文
hadoop
计算机课程设计
MyBatis
源码解析
:XMLConfigBuilder 解析过程
前言在MyBatis框架中,XMLConfigBuilder是一个关键类,负责解析mybatis-config.xml配置文件。理解这个类的工作原理有助于掌握MyBatis的配置管理和框架初始化过程。本篇文章将通过自定义实现一个简化版的XML配置解析器,并深入解析MyBatis中XMLConfigBuilder的实现细节。自定义实现:简化版XML配置解析器目标与功能我们将实现一个简化版的XML配置
捕风捉你
·
2024-08-27 18:21
MyBatis
源码解读
mybatis
java
spark
采坑集锦之用kafka作为DStream数据源,并行度问题
在
Spark
Streaming中作为数据源的Kafka怎样接收多主题发送的数据呢?
方兵兵
·
2024-08-27 16:41
spark采坑集锦
Hbase BulkLoad用法
要导入大量数据,Hbase的BulkLoad是必不可少的,在导入历史数据的时候,我们一般会选择使用BulkLoad方式,我们还可以借助
Spark
的计算能力将数据快速地导入。
kikiki4
·
2024-08-27 15:42
Spark
-- 基础开发和RDD相关知识总结!!!
目录一、基础开发1.Anaconda2.案例(基本代码)3.案例(链式编程)3.
spark
-submit3.StandAlone模式4.
Spark
OnYarn模式二、RDD1.RDD模型2.RDD常用算子
Alfie-
·
2024-08-27 12:13
Spark
spark
大数据
Spark
-第三周
1.
spark
context初始化源码分析
Spark
源码(7)-
Spark
Context初始化源码分析_太与旅
spark
源码-CSDN博客
Spark
源码学习(一):
Spark
Context初始化源码分析
fightingD&W
·
2024-08-27 12:13
Spark
spark
大数据
分布式
Spark
-第五周
spark
onyarn运行流程
Spark
onYarn模式下执行过程_
spark
onyarn作业执行流程-CSDN博客yarnclient与yarncluster区别
Spark
onYarn用执行流程图解(
fightingD&W
·
2024-08-27 12:13
Spark
spark
大数据
Spark
-第六周
1.
spark
sql运行流程【
Spark
精讲】一文讲透
Spark
SQL执行过程_
spark
sql执行过程-CSDN博客摸鱼大数据——
Spark
SQL——
Spark
SQL的运行机制-CSDN博客2.熟练使用
fightingD&W
·
2024-08-27 12:13
Spark
spark
大数据
分布式
Hbase BulkLoad用法
要导入大量数据,Hbase的BulkLoad是必不可少的,在导入历史数据的时候,我们一般会选择使用BulkLoad方式,我们还可以借助
Spark
的计算能力将数据快速地导入。
kikiki1
·
2024-08-27 04:22
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他