- org.apache.spark.SparkException: Kryo serialization failed: Buffer overflow...
对许
#Sparkspark大数据
Spark异常:Kryoserializationfailed:Bufferoverflow.1、问题描述SparkSQL任务报错如下:org.apache.spark.SparkException:Kryoserializationfailed:Bufferoverflow.Available:0,required:xxx.Toavoidthis,increasespark.kryoserial
- 阿里云 EMR Serverless Spark 在微财机器学习场景下的应用
Apache Spark中国社区
阿里云serverlessspark机器学习云计算
作者:微财技术研发经理宋鑫微财介绍微财是一家创新型的金融科技企业,凭借多年积累的金融科技能力和数据处理优势,为客户提供消费分期等金融信息服务,致力于成为值得信赖的金融机构合作伙伴。旗下拥有好分期等品牌,为高成长用户提供信用分期借款过程中的综合性信息、技术以及辅助服务。业务挑战数据资源是金融科技企业的核心价值,微财依托大数据评估用户借款过程中的风险,随着微财业务的快速发展,积累了大量用户数据,大数据
- spark-sql cli 参数及使用
千淘万漉
云计算/大数据spark-sql客户端
原文地址https://www.cnblogs.com/mobiwangyue/p/9049928.html很难找到spark-sqlcli使用的教程,总结下一、启动方法/data/spark-1.4.0-bin-cdh4/bin/spark-sql--masterspark://master:7077--total-executor-cores10--executor-memory1g--exe
- spark-sql日志屏蔽
jinruoqq
sparkspark
aliasmyspark-sql='spark-sql--driver-java-options"-Dlog4j.configuration=file:/spark/conf/log4j-warn.properties"'
- 使用Spark on YARN模式执行Spark Shell和Spark SQL编程
海上的风浪
sparksqlajax编程
使用SparkonYARN模式执行SparkShell和SparkSQL编程Spark是一个强大的分布式计算框架,它提供了许多API和工具,可以用于大规模数据处理和分析。在Spark中,可以通过使用SparkShell和SparkSQL来进行交互式编程和SQL查询。本文将介绍如何在SparkonYARN模式下使用SparkShell和SparkSQL进行编程,并提供相应的源代码示例。一、Spark
- spark core
什么芮.
sparkpytorchscala人工智能
RDD转换算子RDD根据数据处理方式的不同将算子整体上分为Value类型、双Value类型和Key-Value类型。Value类型:1、map函数签名defmap[U:ClassTag](f:T=>U):RDD[U]函数说明将处理的数据逐条进行映射转换,这里的转换可以是类型的转换,也可以是值的转换。2、mapPartitions函数签名defmapPartitions[U:ClassTag](f:
- spark- core
什么芮.
scalapytorch人工智能spark
1、sortByKey函数签名defsortByKey(ascending:Boolean=true,numPartitions:Int=self.partitions.length):RDD[(K,V)]函数说明在一个(K,V)的RDD上调用,K必须实现Ordered接口(特质),返回一个按照key进行排序2、join函数签名defjoin[W](other:RDD[(K,W)]):RDD[(K
- Spark-sql编程
神奇的黄豆
sparksql大数据
创建子模块并添加依赖在IDEA中创建一个名为Spark-SQL的子模块。在该子模块的pom.xml文件中添加Spark-SQL的依赖,具体依赖为org.apache.spark:spark-sql_2.12:3.0.0。编写Spark-SQL测试代码定义一个Usercaseclass,用于表示用户信息(id、name、age)。创建一个名为SparkSQLDemo的object,并在其中编写m
- spark-sql
什么芮.
sparksql
实验内容:利用IDEA开发Spark-SQL。实验步骤:利用IDEA开发Spark-SQL创建子模块并且添加依赖org.apache.sparkspark-sql_2.123.0.0在项目中创建了名为Spark-SQL的子模块,并添加了org.apache.spark:spark-sql_2.12:3.0.0依赖。创建Spark-SQL的测试代码:导入必要的包和定义数据结构:caseclassUs
- Spark中Maven的用法
Betty_蹄蹄boo
sparkmaven大数据
在IDEA中去创建项目,并编写java代码来操作集群中的文件1.IDEA中创建Maven项目步骤一:点击File->New->Project,在弹出的窗口左侧选择Maven,点击Next:步骤二:填写项目的GroupId、ArtifactId、Version等信息(这些对应pom.xml中的关键配置),点击Next。步骤三:确认项目配置信息无误后,点击Finish,IDEA会自动生成Maven项目
- Trino深度解析
Debug_TheWorld
大数据学习大数据
一、Trino概述与核心优势Trino(原名PrestoSQL)是一款开源的分布式SQL查询引擎,专为交互式分析与异构数据源联邦查询设计。其核心目标是提供低延迟、高吞吐的查询能力,支持从GB到PB级数据的跨源分析,适用于数据湖、实时报表、ETL加速等场景。与同类引擎(如Spark、Hive)相比,Trino具备以下显著优势:存算分离架构:通过连接器(Connector)抽象数据源,支持Hive、M
- KafkaSpark Streaming整合原理与代码实例讲解
AGI大模型与大数据研究院
DeepSeekR1&大数据AI人工智能计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
Kafka-SparkStreaming整合原理与代码实例讲解1.背景介绍1.1实时数据处理的重要性在当今大数据时代,海量数据以前所未有的速度持续产生。企业需要实时处理和分析这些数据,以便及时洞察业务状况,快速响应市场变化。传统的批处理方式已无法满足实时性要求,因此实时数据处理技术应运而生。1.2Kafka与SparkStreaming在实时处理中的地位Kafka作为高吞吐量的分布式消息队列,能够
- spark-submit命令总览
zmd-zk
大数据组件的使用大数据sparkpython分布式学习
pyspark可以使用pyspark命令在服务器黑窗口中进行spark代码的编写pyspark--masterlocal[2]本地模式pyspark--masterspark://bigdata01:7077standalone模式pyspark--masteryarnyarn模式//启动一个黑窗口进行任务的编写spark-submit#提交任务的命令:spark-submit[options][
- spark-submit 提交spark程序示例
probtions
spark大数据python
spark-submit\--masteryarn\--deploy-modeclient\--confspark.driver.maxResultSize=8g--confspark.driver.memory=8g\--confspark.executor.memory=16g\--confspark.debug.maxToStringFields=100\--conf"spark.yarn.
- spark-submit 任务提交过程分析
疯狂哈丘
spark大数据spark任务提交过程spark配置优先级
文章目录一、spark-submit脚本分析二、Main类的作用三、SparkSubmit类提交任务的过程如何和ResourceManger建立连接spark任务配置的优先级client模式的真正运行方式一、spark-submit脚本分析spark-submit的脚本内容很简单:#如果没设置SPARK_HOME的环境变量,调用find-spark-home文件寻找spark-homeif[-z"
- Spark-shell和Spark-submit
飞Link
Spark计算引擎sparkintellij-ideascala
Spark支持多种集群管理器(ClusterManager),取决于传递给SparkContext的MASTER环境变量的值:local、spark、yarn,区别如下:一、Spark-shell引入:之前我们使用提交任务都是使用spark-shell提交,spark-shell是Spark自带的交互式Shell程序,方便用户进行交互式编程,用户可以在该命令行下可以用scala编写spark程序,
- spark-sql提交参数详解整理
海阔天空_81
大数据sparksql
#1.spark任务提交当SPARK-SQL开发完成后需要将其提交到大数据平台上去跑,提交的时候需要对要使用的资源参数进行设置,目的:a.让任务在正确的环境下运行b.根据任务自身情况,设置合理参数,提高运行效率#2.设置参数说明##2.1class参数参数说明:spark程序的主类,仅针对java或scala应用,注意用全包名+类名##2.2name参数参数说明:应用程序的名称,可以在yarn上面
- spark python编程 林子雨_林子雨编著《Spark编程基础(Python版)》教材第5章的命令行和代码...
weixin_39790168
sparkpython编程林子雨
林子雨、郑海山、赖永炫编著《Spark编程基础(Python版)》(教材官网)教材中的代码,在纸质教材中的印刷效果,可能会影响读者对代码的理解,为了方便读者正确理解代码或者直接拷贝代码用于上机实验,这里提供全书配套的所有代码。查看所有章节代码第5章SparkSQLfrompysparkimportSparkContext,SparkConffrompyspark.sqlimportSparkSes
- spark编程基础python版实验报告_Spark课后实验报告
weixin_39714191
一、兼容问题Spark运行在Java8+,Python2.7+/3.4+和R3.1+上。对于ScalaAPI,Spark2.4.2使用Scala2.12。您需要使用兼容的Scala版本(2.12.x)。请注意,自Spark2.2.0起,对2.6.5之前的Java7,Python2.6和旧Hadoop版本的支持已被删除。自2.3.0起,对Scala2.10的支持被删除。自Spark2.4.1起,对S
- spark编程课后总结
一元钱面包
spark
RDD转换算子分类依据:RDD转换算子根据数据处理方式不同分为Value类型、双Value类型和Key-Value类型。这种分类有助于开发者针对不同的数据处理需求,快速选择合适的算子,提高开发效率。Value类型算子map算子:函数签名为defmap[U:ClassTag](f:T=>U):RDD[U],它会对RDD中的每个元素逐一进行函数f的转换操作。如示例中,先将RDD[Int]中的每个元素乘
- 大数据Hadoop+HBase+Spark+Hive集群搭建教程:一站式掌握大数据技术
贾诺翼
大数据Hadoop+HBase+Spark+Hive集群搭建教程:一站式掌握大数据技术【下载地址】大数据HadoopHBaseSparkHive集群搭建教程七月在线1本资源文件提供了关于如何搭建大数据集群的详细教程,涵盖了Hadoop、HBase、Spark和Hive等关键技术的配置与部署。教程内容由七月在线提供,旨在帮助用户快速掌握大数据集群的搭建方法,并能够在实际项目中应用这些技术项目地址:h
- SparkCore
山大古巨基
大数据sparkspark大数据
一、SparkCorespark架构二、RDD1、RDD概念1.1、RDD是spark的核心概念,它是一个容错、可以并行执行的分布式数据集1.2、RDD包含5个特征:一个分区的列表对于每一个分区都有一个计算函数存在对其他RDDs的依赖(宽依赖、窄依赖)的列表对于key-value的RDD有一个分区器有一个位置优先的函数2、RDD特点1.3、RDD的特点:分区只读RDD不可变依赖宽依赖和窄依赖(窄依
- 职业院校大数据开发与运维实训室建设可行性分析
武汉唯众智创
大数据运维大数据开发与运维大数据开发与运维实训室开发与运维大数据开发大数据运维
一、大数据开发与运维实训室建设背景1.1大数据技术发展现状大数据技术正以迅猛的势头发展,成为推动各行业数字化转型的关键力量。据国际数据公司(IDC)预测,全球大数据和分析软件市场将在未来五年内保持15%的年复合增长率。Hadoop和Spark作为大数据处理的核心技术,已经广泛应用于金融、电信、互联网等多个领域。Hadoop凭借其高可靠性和低成本,成为大规模数据存储和处理的首选框架。Spark则以其
- 通过分治策略解决内存限制问题完成大型Hive表数据的去重的PySpark代码实现
weixin_30777913
hive开发语言数据仓库算法大数据
在Hive集群中,有一张历史交易记录表,要从这张历史交易记录表中抽取一年的数据按某些字段进行Spark去重,由于这一年的数据超过整个集群的内存容量,需要分解成每个月的数据,分别用Spark去重,并保存为Parquet文件到临时的hdfs目录中,然后从磁盘上取得12个月的数据合并并且进行去重,最后输出的结果Hive表中,请用PySpark脚本实现这个功能的逻辑。该PySpark脚本通过分治策略解决内
- Azure databaricks spark 流式处理写入sql pool 参考地址
lbl251
sparkazuresparksql
1、azure的文档并不好找,案例也不好用,我不知道别人是什么感受,我是这种感觉2、最合适的开发方式是在azuredatabaricks的netbook上面写spark代码,不要用idea3、欢迎一起吐槽4、有其他的流式处理链接欢迎发我,我们一起学习#参考的网址https://docs.microsoft.com/en-us/answers/questions/193131/databricks-
- Spark Core(2)
[太阳]88
windows
以下是今天学习的知识点以及代码测试:SparkCoreSpark-Core编程(四)23)sortByKey➢函数签名defsortByKey(ascending:Boolean=true,numPartitions:Int=self.partitions.length):RDD[(K,V)]➢函数说明在一个(K,V)的RDD上调用,K必须实现Ordered接口(特质),返回一个按照key进行排序
- 【spark--scala】--环境配置
QX_hao
sparkscala大数据
文章目录scalasparkscala官网下载二进制包添加环境变量#setscalaexportSCALA_HOME=/usr/local/src/scala-2.11.8exportPATH=$PATH:$SCALA_HOME/binspark官网下载二进制包解压后spark/confcpslaves.templateslavescpspark-env.sh.templatespark-env.
- java dataframe map_Spark DataFrame 开发指南
独自冷静的时光
javadataframemap
DataFrame是Spark在RDD之后新推出的一个数据集,从属于SparkSQL模块,适用于结构化数据。对于我们这些用惯了数据库表和散列/字典结构的人来说,尤为亲切。女神镇楼可以直接读取关系型数据库产生DataFrame:frompyspark.sqlimportSparkSessionspark=SparkSession\.builder\.appName("myapp")\.config(
- Spark详解(二、SparkCore)
杨老七
SparkNodespark大数据bigdata
SparkCore是Spark计算引擎的基础,后面的sparksql以及sparkstreaming等,都是基于SparkCore的。这里笔者就开始详细的介绍SparkCore。如果要介绍SparkCore,必须详细介绍一下RDD。一、RDD编程RDD(ResilientDistributedDataset)叫做分布式数据集,是Spark中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并
- 局域网文件共享软件 开源_4个用于共享文件的开源工具
cumo7370
javapython大数据编程语言linux
局域网文件共享软件开源在您的生活中,有时您必须与某人共享一个或多个文件,无论该人是朋友,家庭成员,同事或合作伙伴还是客户。许多人通过使用诸如ownCloud,Nextcloud或SparkleShare之类的应用程序来完成自己对开源的信念。这三款游戏既坚固又灵活,但它们并不是镇上唯一的游戏。也许您的需求倾向于更简单的应用程序。或者,也许您只想要一个专用的文件共享工具,即可将功能和数据掌握在手中。您
- jquery实现的jsonp掉java后台
知了ing
javajsonpjquery
什么是JSONP?
先说说JSONP是怎么产生的:
其实网上关于JSONP的讲解有很多,但却千篇一律,而且云里雾里,对于很多刚接触的人来讲理解起来有些困难,小可不才,试着用自己的方式来阐释一下这个问题,看看是否有帮助。
1、一个众所周知的问题,Ajax直接请求普通文件存在跨域无权限访问的问题,甭管你是静态页面、动态网页、web服务、WCF,只要是跨域请求,一律不准;
2、
- Struts2学习笔记
caoyong
struts2
SSH : Spring + Struts2 + Hibernate
三层架构(表示层,业务逻辑层,数据访问层) MVC模式 (Model View Controller)
分层原则:单向依赖,接口耦合
1、Struts2 = Struts + Webwork
2、搭建struts2开发环境
a>、到www.apac
- SpringMVC学习之后台往前台传值方法
满城风雨近重阳
springMVC
springMVC控制器往前台传值的方法有以下几种:
1.ModelAndView
通过往ModelAndView中存放viewName:目标地址和attribute参数来实现传参:
ModelAndView mv=new ModelAndView();
mv.setViewName="success
- WebService存在的必要性?
一炮送你回车库
webservice
做Java的经常在选择Webservice框架上徘徊很久,Axis Xfire Axis2 CXF ,他们只有一个功能,发布HTTP服务然后用XML做数据传输。
是的,他们就做了两个功能,发布一个http服务让客户端或者浏览器连接,接收xml参数并发送xml结果。
当在不同的平台间传输数据时,就需要一个都能解析的数据格式。
但是为什么要使用xml呢?不能使json或者其他通用数据
- js年份下拉框
3213213333332132
java web ee
<div id="divValue">test...</div>测试
//年份
<select id="year"></select>
<script type="text/javascript">
window.onload =
- 简单链式调用的实现技术
归来朝歌
方法调用链式反应编程思想
在编程中,我们可以经常遇到这样一种场景:一个实例不断调用它自身的方法,像一条链条一样进行调用
这样的调用你可能在Ajax中,在页面中添加标签:
$("<p>").append($("<span>").text(list[i].name)).appendTo("#result");
也可能在HQ
- JAVA调用.net 发布的webservice 接口
darkranger
webservice
/**
* @Title: callInvoke
* @Description: TODO(调用接口公共方法)
* @param @param url 地址
* @param @param method 方法
* @param @param pama 参数
* @param @return
* @param @throws BusinessException
- Javascript模糊查找 | 第一章 循环不能不重视。
aijuans
Way
最近受我的朋友委托用js+HTML做一个像手册一样的程序,里面要有可展开的大纲,模糊查找等功能。我这个人说实在的懒,本来是不愿意的,但想起了父亲以前教我要给朋友搞好关系,再加上这也可以巩固自己的js技术,于是就开始开发这个程序,没想到却出了点小问题,我做的查找只能绝对查找。具体的js代码如下:
function search(){
var arr=new Array("my
- 狼和羊,该怎么抉择
atongyeye
工作
狼和羊,该怎么抉择
在做一个链家的小项目,只有我和另外一个同事两个人负责,各负责一部分接口,我的接口写完,并全部测联调试通过。所以工作就剩下一下细枝末节的,工作就轻松很多。每天会帮另一个同事测试一些功能点,协助他完成一些业务型不强的工作。
今天早上到公司没多久,领导就在QQ上给我发信息,让我多协助同事测试,让我积极主动些,有点责任心等等,我听了这话,心里面立马凉半截,首先一个领导轻易说
- 读取android系统的联系人拨号
百合不是茶
androidsqlite数据库内容提供者系统服务的使用
联系人的姓名和号码是保存在不同的表中,不要一下子把号码查询来,我开始就是把姓名和电话同时查询出来的,导致系统非常的慢
关键代码:
1, 使用javabean操作存储读取到的数据
package com.example.bean;
/**
*
* @author Admini
- ORACLE自定义异常
bijian1013
数据库自定义异常
实例:
CREATE OR REPLACE PROCEDURE test_Exception
(
ParameterA IN varchar2,
ParameterB IN varchar2,
ErrorCode OUT varchar2 --返回值,错误编码
)
AS
/*以下是一些变量的定义*/
V1 NUMBER;
V2 nvarc
- 查看端号使用情况
征客丶
windows
一、查看端口
在windows命令行窗口下执行:
>netstat -aon|findstr "8080"
显示结果:
TCP 127.0.0.1:80 0.0.0.0:0 &
- 【Spark二十】运行Spark Streaming的NetworkWordCount实例
bit1129
wordcount
Spark Streaming简介
NetworkWordCount代码
/*
* Licensed to the Apache Software Foundation (ASF) under one or more
* contributor license agreements. See the NOTICE file distributed with
- Struts2 与 SpringMVC的比较
BlueSkator
struts2spring mvc
1. 机制:spring mvc的入口是servlet,而struts2是filter,这样就导致了二者的机制不同。 2. 性能:spring会稍微比struts快。spring mvc是基于方法的设计,而sturts是基于类,每次发一次请求都会实例一个action,每个action都会被注入属性,而spring基于方法,粒度更细,但要小心把握像在servlet控制数据一样。spring
- Hibernate在更新时,是可以不用session的update方法的(转帖)
BreakingBad
Hibernateupdate
地址:http://blog.csdn.net/plpblue/article/details/9304459
public void synDevNameWithItil()
{Session session = null;Transaction tr = null;try{session = HibernateUtil.getSession();tr = session.beginTran
- 读《研磨设计模式》-代码笔记-观察者模式
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.util.ArrayList;
import java.util.List;
import java.util.Observable;
import java.util.Observer;
/**
* “观
- 重置MySQL密码
chenhbc
mysql重置密码忘记密码
如果你也像我这么健忘,把MySQL的密码搞忘记了,经过下面几个步骤就可以重置了(以Windows为例,Linux/Unix类似):
1、关闭MySQL服务
2、打开CMD,进入MySQL安装目录的bin目录下,以跳过权限检查的方式启动MySQL
mysqld --skip-grant-tables
3、新开一个CMD窗口,进入MySQL
mysql -uroot
- 再谈系统论,控制论和信息论
comsci
设计模式生物能源企业应用领域模型
再谈系统论,控制论和信息论
偶然看
- oracle moving window size与 AWR retention period关系
daizj
oracle
转自: http://tomszrp.itpub.net/post/11835/494147
晚上在做11gR1的一个awrrpt报告时,顺便想调整一下AWR snapshot的保留时间,结果遇到了ORA-13541这样的错误.下面是这个问题的发生和解决过程.
SQL> select * from v$version;
BANNER
-------------------
- Python版B树
dieslrae
python
话说以前的树都用java写的,最近发现python有点生疏了,于是用python写了个B树实现,B树在索引领域用得还是蛮多了,如果没记错mysql的默认索引好像就是B树...
首先是数据实体对象,很简单,只存放key,value
class Entity(object):
'''数据实体'''
def __init__(self,key,value)
- C语言冒泡排序
dcj3sjt126com
算法
代码示例:
# include <stdio.h>
//冒泡排序
void sort(int * a, int len)
{
int i, j, t;
for (i=0; i<len-1; i++)
{
for (j=0; j<len-1-i; j++)
{
if (a[j] > a[j+1]) // >表示升序
- 自定义导航栏样式
dcj3sjt126com
自定义
-(void)setupAppAppearance
{
[[UILabel appearance] setFont:[UIFont fontWithName:@"FZLTHK—GBK1-0" size:20]];
[UIButton appearance].titleLabel.font =[UIFont fontWithName:@"FZLTH
- 11.性能优化-优化-JVM参数总结
frank1234
jvm参数性能优化
1.堆
-Xms --初始堆大小
-Xmx --最大堆大小
-Xmn --新生代大小
-Xss --线程栈大小
-XX:PermSize --永久代初始大小
-XX:MaxPermSize --永久代最大值
-XX:SurvivorRatio --新生代和suvivor比例,默认为8
-XX:TargetSurvivorRatio --survivor可使用
- nginx日志分割 for linux
HarborChung
nginxlinux脚本
nginx日志分割 for linux 默认情况下,nginx是不分割访问日志的,久而久之,网站的日志文件将会越来越大,占用空间不说,如果有问题要查看网站的日志的话,庞大的文件也将很难打开,于是便有了下面的脚本 使用方法,先将以下脚本保存为 cutlog.sh,放在/root 目录下,然后给予此脚本执行的权限
复制代码代码如下:
chmo
- Spring4新特性——泛型限定式依赖注入
jinnianshilongnian
springspring4泛型式依赖注入
Spring4新特性——泛型限定式依赖注入
Spring4新特性——核心容器的其他改进
Spring4新特性——Web开发的增强
Spring4新特性——集成Bean Validation 1.1(JSR-349)到SpringMVC
Spring4新特性——Groovy Bean定义DSL
Spring4新特性——更好的Java泛型操作API
Spring4新
- centOS安装GCC和G++
liuxihope
centosgcc
Centos支持yum安装,安装软件一般格式为yum install .......,注意安装时要先成为root用户。
按照这个思路,我想安装过程如下:
安装gcc:yum install gcc
安装g++: yum install g++
实际操作过程发现,只能有gcc安装成功,而g++安装失败,提示g++ command not found。上网查了一下,正确安装应该
- 第13章 Ajax进阶(上)
onestopweb
Ajax
index.html
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/
- How to determine BusinessObjects service pack and fix pack
blueoxygen
BO
http://bukhantsov.org/2011/08/how-to-determine-businessobjects-service-pack-and-fix-pack/
The table below is helpful. Reference
BOE XI 3.x
12.0.0.
y BOE XI 3.0 12.0.
x.
y BO
- Oracle里的自增字段设置
tomcat_oracle
oracle
大家都知道吧,这很坑,尤其是用惯了mysql里的自增字段设置,结果oracle里面没有的。oh,no 我用的是12c版本的,它有一个新特性,可以这样设置自增序列,在创建表是,把id设置为自增序列
create table t
(
id number generated by default as identity (start with 1 increment b
- Spring Security(01)——初体验
yang_winnie
springSecurity
Spring Security(01)——初体验
博客分类: spring Security
Spring Security入门安全认证
首先我们为Spring Security专门建立一个Spring的配置文件,该文件就专门用来作为Spring Security的配置