- 大模型的学习 LLaMa和ChatGLM,minichatgpt4
贝猫说python
学习llama人工智能
LLaMa和ChatGLM,minichatgpt4什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?答:Bert的模型由多层双向的Transformer编码器组成,由12层组成,768隐藏单元,12个head,总参数量110M,约1.15亿参数量。NLU(自然语言理解)任务效果很好,单卡GPU可以部署,速度快,V100GPU下1秒能处理2千条以上。ChatGLM-6B,
- chatGLM-6B部署报错quantization_kernels_parallel.so‘ (or one of its dependencies). Try using the full pat
FL1623863129
环境配置深度学习
用python部署chatglm2时候报错:FileNotFoundError:Couldnotfindmodule'C:\Users\Administrator\.cache\huggingface\modules\transformers_modules\chatglm2-6b-int4\quantization_kernels_parallel.so'(oroneofitsdependenc
- 论文阅读——SpectralGPT
じんじん
论文计算机视觉人工智能
SpectralGPT:SpectralFoundationModelSpectralGPT的通用RS基础模型,该模型专门用于使用新型3D生成预训练Transformer(GPT)处理光谱RS图像。重建损失由两个部分组成:令牌到令牌和频谱到频谱下游任务:
- 今日无更新
我的昵称违规了
学校的一个会忙得昏天黑地。明天有自己的一个发表,还要准备PPT,根据原来的改改就好……这周真的是有点繁杂了,搞定之后连着四五月份要写两篇论文,再加上五月底的课程论文还有紧接着的文献综述,看样子要疯……现在梳理一下自己手里的锤子:转到Pytorch,使用AllenNLP了解Transformer、了解LSTM了解jieba等分词工具了解Gensim等NLP处理工具接下来要做的:基于AllenNLP搞
- YOLOv9改进 添加可变形注意力机制DAttention
学yolo的小白
UPgradeYOLOv9YOLOpython目标检测pytorch
一、DeformableAttentionTransformer论文论文地址:arxiv.org/pdf/2201.00520.pdf二、DeformableAttentionTransformer注意力结构DeformableAttentionTransformer包含可变形注意力机制,允许模型根据输入的内容动态调整注意力权重。在传统的Transformer中,注意力是通过对查询和键向量之间的点
- 图像算法实习生--面经1
小豆包的小朋友0217
算法
系列文章目录文章目录系列文章目录前言一、为什么torch里面要用optimizer.zero_grad()进行梯度置0二、Unet神经网络为什么会在医学图像分割表现好?三、transformer相关问题四、介绍一下胶囊网络的动态路由五、yolo系列出到v9了,介绍一下你最熟悉的yolo算法六、一阶段目标检测算法和二阶段目标检测算法有什么区别?七、讲一下剪枝八、讲一下PTQandQAT量化的区别九、
- 【学习总结】Python transformers AutoTokenizer encode 出现的 101 和 102
爱学习的小道长
AIpython学习AI编程
1.代码展示:fromtransformersimportAutoTokenizer,AutoModelmodel_name="bert-base-chinese"tokenizer=AutoTokenizer.from_pretrained(model_name)model=AutoModel.from_pretrained(model_name)print(len(tokenizer.voca
- 深度学习踩坑记录(持续更新)
芒果不茫QAQ
深度学习人工智能
目录4060显卡cuda版本异常transformers初始化TrainingArguments时output_dir指定问题4060显卡cuda版本异常环境:torch1.11.0+cu113程序报错RuntimeError:nvrtc:error:invalidvaluefor--gpu-architecture(-arch)可能原因与解决办法4060显卡是sm_89架构,支持11.7以上cu
- 小白看得懂的 Transformer
zy_zeros
python开发语言
1.导语谷歌推出的BERT模型在11项NLP任务中夺得SOTA结果,引爆了整个NLP界。而BERT取得成功的一个关键因素是Transformer的强大作用。谷歌的Transformer模型最早是用于机器翻译任务,当时达到了SOTA效果。Transformer改进了RNN最被人诟病的训练慢的缺点,利用self-attention机制实现快速并行。并且Transformer可以增加到非常深的深度,充分
- beam search原理与常见实现,与直接sample的区别
samoyan
LLM面试transformer面试
目录BeamSearch原理1.基本概念2.工作流程3.特点BeamSearch与直接Sample的区别1.确定性与随机性2.结果多样性3.性能与效率4.应用场景常见的BeamSearch实现1.TensorFlow库2.PyTorch库3.HuggingFace的Transformers库算法库和工具BeamSearch原理1.基本概念BeamSearch是一种启发式图搜索算法,常用于自然语言处
- Transformer、BERT和GPT 自然语言处理领域的重要模型
Jiang_Immortals
人工智能自然语言处理transformerbert
Transformer、BERT和GPT都是自然语言处理领域的重要模型,它们之间有一些区别和联系。区别:架构:Transformer是一种基于自注意力机制的神经网络架构,用于编码输入序列和解码输出序列。BERT(BidirectionalEncoderRepresentationsfromTransformers)是基于Transformer架构的双向编码模型,用于学习上下文无关的词向量表示。GP
- [论文笔记] Transformer-XL
心心喵
论文笔记transformer深度学习人工智能
这篇论文提出的Transformer-XL主要是针对Transformer在解决长依赖问题中受到固定长度上下文的限制,如Bert采用的Transformer最大上下文为512(其中是因为计算资源的限制,不是因为位置编码,因为使用的是绝对位置编码正余弦编码)。Transformer-XL能学习超过固定长度的依赖性,而不破坏时间一致性。它由段级递归机制和一种新的位置编码方案组成。该方法不仅能够捕获长期
- ChatGPT介绍
程序媛9688
gpt
ChatGPT概述ChatGPT是一种前沿的大型语言模型(LargeLanguageModel,LLM),由人工智能研究组织OpenAI研发并推出。它基于Transformer架构,这是一种在自然语言处理(NLP)领域取得突破的深度学习方法。通过在海量的互联网文本数据上进行预训练,ChatGPT获得了强大的语言理解和生成能力。语言理解能力ChatGPT能够理解和分析复杂的自然语言文本。无论是用户提
- VisionLLaMA: A Unified LLaMA Interface for Vision Tasks
liferecords
LLMllama深度学习人工智能机器学习自然语言处理算法
VisionLLaMA:AUnifiedLLaMAInterfaceforVisionTasks相关链接:arxivgithub关键字:VisionLLaMA、visiontransformers、imagegeneration、imageclassification、semanticsegmentation摘要大型语言模型(LLMs)通常基于Transformer架构来处理文本输入。例如,LLa
- Sora - 探索AI视频模型的无限可能
nanshaws
人工智能
方向一:技术解析Sora是OpenAI推出的一款先进的AI视频模型,它在技术上具有多个显著特点。首先,Sora能够处理和生成各种格式的视频,包括不同的时长、宽高比和分辨率,甚至能够生成长达一分钟的高清视频。这一特性使得Sora成为一个通用的视觉数据模型,适用于广泛的应用场景。其次,Sora在技术上采用了扩散型变换器(DiffusionTransformer)架构。这种架构结合了扩散模型和变换器模型
- 转载--OpenAI视频生成模型Sora的全面解析:从ViViT、Diffusion Transformer到NaViT、VideoPoet
依然风yrlf
人工智能
前言真没想到,距离视频生成上一轮的集中爆发(详见《Sora之前的视频生成发展史:从Gen2、EmuVideo到PixelDance、SVD、Pika1.0》)才过去三个月,没想OpenAI一出手,该领域又直接变天了自打2.16日OpenAI发布sora以来(其开发团队包括DALLE3的4作TimBrooks、DiT一作BillPeebles、三代DALLE的核心作者之一AdityaRamesh等1
- 关于MediaEval数据集的Dataset构建(Text部分-使用PLM BERT)
Coisíní℘
多模态虚假新闻检测bert人工智能深度学习
importrandomimportnumpyasnpimportpandasaspdimporttorchfromtransformersimportBertModel,BertTokenizerfromtqdm.autoimporttqdmfromtorch.utils.dataimportDatasetimportre"""参考Game-On论文""""""util.py"""defset_
- Transformer结构介绍和Pyotrch代码实现
肆十二
Pytorch语法transformer深度学习人工智能
Transformer结构介绍和Pyotrch代码实现关注B站查看更多手把手教学:肆十二-的个人空间-肆十二-个人主页-哔哩哔哩视频(bilibili.com)基本结构介绍Transformer结构是近年来自然语言处理(NLP)领域的重要突破,它完全基于注意力机制(AttentionMechanism)来实现,克服了传统RNN模型无法并行计算以及容易丢失长距离依赖信息的问题。Transformer
- 你下个Vite项目能不能用上Lightning CSS
Vite自从4.4版本开始实验性支持LightningCSS,可以让项目的CSS打包速度更快,构建体积更小,我们来一起看看在Vite中怎么配置使用LightningCSS吧。LightningCSS什么是LightningCSS引用官方的介绍:AnextremelyfastCSSparser,transformer,bundler,andminifier.一个非常快的CSS解析器、转换器、打包器和
- Mamba 作者谈 LLM 未来架构
JOYCE_Leo16
Mamba架构计算机视觉深度学习transformerMamba
文章目录前言1、为什么注意力机制有效?2、注意力计算量呈平方级增长3、StripedHyena是个什么模型?4、什么是Mamba?5、Mamba硬件优化6、2024年架构预测7、对AI更多的预测本片文章来自【机器之心】对Mamba作者进行采访所进行的编译整理。前言在大模型领域,一直稳站C位的Transformer最近似乎有被超越的趋势。这个挑战者就是一项名为【Mamba】的研究,其在语言、音频和基
- Transformer视频理解学习的笔记
LinlyZhai
transformer学习笔记
今天复习了Transformer,ViT,学了SwinTransformer,还有观看了B站视频理解沐神系列串讲视频上(24.2.26未看完,明天接着看)这里面更多论文见:https://github.com/mli/paper-reading/B站视频理解沐神系列串讲视频下(明天接着看)上面这张图中的知识蒸馏,可以回头看一下上面这个github网址论文:VideoTransformers:ASu
- 基于深度学习的中文语音识别系统(毕设)
程序员奇奇
深度学习从入门到精通语音识别深度学习人工智能
该系统实现了基于深度框架的语音识别中的声学模型和语言模型建模,其中声学模型包括CNN-CTC、GRU-CTC、CNN-RNN-CTC,语言模型包含transformer、CBHG,数据集包含stc、primewords、Aishell、thchs30四个数据集。本项目现已训练一个迷你的语音识别系统,将项目下载到本地上,下载thchs数据集并解压至data,运行test.py,不出意外能够进行识别,
- 一些大佬的可解释人工智能的优质资料整理及总结(更新中)
Trouville01
人工智能
针对Transformer系列模型的模型可解释性分析:1.关于Transformer可解释性的介绍:Transformer模型的可解释性内容总结:2.关于VIT模型的可解释性研究介绍:VisionTransformer的可解释性内容总结:3.关于Human-in-the-loop的可解释性算法介绍:深度学习的可解释性XAI-6-人机交互类解释(Human-in-the-loopExplanatio
- Attention注意力机制
xieyan0811
网上的文章总把Attention注意力机制和Transformer模型结合来讲,看起来非常复杂。实际上Attention不仅作用于自然语言处理领域,目前已是很通用的技术。本篇来看看Attention的原理,以及在各个领域的典型应用。原理越来越多的模型用到注意力机制,它已成为与全连接,卷积,循环网络同等重要的技术。简单地说,当人观察图片时,一般先扫一眼,确定大概信息,然后聚焦在图中的重要区域,这个区
- 大模型量化技术原理-LLM.int8()、GPTQ
吃果冻不吐果冻皮
动手学大模型人工智能
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变得越来越大,因此,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。模型压缩主要分为如下几类:剪枝(Pruning)知识蒸馏(KnowledgeDistillation)量化之前也写过一些文章涉及大模型量化相关的内容。基于LLaMA-7B/Bloomz-7B1-mt复现开
- 【机器学习案例5】语言建模 - 最常见的预训练任务一览表
suoge223
机器学习实用指南机器学习人工智能
自监督学习(SSL)是基于Transformer的预训练语言模型的支柱,该范例涉及解决有助于建模自然语言的预训练任务(PT)。本文将所有流行的预训练任务放在一起,以便我们一目了然地评估它们。SSL中的损失函数这里的损失函数只是模型训练的各个预训练任务损失的加权和。以BERT为例,损失将是MLM(MaskedLanguageModelling)和NSP(NextSentencePrediction)
- java实现Word文件转换成PDF
@Ciano
Javajava开发语言
使用document4j将Word文档转换成PDF首先当然是导入maven坐标com.documents4jdocuments4j-local1.0.3com.documents4jdocuments4j-api1.0.3com.documents4jdocuments4j-transformer-msoffice-word1.0.3第二步:后台代码@GetMapping("/wordToPdf"
- Java 实现 WORD转PDF,用Documents4j
总有刁民想害朕啊
Documents4jword转pdfjava
window系统,安装有MSoffice可以使用参考地址:https://stackoverflow.com/a/59624576依赖:com.documents4jdocuments4j-local1.0.3com.documents4jdocuments4j-transformer-msoffice-word1.0.3Java代码:importjava.io.File;importjava.i
- openai chat GPT-4 Technical Report 技术报告论文
后端java
摘要我们报告了GPT-4的开发,这是一个大规模、多模态的模型,可以接受图像和文本输入,并生成文本输出。虽然在许多现实场景中不如人类,但GPT-4在各种专业和学术基准测试中表现出与人类水平相当的性能,包括在模拟的律师资格考试中取得了约前10%的考生得分。GPT-4是基于Transformer架构的模型,经过预训练以预测文档中的下一个标记。后训练对齐过程导致在事实性和符合所需行为方面的性能得到改善。该
- openai chat GPT-4 Technical Report 技术报告论文
后端java
摘要我们报告了GPT-4的开发,这是一个大规模、多模态的模型,可以接受图像和文本输入,并生成文本输出。虽然在许多现实场景中不如人类,但GPT-4在各种专业和学术基准测试中表现出与人类水平相当的性能,包括在模拟的律师资格考试中取得了约前10%的考生得分。GPT-4是基于Transformer架构的模型,经过预训练以预测文档中的下一个标记。后训练对齐过程导致在事实性和符合所需行为方面的性能得到改善。该
- Java实现的简单双向Map,支持重复Value
superlxw1234
java双向map
关键字:Java双向Map、DualHashBidiMap
有个需求,需要根据即时修改Map结构中的Value值,比如,将Map中所有value=V1的记录改成value=V2,key保持不变。
数据量比较大,遍历Map性能太差,这就需要根据Value先找到Key,然后去修改。
即:既要根据Key找Value,又要根据Value
- PL/SQL触发器基础及例子
百合不是茶
oracle数据库触发器PL/SQL编程
触发器的简介;
触发器的定义就是说某个条件成立的时候,触发器里面所定义的语句就会被自动的执行。因此触发器不需要人为的去调用,也不能调用。触发器和过程函数类似 过程函数必须要调用,
一个表中最多只能有12个触发器类型的,触发器和过程函数相似 触发器不需要调用直接执行,
触发时间:指明触发器何时执行,该值可取:
before:表示在数据库动作之前触发
- [时空与探索]穿越时空的一些问题
comsci
问题
我们还没有进行过任何数学形式上的证明,仅仅是一个猜想.....
这个猜想就是; 任何有质量的物体(哪怕只有一微克)都不可能穿越时空,该物体强行穿越时空的时候,物体的质量会与时空粒子产生反应,物体会变成暗物质,也就是说,任何物体穿越时空会变成暗物质..(暗物质就我的理
- easy ui datagrid上移下移一行
商人shang
js上移下移easyuidatagrid
/**
* 向上移动一行
*
* @param dg
* @param row
*/
function moveupRow(dg, row) {
var datagrid = $(dg);
var index = datagrid.datagrid("getRowIndex", row);
if (isFirstRow(dg, row)) {
- Java反射
oloz
反射
本人菜鸟,今天恰好有时间,写写博客,总结复习一下java反射方面的知识,欢迎大家探讨交流学习指教
首先看看java中的Class
package demo;
public class ClassTest {
/*先了解java中的Class*/
public static void main(String[] args) {
//任何一个类都
- springMVC 使用JSR-303 Validation验证
杨白白
springmvc
JSR-303是一个数据验证的规范,但是spring并没有对其进行实现,Hibernate Validator是实现了这一规范的,通过此这个实现来讲SpringMVC对JSR-303的支持。
JSR-303的校验是基于注解的,首先要把这些注解标记在需要验证的实体类的属性上或是其对应的get方法上。
登录需要验证类
public class Login {
@NotEmpty
- log4j
香水浓
log4j
log4j.rootCategory=DEBUG, STDOUT, DAILYFILE, HTML, DATABASE
#log4j.rootCategory=DEBUG, STDOUT, DAILYFILE, ROLLINGFILE, HTML
#console
log4j.appender.STDOUT=org.apache.log4j.ConsoleAppender
log4
- 使用ajax和history.pushState无刷新改变页面URL
agevs
jquery框架Ajaxhtml5chrome
表现
如果你使用chrome或者firefox等浏览器访问本博客、github.com、plus.google.com等网站时,细心的你会发现页面之间的点击是通过ajax异步请求的,同时页面的URL发生了了改变。并且能够很好的支持浏览器前进和后退。
是什么有这么强大的功能呢?
HTML5里引用了新的API,history.pushState和history.replaceState,就是通过
- centos中文乱码
AILIKES
centosOSssh
一、CentOS系统访问 g.cn ,发现中文乱码。
于是用以前的方式:yum -y install fonts-chinese
CentOS系统安装后,还是不能显示中文字体。我使用 gedit 编辑源码,其中文注释也为乱码。
后来,终于找到以下方法可以解决,需要两个中文支持的包:
fonts-chinese-3.02-12.
- 触发器
baalwolf
触发器
触发器(trigger):监视某种情况,并触发某种操作。
触发器创建语法四要素:1.监视地点(table) 2.监视事件(insert/update/delete) 3.触发时间(after/before) 4.触发事件(insert/update/delete)
语法:
create trigger triggerName
after/before 
- JS正则表达式的i m g
bijian1013
JavaScript正则表达式
g:表示全局(global)模式,即模式将被应用于所有字符串,而非在发现第一个匹配项时立即停止。 i:表示不区分大小写(case-insensitive)模式,即在确定匹配项时忽略模式与字符串的大小写。 m:表示
- HTML5模式和Hashbang模式
bijian1013
JavaScriptAngularJSHashbang模式HTML5模式
我们可以用$locationProvider来配置$location服务(可以采用注入的方式,就像AngularJS中其他所有东西一样)。这里provider的两个参数很有意思,介绍如下。
html5Mode
一个布尔值,标识$location服务是否运行在HTML5模式下。
ha
- [Maven学习笔记六]Maven生命周期
bit1129
maven
从mvn test的输出开始说起
当我们在user-core中执行mvn test时,执行的输出如下:
/software/devsoftware/jdk1.7.0_55/bin/java -Dmaven.home=/software/devsoftware/apache-maven-3.2.1 -Dclassworlds.conf=/software/devs
- 【Hadoop七】基于Yarn的Hadoop Map Reduce容错
bit1129
hadoop
运行于Yarn的Map Reduce作业,可能发生失败的点包括
Task Failure
Application Master Failure
Node Manager Failure
Resource Manager Failure
1. Task Failure
任务执行过程中产生的异常和JVM的意外终止会汇报给Application Master。僵死的任务也会被A
- 记一次数据推送的异常解决端口解决
ronin47
记一次数据推送的异常解决
需求:从db获取数据然后推送到B
程序开发完成,上jboss,刚开始报了很多错,逐一解决,可最后显示连接不到数据库。机房的同事说可以ping 通。
自已画了个图,逐一排除,把linux 防火墙 和 setenforce 设置最低。
service iptables stop
- 巧用视错觉-UI更有趣
brotherlamp
UIui视频ui教程ui自学ui资料
我们每个人在生活中都曾感受过视错觉(optical illusion)的魅力。
视错觉现象是双眼跟我们开的一个玩笑,而我们往往还心甘情愿地接受我们看到的假象。其实不止如此,视觉错现象的背后还有一个重要的科学原理——格式塔原理。
格式塔原理解释了人们如何以视觉方式感觉物体,以及图像的结构,视角,大小等要素是如何影响我们的视觉的。
在下面这篇文章中,我们首先会简单介绍一下格式塔原理中的基本概念,
- 线段树-poj1177-N个矩形求边长(离散化+扫描线)
bylijinnan
数据结构算法线段树
package com.ljn.base;
import java.util.Arrays;
import java.util.Comparator;
import java.util.Set;
import java.util.TreeSet;
/**
* POJ 1177 (线段树+离散化+扫描线),题目链接为http://poj.org/problem?id=1177
- HTTP协议详解
chicony
http协议
引言
- Scala设计模式
chenchao051
设计模式scala
Scala设计模式
我的话: 在国外网站上看到一篇文章,里面详细描述了很多设计模式,并且用Java及Scala两种语言描述,清晰的让我们看到各种常规的设计模式,在Scala中是如何在语言特性层面直接支持的。基于文章很nice,我利用今天的空闲时间将其翻译,希望大家能一起学习,讨论。翻译
- 安装mysql
daizj
mysql安装
安装mysql
(1)删除linux上已经安装的mysql相关库信息。rpm -e xxxxxxx --nodeps (强制删除)
执行命令rpm -qa |grep mysql 检查是否删除干净
(2)执行命令 rpm -i MySQL-server-5.5.31-2.el
- HTTP状态码大全
dcj3sjt126com
http状态码
完整的 HTTP 1.1规范说明书来自于RFC 2616,你可以在http://www.talentdigger.cn/home/link.php?url=d3d3LnJmYy1lZGl0b3Iub3JnLw%3D%3D在线查阅。HTTP 1.1的状态码被标记为新特性,因为许多浏览器只支持 HTTP 1.0。你应只把状态码发送给支持 HTTP 1.1的客户端,支持协议版本可以通过调用request
- asihttprequest上传图片
dcj3sjt126com
ASIHTTPRequest
NSURL *url =@"yourURL";
ASIFormDataRequest*currentRequest =[ASIFormDataRequest requestWithURL:url];
[currentRequest setPostFormat:ASIMultipartFormDataPostFormat];[currentRequest se
- C语言中,关键字static的作用
e200702084
C++cC#
在C语言中,关键字static有三个明显的作用:
1)在函数体,局部的static变量。生存期为程序的整个生命周期,(它存活多长时间);作用域却在函数体内(它在什么地方能被访问(空间))。
一个被声明为静态的变量在这一函数被调用过程中维持其值不变。因为它分配在静态存储区,函数调用结束后并不释放单元,但是在其它的作用域的无法访问。当再次调用这个函数时,这个局部的静态变量还存活,而且用在它的访
- win7/8使用curl
geeksun
win7
1. WIN7/8下要使用curl,需要下载curl-7.20.0-win64-ssl-sspi.zip和Win64OpenSSL_Light-1_0_2d.exe。 下载地址:
http://curl.haxx.se/download.html 请选择不带SSL的版本,否则还需要安装SSL的支持包 2. 可以给Windows增加c
- Creating a Shared Repository; Users Sharing The Repository
hongtoushizi
git
转载自:
http://www.gitguys.com/topics/creating-a-shared-repository-users-sharing-the-repository/ Commands discussed in this section:
git init –bare
git clone
git remote
git pull
git p
- Java实现字符串反转的8种或9种方法
Josh_Persistence
异或反转递归反转二分交换反转java字符串反转栈反转
注:对于第7种使用异或的方式来实现字符串的反转,如果不太看得明白的,可以参照另一篇博客:
http://josh-persistence.iteye.com/blog/2205768
/**
*
*/
package com.wsheng.aggregator.algorithm.string;
import java.util.Stack;
/**
- 代码实现任意容量倒水问题
home198979
PHP算法倒水
形象化设计模式实战 HELLO!架构 redis命令源码解析
倒水问题:有两个杯子,一个A升,一个B升,水有无限多,现要求利用这两杯子装C
- Druid datasource
zhb8015
druid
推荐大家使用数据库连接池 DruidDataSource. http://code.alibabatech.com/wiki/display/Druid/DruidDataSource DruidDataSource经过阿里巴巴数百个应用一年多生产环境运行验证,稳定可靠。 它最重要的特点是:监控、扩展和性能。 下载和Maven配置看这里: http
- 两种启动监听器ApplicationListener和ServletContextListener
spjich
javaspring框架
引言:有时候需要在项目初始化的时候进行一系列工作,比如初始化一个线程池,初始化配置文件,初始化缓存等等,这时候就需要用到启动监听器,下面分别介绍一下两种常用的项目启动监听器
ServletContextListener
特点: 依赖于sevlet容器,需要配置web.xml
使用方法:
public class StartListener implements
- JavaScript Rounding Methods of the Math object
何不笑
JavaScriptMath
The next group of methods has to do with rounding decimal values into integers. Three methods — Math.ceil(), Math.floor(), and Math.round() — handle rounding in differen