- 轻量级模型解读——轻量transformer系列
lishanlu136
#图像分类轻量级模型transformer图像分类
先占坑,持续更新。。。文章目录1、DeiT2、ConViT3、Mobile-Former4、MobileViTTransformer是2017谷歌提出的一篇论文,最早应用于NLP领域的机器翻译工作,Transformer解读,但随着2020年DETR和ViT的出现(DETR解读,ViT解读),其在视觉领域的应用也如雨后春笋般渐渐出现,其特有的全局注意力机制给图像识别领域带来了重要参考。但是tran
- 深度学习-13-小语言模型之SmolLM的使用
皮皮冰燃
深度学习深度学习
文章附录1SmolLM概述1.1SmolLM简介1.2下载模型2运行2.1在CPU/GPU/多GPU上运行模型2.2使用torch.bfloat162.3通过位和字节的量化版本3应用示例4问题及解决4.1attention_mask和pad_token_id报错4.2max_new_tokens=205参考附录1SmolLM概述1.1SmolLM简介SmolLM是一系列尖端小型语言模型,提供三种规
- transformer架构(Transformer Architecture)原理与代码实战案例讲解
AI架构设计之禅
大数据AI人工智能Python入门实战计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
transformer架构(TransformerArchitecture)原理与代码实战案例讲解关键词:Transformer,自注意力机制,编码器-解码器,预训练,微调,NLP,机器翻译作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming1.背景介绍1.1问题的由来自然语言处理(NLP)领域的发展经历了从规则驱动到统计驱动再到深度学习驱动的三个阶段。
- vllm在线推理踩坑记
懂点投资的码农
大语言模型ai语言模型python
最近在《AI大模型全栈工程师》课程里看老师推荐使用vllm部署大模型,优点就不详细介绍了,这里摘抄一段来自于Qwen2上手指南对于它的简单介绍:它易于使用,且具有最先进的服务吞吐量、高效的注意力键值内存管理(通过PagedAttention实现)、连续批处理输入请求、优化的CUDA内核等功能。至于原理就先不看了,直接上手部署,以后再来补理论知识。一、vLLM在线推理在Qwen2的上市指南里介绍了v
- 大模型框架:vLLM
m0_37559973
大模型大模型通义千问Qwen
目录一、vLLM介绍二、安装vLLM2.1使用GPU进行安装2.2使用CPU进行安装2.3相关配置三、使用vLLM3.1离线推理3.2适配OpenAI-API的API服务一、vLLM介绍vLLM是伯克利大学LMSYS组织开源的大语言模型高速推理框架。它利用了全新的注意力算法「PagedAttention」,提供易用、快速、便宜的LLM服务。二、安装vLLM2.1使用GPU进行安装vLLM是一个Py
- 思考:怎样让自己每天都精力充沛
廷伟
让自己方向坚定,精力充沛的能量法则:Habit习惯能量的倍增Energy精力,能量的来源Attention注意力,能量的转化Target目标,能量的积累这是读张家瑞老师的《能量法则》最重要的四句话。从2018年认识家瑞,一起在AACTP武汉主席峰会一起学习,一起成长,到受他影响,定下更大的目标,践行《职场圆梦手册》,到现在读他的书,更加了解他的经历,一路以来,受他影响颇多。进入地产行业以来,日益忙
- AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.07.25-2024.08.01
小小帅AIGC
VLM论文时报人工智能语言模型自然语言处理VLM大语言模型计算机视觉视觉语言模型
文章目录~1.PayingMoreAttentiontoImage:ATraining-FreeMethodforAlleviatingHallucinationinLVLMs2.MTA-CLIP:Language-GuidedSemanticSegmentationwithMask-TextAlignment3.MarvelOVD:MarryingObjectRecognitionandVisi
- 论文学习笔记 VMamba: Visual State Space Model
Wils0nEdwards
学习笔记
概览这篇论文的动机源于在计算机视觉领域设计计算高效的网络架构的持续需求。当前的视觉模型如卷积神经网络(CNNs)和视觉Transformer(ViTs)在处理大规模视觉任务时展现出良好的表现,但都存在各自的局限性。特别是,ViTs尽管在处理大规模数据上具有优势,但其自注意力机制的二次复杂度对高分辨率图像处理时的计算成本极高。因此,研究者希望通过引入新的架构来降低这种复杂度,并提高视觉任务的效率。现
- 计算机视觉中,如何理解自适应和注意力机制的关系?
Wils0nEdwards
计算机视觉人工智能
自适应和注意力机制之间的关系密切相关,注意力机制本质上是一种自适应的计算方法,它能够根据输入数据的不同特点,自主选择和聚焦于输入的某些部分或特征。以下是两者之间的具体关系和如何理解它们:1.注意力机制的自适应特性注意力机制的核心功能是为不同输入元素(如特征、位置、通道等)分配不同的权重。这些权重是通过学习动态生成的,表示模型对不同输入元素的关注程度。由于这些权重是根据具体的输入数据动态计算的,因此
- 《自然语言处理 Transformer 模型详解》
黑色叉腰丶大魔王
自然语言处理transformer人工智能
一、引言在自然语言处理领域,Transformer模型的出现是一个重大的突破。它摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN)架构,完全基于注意力机制,在机器翻译、文本生成、问答系统等众多任务中取得了卓越的性能。本文将深入讲解Transformer模型的原理、结构和应用。二、Transformer模型的背景在Transformer出现之前,RNN及其变体(如LSTM和GRU)是自然语言
- 验证resneXt,densenet,mobilenet和SENet的特色结构
dfj77477
人工智能python
简介图像分类对网络结构的要求,一个是精度,另一个是速度。这两个需求推动了网络结构的发展。resneXt:分组卷积,降低了网络参数个数。densenet:密集的跳连接。mobilenet:标准卷积分解成深度卷积和逐点卷积,即深度分离卷积。SENet:注意力机制。简单起见,使用了[1]的代码,注释掉layer4,作为基本框架resnet14。然后改变局部结构,验证分类效果。实验结果GPU:gtx107
- 大模型LLM面试常见算法题-包括Attention和Transformer常见面试题
剑圣土豆
算法面试大模型学习自然语言处理transformer算法nlp自然语言处理面试深度学习人工智能
大模型:位置编码有哪些?介绍LoRA与QLoRARAG和微调的区别是什么?哪些因素会导致LLM的偏见?什么是思维链(CoT)提示?Tokenizer的实现方法及原理解释一下大模型的涌现能力?解释langchainAgent的概念langchain有哪些替代方案?RLHF完整训练过程是什么?为什么RLHF的效果这么好?RLHF使用的训练数据是什么样的?RAG和微调的区别是什么?有了解过什么是稀疏微调
- 微积分在神经架构搜索中的应用
光剑书架上的书
深度强化学习原理与实战元学习原理与实战计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
微积分在神经架构搜索中的应用1.背景介绍随着深度学习技术的飞速发展,神经网络模型的复杂度也在不断提高,从最初的简单全连接网络,到如今的卷积神经网络、循环神经网络、注意力机制等各种复杂的神经网络架构。这些先进的神经网络架构大大提高了深度学习模型的性能,但同时也给神经网络的设计和调优带来了巨大的挑战。手工设计神经网络架构通常需要大量的专业知识和经验积累,过程繁琐复杂,难以推广。为了解决这一问题,神经架
- CVPR 2021 | 即插即用! CA:新注意力机制,助力分类/检测/分割涨点!
Akita·wang
文献解析paperpython机器学习人工智能深度学习计算机视觉
摘要最近关于移动网络设计的研究已经证明了通道注意(例如,挤压和激发注意)对于提升模型性能的显著效果,但是它们通常忽略位置信息,而位置信息对于生成空间选择性注意图是重要的。本文提出了一种新的移动网络注意机制,将位置信息嵌入到信道注意中,我们称之为“协同注意”。与通过2D全局汇集将特征张量转换为单个特征向量的通道注意力不同,坐标注意力将通道注意力分解为两个1D特征编码过程,这两个过程分别沿两个空间方向
- Transformer、BERT、GPT、T5、LLM(大语言模型),以及它们在实际行业中的运用
Funhpc_huachen
transformerbertgpt语言模型深度学习
作为AI智能大模型的专家训练师,我将从主流模型框架的角度来分析其核心技术特点及其在不同实际行业中的应用。我们重点讨论以下几个主流模型框架:Transformer、BERT、GPT、T5、LLM(大语言模型),以及它们在实际行业中的运用。1.Transformer框架Transformer是一种基础的深度学习模型架构,由Google于2017年提出。它引入了注意力机制(Self-Attention)
- 大模型推理框架 RTP-LLM 架构解析
阿里技术
架构LLM推理阿里巴巴RPT
RTP-LLM是阿里巴巴智能引擎团队推出的大模型推理框架,支持了包括淘宝、天猫、闲鱼、菜鸟、高德、饿了么、AE、Lazada等多个业务的大模型推理场景。RTP-LLM与当前广泛使用的多种主流模型兼容,使用高性能的CUDAkernel,包括PagedAttention、FlashAttention、FlashDecoding等,支持多模态、LoRA、P-Tuning、以及WeightOnly动态量化
- Transformer+目标检测,这一篇入门就够了
BIT可达鸭
▶深度学习-计算机视觉transformer深度学习目标检测计算机视觉自然语言处理
VisionTransformerforObjectDetection本文作者:Encoder-Decoder简介:Encoder-Decoder的缺陷:Attention机制:Self-Attention机制:Multi-HeadAttention:Transformer结构:图像分类之ViT:图像分类之PyramidViT:目标检测之DETR:目标检测之DeformableDETR:本文作者:
- GLM-4 (1) - 推理+概览
戴昊光
人工智能languagemodelnlppython
系列文章目录GLM-4(1)-推理+概览GLM-4(2)-RoPEGLM-4(3)-GLMBlockGLM-4(4)-SelfAttentionGLM-4(5)-API&FunctionCallingGLM-4(6)-KVCache/Prefill&Decode文章目录系列文章目录前言一、环境安装&跑通demo二、Tokenizer三、configsmodelconfiggenerationcon
- Transformer模型在文本摘要任务中的应用与性能分析
liuxin33445566
transformer深度学习人工智能
Transformer模型自从由Vaswani等人在2017年提出以来,已经在自然语言处理(NLP)的多个领域取得了显著的成果,尤其是在文本摘要任务中。文本摘要是将长文本转换成更短的、包含关键信息的文本的过程。本文将探讨Transformer模型在文本摘要任务中的应用,并分析其性能表现。1.Transformer模型简介Transformer模型是一种基于自注意力机制的神经网络架构,它摆脱了传统的
- 昇腾Ascend C算子开发学习笔记
回到唐朝当王爷
c语言学习笔记
2024年7月18日华为上研院培训笔记记录,感觉老师讲的还是很不错的昇腾AscendC算子开发学习笔记昇腾处理器的常用算子库核心融合算子库:核心融合算子库是华为昇腾AI处理器提供的基本算子库,包含了各种常用的深度学习算子,可以高效地执行各种神经网络计算任务。该库的设计旨在充分发挥昇腾AI芯片的计算能力,优化计算性能和资源利用率。FlashAttention类,MOEFFN类NN算子库:NN(Neu
- 爆改YOLOv8|利用yolov10的PSA注意力机制改进yolov8-高效涨点
不想敲代码!!!
爆改yolov8即插即用YOLOyolov8目标检测python人工智能
1,本文介绍PSA是一种改进的自注意力机制,旨在提升模型的效率和准确性。传统的自注意力机制需要计算所有位置对之间的注意力,这会导致计算复杂度高和训练时间长。PSA通过引入极化因子来减少需要计算的注意力对的数量,从而降低计算负担。极化因子是一个向量,通过与每个位置的向量点积,确定哪些位置需要计算注意力。这种方法可以在保持模型准确度的前提下,显著减少计算量,从而提升自注意力机制的效率。关于PSA的详细
- 【笔记】Encoder-Decoder模型
808130260
python/机器学习
Encoder-DecoderFrameworkEncoder-DecoderEncoderDecoderDecoderwithAttention参考Encoder-DecoderEncoder输入:X=(x1,x2,...,xTx)X=(x_1,x_2,...,x_{T_x})X=(x1,x2,...,xTx)输出:上下文向量(contextvector)ccc步骤:ht=f(xt,ht−1)c
- You Only Cache Once: Decoder-Decoder Architectures for Language Models
YiHanXii
语言模型人工智能自然语言处理
这篇论文介绍了一种名为YOCO(YouOnlyCacheOnce)的新型解码器-解码器架构,专为大型语言模型设计,以提高推理效率和性能。以下是其核心内容的总结:YOCO架构关键特点:双重解码器结构:YOCO由自解码器和交叉解码器两部分组成,自解码器生成全局键值(KV)缓存,交叉解码器通过交叉注意力机制重用这些缓存。单次缓存:与标准Transformer相比,YOCO只缓存一次KV对,显著减少了GP
- 6、关于Medical-Transformer
安逸sgr
Transformertransformer深度学习人工智能计算机视觉
6、关于Medical-TransformerAxial-Attention原文链接:Axial-attentionMedical-Transformer原文链接:Medical-TransformerMedical-Transformer实际上是Axial-Attention在医学领域的运行,只是在这基础上增加了门机制,实际上也就是在原来Axial-attention基础之上增加权重机制,虚弱位
- Image Super-Resolution with Cross-Scale Non-Local Attention and Exhaustive Self-Exemplars Mining
phoenix@Capricornus
Paperreading深度学习
Cross-ScaleNon-Local(CS-NL)Attention文中最重要的跨尺度非局部模块就是公式(4),这里内积通过滤波实现,图中的Deconvolution实际上是转置卷积,解卷积和转置卷积是完全不同的概念。公式(4)通过如下图理解一目了然,本来可以画个图一清二楚,偏不画。
- 深度学习算法——Transformer
fw菜菜
数学建模深度学习transformer人工智能数学建模pythonpytorch
参考教材:动手学pytorch一、模型介绍Transformer模型完全基于注意力机制,没有任何卷积层或循环神经网络层。尽管Transformer最初是应用于在文本数据上的序列到序列学习,但现在已经推广到各种现代的深度学习中,例如语言、视觉、语音和强化学习领域。Transformer作为编码器-解码器架构的一个实例,其整体架构图在下图中展示。正如所见到的,Trans‐former是由编码器和解码器
- 2单元复盘
黄静怡
Part11,从本单元中我学到的最重要的理念精读Weshouldpayattentiontosafety2,我在本片文章/音频/视频中学到的怦然心动的单词textAtextB3,在本片文章/音频/视频中我最喜欢的一句话(精读)textA:Allofusprisoners,inthistimeofourtroubles.textB:Iwastearfullyrelievedthatithadonly
- 计算机视觉之 GSoP 注意力模块
Midsummer-逐梦
计算机视觉(CV)深度学习机器学习人工智能
计算机视觉之GSoP注意力模块一、简介GSopBlock是一个自定义的神经网络模块,主要用于实现GSoP(GlobalSecond-orderPooling)注意力机制。GSoP注意力机制通过计算输入特征的协方差矩阵,捕捉全局二阶统计信息,从而增强模型的表达能力。原论文:《GlobalSecond-orderPoolingConvolutionalNetworks(arxiv.org)》二、语法和
- [论文笔记] LLM模型剪枝
心心喵
论文笔记论文阅读剪枝算法
AttentionIsAllYouNeedButYouDon’tNeedAllOfItForInferenceofLargeLanguageModelsLLaMA2在剪枝时,跳过ffn和跳过fulllayer的效果差不多。相比跳过ffn/fulllayer,跳过attentionlayer的影响会更小。跳过attentionlayer:7B/13B从100%参数剪枝到66%,平均指标只下降1.7~
- 大语言模型诞生、探索和爆发阶段
花开盛夏^.^
人工智能语言模型人工智能自然语言处理
大语言模型的发展可以分为几个阶段,每个阶段都有其特点和发展重点。以下是大致的时间线以及各个阶段的特点:一、大语言模型诞生阶段这一阶段大约从2017年末到2019年初,期间出现了几个关键的技术突破,这些技术奠定了现代大语言模型的基础。2017年:Google发表了Transformer架构,这是一种基于自注意力机制的神经网络架构,它彻底改变了自然语言处理(NLP)领域,使得大规模并行化处理成为可能,
- 强大的销售团队背后 竟然是大数据分析的身影
蓝儿唯美
数据分析
Mark Roberge是HubSpot的首席财务官,在招聘销售职位时使用了大量数据分析。但是科技并没有挤走直觉。
大家都知道数理学家实际上已经渗透到了各行各业。这些热衷数据的人们通过处理数据理解商业流程的各个方面,以重组弱点,增强优势。
Mark Roberge是美国HubSpot公司的首席财务官,HubSpot公司在构架集客营销现象方面出过一份力——因此他也是一位数理学家。他使用数据分析
- Haproxy+Keepalived高可用双机单活
bylijinnan
负载均衡keepalivedhaproxy高可用
我们的应用MyApp不支持集群,但要求双机单活(两台机器:master和slave):
1.正常情况下,只有master启动MyApp并提供服务
2.当master发生故障时,slave自动启动本机的MyApp,同时虚拟IP漂移至slave,保持对外提供服务的IP和端口不变
F5据说也能满足上面的需求,但F5的通常用法都是双机双活,单活的话还没研究过
服务器资源
10.7
- eclipse编辑器中文乱码问题解决
0624chenhong
eclipse乱码
使用Eclipse编辑文件经常出现中文乱码或者文件中有中文不能保存的问题,Eclipse提供了灵活的设置文件编码格式的选项,我们可以通过设置编码 格式解决乱码问题。在Eclipse可以从几个层面设置编码格式:Workspace、Project、Content Type、File
本文以Eclipse 3.3(英文)为例加以说明:
1. 设置Workspace的编码格式:
Windows-&g
- 基础篇--resources资源
不懂事的小屁孩
android
最近一直在做java开发,偶尔敲点android代码,突然发现有些基础给忘记了,今天用半天时间温顾一下resources的资源。
String.xml 字符串资源 涉及国际化问题
http://www.2cto.com/kf/201302/190394.html
string-array
- 接上篇补上window平台自动上传证书文件的批处理问卷
酷的飞上天空
window
@echo off
: host=服务器证书域名或ip,需要和部署时服务器的域名或ip一致 ou=公司名称, o=公司名称
set host=localhost
set ou=localhost
set o=localhost
set password=123456
set validity=3650
set salias=s
- 企业物联网大潮涌动:如何做好准备?
蓝儿唯美
企业
物联网的可能性也许是无限的。要找出架构师可以做好准备的领域然后利用日益连接的世界。
尽管物联网(IoT)还很新,企业架构师现在也应该为一个连接更加紧密的未来做好计划,而不是跟上闸门被打开后的集成挑战。“问题不在于物联网正在进入哪些领域,而是哪些地方物联网没有在企业推进,” Gartner研究总监Mike Walker说。
Gartner预测到2020年物联网设备安装量将达260亿,这些设备在全
- spring学习——数据库(mybatis持久化框架配置)
a-john
mybatis
Spring提供了一组数据访问框架,集成了多种数据访问技术。无论是JDBC,iBATIS(mybatis)还是Hibernate,Spring都能够帮助消除持久化代码中单调枯燥的数据访问逻辑。可以依赖Spring来处理底层的数据访问。
mybatis是一种Spring持久化框架,要使用mybatis,就要做好相应的配置:
1,配置数据源。有很多数据源可以选择,如:DBCP,JDBC,aliba
- Java静态代理、动态代理实例
aijuans
Java静态代理
采用Java代理模式,代理类通过调用委托类对象的方法,来提供特定的服务。委托类需要实现一个业务接口,代理类返回委托类的实例接口对象。
按照代理类的创建时期,可以分为:静态代理和动态代理。
所谓静态代理: 指程序员创建好代理类,编译时直接生成代理类的字节码文件。
所谓动态代理: 在程序运行时,通过反射机制动态生成代理类。
一、静态代理类实例:
1、Serivce.ja
- Struts1与Struts2的12点区别
asia007
Struts1与Struts2
1) 在Action实现类方面的对比:Struts 1要求Action类继承一个抽象基类;Struts 1的一个具体问题是使用抽象类编程而不是接口。Struts 2 Action类可以实现一个Action接口,也可以实现其他接口,使可选和定制的服务成为可能。Struts 2提供一个ActionSupport基类去实现常用的接口。即使Action接口不是必须实现的,只有一个包含execute方法的P
- 初学者要多看看帮助文档 不要用js来写Jquery的代码
百合不是茶
jqueryjs
解析json数据的时候需要将解析的数据写到文本框中, 出现了用js来写Jquery代码的问题;
1, JQuery的赋值 有问题
代码如下: data.username 表示的是: 网易
$("#use
- 经理怎么和员工搞好关系和信任
bijian1013
团队项目管理管理
产品经理应该有坚实的专业基础,这里的基础包括产品方向和产品策略的把握,包括设计,也包括对技术的理解和见识,对运营和市场的敏感,以及良好的沟通和协作能力。换言之,既然是产品经理,整个产品的方方面面都应该能摸得出门道。这也不懂那也不懂,如何让人信服?如何让自己懂?就是不断学习,不仅仅从书本中,更从平时和各种角色的沟通
- 如何为rich:tree不同类型节点设置右键菜单
sunjing
contextMenutreeRichfaces
组合使用target和targetSelector就可以啦,如下: <rich:tree id="ruleTree" value="#{treeAction.ruleTree}" var="node" nodeType="#{node.type}"
selectionChangeListener=&qu
- 【Redis二】Redis2.8.17搭建主从复制环境
bit1129
redis
开始使用Redis2.8.17
Redis第一篇在Redis2.4.5上搭建主从复制环境,对它的主从复制的工作机制,真正的惊呆了。不知道Redis2.8.17的主从复制机制是怎样的,Redis到了2.4.5这个版本,主从复制还做成那样,Impossible is nothing! 本篇把主从复制环境再搭一遍看看效果,这次在Unbuntu上用官方支持的版本。 Ubuntu上安装Red
- JSONObject转换JSON--将Date转换为指定格式
白糖_
JSONObject
项目中,经常会用JSONObject插件将JavaBean或List<JavaBean>转换为JSON格式的字符串,而JavaBean的属性有时候会有java.util.Date这个类型的时间对象,这时JSONObject默认会将Date属性转换成这样的格式:
{"nanos":0,"time":-27076233600000,
- JavaScript语言精粹读书笔记
braveCS
JavaScript
【经典用法】:
//①定义新方法
Function .prototype.method=function(name, func){
this.prototype[name]=func;
return this;
}
//②给Object增加一个create方法,这个方法创建一个使用原对
- 编程之美-找符合条件的整数 用字符串来表示大整数避免溢出
bylijinnan
编程之美
import java.util.LinkedList;
public class FindInteger {
/**
* 编程之美 找符合条件的整数 用字符串来表示大整数避免溢出
* 题目:任意给定一个正整数N,求一个最小的正整数M(M>1),使得N*M的十进制表示形式里只含有1和0
*
* 假设当前正在搜索由0,1组成的K位十进制数
- 读书笔记
chengxuyuancsdn
读书笔记
1、Struts访问资源
2、把静态参数传递给一个动作
3、<result>type属性
4、s:iterator、s:if c:forEach
5、StringBuilder和StringBuffer
6、spring配置拦截器
1、访问资源
(1)通过ServletActionContext对象和实现ServletContextAware,ServletReque
- [通讯与电力]光网城市建设的一些问题
comsci
问题
信号防护的问题,前面已经说过了,这里要说光网交换机与市电保障的关系
我们过去用的ADSL线路,因为是电话线,在小区和街道电力中断的情况下,只要在家里用笔记本电脑+蓄电池,连接ADSL,同样可以上网........
 
- oracle 空间RESUMABLE
daizj
oracle空间不足RESUMABLE错误挂起
空间RESUMABLE操作 转
Oracle从9i开始引入这个功能,当出现空间不足等相关的错误时,Oracle可以不是马上返回错误信息,并回滚当前的操作,而是将操作挂起,直到挂起时间超过RESUMABLE TIMEOUT,或者空间不足的错误被解决。
这一篇简单介绍空间RESUMABLE的例子。
第一次碰到这个特性是在一次安装9i数据库的过程中,在利用D
- 重构第一次写的线程池
dieslrae
线程池 python
最近没有什么学习欲望,修改之前的线程池的计划一直搁置,这几天比较闲,还是做了一次重构,由之前的2个类拆分为现在的4个类.
1、首先是工作线程类:TaskThread,此类为一个工作线程,用于完成一个工作任务,提供等待(wait),继续(proceed),绑定任务(bindTask)等方法
#!/usr/bin/env python
# -*- coding:utf8 -*-
- C语言学习六指针
dcj3sjt126com
c
初识指针,简单示例程序:
/*
指针就是地址,地址就是指针
地址就是内存单元的编号
指针变量是存放地址的变量
指针和指针变量是两个不同的概念
但是要注意: 通常我们叙述时会把指针变量简称为指针,实际它们含义并不一样
*/
# include <stdio.h>
int main(void)
{
int * p; // p是变量的名字, int *
- yii2 beforeSave afterSave beforeDelete
dcj3sjt126com
delete
public function afterSave($insert, $changedAttributes)
{
parent::afterSave($insert, $changedAttributes);
if($insert) {
//这里是新增数据
} else {
//这里是更新数据
}
}
 
- timertask
shuizhaosi888
timertask
java.util.Timer timer = new java.util.Timer(true);
// true 说明这个timer以daemon方式运行(优先级低,
// 程序结束timer也自动结束),注意,javax.swing
// 包中也有一个Timer类,如果import中用到swing包,
// 要注意名字的冲突。
TimerTask task = new
- Spring Security(13)——session管理
234390216
sessionSpring Security攻击保护超时
session管理
目录
1.1 检测session超时
1.2 concurrency-control
1.3 session 固定攻击保护
 
- 公司项目NODEJS实践0.3[ mongo / session ...]
逐行分析JS源代码
mongodbsessionnodejs
http://www.upopen.cn
一、前言
书接上回,我们搭建了WEB服务端路由、模板等功能,完成了register 通过ajax与后端的通信,今天主要完成数据与mongodb的存取,实现注册 / 登录 /
- pojo.vo.po.domain区别
LiaoJuncai
javaVOPOJOjavabeandomain
POJO = "Plain Old Java Object",是MartinFowler等发明的一个术语,用来表示普通的Java对象,不是JavaBean, EntityBean 或者 SessionBean。POJO不但当任何特殊的角色,也不实现任何特殊的Java框架的接口如,EJB, JDBC等等。
即POJO是一个简单的普通的Java对象,它包含业务逻辑
- Windows Error Code
OhMyCC
windows
0 操作成功完成.
1 功能错误.
2 系统找不到指定的文件.
3 系统找不到指定的路径.
4 系统无法打开文件.
5 拒绝访问.
6 句柄无效.
7 存储控制块被损坏.
8 存储空间不足, 无法处理此命令.
9 存储控制块地址无效.
10 环境错误.
11 试图加载格式错误的程序.
12 访问码无效.
13 数据无效.
14 存储器不足, 无法完成此操作.
15 系
- 在storm集群环境下发布Topology
roadrunners
集群stormtopologyspoutbolt
storm的topology设计和开发就略过了。本章主要来说说如何在storm的集群环境中,通过storm的管理命令来发布和管理集群中的topology。
1、打包
打包插件是使用maven提供的maven-shade-plugin,详细见maven-shade-plugin。
<plugin>
<groupId>org.apache.maven.
- 为什么不允许代码里出现“魔数”
tomcat_oracle
java
在一个新项目中,我最先做的事情之一,就是建立使用诸如Checkstyle和Findbugs之类工具的准则。目的是制定一些代码规范,以及避免通过静态代码分析就能够检测到的bug。 迟早会有人给出案例说这样太离谱了。其中的一个案例是Checkstyle的魔数检查。它会对任何没有定义常量就使用的数字字面量给出警告,除了-1、0、1和2。 很多开发者在这个检查方面都有问题,这可以从结果
- zoj 3511 Cake Robbery(线段树)
阿尔萨斯
线段树
题目链接:zoj 3511 Cake Robbery
题目大意:就是有一个N边形的蛋糕,切M刀,从中挑选一块边数最多的,保证没有两条边重叠。
解题思路:有多少个顶点即为有多少条边,所以直接按照切刀切掉点的个数排序,然后用线段树维护剩下的还有哪些点。
#include <cstdio>
#include <cstring>
#include <vector&