- 图像生成大模型:Imagen 详解
转角再相遇
imagenpython深度学习计算机视觉
近年来,图像生成技术取得了显著进展,推动了计算机视觉和生成对抗网络(GAN)等领域的发展。Imagen是一个新兴的图像生成大模型,其在生成高质量、逼真图像方面表现出色。本文将详细讲解Imagen的基本原理、架构、训练流程及应用场景。1.Imagen的基本原理1.1什么是Imagen?Imagen是一种基于深度学习的图像生成模型,结合了自注意力机制(Self-attentionMechanism)和
- 实战千问2大模型第五天——VLLM 运行 Qwen2-VL-7B(多模态)
学术菜鸟小晨
千问多模型qwen2vl
一、简介VLLM是一种高效的深度学习推理库,通过PagedAttention算法有效管理大语言模型的注意力内存,其特点包括24倍的吞吐提升和3.5倍的TGI性能,无需修改模型结构,专门设计用于加速大规模语言模型(LLM)的推理过程。它通过优化显存管理、支持大模型的批处理推理以及减少不必要的内存占用,来提高多GPU环境下的推理速度和效率。VLLM的核心特点包括:显存高效性:VLLM能够动态管理显存,
- qwenvl 代码中的attention pool 注意力池如何理解,attention pool注意力池是什么?
OpenSani
AI大模型计算机视觉语言模型qwenvlLLM
qwenvl中的attentionpool如何理解,其实这就是一个概念的问题看qwenvl的huggingface的代码的时候,发现代码里有一个Resampler以及attn_pool,这和之前理解的连接池线程池表示资源复用的意思不太一样,查了一下:注意这里的pool和线程池连接池里面的pool不一样:深度学习中的池化:池化在深度学习中主要指通过滑动窗口对特征图进行下采样,提取最重要的特征,减少计
- RWKV-7 与 SamOut 的优势和劣势
东方佑
量子变法人工智能
RWKV-7的优势超越传统Attention范式RWKV-7引入了WKV机制,取代了传统的self-attention方法,这使得它能够在相同算力消耗下解决attention无法处理的问题。尽管SamOut也实现了高效的长文本处理能力,但两者在具体实现上有不同的侧重点和技术路径。动态状态演化RWKV-7的动态状态演化机制允许模型更灵活地更新内部状态,从而更好地捕捉长期依赖关系,并且在处理长序列时表
- NLP-语义解析(Text2SQL):技术路线【Seq2Seq、模板槽位填充、中间表达、强化学习、图网络】
u013250861
#自然语言处理人工智能
目前关于NL2SQL技术路线的发展主要包含以下几种:Seq2Seq方法:在深度学习的研究背景下,很多研究人员将Text-to-SQL看作一个类似神经机器翻译的任务,主要采取Seq2Seq的模型框架。基线模型Seq2Seq在加入Attention、Copying等机制后,能够在ATIS、GeoQuery数据集上达到84%的精确匹配,但是在WikiSQL数据集上只能达到23.3%的精确匹配,37.0%
- 注意力池化层:从概念到实现及应用
专业发呆业余科研
深度模型底层原理python人工智能transformer深度学习自然语言处理图像处理
引言在现代深度学习模型中,注意力机制已经成为一个不可或缺的组件,特别是在处理自然语言和视觉数据时。多头注意力机制(MultiheadAttention)是Transformer模型的核心,它通过多个注意力头来捕捉序列中不同部分之间的关系。然而,在多模态模型中,如何有效地将图像特征和文本特征结合起来一直是一个挑战。注意力池化层(AttentionPoolingLayer)提供了一种有效的解决方案,通
- 如何学习Transformer架构
fydw_715
Transformers学习transformer架构
Transformer架构自提出以来,在自然语言处理领域引发了革命性的变化。作为一种基于注意力机制的模型,Transformer解决了传统序列模型在并行化和长距离依赖方面的局限性。本文将探讨Transformer论文《AttentionisAllYouNeed》与HuggingFaceTransformers库之间的关系,并详细介绍如何利用HuggingFaceTransformers的代码深入学
- PyTorch FlexAttention技术实践:基于BlockMask实现因果注意力与变长序列处理
本文介绍了如何利用torch2.5及以上版本中新引入的FlexAttention和BlockMask功能来实现因果注意力机制与填充输入的处理。鉴于目前网络上缺乏关于FlexAttention处理填充输入序列的完整代码示例和技术讨论,本文将详细阐述一种实现方法,该方法同时涵盖了因果注意力机制的实现。本文不会详细讨论FlexAttention的理论基础,如需了解更多技术细节,建议参考PyTorch官方
- 深度学习-13-小语言模型之SmolLM的使用
皮皮冰燃
深度学习深度学习
文章附录1SmolLM概述1.1SmolLM简介1.2下载模型2运行2.1在CPU/GPU/多GPU上运行模型2.2使用torch.bfloat162.3通过位和字节的量化版本3应用示例4问题及解决4.1attention_mask和pad_token_id报错4.2max_new_tokens=205参考附录1SmolLM概述1.1SmolLM简介SmolLM是一系列尖端小型语言模型,提供三种规
- vllm在线推理踩坑记
懂点投资的码农
大语言模型ai语言模型python
最近在《AI大模型全栈工程师》课程里看老师推荐使用vllm部署大模型,优点就不详细介绍了,这里摘抄一段来自于Qwen2上手指南对于它的简单介绍:它易于使用,且具有最先进的服务吞吐量、高效的注意力键值内存管理(通过PagedAttention实现)、连续批处理输入请求、优化的CUDA内核等功能。至于原理就先不看了,直接上手部署,以后再来补理论知识。一、vLLM在线推理在Qwen2的上市指南里介绍了v
- 大模型框架:vLLM
m0_37559973
大模型大模型通义千问Qwen
目录一、vLLM介绍二、安装vLLM2.1使用GPU进行安装2.2使用CPU进行安装2.3相关配置三、使用vLLM3.1离线推理3.2适配OpenAI-API的API服务一、vLLM介绍vLLM是伯克利大学LMSYS组织开源的大语言模型高速推理框架。它利用了全新的注意力算法「PagedAttention」,提供易用、快速、便宜的LLM服务。二、安装vLLM2.1使用GPU进行安装vLLM是一个Py
- 思考:怎样让自己每天都精力充沛
廷伟
让自己方向坚定,精力充沛的能量法则:Habit习惯能量的倍增Energy精力,能量的来源Attention注意力,能量的转化Target目标,能量的积累这是读张家瑞老师的《能量法则》最重要的四句话。从2018年认识家瑞,一起在AACTP武汉主席峰会一起学习,一起成长,到受他影响,定下更大的目标,践行《职场圆梦手册》,到现在读他的书,更加了解他的经历,一路以来,受他影响颇多。进入地产行业以来,日益忙
- AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.07.25-2024.08.01
小小帅AIGC
VLM论文时报人工智能语言模型自然语言处理VLM大语言模型计算机视觉视觉语言模型
文章目录~1.PayingMoreAttentiontoImage:ATraining-FreeMethodforAlleviatingHallucinationinLVLMs2.MTA-CLIP:Language-GuidedSemanticSegmentationwithMask-TextAlignment3.MarvelOVD:MarryingObjectRecognitionandVisi
- 大模型LLM面试常见算法题-包括Attention和Transformer常见面试题
剑圣土豆
算法面试大模型学习自然语言处理transformer算法nlp自然语言处理面试深度学习人工智能
大模型:位置编码有哪些?介绍LoRA与QLoRARAG和微调的区别是什么?哪些因素会导致LLM的偏见?什么是思维链(CoT)提示?Tokenizer的实现方法及原理解释一下大模型的涌现能力?解释langchainAgent的概念langchain有哪些替代方案?RLHF完整训练过程是什么?为什么RLHF的效果这么好?RLHF使用的训练数据是什么样的?RAG和微调的区别是什么?有了解过什么是稀疏微调
- Transformer、BERT、GPT、T5、LLM(大语言模型),以及它们在实际行业中的运用
Funhpc_huachen
transformerbertgpt语言模型深度学习
作为AI智能大模型的专家训练师,我将从主流模型框架的角度来分析其核心技术特点及其在不同实际行业中的应用。我们重点讨论以下几个主流模型框架:Transformer、BERT、GPT、T5、LLM(大语言模型),以及它们在实际行业中的运用。1.Transformer框架Transformer是一种基础的深度学习模型架构,由Google于2017年提出。它引入了注意力机制(Self-Attention)
- 大模型推理框架 RTP-LLM 架构解析
阿里技术
架构LLM推理阿里巴巴RPT
RTP-LLM是阿里巴巴智能引擎团队推出的大模型推理框架,支持了包括淘宝、天猫、闲鱼、菜鸟、高德、饿了么、AE、Lazada等多个业务的大模型推理场景。RTP-LLM与当前广泛使用的多种主流模型兼容,使用高性能的CUDAkernel,包括PagedAttention、FlashAttention、FlashDecoding等,支持多模态、LoRA、P-Tuning、以及WeightOnly动态量化
- Transformer+目标检测,这一篇入门就够了
BIT可达鸭
▶深度学习-计算机视觉transformer深度学习目标检测计算机视觉自然语言处理
VisionTransformerforObjectDetection本文作者:Encoder-Decoder简介:Encoder-Decoder的缺陷:Attention机制:Self-Attention机制:Multi-HeadAttention:Transformer结构:图像分类之ViT:图像分类之PyramidViT:目标检测之DETR:目标检测之DeformableDETR:本文作者:
- GLM-4 (1) - 推理+概览
戴昊光
人工智能languagemodelnlppython
系列文章目录GLM-4(1)-推理+概览GLM-4(2)-RoPEGLM-4(3)-GLMBlockGLM-4(4)-SelfAttentionGLM-4(5)-API&FunctionCallingGLM-4(6)-KVCache/Prefill&Decode文章目录系列文章目录前言一、环境安装&跑通demo二、Tokenizer三、configsmodelconfiggenerationcon
- 昇腾Ascend C算子开发学习笔记
回到唐朝当王爷
c语言学习笔记
2024年7月18日华为上研院培训笔记记录,感觉老师讲的还是很不错的昇腾AscendC算子开发学习笔记昇腾处理器的常用算子库核心融合算子库:核心融合算子库是华为昇腾AI处理器提供的基本算子库,包含了各种常用的深度学习算子,可以高效地执行各种神经网络计算任务。该库的设计旨在充分发挥昇腾AI芯片的计算能力,优化计算性能和资源利用率。FlashAttention类,MOEFFN类NN算子库:NN(Neu
- 【笔记】Encoder-Decoder模型
808130260
python/机器学习
Encoder-DecoderFrameworkEncoder-DecoderEncoderDecoderDecoderwithAttention参考Encoder-DecoderEncoder输入:X=(x1,x2,...,xTx)X=(x_1,x_2,...,x_{T_x})X=(x1,x2,...,xTx)输出:上下文向量(contextvector)ccc步骤:ht=f(xt,ht−1)c
- 6、关于Medical-Transformer
安逸sgr
Transformertransformer深度学习人工智能计算机视觉
6、关于Medical-TransformerAxial-Attention原文链接:Axial-attentionMedical-Transformer原文链接:Medical-TransformerMedical-Transformer实际上是Axial-Attention在医学领域的运行,只是在这基础上增加了门机制,实际上也就是在原来Axial-attention基础之上增加权重机制,虚弱位
- Image Super-Resolution with Cross-Scale Non-Local Attention and Exhaustive Self-Exemplars Mining
phoenix@Capricornus
Paperreading深度学习
Cross-ScaleNon-Local(CS-NL)Attention文中最重要的跨尺度非局部模块就是公式(4),这里内积通过滤波实现,图中的Deconvolution实际上是转置卷积,解卷积和转置卷积是完全不同的概念。公式(4)通过如下图理解一目了然,本来可以画个图一清二楚,偏不画。
- 2单元复盘
黄静怡
Part11,从本单元中我学到的最重要的理念精读Weshouldpayattentiontosafety2,我在本片文章/音频/视频中学到的怦然心动的单词textAtextB3,在本片文章/音频/视频中我最喜欢的一句话(精读)textA:Allofusprisoners,inthistimeofourtroubles.textB:Iwastearfullyrelievedthatithadonly
- [论文笔记] LLM模型剪枝
心心喵
论文笔记论文阅读剪枝算法
AttentionIsAllYouNeedButYouDon’tNeedAllOfItForInferenceofLargeLanguageModelsLLaMA2在剪枝时,跳过ffn和跳过fulllayer的效果差不多。相比跳过ffn/fulllayer,跳过attentionlayer的影响会更小。跳过attentionlayer:7B/13B从100%参数剪枝到66%,平均指标只下降1.7~
- 图神经网络实战(18)——消息传播神经网络
盼小辉丶
图神经网络从入门到项目实战pytorch深度学习图神经网络
图神经网络实战(18)——消息传播神经网络0.前言1.消息传播神经网络2.实现MPNN框架小结系列链接0.前言我们已经学习了多种图神经网络(GraphNeuralNetworks,GNN)变体,包括图卷积网络(GraphConvolutionalNetwork,GCN)、图注意力网络(GraphAttentionNetworks,GAT)和GraphSAGE等。在本节中,我们将对这些变体GNN结构
- Transformer面试真题详解——覆盖99%的Transformer面试问题(建议收藏)
爱睡觉的咋
LLMtransformer深度学习人工智能
文章目录1.请简述一下Transformer的基本结构和原理2.Transformer为什么使用多头注意力机制3.Transformer计算attention为什么选择点乘而不是加法?两个计算复杂度和效果上有什么区别?4.为什么在softmax之后要对attention进行scaled(为什么除以d_k的平方根)5.在计算attentionscore时,如何对padding做mask操作6.简单介
- 095.Pay close attention to the bottom right corner
飞帅记忆
095、Paycloseattentiontothebottomrightcorner仔细看右下角Paycloseattentiontotheblackboard!认真看黑板catchone‘sattention吸引注意Iwavedtocatchtheattentionofthewaiter.我挥手想引起服务员的注意turnone’sattentiontoIturnmyattentiontothe
- 【HuggingFace Transformers】BertIntermediate 和 BertPooler源码解析
CS_木成河
HuggingFace深度学习人工智能bertpython大模型Transformer
BertIntermediate和BertPooler源码解析1.介绍1.1位置与功能1.2相似点与不同点2.源码解析2.1BertIntermediate源码解析2.2BertPooler源码解析1.介绍1.1位置与功能(1)BertIntermediate位置:位于BertLayer的注意力层(BertSelfAttention)和输出层(BertOutput)之间。功能:它执行一个线性变换(
- unet各模块内容的理解(包含注意力机制、残差、以及数据维度的变化)
云梦之上
#扩散模型系统性学习人工智能神经网络pytorch
文章目录attention机制Unet的各个模块的设计①残差块②下块做一次残差,做一次自注意力③上块:这里做了skipconnect,做一次残差,做一次注意力④中块:做两次残差和一次自注意力⑤上采样:通道数不变,长宽翻两倍⑥下采样:通道数不变,长宽缩小到原来的一半整个unet模块unet模块的示意图参考的unet代码unet代码attention机制参考内容:超详细图解Self-Attention
- 2019-09-23 A lovable eccentric
RoadToGood
Trueeccentricsneverdeliberatelysetouttodrawattentiontothemselves.Theydisregardsocialconventionswithoutbeingconsciousthattheyaredoinganythingextraordinary.Thisinvariablywinsthemtheloveandrespectofother
- 对于规范和实现,你会混淆吗?
yangshangchuan
HotSpot
昨晚和朋友聊天,喝了点咖啡,由于我经常喝茶,很长时间没喝咖啡了,所以失眠了,于是起床读JVM规范,读完后在朋友圈发了一条信息:
JVM Run-Time Data Areas:The Java Virtual Machine defines various run-time data areas that are used during execution of a program. So
- android 网络
百合不是茶
网络
android的网络编程和java的一样没什么好分析的都是一些死的照着写就可以了,所以记录下来 方便查找 , 服务器使用的是TomCat
服务器代码; servlet的使用需要在xml中注册
package servlet;
import java.io.IOException;
import java.util.Arr
- [读书笔记]读法拉第传
comsci
读书笔记
1831年的时候,一年可以赚到1000英镑的人..应该很少的...
要成为一个科学家,没有足够的资金支持,很多实验都无法完成
但是当钱赚够了以后....就不能够一直在商业和市场中徘徊......
- 随机数的产生
沐刃青蛟
随机数
c++中阐述随机数的方法有两种:
一是产生假随机数(不管操作多少次,所产生的数都不会改变)
这类随机数是使用了默认的种子值产生的,所以每次都是一样的。
//默认种子
for (int i = 0; i < 5; i++)
{
cout<<
- PHP检测函数所在的文件名
IT独行者
PHP函数
很简单的功能,用到PHP中的反射机制,具体使用的是ReflectionFunction类,可以获取指定函数所在PHP脚本中的具体位置。 创建引用脚本。
代码:
[php]
view plain
copy
// Filename: functions.php
<?php&nbs
- 银行各系统功能简介
文强chu
金融
银行各系统功能简介 业务系统 核心业务系统 业务功能包括:总账管理、卡系统管理、客户信息管理、额度控管、存款、贷款、资金业务、国际结算、支付结算、对外接口等 清分清算系统 以清算日期为准,将账务类交易、非账务类交易的手续费、代理费、网络服务费等相关费用,按费用类型计算应收、应付金额,经过清算人员确认后上送核心系统完成结算的过程 国际结算系
- Python学习1(pip django 安装以及第一个project)
小桔子
pythondjangopip
最近开始学习python,要安装个pip的工具。听说这个工具很强大,安装了它,在安装第三方工具的话so easy!然后也下载了,按照别人给的教程开始安装,奶奶的怎么也安装不上!
第一步:官方下载pip-1.5.6.tar.gz, https://pypi.python.org/pypi/pip easy!
第二部:解压这个压缩文件,会看到一个setup.p
- php 数组
aichenglong
PHP排序数组循环多维数组
1 php中的创建数组
$product = array('tires','oil','spark');//array()实际上是语言结构而不 是函数
2 如果需要创建一个升序的排列的数字保存在一个数组中,可以使用range()函数来自动创建数组
$numbers=range(1,10)//1 2 3 4 5 6 7 8 9 10
$numbers=range(1,10,
- 安装python2.7
AILIKES
python
安装python2.7
1、下载可从 http://www.python.org/进行下载#wget https://www.python.org/ftp/python/2.7.10/Python-2.7.10.tgz
2、复制解压
#mkdir -p /opt/usr/python
#cp /opt/soft/Python-2
- java异常的处理探讨
百合不是茶
JAVA异常
//java异常
/*
1,了解java 中的异常处理机制,有三种操作
a,声明异常
b,抛出异常
c,捕获异常
2,学会使用try-catch-finally来处理异常
3,学会如何声明异常和抛出异常
4,学会创建自己的异常
*/
//2,学会使用try-catch-finally来处理异常
- getElementsByName实例
bijian1013
element
实例1:
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/x
- 探索JUnit4扩展:Runner
bijian1013
java单元测试JUnit
参加敏捷培训时,教练提到Junit4的Runner和Rule,于是特上网查一下,发现很多都讲的太理论,或者是举的例子实在是太牵强。多搜索了几下,搜索到两篇我觉得写的非常好的文章。
文章地址:http://www.blogjava.net/jiangshachina/archive/20
- [MongoDB学习笔记二]MongoDB副本集
bit1129
mongodb
1. 副本集的特性
1)一台主服务器(Primary),多台从服务器(Secondary)
2)Primary挂了之后,从服务器自动完成从它们之中选举一台服务器作为主服务器,继续工作,这就解决了单点故障,因此,在这种情况下,MongoDB集群能够继续工作
3)挂了的主服务器恢复到集群中只能以Secondary服务器的角色加入进来
2
- 【Spark八十一】Hive in the spark assembly
bit1129
assembly
Spark SQL supports most commonly used features of HiveQL. However, different HiveQL statements are executed in different manners:
1. DDL statements (e.g. CREATE TABLE, DROP TABLE, etc.)
- Nginx问题定位之监控进程异常退出
ronin47
nginx在运行过程中是否稳定,是否有异常退出过?这里总结几项平时会用到的小技巧。
1. 在error.log中查看是否有signal项,如果有,看看signal是多少。
比如,这是一个异常退出的情况:
$grep signal error.log
2012/12/24 16:39:56 [alert] 13661#0: worker process 13666 exited on s
- No grammar constraints (DTD or XML schema).....两种解决方法
byalias
xml
方法一:常用方法 关闭XML验证
工具栏:windows => preferences => xml => xml files => validation => Indicate when no grammar is specified:选择Ignore即可。
方法二:(个人推荐)
添加 内容如下
<?xml version=
- Netty源码学习-DefaultChannelPipeline
bylijinnan
netty
package com.ljn.channel;
/**
* ChannelPipeline采用的是Intercepting Filter 模式
* 但由于用到两个双向链表和内部类,这个模式看起来不是那么明显,需要仔细查看调用过程才发现
*
* 下面对ChannelPipeline作一个模拟,只模拟关键代码:
*/
public class Pipeline {
- MYSQL数据库常用备份及恢复语句
chicony
mysql
备份MySQL数据库的命令,可以加选不同的参数选项来实现不同格式的要求。
mysqldump -h主机 -u用户名 -p密码 数据库名 > 文件
备份MySQL数据库为带删除表的格式,能够让该备份覆盖已有数据库而不需要手动删除原有数据库。
mysqldump -–add-drop-table -uusername -ppassword databasename > ba
- 小白谈谈云计算--基于Google三大论文
CrazyMizzz
Google云计算GFS
之前在没有接触到云计算之前,只是对云计算有一点点模糊的概念,觉得这是一个很高大上的东西,似乎离我们大一的还很远。后来有机会上了一节云计算的普及课程吧,并且在之前的一周里拜读了谷歌三大论文。不敢说理解,至少囫囵吞枣啃下了一大堆看不明白的理论。现在就简单聊聊我对于云计算的了解。
我先说说GFS
&n
- hadoop 平衡空间设置方法
daizj
hadoopbalancer
在hdfs-site.xml中增加设置balance的带宽,默认只有1M:
<property>
<name>dfs.balance.bandwidthPerSec</name>
<value>10485760</value>
<description&g
- Eclipse程序员要掌握的常用快捷键
dcj3sjt126com
编程
判断一个人的编程水平,就看他用键盘多,还是鼠标多。用键盘一是为了输入代码(当然了,也包括注释),再有就是熟练使用快捷键。 曾有人在豆瓣评
《卓有成效的程序员》:“人有多大懒,才有多大闲”。之前我整理了一个
程序员图书列表,目的也就是通过读书,让程序员变懒。 程序员作为特殊的群体,有的人可以这么懒,懒到事情都交给机器去做,而有的人又可以那么勤奋,每天都孜孜不倦得
- Android学习之路
dcj3sjt126com
Android学习
转自:http://blog.csdn.net/ryantang03/article/details/6901459
以前有J2EE基础,接触JAVA也有两三年的时间了,上手Android并不困难,思维上稍微转变一下就可以很快适应。以前做的都是WEB项目,现今体验移动终端项目,让我越来越觉得移动互联网应用是未来的主宰。
下面说说我学习Android的感受,我学Android首先是看MARS的视
- java 遍历Map的四种方法
eksliang
javaHashMapjava 遍历Map的四种方法
转载请出自出处:
http://eksliang.iteye.com/blog/2059996
package com.ickes;
import java.util.HashMap;
import java.util.Iterator;
import java.util.Map;
import java.util.Map.Entry;
/**
* 遍历Map的四种方式
- 【精典】数据库相关相关
gengzg
数据库
package C3P0;
import java.sql.Connection;
import java.sql.SQLException;
import java.beans.PropertyVetoException;
import com.mchange.v2.c3p0.ComboPooledDataSource;
public class DBPool{
- 自动补全
huyana_town
自动补全
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"><html xmlns="http://www.w3.org/1999/xhtml&quo
- jquery在线预览PDF文件,打开PDF文件
天梯梦
jquery
最主要的是使用到了一个jquery的插件jquery.media.js,使用这个插件就很容易实现了。
核心代码
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.
- ViewPager刷新单个页面的方法
lovelease
androidviewpagertag刷新
使用ViewPager做滑动切换图片的效果时,如果图片是从网络下载的,那么再子线程中下载完图片时我们会使用handler通知UI线程,然后UI线程就可以调用mViewPager.getAdapter().notifyDataSetChanged()进行页面的刷新,但是viewpager不同于listview,你会发现单纯的调用notifyDataSetChanged()并不能刷新页面
- 利用按位取反(~)从复合枚举值里清除枚举值
草料场
enum
以 C# 中的 System.Drawing.FontStyle 为例。
如果需要同时有多种效果,
如:“粗体”和“下划线”的效果,可以用按位或(|)
FontStyle style = FontStyle.Bold | FontStyle.Underline;
如果需要去除 style 里的某一种效果,
- Linux系统新手学习的11点建议
刘星宇
编程工作linux脚本
随着Linux应用的扩展许多朋友开始接触Linux,根据学习Windwos的经验往往有一些茫然的感觉:不知从何处开始学起。这里介绍学习Linux的一些建议。
一、从基础开始:常常有些朋友在Linux论坛问一些问题,不过,其中大多数的问题都是很基础的。例如:为什么我使用一个命令的时候,系统告诉我找不到该目录,我要如何限制使用者的权限等问题,这些问题其实都不是很难的,只要了解了 Linu
- hibernate dao层应用之HibernateDaoSupport二次封装
wangzhezichuan
DAOHibernate
/**
* <p>方法描述:sql语句查询 返回List<Class> </p>
* <p>方法备注: Class 只能是自定义类 </p>
* @param calzz
* @param sql
* @return
* <p>创建人:王川</p>
* <p>创建时间:Jul