- YOLOv9改进 添加可变形注意力机制DAttention
学yolo的小白
UPgradeYOLOv9YOLOpython目标检测pytorch
一、DeformableAttentionTransformer论文论文地址:arxiv.org/pdf/2201.00520.pdf二、DeformableAttentionTransformer注意力结构DeformableAttentionTransformer包含可变形注意力机制,允许模型根据输入的内容动态调整注意力权重。在传统的Transformer中,注意力是通过对查询和键向量之间的点
- 小白看得懂的 Transformer
zy_zeros
python开发语言
1.导语谷歌推出的BERT模型在11项NLP任务中夺得SOTA结果,引爆了整个NLP界。而BERT取得成功的一个关键因素是Transformer的强大作用。谷歌的Transformer模型最早是用于机器翻译任务,当时达到了SOTA效果。Transformer改进了RNN最被人诟病的训练慢的缺点,利用self-attention机制实现快速并行。并且Transformer可以增加到非常深的深度,充分
- 大模型加速与性能对比
__如风__
人工智能语言模型
大模型加速与性能对比阿里通义千问flash-attention加速正常运行通义千问会提示安装flash-attention以获得更快的推理速度,缺少这个包并不影响模型运行。事实证明安装之后对于推理速度的提升也很小(5%),网上说对于微调训练的速度提升比较大,因为是在内网环境下,安装还费了一番周折。本人环境torch2.0.1+cu118cuda11.8nvidia-driver535.98gcc9
- webpack5高级--01_提升开发体验
化作繁星
webpackwebpackjavascript前端
提升开发体验SourceMap为什么开发时我们运行的代码是经过webpack编译后的,例如下面这个样子:/**ATTENTION:The"eval"devtoolhasbeenused(maybebydefaultinmode:"development").*Thisdevtoolisneithermadeforproductionnorforreadableoutputfiles.*Ituses
- 计算机设计大赛 深度学习的智能中文对话问答机器人
iuerfee
python
文章目录0简介1项目架构2项目的主要过程2.1数据清洗、预处理2.2分桶2.3训练3项目的整体结构4重要的API4.1LSTMcells部分:4.2损失函数:4.3搭建seq2seq框架:4.4测试部分:4.5评价NLP测试效果:4.6梯度截断,防止梯度爆炸4.7模型保存5重点和难点5.1函数5.2变量6相关参数7桶机制7.1处理数据集7.2词向量处理seq2seq7.3处理问答及答案权重7.4训
- 4D习书之旅——第二章背景管理是团队管理的核心
小北eric
AMBR流程——背景管理工具你的关注点(Attention)加上你的心态(Mindset)影响你的行为(Behaviors)产生你要的结果(results)第一点A:我关注的内容NASA的斯蒂芬.约翰逊认为“80%甚至95%的失败原因是人为错误或沟通不畅”M1:我的情绪警觉M2:我的想法与内心独白如果接下来的研讨会,与同事沟通不畅,会发生什么?B:让自己变得更好的行动1、觉察自我的情绪,并学会疏导
- Transformer结构介绍和Pyotrch代码实现
肆十二
Pytorch语法transformer深度学习人工智能
Transformer结构介绍和Pyotrch代码实现关注B站查看更多手把手教学:肆十二-的个人空间-肆十二-个人主页-哔哩哔哩视频(bilibili.com)基本结构介绍Transformer结构是近年来自然语言处理(NLP)领域的重要突破,它完全基于注意力机制(AttentionMechanism)来实现,克服了传统RNN模型无法并行计算以及容易丢失长距离依赖信息的问题。Transformer
- Made In Heaven,LLM要加速了
DisonTangor
人工智能transformer
借鉴了荒木老师笔下的普奇神父的台词玩LLM的多数用的是Huggingface框架,而它本身提供的是accelerate库来提升模型的训练推理速度。这些都离不开Nvidia的Cuda计算,而目前适配这一驱动的只有Windows和Linux。于是我就尝试在这两个系统上进行加速实验,尝试HuggingfaceDoc中推荐的FlashAttention2以及vLLM的PageAttention。原理参考L
- Attention注意力机制
xieyan0811
网上的文章总把Attention注意力机制和Transformer模型结合来讲,看起来非常复杂。实际上Attention不仅作用于自然语言处理领域,目前已是很通用的技术。本篇来看看Attention的原理,以及在各个领域的典型应用。原理越来越多的模型用到注意力机制,它已成为与全连接,卷积,循环网络同等重要的技术。简单地说,当人观察图片时,一般先扫一眼,确定大概信息,然后聚焦在图中的重要区域,这个区
- 每日一词4 shift
ph2_陈小烦
意:tochangeasituation,discussionetcbygivingspecialattentiontooneideaandsubjectinsteadoftothepreviousones.例:AnincreasingnumberofEnglishlearnersareshiftingtheirfoucusoninputtooutput.shift:1.物体、位置发生变化;2.观
- 10 中科院1区期刊优化算法|基于开普勒优化-卷积-双向长短期记忆网络-注意力时序预测Matlab程序KOA-CNN-BiLSTM-Attention
机器不会学习CSJ
时间序列预测算法网络matlabcnnlstm深度学习
文章目录一、开普勒优化算法二、CNN卷积神经网络三、BiLSTM双向长短期记忆网络四、注意力机制五、KOA-CNN-BiLSTM-Attention时间序列数据预测模型六、获取方式一、开普勒优化算法基于物理学定律的启发,开普勒优化算法(KeplerOptimizationAlgorithm,KOA)是一种元启发式算法,灵感来源于开普勒的行星运动规律。该算法模拟行星在不同时间的位置和速度,每个行星代
- 06基于WOA-CNN-BiLSTM-Attention鲸鱼优化-卷积-双向长短时记忆-注意力机制的数据分类算法
机器不会学习CSJ
数据分类专栏cnn分类深度学习lstmmatlab启发式算法数据分析
基于WOA-CNN-BiLSTM-Attention鲸鱼优化-卷积-双向长短时记忆-注意力机制的数据分类算法鲸鱼智能优化基本原理鲸鱼智能优化算法(WhaleOptimizationAlgorithm,WOA)是一种基于自然界中的鲸鱼群体行为而提出的全局优化算法。该算法由莫扬(SeyedaliMirjalili)于2016年提出,其灵感来源于鲸鱼群体的捕猎行为和社交行为。在WOA算法中,每个解都被看
- 08 2024年1月最新优化算法 美洲狮优化算法(PO) 基于美洲狮PO优化CNN-BiLSTM-Attention的时间序列数据预测算法PO-CNN-LSTM-Attention 优先使用就是创新!
机器不会学习CSJ
算法cnnlstm机器学习人工智能神经网络matlab
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录一、美洲狮优化算法二、CNN卷积神经网络三、BiLSTM双向长短期记忆网络四、注意力机制五、PO-CNN-BiLSTM-Attention时间序列数据预测模型六、核心代码七、结果展示八、获取方式一、美洲狮优化算法美洲狮是一种原产于美洲大陆的大型猫科动物,在南美洲的安第斯山脉到加拿大的育空地区都有它们的栖息地。作为美洲第二大的猫
- 07基于WOA-CNN-BiLSTM-Attention鲸鱼优化-卷积-双向长短时记忆-注意力机制的时间序列预测算法
机器不会学习CSJ
时间序列预测cnn算法人工智能
文章目录鲸鱼优化算法CNN卷积神经网络BiLSTM双向长短期记忆网络Attention注意力机制WOA-CNN-BiLSTM-Attention鲸鱼优化-卷积-双向长短时记忆-注意力机制数据展示代码程序实验结果获取方式鲸鱼优化算法鲸鱼优化算法(WhaleOptimizationAlgorithm,WOA)是一种启发式优化算法,灵感来源于座头鲸的捕食行为。该算法最早由SeyedaliMirjalil
- 基于WOA优化CNN-LSTM-Attention的回归或时序算法,包含多种CNN-LSTM算法进行对比|Matlab
机器不会学习CSJ
算法深度学习
01基于WOA优化CNN-LSTM-Attention的回归或时序算法,包含多种CNN-LSTM算法进行对比|Matlab基础知识:基于WOA-CNN-LSTM-Attention的数据回归算法是一种利用深度学习技术来进行数据回归分析的方法。它结合了WOA(WhaleOptimizationAlgorithm)、CNN(ConvolutionalNeuralNetwork)、LSTM(LongSh
- @(YES)和YES?@1:@0区别何在?
FourV
后台人员提供了一个网络请求接口,接口文档如下:接口文档.png使用字典将参数传递过来给后台,移动端提供的参数isAttention是BOOL类型,要转换成后台所需要的int类型;因为字典之中键值只能是对象类型,以往都是将int类型包装成NSNumber类型放在字典里进行传递,请求准确无误。方式一:{@"isAttention":@(isAttention)}方式二:[NSNumbernumberW
- 【Transformer】Transformer的简单了解:Positional Encoding、Self-attention、Batch 与 Layer Norm 等
magic_ll
transformer深度学习
自从2017年Transformer模型被提出以来,它已经从论文最初的机器翻译领域,转向语音,图像,视频等等方面的应用。最近的SegmentAnything论文提出,阅读论文其中大量的transformer的在图像方面的应用。所以这里还是加紧记录下transformer相关内容。transformer初了解PositionalEncoding(位置编码)Self-attention(自注意力机制)
- 【GRU回归预测】麻雀算法优化注意力机制卷积神经网络结合双向门控循环单元SSA-Attention-CNN-BiGRU数据预测(多输入多输出)【含Matlab源码 3905期】
Matlab领域
matlab
✅博主简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,Matlab项目合作可私信。个人主页:海神之光代码获取方式:海神之光Matlab王者学习之路—代码获取方式⛳️座右铭:行百里者,半于九十。更多Matlab仿真内容点击Matlab图像处理(进阶版)路径规划(Matlab)神经网络预测与分类(Matlab)优化求解(Matlab)语音处理(Matlab)信号处理(Matlab)车间调度
- 从时间序列中提取特征的几种方法
千行百行
论文学习时间序列shapelet
文章目录方法概述可能有用的轮子Referenceseealso方法概述形状特征:DTW、shapelets、CNN时间依赖特征:循环神经网络(LSTM、GRU)、反馈网络序列变换特征:自动编码、seq2seq变换可能有用的轮子shaplets-python:https://github.com/mohaseeb/shaplets-pythonsktime:https://www.sktime.or
- 多维时序 | Matlab实现LSTM-Mutilhead-Attention长短期记忆神经网络融合多头注意力机制多变量时间序列预测模型
机器学习之心
时序预测LSTMMutilheadAttention长短期记忆神经网络融合多头注意力机制多变量时间序列预测
多维时序|Matlab实现LSTM-Mutilhead-Attention长短期记忆神经网络融合多头注意力机制多变量时间序列预测模型目录多维时序|Matlab实现LSTM-Mutilhead-Attention长短期记忆神经网络融合多头注意力机制多变量时间序列预测模型预测效果基本介绍程序设计参考资料预测效果基本介绍1.Matlab实现LSTM-Mutilhead-Attention长短期记忆神经网
- 【深入理解Attention】Transformer的理解和代码实现
量子-Alex
CV知识学习和论文阅读transformer深度学习人工智能
1Self-attention自注意力机制1.1QKV的理解attention和推荐算法有类似之处我们在电商购物平台上输入查询query,然后平台返回商品列表系统会根据query去查找所有相似度高的商品,商品自带的标签就是key,query与key相乘就得到相似度然后根据客户的评价给所有商品打分,得到value,评价高的value就高。用户喜不喜欢、评价高不高、销量高不高就是value最后,把相似
- transformer-Attention is All You Need(一)
liaolaa
transformer深度学习人工智能自然语言处理
1.为什么需要transformer循环模型通常沿输入和输出序列的符号位置进行因子计算。通过在计算期间将位置与步骤对齐,它们根据前一步的隐藏状态和输入产生位置的隐藏状态序列。这种固有的顺序特性阻止了训练样本内的并行化,这在较长的序列长度上变得至关重要,因为有限的内存限制了样本的批处理大小。相较于seq2seq结构每个时间步的输出需要依赖于前面时间步的输出,这使得模型没有办法并行,效率低,面临对齐问
- [模型学习]Transformer机制及其过程
Amigo_5610
学习
Transformer的基本结构Transformer模型结构与seq2seq模型类似,Transformer是一种编码器-解码器结构的模型Transformer的过程——编码器(Encoder)Encoder步骤1对于encoder,第一步是将所有的输入词语进行Embedding,然后将其与维度相同的位置向量组合(相加)Encoder步骤2在第二步中,将第一步得到的向量通过self-attent
- transformer-Attention is All You Need(二)
liaolaa
transformer深度学习人工智能
transformer中的解码器解码器层每个解码器层根据给定的输入向目标方向进行特征提取,即完成解码过程transformer的解码器也是一个自回归模型,根据编码器的结果以及上一次预测的结果,对下一次可能出现的值进行特征表示。它也是由N层完全相同解码器层堆叠起来的,每个解码器层包括三个子层连接结构:1.第一个子层连接结构是一个多头注意力子层和一个规范化层和残差连接的组合;2.第二个子层连接结构是一
- DIN(Deep Interest Network):核心思想+源码阅读注释
小新0077
深度学习推荐系统python
论文地址:https://arxiv.org/abs/1706.06978DIN是近年来较为有代表性的一篇广告推荐CTR预估的文章,其中使用的attention机制也为使用序列特征提供了新的思路。本文分析了DIN的核心思想。鉴于DIN源代码的变量命名过于随意,难以理解,这里也提供了部分源代码的注释,仅供参考。论文分析核心思想:用户的兴趣是多元化的(diversity),并且对于特定的广告,用户不同
- 基于seq2seq的SKchat语言模型
eric-sjq
语言模型人工智能自然语言处理
SKchat语言模型是由小思框架开放的中文语言模型,基于seq2seq以及word2vec。v3模型的对话功能界面~在代码方面,我们优化了seq2seq算法,降低了内存的占用,并构建了新的模型。whileTrue:model.fit([x_encoder,x_decoder],y,batchsize,1,verbose=1,)"""解码模型"""decoder_h_input=Input(shap
- NLP_自然语言处理项目(2):seq2seq_attention_机器翻译(基于PyTorch)
@硬train一发
NLP自然语言处理机器翻译pytorch
1、seq2seq_attention_机器翻译seq2seq_attention是一种基于神经网络的机器翻译模型,它通过编码器和解码器两个部分实现翻译功能。编码器将源语言句子转换为一个固定长度的向量表示,解码器则将这个向量作为输入,生成目标语言句子的翻译结果。在seq2seq_attention中,编码器和解码器都是由循环神经网络(RNN)组成的。编码器将源语言句子中的每个单词依次输入RNN,每
- 【自然语言处理】seq2seq模型—机器翻译
X.AI666
自然语言处理自然语言处理机器翻译人工智能
清华大学驭风计划课程链接学堂在线-精品在线课程学习平台(xuetangx.com)代码和报告均为本人自己实现(实验满分),只展示主要任务实验结果,如果需要详细的实验报告或者代码可以私聊博主有任何疑问或者问题,也欢迎私信博主,大家可以相互讨论交流哟~~案例简介seq2seq是神经机器翻译的主流框架,如今的商用机器翻译系统大多都基于其构建,在本案例中,我们将使用由NIST提供的中英文本数据训练一个简单
- OLMo论文里的模型结构的小白解析
瓶子好亮
10天学完OLMo语言模型
模型参数量以7B为例,隐藏层为4086,attentionheads为32训练的token量为2.46T训练策略超参数在我们的硬件上优化训练吞吐量,同时最小化损失峰值和缓慢发散的风险来选择超参数损失峰值:在机器学习中,"损失峰值"通常指的是训练过程中损失函数的值突然增加到非常高的水平。这可能是由于各种原因引起的,包括但不限于超参数设置不当、模型架构问题、训练数据问题等。损失峰值的出现可能表明训练过
- PagedAttention: from interface to kernal
简vae
软硬件结合PIMforAItransformergpu算力
1OverviewPagedAttention灵感来自于操作系统中虚拟内存和分页的经典思想,它可以允许在非连续空间立存储连续的KV张量。具体来说,PagedAttention把每个序列的KV缓存进行了分块,每个块包含固定长度的token,而在计算attention时可以高效地找到并获取那些块。2Blockmanagement相比于RaggedAttention,PagedAttention其实就是
- scala的option和some
矮蛋蛋
编程scala
原文地址:
http://blog.sina.com.cn/s/blog_68af3f090100qkt8.html
对于学习 Scala 的 Java™ 开发人员来说,对象是一个比较自然、简单的入口点。在 本系列 前几期文章中,我介绍了 Scala 中一些面向对象的编程方法,这些方法实际上与 Java 编程的区别不是很大。我还向您展示了 Scala 如何重新应用传统的面向对象概念,找到其缺点
- NullPointerException
Cb123456
androidBaseAdapter
java.lang.NullPointerException: Attempt to invoke virtual method 'int android.view.View.getImportantForAccessibility()' on a null object reference
出现以上异常.然后就在baidu上
- PHP使用文件和目录
天子之骄
php文件和目录读取和写入php验证文件php锁定文件
PHP使用文件和目录
1.使用include()包含文件
(1):使用include()从一个被包含文档返回一个值
(2):在控制结构中使用include()
include_once()函数需要一个包含文件的路径,此外,第一次调用它的情况和include()一样,如果在脚本执行中再次对同一个文件调用,那么这个文件不会再次包含。
在php.ini文件中设置
- SQL SELECT DISTINCT 语句
何必如此
sql
SELECT DISTINCT 语句用于返回唯一不同的值。
SQL SELECT DISTINCT 语句
在表中,一个列可能会包含多个重复值,有时您也许希望仅仅列出不同(distinct)的值。
DISTINCT 关键词用于返回唯一不同的值。
SQL SELECT DISTINCT 语法
SELECT DISTINCT column_name,column_name
F
- java冒泡排序
3213213333332132
java冒泡排序
package com.algorithm;
/**
* @Description 冒泡
* @author FuJianyong
* 2015-1-22上午09:58:39
*/
public class MaoPao {
public static void main(String[] args) {
int[] mao = {17,50,26,18,9,10
- struts2.18 +json,struts2-json-plugin-2.1.8.1.jar配置及问题!
7454103
DAOspringAjaxjsonqq
struts2.18 出来有段时间了! (貌似是 稳定版)
闲时研究下下! 貌似 sruts2 搭配 json 做 ajax 很吃香!
实践了下下! 不当之处请绕过! 呵呵
网上一大堆 struts2+json 不过大多的json 插件 都是 jsonplugin.34.jar
strut
- struts2 数据标签说明
darkranger
jspbeanstrutsservletScheme
数据标签主要用于提供各种数据访问相关的功能,包括显示一个Action里的属性,以及生成国际化输出等功能
数据标签主要包括:
action :该标签用于在JSP页面中直接调用一个Action,通过指定executeResult参数,还可将该Action的处理结果包含到本页面来。
bean :该标签用于创建一个javabean实例。如果指定了id属性,则可以将创建的javabean实例放入Sta
- 链表.简单的链表节点构建
aijuans
编程技巧
/*编程环境WIN-TC*/ #include "stdio.h" #include "conio.h"
#define NODE(name, key_word, help) \ Node name[1]={{NULL, NULL, NULL, key_word, help}}
typedef struct node { &nbs
- tomcat下jndi的三种配置方式
avords
tomcat
jndi(Java Naming and Directory Interface,Java命名和目录接口)是一组在Java应用中访问命名和目录服务的API。命名服务将名称和对象联系起来,使得我们可以用名称
访问对象。目录服务是一种命名服务,在这种服务里,对象不但有名称,还有属性。
tomcat配置
- 关于敏捷的一些想法
houxinyou
敏捷
从网上看到这样一句话:“敏捷开发的最重要目标就是:满足用户多变的需求,说白了就是最大程度的让客户满意。”
感觉表达的不太清楚。
感觉容易被人误解的地方主要在“用户多变的需求”上。
第一种多变,实际上就是没有从根本上了解了用户的需求。用户的需求实际是稳定的,只是比较多,也比较混乱,用户一般只能了解自己的那一小部分,所以没有用户能清楚的表达出整体需求。而由于各种条件的,用户表达自己那一部分时也有
- 富养还是穷养,决定孩子的一生
bijian1013
教育人生
是什么决定孩子未来物质能否丰盛?为什么说寒门很难出贵子,三代才能出贵族?真的是父母必须有钱,才能大概率保证孩子未来富有吗?-----作者:@李雪爱与自由
事实并非由物质决定,而是由心灵决定。一朋友富有而且修养气质很好,兄弟姐妹也都如此。她的童年时代,物质上大家都很贫乏,但妈妈总是保持生活中的美感,时不时给孩子们带回一些美好小玩意,从来不对孩子传递生活艰辛、金钱来之不易、要懂得珍惜
- oracle 日期时间格式转化
征客丶
oracle
oracle 系统时间有 SYSDATE 与 SYSTIMESTAMP;
SYSDATE:不支持毫秒,取的是系统时间;
SYSTIMESTAMP:支持毫秒,日期,时间是给时区转换的,秒和毫秒是取的系统的。
日期转字符窜:
一、不取毫秒:
TO_CHAR(SYSDATE, 'YYYY-MM-DD HH24:MI:SS')
简要说明,
YYYY 年
MM 月
- 【Scala六】分析Spark源代码总结的Scala语法四
bit1129
scala
1. apply语法
FileShuffleBlockManager中定义的类ShuffleFileGroup,定义:
private class ShuffleFileGroup(val shuffleId: Int, val fileId: Int, val files: Array[File]) {
...
def apply(bucketId
- Erlang中有意思的bug
bookjovi
erlang
代码中常有一些很搞笑的bug,如下面的一行代码被调用两次(Erlang beam)
commit f667e4a47b07b07ed035073b94d699ff5fe0ba9b
Author: Jovi Zhang <
[email protected]>
Date: Fri Dec 2 16:19:22 2011 +0100
erts:
- 移位打印10进制数转16进制-2008-08-18
ljy325
java基础
/**
* Description 移位打印10进制的16进制形式
* Creation Date 15-08-2008 9:00
* @author 卢俊宇
* @version 1.0
*
*/
public class PrintHex {
// 备选字符
static final char di
- 读《研磨设计模式》-代码笔记-组合模式
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.util.ArrayList;
import java.util.List;
abstract class Component {
public abstract void printStruct(Str
- 利用cmd命令将.class文件打包成jar
chenyu19891124
cmdjar
cmd命令打jar是如下实现:
在运行里输入cmd,利用cmd命令进入到本地的工作盘符。(如我的是D盘下的文件有此路径 D:\workspace\prpall\WEB-INF\classes)
现在是想把D:\workspace\prpall\WEB-INF\classes路径下所有的文件打包成prpall.jar。然后继续如下操作:
cd D: 回车
cd workspace/prpal
- [原创]JWFD v0.96 工作流系统二次开发包 for Eclipse 简要说明
comsci
eclipse设计模式算法工作swing
JWFD v0.96 工作流系统二次开发包 for Eclipse 简要说明
&nb
- SecureCRT右键粘贴的设置
daizj
secureCRT右键粘贴
一般都习惯鼠标右键自动粘贴的功能,对于SecureCRT6.7.5 ,这个功能也已经是默认配置了。
老版本的SecureCRT其实也有这个功能,只是不是默认设置,很多人不知道罢了。
菜单:
Options->Global Options ...->Terminal
右边有个Mouse的选项块。
Copy on Select
Paste on Right/Middle
- Linux 软链接和硬链接
dongwei_6688
linux
1.Linux链接概念Linux链接分两种,一种被称为硬链接(Hard Link),另一种被称为符号链接(Symbolic Link)。默认情况下,ln命令产生硬链接。
【硬连接】硬连接指通过索引节点来进行连接。在Linux的文件系统中,保存在磁盘分区中的文件不管是什么类型都给它分配一个编号,称为索引节点号(Inode Index)。在Linux中,多个文件名指向同一索引节点是存在的。一般这种连
- DIV底部自适应
dcj3sjt126com
JavaScript
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml&q
- Centos6.5使用yum安装mysql——快速上手必备
dcj3sjt126com
mysql
第1步、yum安装mysql
[root@stonex ~]# yum -y install mysql-server
安装结果:
Installed:
mysql-server.x86_64 0:5.1.73-3.el6_5 &nb
- 如何调试JDK源码
frank1234
jdk
相信各位小伙伴们跟我一样,想通过JDK源码来学习Java,比如collections包,java.util.concurrent包。
可惜的是sun提供的jdk并不能查看运行中的局部变量,需要重新编译一下rt.jar。
下面是编译jdk的具体步骤:
1.把C:\java\jdk1.6.0_26\sr
- Maximal Rectangle
hcx2013
max
Given a 2D binary matrix filled with 0's and 1's, find the largest rectangle containing all ones and return its area.
public class Solution {
public int maximalRectangle(char[][] matrix)
- Spring MVC测试框架详解——服务端测试
jinnianshilongnian
spring mvc test
随着RESTful Web Service的流行,测试对外的Service是否满足期望也变的必要的。从Spring 3.2开始Spring了Spring Web测试框架,如果版本低于3.2,请使用spring-test-mvc项目(合并到spring3.2中了)。
Spring MVC测试框架提供了对服务器端和客户端(基于RestTemplate的客户端)提供了支持。
&nbs
- Linux64位操作系统(CentOS6.6)上如何编译hadoop2.4.0
liyong0802
hadoop
一、准备编译软件
1.在官网下载jdk1.7、maven3.2.1、ant1.9.4,解压设置好环境变量就可以用。
环境变量设置如下:
(1)执行vim /etc/profile
(2)在文件尾部加入:
export JAVA_HOME=/home/spark/jdk1.7
export MAVEN_HOME=/ho
- StatusBar 字体白色
pangyulei
status
[[UIApplication sharedApplication] setStatusBarStyle:UIStatusBarStyleLightContent];
/*you'll also need to set UIViewControllerBasedStatusBarAppearance to NO in the plist file if you use this method
- 如何分析Java虚拟机死锁
sesame
javathreadoracle虚拟机jdbc
英文资料:
Thread Dump and Concurrency Locks
Thread dumps are very useful for diagnosing synchronization related problems such as deadlocks on object monitors. Ctrl-\ on Solaris/Linux or Ctrl-B
- 位运算简介及实用技巧(一):基础篇
tw_wangzhengquan
位运算
http://www.matrix67.com/blog/archives/263
去年年底写的关于位运算的日志是这个Blog里少数大受欢迎的文章之一,很多人都希望我能不断完善那篇文章。后来我看到了不少其它的资料,学习到了更多关于位运算的知识,有了重新整理位运算技巧的想法。从今天起我就开始写这一系列位运算讲解文章,与其说是原来那篇文章的follow-up,不如说是一个r
- jsearch的索引文件结构
yangshangchuan
搜索引擎jsearch全文检索信息检索word分词
jsearch是一个高性能的全文检索工具包,基于倒排索引,基于java8,类似于lucene,但更轻量级。
jsearch的索引文件结构定义如下:
1、一个词的索引由=分割的三部分组成: 第一部分是词 第二部分是这个词在多少